Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen

ChatGPT та Bing-КІ як гарантію помилкових результатів. Даніприязність та даніправдоподібність?

0
Dr. DSGVO Newsletter detected: Extended functionality available
More articles · Website-Checks · Live Offline-AI
📄 Стаття у форматі PDF (тільки для передплатників новин)
🔒 Premium-Funktion
Der aktuelle Beitrag kann in PDF-Form angesehen und heruntergeladen werden

📊 Download freischalten
Der Download ist nur für Abonnenten des Dr. DSGVO-Newsletters möglich

Ви багато хто вважають за необхідне використовувати цей чат-бот для всього і кожного після того, як він здивував людство своїми несподіваними результатами. Що здається безпринциповим у приватному житті, призводить до проблем у бізнесі, які швидко можуть стати судовими справами.

Вступ

Останнім часом німецька компанія оголосила про те, що вона пропонує рішення на основі штучного інтелекту для інтерпретації юридичних текстів. Причиною цього став матеріал на сайті Dr. GDPR щодо Кращої інтелекту для аналізу юридичних текстів.

Використання КІ компанії ще знаходиться в стадії бета-тестування. Підозра полягає в тому, що швидко створено прототип для дослідження ринку подібних застосунків. У жодному місці не згадано, який мовний модель використовується у тлі. Дослідження вказують на те, що це може бути ChatGPT.

Цей матеріал створений разом із виступом від 05.09.2023 на IT Клубі Маєнца та Рейнгессена у Гутенберзькому цифровому центрі міста Майнц.

Дивіться нижче для враження.

Відповіді системи КІ були добрими, але не світовідчузькими. На правові питання надавалися досить правдоподібні відповіді разом із джерелами. Відповіді б було недостатньо, щоб вирішити юридичний суперечливий випадок на власний розсуд. Вірогідно навіть результати призвели б прямо до поразки.

Виявлено, що ChatGPT-3 використовувався в застосуванні компанії з Німеччини щодо штучного інтелекту, коли було звернуто до цього чатбота із запитанням на цю інформацію. Відповідь штучного інтелекту була: «Так, я ґрунтуюсь на моделі під назвою GPT-3, розробленій OpenAI. […].»

Що таке такий проблемний ChatGPT? Виняток міг би бути зроблений і для Microsoft Copilot. Один простий тест показує, що Copilot сам не може виконувати навіть найпростіші завдання.

Хвилювання

Чат-боти звичайно використовують вбудовану базу знань. Наприклад, приклад застосування німецької компанії, яка, здається, використовує ChatGPT у тлі:

Неправильна відповідь чат-бота, заснованого на ChatGPT. (зображення було перекладено автоматично).

Чатбот не знає судового рішення, яке існує та ідентифіковане за допомогою чіткого ідентифікатора і тому (для юриста) однозначно ідентифіковане. Чатбот повинен був повідомити користувачеві про межі можливостей свого функціонування замість того, щоб стверджувати, що таке рішення не існує.

Аби використовувати ChatGPT, достатньо лише використовувати інтерфейс OpenAI (API). Поки використання цієї API таке просте, багато хто вважає себе за гідних цього зробити. Звідси починається біль, як можна побачити на прикладі.

Так просто можна використовувати ChatGPT із власного програми (Увага: усі дані потрапляють до OpenAI/ChatGPT, лише цей код програми залишається місцевим у програмістів):

import openai
openai.api\_key = "XYZ" #Ihr kostenpflichtiger OpenAI API-Schlüssel
completion = openai.ChatCompletion()
def frage\_chatgpt(frage):
chat\_log = \[{
'role': 'system',
'content': 'Du bist ein hilfreicher Assistent',
}\]
chat\_log.append({'role': 'user', 'content': frage})
response = completion.create(model='gpt-3.5-turbo', messages=chat\_log)
antwort= response.choices\[0\]\['message'\]\['content'\]
return antwort
print(frage\_chatgpt("Was ist die Antwort auf alle Fragen?"))
Aufruf der OpenAI API für ChatGPT, um für eine Frage eine Antwort von ChatGPT zu erhalten.

Це можна зробити будь-ким. У будь-якому випадку такий код так багато людей, які не програмують, можуть створити і виконати, як ті, хто не є фахівцями з КФР та змінять шин на своєму автомобілі. Як вказано в коді, після перевищення певного тестового континґенту за кожний виклик цей процес починає коштувати грошей. Час відповіді міг бути ще швидшим (це вже досить високий рівень скарг для зниження ілюзії деяких щодо можливостей ChatGPT).

Інше приклад фальшивої заяви, яку створює ChatGPT:

Неправильна відповідь від чатбота, який базується на ChatGPT. (зображення було перекладено автоматично).

Моя висновок, який також може потрапити до своєї власної КІ, але не в чатГПТ: Кукі не є текстовими файлами, а саме – наборами даних. ЧатГПТ, отже, буде відповідати завжди неправильно.

Зустрічається знову: ChatGPT – це дуже добре розвинуте мовне моделювання, яке свого роду не має собі рівних.

Наприроджено, ChatGPT заснована на мільйонах або мільярдах документів, тому в штучний мозок потрапляє занадто багато неточної загальної інформації та занадто мало точного спеціалізованого знання.

Пошук Bing від Microsoft також керується AI. Microsoft недавно фінансово співпрацювала з OpenAI, щоб скористатися гіпсом ChatGPT. У більшості випадків, коли на досить просту формулювання запитання пошуковий механізм Bing використовує AI, результати швидко стають помилковими або навіть дивакуватими. Натомість, якщо Bing здійснює звичайний пошук, результати часто потрапляють у позитивну зону очікування. Найкращим чином вдається досягти успіху тоді, коли здійснюється звичайний пошук. Основна різниця полягає в тому, що відповіді із результатів пошуку цитуються, але не абстрагуються, тобто передані власними словами AI, а не відображені у власних словах.

Виступ із імпульсною лекцією на засіданні IT Клубу Маєнца 6 Рейн-Гессен 05.09.2023 року в Gutenberg Digital Hub у місті Майнці. (зображення було перекладено автоматично).

Лише справжня, посилена відповідь замість однієї власних слів.

Краща розв'язка

Більш ефективне рішення часто дає правильні відповіді та дозволяє користувачеві спробувати розпізнати можливо неправильні або помилкові відповіді, щоб вони могли бути критично оцінені. Чи може відповідь бути помилковою чи не зовсім точною, можна добре встановити за допомогою власної компанії КІ, дуже відрізняючись від використання чорної коробки під назвою ChatGPT.

Використання внутрішніх систем КІ відбувається тоді, коли потрібні точні відповіді або коли часто потрібно шукати власні документи. ChatGPT у цьому випадку провалюється або є надто дорогим, оскільки OpenAI рахує користування за об'ємом використання.

Автоматизація, перевірка та оптимізація – це властивості, які головним чином надаються внутрішньокорпоративними системами AI, а не чорні коробки, як ChatGPT.

Залежати від інших не виглядає зовсім як найкраща стратегія. Ми добре знаємо це за останні роки. Як приклади можна згадати системи та платформи Google, Microsoft, Meta або Apple.

Данісправність, яка згадується в назві статті: Обов'язок зберігати та обробляти особисті дані з точністю виникає згідно із статті 18, абз. 1 ДЗП. Якщо вірогідність таких даних суперечлива або їх обробка не легітимована чи більше не є такою, особа, яка стосується цих даних, може вимагати обмеження обробки даних.

Але навіть для даних, які не мають стосунку до осіб, їхня вірність часто є фундаментальною. Якщо адвокат взяв відповідь чат-бота в свій процесуальний документ, краще б було, якщо там написане вірне і витримує перевірку.

Також при дослідницькій роботі або в патентних документах боляче було б, якщо помилкові вказівки чи помилкові висновки потрапляють у роботу. Правово ризиковим є також передавання критичних даних третім особам. Критичні дані можуть бути ті, які наприклад

  • Секретно
  • Власницьке право захищено
  • особистісний або
  • Конфіденційно

Синд.

Вивчити фактичні знання

Виправлення надійності оброблювальної мови КІ значно покращується шляхом експліцитного введення важливих фактів у електронний мозок. Це часто називають Grounding. Microsoft, згідно з повідомленнями, використовує цю техніку для своєї пошукової системи Bing, але вона не працює, як показують численні приклади. Правильно виконаний Grounding допомагає ліквідувати поширені помилкові інформацію.

Після того, як власна КІ була приведена до ладу, вона також надає кращі відповіді ніж ChatGPT, саме щодо знань, яке є актуальним. Хто був Гете, не має бути відомим нашій власній системі КІ. Цей непотрібний додатковий вміст тільки заважає моделюванню КІ та призводить до помилкових висновків, принаймні до зниження ефективності („КІ більше бачить ліс перед тим, як дерева“) або повільнішої роботи.

Наприклад, такий приклад відповіді, яка була згенерована з бази знань Dr. GDPR та значно краще (та головне – вірно) ніж результати Microsoft Bing та ChatGPT:

Відповідь автономного Доктора GDPR КІ-Системів на питання «Що таке куки?». (зображення було перекладено автоматично).

Доступне підприємницьке знання відрізняється тим, що воно здебільшого відносно просте, існує у вигляді документів та їх заяви вважаються априорі правдивими (або більш правдивими за зовнішні джерела). Власна пошукова система AI для підприємства має кілька переваг.

Перше, власна підприємницька КІ автаркічна і не залежить від інших осіб. Питання щодо проведення оцінки наслідків захисту даних майже або зовсім не виникає. Секретні чи конфіденційні дані добре захищені в своїх системах.

Загалом дві речі можна зробити з автаркічною бізнес-КІ. Перше – вона може бути підлаштована під власні потреби підприємства. Якщо ви переглядаєте приклад програми вище, можуть виникнути такі спостереження:

  1. З допомогою Пайтона можна створити системи штучного інтелекту за декілька рядків коду.
  2. Комплексність знаходиться не в програмі, а в моделі КІ, яка повинна бути створена лише один раз.
  3. Маленький крок достатньо, щоб багато змінилося.

Економічні застосування з значним додатковим вартістю такі можливі. Власні системи КІ навіть часто костовіші ніж використання інтерфейсу ChatGPT, окрім згаданих недоліків при використанні зовнішнього системи.

Результат

Кібернетична інтелект часто переоцінюється або неправильно оцінюється багатьма, ймовірно, через справедливу захопленість новими можливостями. Загальні інтелекту, такі як ChatGPT, дуже добре підходять саме для цього: відповісти на загальні запитання без жодного претензії щодо надійності або навіть точності. Це вже досить помітно в інтерфейсі користувача таких систем, який не містить жодних вказівок того, що результати повинні бути обережно перевірені чи навіть може містити помилкову відповідь.

Невелика кількість рядків програми вже достатньо для створення помилкової виходу за допомогою 100 мільярдів штучних нейронів. Немало додаткового коду допоможе отримати вірні відповіді власним системам.

Підприємства, які хочуть використовувати КІ, повинні спочатку розібратися в питанні: для чого саме буде використовуватися ця КІ? Якщо цього питання не можна відповісти, тоді, швидше за все, одне з двох. Either це підприємство не потребує системи КІ або воно ще не знає, чому її використовувати.

Приватне використання ChatGPT та подібних систем досить цікаве, але цілком інше ніж використання чатботів чи КІ-систем у компанії загалом.

Якщо підприємство має проблему, яка можна вирішити за допомогою штучного інтелекту, тоді варто перевірити, чи ця проблема може бути вирішена власним системою компанії з використанням штучного інтелекту.

About the author on dr-dsgvo.de
My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.

Кібернетична інтелект: Гіп і переоцінка чи відповідні очікування?