Ви багато хто вважають за необхідне використовувати цей чат-бот для всього і кожного після того, як він здивував людство своїми несподіваними результатами. Що здається безпринциповим у приватному житті, призводить до проблем у бізнесі, які швидко можуть стати судовими справами.
Вступ
Останнім часом німецька компанія оголосила про те, що вона пропонує рішення на основі штучного інтелекту для інтерпретації юридичних текстів. Причиною цього став матеріал на сайті Dr. GDPR щодо Кращої інтелекту для аналізу юридичних текстів.
Використання КІ компанії ще знаходиться в стадії бета-тестування. Підозра полягає в тому, що швидко створено прототип для дослідження ринку подібних застосунків. У жодному місці не згадано, який мовний модель використовується у тлі. Дослідження вказують на те, що це може бути ChatGPT.
Цей матеріал створений разом із виступом від 05.09.2023 на IT Клубі Маєнца та Рейнгессена у Гутенберзькому цифровому центрі міста Майнц.
Дивіться нижче для враження.
Відповіді системи КІ були добрими, але не світовідчузькими. На правові питання надавалися досить правдоподібні відповіді разом із джерелами. Відповіді б було недостатньо, щоб вирішити юридичний суперечливий випадок на власний розсуд. Вірогідно навіть результати призвели б прямо до поразки.
Виявлено, що ChatGPT-3 використовувався в застосуванні компанії з Німеччини щодо штучного інтелекту, коли було звернуто до цього чатбота із запитанням на цю інформацію. Відповідь штучного інтелекту була: «Так, я ґрунтуюсь на моделі під назвою GPT-3, розробленій OpenAI. […].»
Що таке такий проблемний ChatGPT? Виняток міг би бути зроблений і для Microsoft Copilot. Один простий тест показує, що Copilot сам не може виконувати навіть найпростіші завдання.
Хвилювання
Чат-боти звичайно використовують вбудовану базу знань. Наприклад, приклад застосування німецької компанії, яка, здається, використовує ChatGPT у тлі:

Чатбот не знає судового рішення, яке існує та ідентифіковане за допомогою чіткого ідентифікатора і тому (для юриста) однозначно ідентифіковане. Чатбот повинен був повідомити користувачеві про межі можливостей свого функціонування замість того, щоб стверджувати, що таке рішення не існує.
Аби використовувати ChatGPT, достатньо лише використовувати інтерфейс OpenAI (API). Поки використання цієї API таке просте, багато хто вважає себе за гідних цього зробити. Звідси починається біль, як можна побачити на прикладі.
Так просто можна використовувати ChatGPT із власного програми (Увага: усі дані потрапляють до OpenAI/ChatGPT, лише цей код програми залишається місцевим у програмістів):
import openai
openai.api\_key = "XYZ" #Ihr kostenpflichtiger OpenAI API-Schlüssel
completion = openai.ChatCompletion()
def frage\_chatgpt(frage):
chat\_log = \[{
'role': 'system',
'content': 'Du bist ein hilfreicher Assistent',
}\]
chat\_log.append({'role': 'user', 'content': frage})
response = completion.create(model='gpt-3.5-turbo', messages=chat\_log)
antwort= response.choices\[0\]\['message'\]\['content'\]
return antwort
print(frage\_chatgpt("Was ist die Antwort auf alle Fragen?"))
Aufruf der OpenAI API für ChatGPT, um für eine Frage eine Antwort von ChatGPT zu erhalten.
Це можна зробити будь-ким. У будь-якому випадку такий код так багато людей, які не програмують, можуть створити і виконати, як ті, хто не є фахівцями з КФР та змінять шин на своєму автомобілі. Як вказано в коді, після перевищення певного тестового континґенту за кожний виклик цей процес починає коштувати грошей. Час відповіді міг бути ще швидшим (це вже досить високий рівень скарг для зниження ілюзії деяких щодо можливостей ChatGPT).
Інше приклад фальшивої заяви, яку створює ChatGPT:

Моя висновок, який також може потрапити до своєї власної КІ, але не в чатГПТ: Кукі не є текстовими файлами, а саме – наборами даних. ЧатГПТ, отже, буде відповідати завжди неправильно.
Зустрічається знову: ChatGPT – це дуже добре розвинуте мовне моделювання, яке свого роду не має собі рівних.
Наприроджено, ChatGPT заснована на мільйонах або мільярдах документів, тому в штучний мозок потрапляє занадто багато неточної загальної інформації та занадто мало точного спеціалізованого знання.
Пошук Bing від Microsoft також керується AI. Microsoft недавно фінансово співпрацювала з OpenAI, щоб скористатися гіпсом ChatGPT. У більшості випадків, коли на досить просту формулювання запитання пошуковий механізм Bing використовує AI, результати швидко стають помилковими або навіть дивакуватими. Натомість, якщо Bing здійснює звичайний пошук, результати часто потрапляють у позитивну зону очікування. Найкращим чином вдається досягти успіху тоді, коли здійснюється звичайний пошук. Основна різниця полягає в тому, що відповіді із результатів пошуку цитуються, але не абстрагуються, тобто передані власними словами AI, а не відображені у власних словах.

Лише справжня, посилена відповідь замість однієї власних слів.
Краща розв'язка
Більш ефективне рішення часто дає правильні відповіді та дозволяє користувачеві спробувати розпізнати можливо неправильні або помилкові відповіді, щоб вони могли бути критично оцінені. Чи може відповідь бути помилковою чи не зовсім точною, можна добре встановити за допомогою власної компанії КІ, дуже відрізняючись від використання чорної коробки під назвою ChatGPT.
Використання внутрішніх систем КІ відбувається тоді, коли потрібні точні відповіді або коли часто потрібно шукати власні документи. ChatGPT у цьому випадку провалюється або є надто дорогим, оскільки OpenAI рахує користування за об'ємом використання.
Автоматизація, перевірка та оптимізація – це властивості, які головним чином надаються внутрішньокорпоративними системами AI, а не чорні коробки, як ChatGPT.
Залежати від інших не виглядає зовсім як найкраща стратегія. Ми добре знаємо це за останні роки. Як приклади можна згадати системи та платформи Google, Microsoft, Meta або Apple.
Данісправність, яка згадується в назві статті: Обов'язок зберігати та обробляти особисті дані з точністю виникає згідно із статті 18, абз. 1 ДЗП. Якщо вірогідність таких даних суперечлива або їх обробка не легітимована чи більше не є такою, особа, яка стосується цих даних, може вимагати обмеження обробки даних.
Але навіть для даних, які не мають стосунку до осіб, їхня вірність часто є фундаментальною. Якщо адвокат взяв відповідь чат-бота в свій процесуальний документ, краще б було, якщо там написане вірне і витримує перевірку.
Також при дослідницькій роботі або в патентних документах боляче було б, якщо помилкові вказівки чи помилкові висновки потрапляють у роботу. Правово ризиковим є також передавання критичних даних третім особам. Критичні дані можуть бути ті, які наприклад
- Секретно
- Власницьке право захищено
- особистісний або
- Конфіденційно
Синд.
Вивчити фактичні знання
Виправлення надійності оброблювальної мови КІ значно покращується шляхом експліцитного введення важливих фактів у електронний мозок. Це часто називають Grounding. Microsoft, згідно з повідомленнями, використовує цю техніку для своєї пошукової системи Bing, але вона не працює, як показують численні приклади. Правильно виконаний Grounding допомагає ліквідувати поширені помилкові інформацію.
Після того, як власна КІ була приведена до ладу, вона також надає кращі відповіді ніж ChatGPT, саме щодо знань, яке є актуальним. Хто був Гете, не має бути відомим нашій власній системі КІ. Цей непотрібний додатковий вміст тільки заважає моделюванню КІ та призводить до помилкових висновків, принаймні до зниження ефективності („КІ більше бачить ліс перед тим, як дерева“) або повільнішої роботи.
Наприклад, такий приклад відповіді, яка була згенерована з бази знань Dr. GDPR та значно краще (та головне – вірно) ніж результати Microsoft Bing та ChatGPT:

Доступне підприємницьке знання відрізняється тим, що воно здебільшого відносно просте, існує у вигляді документів та їх заяви вважаються априорі правдивими (або більш правдивими за зовнішні джерела). Власна пошукова система AI для підприємства має кілька переваг.
Перше, власна підприємницька КІ автаркічна і не залежить від інших осіб. Питання щодо проведення оцінки наслідків захисту даних майже або зовсім не виникає. Секретні чи конфіденційні дані добре захищені в своїх системах.
Загалом дві речі можна зробити з автаркічною бізнес-КІ. Перше – вона може бути підлаштована під власні потреби підприємства. Якщо ви переглядаєте приклад програми вище, можуть виникнути такі спостереження:
- З допомогою Пайтона можна створити системи штучного інтелекту за декілька рядків коду.
- Комплексність знаходиться не в програмі, а в моделі КІ, яка повинна бути створена лише один раз.
- Маленький крок достатньо, щоб багато змінилося.
Економічні застосування з значним додатковим вартістю такі можливі. Власні системи КІ навіть часто костовіші ніж використання інтерфейсу ChatGPT, окрім згаданих недоліків при використанні зовнішнього системи.
Результат
Кібернетична інтелект часто переоцінюється або неправильно оцінюється багатьма, ймовірно, через справедливу захопленість новими можливостями. Загальні інтелекту, такі як ChatGPT, дуже добре підходять саме для цього: відповісти на загальні запитання без жодного претензії щодо надійності або навіть точності. Це вже досить помітно в інтерфейсі користувача таких систем, який не містить жодних вказівок того, що результати повинні бути обережно перевірені чи навіть може містити помилкову відповідь.
Невелика кількість рядків програми вже достатньо для створення помилкової виходу за допомогою 100 мільярдів штучних нейронів. Немало додаткового коду допоможе отримати вірні відповіді власним системам.
Підприємства, які хочуть використовувати КІ, повинні спочатку розібратися в питанні: для чого саме буде використовуватися ця КІ? Якщо цього питання не можна відповісти, тоді, швидше за все, одне з двох. Either це підприємство не потребує системи КІ або воно ще не знає, чому її використовувати.
Приватне використання ChatGPT та подібних систем досить цікаве, але цілком інше ніж використання чатботів чи КІ-систем у компанії загалом.
Якщо підприємство має проблему, яка можна вирішити за допомогою штучного інтелекту, тоді варто перевірити, чи ця проблема може бути вирішена власним системою компанії з використанням штучного інтелекту.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
