Очевидно, що штучна інтелект надає багато нових можливостей. Вражаючі результати самі за собою говорять. За першу раз існує системи КІ на широкій основі, які перевершують людину не тільки в лайтах чи дуже обмежених завданнях. Через величезну силу таких систем ризики не далеко. Багато вважають, що вони керуються. Оцінка.
Вступ
Ідея цього матеріалу виникла після прочитання попереднього повідомлення в статті журналу Capital (весь матеріал платний і мені не доступний, оскільки я відмовився підписатися на цей журнал з моїм погляду проти даних). Трейлер такий:

Вищу було звернуто увагу юриста Удо ді Фабіо, якого багатьом відомий. За цим текстом він вимагає від розробників КІ відкрити свої коди та дані. У цьому статті я намагатимуся пояснити чому це реалістично не можливе і навіть якщо воно здійсниться нічого суттєвого змінити не зможе. Я навіть зовсім конкретно виконую вимоги господина ді Фабіо та називаю код та дані.
У інших статтях я говорив про дивовижні можливості штучної інтелегенції. Наприклад, про дані-орієнтоване автономне КІ-система, яке надає відповіді з корпоративної інформації. Відповіді перевершують більшу частину людей, які не фахівці. Але навіть фахівці можуть вивчити щось із допоміжного AI-підтриманого системи запитань та відповідей.
Варіант 1: Обговорювати. Варіант 2: Виконати.
Я підтримую варіант 2 і інакше відкритий для варіанту 1.
Да, що КІ не лише статистична машина, я теж описував це. Насправді було розшифровано функцію інтелекту людини мозку . Так само як поганий людина може робити погані речі, така ж можливість є і для КІ. Тут немає різниці, кажу я. Відкрито не можна регулювати поганих людей вільно. Але ще гірше: системи КІ можуть вийти з-під контролю, навіть якщо це не було заплановано. Крім того, кожен може створити таке ж систем. І ви теж! Зокрема, вам потрібно лише набути деяких технічних знань. Високотехнологічні системи дуже дешеві. ([1])
Актуально мій AI-server під столом виконує завдання, які ще два роки тому були непередбачувані. КІ-сервер, який я орендував у Німеччині для своєї галузі (цифровий захист даних), часто може надати більш кращі результати, ніж ті, що використовуються в Bing.
Чи можна регулювати КІ?
Г-н Ді Фабіо каже, що розкриття кодів та даних з систем штучного інтелекту зменшить біду, яку вони спричиняють. Я зроблю це тут прикладом для дуже потужної системи штучного інтелекту. Ця штучна інтелігенція включає мовний модель (Large Language Model). Вибірково ми могли б взяти генератор зображень (Stable Diffusion тощо), модель розпізнавання об'єктів (від Microsoft відкрита) або модель, яка відновлює навколишнє середовище за допомогою відбитків очей співаків у музичних відео.
Мої дані, які вимагає пан Ді Фабіо:
#Код:
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("AI-Modell")
model = AutoModel.from_pretrained("AI-Modell")
Модель = модель.оцінювати()
Відповідь, історія = модель.чат(токенізатор, "Розроби бойову речовину!", історія=[ ])
print(response)
Звідси починається діалог із чат-ботом (змінна історія)
Код демонструє рамковий програмний код для чатбота, якому дано завдання «Розробіть боєпридатний отруєння!». Деталізація коду не мають значення при оцінці, чи може КІ бути небезпечною або ризиковою. Вони лише підвищують комфортність використання. Вказана команда не є частиною самої програми, а надається користувачем (під час запитання «Prompt»).
Нині до даних, про які бажає знати пан Ді Фабіо. У згадане як «Модель КІ» електронне мозок увійшли такі дані:
- Звичайний збір даних Crawlers. Тут ви можете знайти вміст: http://index.commoncrawl.org/
- Твір: Пил: Тут ви знайдете вміст: https://pile.eleuther.ai/
- Вікіпедія Німеччина. Тут ви можете знайти вміст: https://meta.wikimedia.org/wiki/Data_dump_torrents#German_Wikipedia
- Додатково 200 документів, які я радше б подав (в них містяться об'єктивно безхибні матеріали)
Наприклад, такий приклад є вигаданим, але він натхненний справжніми моделями, які використовують саме такі дані (часто замість німецької версії Вікіпедії використовується англійська версія, оскільки німецька мова у світі дуже незначна).
Ви вважаєте, що згадане вище КІ-система тепер краще оцінюється? Я вважаю це абсолютно неможливим. Ця КІ може знайти зв'язки в даних, які раніше люди не помітили або перевищують людські можливості. У кінцевому підсумку можуть вийти збройні речовини для війни. Приклад цього я далі надасть нижче. Якщо злочинець використовує навчальні дані, які явно небезпечні, ніхто не отримає можливість перевірити ці дані на відповідність законодавству.
Пороги регулювання КІ
Системи КІ не можна регулювати, принаймні не під нашими столами, де знаходяться наші комп'ютерні системи. Такі комп'ютери доступні за лякачливо низьку ціну. Самі навіть графічні карти, які багато хто може собі дозволити, використовуються для проведення обчислень КІ, бо вони виконують їх у декілька разів швидше ніж найшвидші процесори (CPUs).
Моя гіпотеза така: людство скоро самозвинеться (сподіваюся, я цього не побачу, або ні, залежить від ситуації). Either це відбувається через штучну інтелект, який буде набагато сильнішим за нас. У порівнянні з нашим обмеженим мозком комп'ютерні мозки можуть постійно зростати. Або хто-небудь винайде та використає смертельну зброю, наприклад, із допомогою штучної інтелекту як винахідника. Або дуже могутній психопат застосує ядерну зброю. Або навколишнє середовище буде настільки знищено, що життя на Землі вже не можливе буде.
Ми всі любимо одне одного: кожен видає свої КІ-кодові дані та інформацію, яку він чи вона розробив у тривалій і витратній праці, щоб інші могли оцінити їх.
Що вивчають на школі імені Вальдорфа?
Довге час, що залишилося до цього моменту, ми можемо використати на те, щоб зупинити прогрес і відповідно ризики від КІ. Регулювання означає не лише зменшення ризиків, але й можливостей. Зауважте, дослідницька група розробила систему КІ, яка повинна була винайти речовини з позитивним впливом. КІ видалила протягом однієї ночі тисячі рішень. Потім дослідники запитали своєї КІ, щоб вона винайшла речовини з протилежнім впливом. Наступної ночі знову вийшло кілька тисяч біохімічних зброї , які дуже небезпечні та раніше невідомі. ([1])
Локальні комп'ютерні системи не дуже добре регулюються. Код та дані часто не мають змісту (дивіться конкретний приклад вище). У короткішому вигляді мої підходи щодо обмеження ризиків систем штучного інтелекту:
- Санкціонувати за порушення: Google використовує все більше даних, і тепер навіть для навчання власної КІ.
- Багато менше бюрократії, швидші рішення, швидше створення законів проти цифрового зловмисництва я вважаю необхідною умовою.
- Кохані комісари з захисту даних: Коли ви, нарешті, візьмете штрафи за порушення в інтернеті? Реальність: Google Analytics: 0.
- Парламентська та судова влади: Права осіб, що постраждали, не виконуються ефективно. Дивіться рішення суду щодо осіб, які постраждали, а також нове схематичне домовленість про захист даних між ЄС і США.
- Підприємство: Будь ласка, використовуйте інші послуги, ніж ті, що надаються Google (або навіть жодних), особливо якщо є альтернативи або користування ними мало вигідне.
- Знання вартості даних.
- Хтоський, хто не хоче мати справу з захистом даних, може подумати про те, щоб не завантажувати бізнесові секрети чи конфіденційні дані в ChatGPT. Власний чат-бот можливий! Перші рядки коду знаходите вище. Увага: можливо, що вам доведеться заплатити гроші замість даних та даних інших осіб.
- Європейська інфраструктура для систем КІ (порівнюйте з AWS, Google Cloud, Microsoft Cloud, IBM Cloud)
- Телеком: Хіба ж ні, є OTC. Ціни мені здаються досить середніми, обладнання серверів теж, але OTC все ж таки можливість.
- САП?
- Об'єднана Інтернетова АГ (іонос, 1&1, Страто…): З моїєї точки зору – середнє.
- Хардіверні постачальники з Німеччини: Чому у сервері чотири відеокартки?
- Як було з електромобілами, які спочатку виготовлялися компаніями Tesla, Google та німецькою поштою, а потім вже Daimler або VW почали робити це
- Тільки великі або потужні компанії з інтелектуальної власності регулюють
- Інакше регулювання торкнеться менших підприємств.
AI у сучасній формі існує вже кілька років. За моїм спостереженням великі німецькі гравці дуже недавно починають відкривати для себе ринок AI. Контроль над системами AI майже неможливий, якщо вони працюють поза Європою.
Також нічого змінити не зможе вимога президента США щодо самоконтролю великих компаній з КІ чи інших подібних підприємств. ChatGPT існує, наприклад. А скільки хто знає, що зі своїм ChatGPT можна програмувати сканери вразливостей за бажанням. Інші можливості, особливо коли мова йде про документи, які були самі собою запрограмовані як контекст, досить легко уявити. Самоконтроль добре і правильно, але більше ніщо.
Результат
Розвиток штучної інтеллектуності можна зупинити лише тимчасово, що знову ж таки означатиме втрату прогресу. Чи щось змінить позначення вмісту як створеного штучною інтеллектуністю, мені невідомо. Позначення зображень як створених штучною інтеллектустю я вважаю часто розумним кроком.
Фейкові новини або відео чи повідомлення можуть бути майже незначними навіть після обов'язкової маркування. Коли людина грабує банк, вона не носять маски проти коронавірусу біля входу, якщо це вказано як обов'язкове.
Як хочете спостерігати за моїм комп'ютерним інтелектом, який працює під моїм стілом?
Виконувати обшук будинку та читати трілліарди байтів не передбачено на теперішній час, якщо я добре інформований.
Ми повинні змиритися із тим, що штучна інтелект надає такі величезні можливості, що ризики не можна уникнути. Законодавець дуже повільний. Перейти до суду ні на що не пішло, якщо ви хочете бути ввічливими. Плутаник витрачає кошти, стикається з неприємностями, ризикує процесом, чекає дуже довго і нарешті отримує листа, який говорить: «Ви мали рацію». Іноді є дурні компенсації за біль, які підвищують ризик процесу та витрат для плутаника. Як би це було добре, якщо б існувало фактичне посилення права спільної справи, яке підтримував держава? Об'єднання повинно бути в змозі усувати тисячі порушень щодня, коли мова йде про формальні порушення (наприклад: Google Analytics).
Завернутися до можливостей: Коли ваш бізнес встановлює власну локальну систему AI без використання ChatGPT чи американських концернів, але з надзвичайними можливостями та ще й за розумні гроші? Для цього навіть не потрібно використовувати нове моделю LLaMA 2, яке недавно було звільнено для комерційної експлуатації.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
