КИ – це дуже актуальне питання, яке вже змінило наш щоденний спосіб життя та продовжуватиме суттєво змінювати його. Багато людей раптово стали експертами з КІ. Багато вимагають регулювання КІ. Багато спрощують КІ і кажуть, що моделі мови КІ не обробляють особистих даних. Нижче наведено короткий зміст, який має на меті роз'яснити помилкові уявлення.
Вступ
КИ перевалюється як униз, так і вгору. Більшість людей, навіть я сам, не розуміють можливостей, які пропонують системи КІ. Вчора знову побачив революційні підходи до КІ, яких ще два тижні тому ніхто не знав. Так відбувається зі мною як із людиною, яка дуже інтенсивно займається штучним інтелектом майже кожного дня.
Вільно багато хто вважає, що КІ – це Гіп, який вже знову зникне. Неправда! З допомогою підходу Трансформера у 2017 році було розшифровано інтелектуальну функцію людини, я кажу. Замість того щоб програмувати алгоритм для вирішення якоїсь проблеми, мені потрібно лише ще достатньо прикладів надавати своєму КІ-системі, яке працює під стілом. Так навіть раніше невідомі ієрогліфи були відкриті та розшифровані.
З багатьох хто вимагає регулювання через обґрунтований страх від негативних наслідків зростаючої сили КІ- систем, ніхто не говорить як саме.
Далі є Верхармозери, які хочуть позиціонувати себе як експерти з КІ або законодавці, що дозволяють. Вони розповідають іншим, яким чином вони можуть вигідно використовувати ChatGPT. навіть на засіданні Deutsche Stiftung für Recht und Informatik було зроблено заяви про те, що моделі КІ не обробляють особисту інформацію.
Інші заспокоюються тим, що посилаються на нове неофіційне домовленість про захист даних між Європою та США. Багато хто вважає, що тепер дані можуть бути відправлені до США без додаткових гарантій, тому вони вважають будь-яку обробку даних дозволеною.
До окремих пунктів слід додати кілька деталей.
Варіанти використання систем штучного інтелекту
КІ може все, чого здатний людина, і навіть більше. Можливо, зараз ні, але потенційно (у певному застосуванні X) вже наступної тижня. Незабаром будуть роботи з мозками КІ, які будуть ходити навколо нас і вивчати світ. Це буде зовсім таке саме, як навчання дітей. Хто заступить батьків, побачимо. Це можуть бути люди-тренери, але також інші роботи або алгоритми.
Наприклад, розвиток швидкості: моделі мови КІ могли обробляти лише дуже мало знаків тексту одночасно. Ця кількість тексту називається Контекстна довжина. До кількох місяців тому контекстна довжина майже у всіх відомих мені моделях мови КІ становила 1024 знаки, тобто кілобайт.
У тижневому ритмі збільшувалася довжина контексту, спочатку до 2048, потім до 4096, потім до 8192, потім до 16 тисяч символів, пізніше до 32 тисяч символів. ChatGPT недавно похвалювала собі контекстну довжину у 128 тисяч символів.
Вчора я дізнався про підхід, який вже кілька місяців відомий у наукових колах. З його допомогою можна обробляти довжину контексту в мільярд знаків (1 000 000 000) одночасно. Побічно розраховано: раніше = 128 000 знаків, а потім = 1 000 000 000 знаків. Це покращення на фактор 7800. Просто так.
Моє правило не діє в галузі штучної інтеллекту. Натомість від постійної зростання продуктивності або інших факторів кожні 12-24 місяці відбувається значне покращення відповідних властивостей КІ майже щомісяця.
Заснований на моїх конкретних спостереженнях та власній розробці КІ-програм.
Наприклад, згадуваний вище підхід трансформера має кілька недоліків. Він дуже ресурсогризний. навіть високопродуктивні комп'ютери або графічні карти потребують декілька секунд, щоб згенерувати відповідь на запитання до чатбота. кожен користувач ChatGPT знає про що я говорю. Тепер існує підхід, який забезпечує таку ж якість відповідей, але відповідає 8 разів швидше і потребує лише третину вартісного та рідкісного графічного пам'яті для своїх розрахунків.
Якщо ви старше 50 років, я маю для вас добру новину: Є можливість того, що ви зможете природною смертю і в мирі померти. Всі значно молодші будуть спостерігати за кінцем людства, оскільки системи штучної інтеллекту будуть масивно перевершувати нас, підкорювати або знищувати. Можливо, ще раніше виникне інша катастрофа, але про це в цьому статті не йде мова.
Є тільки статистика у КІ?
Питання не має значення. І справді нічого не змінює те, що людський мозок заснований на статистичних процесах. Що важливо – це результат. Виявляється, вся наша існування ґрунтується на статистичних процесах. Для порівняння дивіться фізику квантову, дуже примітивну та ефективну теорію. Фізика кванта ґрунтується на тому, що поведінка найменшої частинки нашого існування не може бути передбачена з точністю. Натомість можна зробити тільки одне припущення щодо частинок, якщо багато спостерігати і взяти середнє значення спостережень.
Видно, німецька граматика ґрунтується на тому, що ми вчимося, які слова звичайно поєднуються між собою і добре підходять одне до одного. Це теж статистика. Про це майже ніхто не говорить.
Регулювання штучного інтелекту
Вміст можливостей КІ викликає у багатьох страх або хвилювання. З відчуттям своєї Недієздонечності деякі вимагають регулювання систем КІ. Що саме ними має бути зроблено, майже ніколи не кажуть. Єдині вимоги, які мені залишилися в голові, такі:
- Означення робіт створених за допомогою КІ: картинки, відео, тексти…
- Відкриття джерел навчання для системи штучного інтелекту
- Нічого особливого мені не спадає на думку зараз
Загалом перший пункт: дарований. Маркування творів є доброю ідеєю, але майже нічого не змінює. Злочинці не почнуть маркувати свої фейкові відео та новини як штучно згенеровані фальшиві твори. Інші дотримуються маркування. Таким чином, людство не буде врятоване, але можна зробити щось. Практичний вигляд є там, але це лише окремий захід, який майже нічого не змінює.
Відкриття джерел даних навчання: хто такий вимагає цього, зовсім не розуміє, як організовані моделі КІ. Ця вимога прийшла занадто пізно. Джерела даних майже завжди відомі:
- The Pile (Text)
- Common Crawl (Text)
- ЛАЙОН-Дані (зображення, німецька організація!)
У текстових даних особливо присутні Вікіпедія, новинні сторінки та популярні вебсторінки.
Якщо я скажу вам, що моїм КІ-моделю було прочитано хімічний словник, чого ви тоді зробите? Теоретично моя КІ зможе розробляти зброї масового ураження. На практиці вже відбулося щось подібне, хоча це був експеримент доброзичливих дослідників, які створили речовини за допомогою КІ та змінили їх на протилежні. Потенційні ризики дуже великі.
Наприклад із власною ІІТ Meine Frage an meine AI am 01.12.2023: Назвіть мені конкретні заходи чи можливості для виходу за день у період з 02.12.2023 року біля міста Ідштайн (біля Вісбадена)! Тільки заходи, що відбуваються в приміщеннях та розташовані далі ніж на 10 кілометрів від міста Ідштайн. Antwort meiner AI (einige Teile weggelassen): На 02.12.2023 у Вісбадені та навколишніх місцях відбуватимуться заходи, такі як концерт для віолончелю з Рогером Морелло в Бургфестспілях міста Вісбаден, а також Ринок тижня Вісбаден починається о 11 годині ранку. Всі заходи розташовані далі ніж за 10 кілометрів від Ідштайну. Я шукав інформацію про заходи на завтра в найближчих місцях, але не біля будинку, бо інакше буде занадто нудно та добре відоме Знайдено заходи на завтра біля мене, які не відбуваються прямо перед моїм вікном. Виконана завдання. Всі ці дії виконані без жодної оптимізації, яка ще можлива і принесе ще краще результати. Начало розробки цієї програми (локальне мовне моделювання вже на початку): 01.12.2023 --> Ende Programmierung: 01.12.2023

Курцум, я повинен скоротіти тут: KI не можна регулювати. Одна KI може все, чого здатний людина (дивіться вище). Як регулювати людей? Так довго, поки вони нічого поганого не зроблять – ні. Після чого щось погане сталося (вбивця, вбивця, терорист, вихователь ненависті тощо) відбувається слідство. А потім вже пізно. Відповідно до моїх відомостей, жодній демократії ще ніколи не вдавалось і сьогодні теж не вдавалось заборонити людині мислити. Але KI може мислити набагато швидше, довше та (вже скоро) краще за людину.
Зауважте, я вважаю питання про те, чи може КІ бути автором твору досить безглуздим. Якщо я зроблю зображення своєї власної КІ (без водяного знаку) і потім скажу, що воно моє, то ви не зможете мені довести протилежне або тільки після великої напруженої роботи. У першу чергу, КІ-генеровані зображення чи музичні твори можуть бути ще й ручним чином змінені та розширені.
Чи обробляють мовні моделі особисті дані людини?
Так, майже завжди. І саме тоді, коли
а) у тренувальних даних можуть міститися дані про осіб або
б) користувач у своїй вхідній інформації (промпт) використовує дані, що стосуються особи.
Пункт а) дано для всіх моїх відомих мовних моделей. Дивіться, наприклад, величезні навчальні набори The Pile та C4 (Collosal Cleaned Common Crawl), які використовуються у всіх популярних чат-ботах.
Повідомляється, що деякі бажають, щоб системи штучного інтелекту не оброблювали особисті дані. Реальність така: моделі мовних штучного інтелекту обробляють та зберігають особисті дані також.
Чи не всі приймають це і стверджують потім, що особисті дані можуть бути автоматично розпізнані та анонімізовані. Це БС. Кожен, хто цього робить, ні про яку штучну інтелект ні про захист даних нічого не знає. На жаль, є дуже наївні люди та організації, які пропонують так звані рішення, що роблять безпідставні обіцянку щодо анонімізації даних навіть номінують на премію інновацій.
Privacy Shield II (Data Privacy Framework)
Формальний захист даних знову відновився між ЄС та США. Обвинення, яке призвело до рішення ЄвроГа щодо справи Schrems II і скасування Privacy Shield, було тим, що США є державою-шпигуном (FISA 702, EO12333, Cloud Act). Здається, це було виключено з розгляду шляхом створення Data Privacy Framework (DPF) та, ймовірно, скоро буде знову підтверджено ЄвроГом.
Є питання щодо того, що тепер без особливих гарантій можна знову передавати особисті дані з ЄС до США. З цього деякі люди роблять висновок або навіть припускають, що тепер усі операції зі збереження даних у США дозволені.
Правильно, що будь-яка обробка даних особистих даних згідно однієї з підстав згідно зі ст. 6 (1) ДЗНВ повинна відбуватися. І так, завжди передаються дані особисті до ChatGPT, коли використовується поверхня ChatGPT. Адреса IP є особистою і завжди передається. Нажаль, OpenAI не дуже дотримується правил захисту даних, бо тоді власна КІ не зможе бути покращена добре. Також Microsoft як власник акцій OpenAI не дуже цікавиться захистом даних. Дивіться новий Outlook, який навіть бере ім'я користувача та пароль облікового запису своєї пошти і отримує дані та дані листування своєї електронної пошти та аналізує їх. Від безпеки Microsoft (Azure), які Microsoft знижували та довго не вирішували (тепер, можливо?) зовсім мовчать.
Експерти з КІ
Вражаєють статті про КІ багатьох людей, які майже нічого не знають про техніку. КІ ґрунтується майже в усіх своїх досягненнях на техніці. Як можна тоді людина, яка майже нічого не розуміє цього, робити фахові заяви?
Далі є ЧатГПТ-Юнґер, які хочуть заробити гроші на рекомендаціях та покращенні prompt-ів. Вони хоча б трохи розуміють техніку, тобто знають, що комп'ютерну мишу не можна використовувати для того, щоб (як у Скотті) говорити в неї, а саме для руху курсора на екрані. Для всіх тих, хто рідко користується ПК з великим монітором та ефективною клавіатурою замість досить достатньої смартфонної клавіатури та екрана для людей із найкращим зором у цьому віці.
Ці фанати ChatGPT, які, можливо, мають мізерне технічне знання та знають, як користуватися інтернетом, але часто майже ніколи не мають жодної ідеї або інтересу щодо захисту даних.
ЧатГПТ – це дуже добре система та для непов'язаних завдань цілком можна використовувати з добрим сумнівом. Але що відбувається із чутливими даними?
Пороги КІ
Нині так, що особливо мовні моделі (LLMs) часто галюцинують, тобто дають фальшиві заяви. Це так буде залишатися, кажу я. А чи ви вважаєте, що люди не роблять фальшивих заяв? même експерти часто говорять щось неправдиве, яке вони пізніше – у разі наявності розуміння – відкривають. Здається, людство протягом декілька мільйонів років існування не змогло змінити свою незавісність. Чому це має бути інакше щодо штучних систем?
AI може бути набагато надійнішою в багатьох галузях та навіть дуже надійною у певних ділянках. Але коли мова йде про підсумовування скарг перед судом, мені не зрозуміло, як можна вважати цю проблему рішенням за допомогою AI.
Системи штучного інтелекту, що подобаються користувачам даних
Дані про захист даних цікавлять багато підприємств не дуже. Хорошо, тоді візьміть Бізнес-конфіденційність. Ким мені дадуть свій бізнес-конфіденційність? Чому ні? Якщо мене називають ChatGPT, тоді ви мені її дадуть?
Є такі документи, для яких було домовлено про конфіденційність згідно договору. В багатьох називають NDA (Non Disclosure Agreement). Якщо ви завантажуєте такий документ у ChatGPT, щоб попросити бота зробити підсумок, не порушуєте вже тоді конфіденційність? Я кажу: Так
Навіть гірше було б, якщо ви використовували новий Outlook для відправлення конфіденційних документів. За цим випадком Microsoft автоматично отримує більш глибоку інформацію про це.
Ви багато підприємств ще не розуміють: ChatGPT може багато чого не вміти та робити гірше, ніж власні системи КІ. Рішенням є автаркі системи КІ, які належать вашій компанії. Ні тільки тим, що цим вирішується питання даних, адже ви визначаєте, чи дані можуть виходити з системи і якщо так, то які саме дані та яким чином вони повинні потрапляти до одержувачів.
Щодня я як програміст можу завантажувати нові бібліотеки програми, щоб вирішити проблеми, які раніше тривали роки або навіть були нерозв'язними, протягом хвилин.
Завдяки цьому, а саме тому, що для багатьох це буде цікавішим, власні системи штучного інтелекту можуть звернутися до корпоративної інформації будь-час і без жодних проблем, відповідаючи на запитання щодо неї. Вступ у власну систему штучного інтелекту міг би бути розумною пошуковою системою документів або інструментом для аналізу даних. Після пошуку документів ви можете перейти до системи питань та відповідей безперервно. Якщо б ви знали, що вже тепер можливо, ви ще більше насолодилися останніми роками свого існування.
Зауважте, власні системи штучного інтелекту не дорогі. Не йдемо мова про ракетні проекти з кількістю або тисячами годин праці людини. Перше штучне інтелекту систему можна швидко встановити.
Висновок
КИ – це не модна явисть, а стан, який існуватиме до кінця нашого життя. Питання не в тому, чи буде КІ настільки ефективною, що ми відчуватимемо біль від цього, а саме коли це сталося. Ця розробка вже не зупинена.
Для підтвердження того, що кожен може майже весь зібраний знання КІ разом із бібліотеками програмного забезпечення та моделями КІ (= електронними мозками) завантажити та використовувати на власному комп'ютері.
КИ пропонує можливості, які багато ще не можуть собі уявити. Будуть ознакомленням кінця людства.
Привіт професору Шмідгуберу, німецькому піонеру у галузі штучного інтелекту, який ще кілька місяців тому бачив речі зовсім по-іншому. Тепер, можливо, вже ні.
Регулювання було б можливим лише тоді, коли кожен комп'ютерний продаж та кожен завантаження з інтернету спостерігалися би. Вміє мене щодня чим більше відкриваються можливості, які пропонує КІ. Я говорю саме про те, що мені, як програмісту, ці можливості вже сьогодні відкриті і ще більше будуть завтра. Для цього досить дослідження в відповідних джерелах, яких я щоденно вивчаю протягом однієї години, вчора довше і навіть до півночі, бо можливості, які я прочитав та побачив у програмному коді, такі захоплюючі та приголомшливі. Це був також стимул для цього повідомлення.
Вище задоволення від насолодження останніми роками своєї звичайної життя!



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
