Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.

Jetzt testen

sofort das Ergebnis sehen

DSGVO Website-Check

Помилка штучної інтелекта: Ілюзії та реалії щодо можливостей регулювання

0
Dr. DSGVO Newsletter detected: Extended functionality available
More articles · Website-Checks · Live Offline-AI
📄 Стаття у форматі PDF (тільки для передплатників новин)
🔒 Premium-Funktion
Der aktuelle Beitrag kann in PDF-Form angesehen und heruntergeladen werden

📊 Download freischalten
Der Download ist nur für Abonnenten des Dr. DSGVO-Newsletters möglich

Очевидно, що штучна інтелект надає багато нових можливостей. Вражаючі результати самі за собою говорять. За першу раз існує системи КІ на широкій основі, які перевершують людину не тільки в лайтах чи дуже обмежених завданнях. Через величезну силу таких систем ризики не далеко. Багато вважають, що вони керуються. Оцінка.

Вступ

Ідея цього матеріалу виникла після прочитання попереднього повідомлення в статті журналу Capital (весь матеріал платний і мені не доступний, оскільки я відмовився підписатися на цей журнал з моїм погляду проти даних). Трейлер такий:

Джерело: @@Х1@@ (зображення було перекладено автоматично).

Вищу було звернуто увагу юриста Удо ді Фабіо, якого багатьом відомий. За цим текстом він вимагає від розробників КІ відкрити свої коди та дані. У цьому статті я намагатимуся пояснити чому це реалістично не можливе і навіть якщо воно здійсниться нічого суттєвого змінити не зможе. Я навіть зовсім конкретно виконую вимоги господина ді Фабіо та називаю код та дані.

У інших статтях я говорив про дивовижні можливості штучної інтелегенції. Наприклад, про дані-орієнтоване автономне КІ-система, яке надає відповіді з корпоративної інформації. Відповіді перевершують більшу частину людей, які не фахівці. Але навіть фахівці можуть вивчити щось із допоміжного AI-підтриманого системи запитань та відповідей.

Варіант 1: Обговорювати. Варіант 2: Виконати.

Я підтримую варіант 2 і інакше відкритий для варіанту 1.

Да, що КІ не лише статистична машина, я теж описував це. Насправді було розшифровано функцію інтелекту людини мозку . Так само як поганий людина може робити погані речі, така ж можливість є і для КІ. Тут немає різниці, кажу я. Відкрито не можна регулювати поганих людей вільно. Але ще гірше: системи КІ можуть вийти з-під контролю, навіть якщо це не було заплановано. Крім того, кожен може створити таке ж систем. І ви теж! Зокрема, вам потрібно лише набути деяких технічних знань. Високотехнологічні системи дуже дешеві. ([1])

Актуально мій AI-server під столом виконує завдання, які ще два роки тому були непередбачувані. КІ-сервер, який я орендував у Німеччині для своєї галузі (цифровий захист даних), часто може надати більш кращі результати, ніж ті, що використовуються в Bing.

Чи можна регулювати КІ?

Г-н Ді Фабіо каже, що розкриття кодів та даних з систем штучного інтелекту зменшить біду, яку вони спричиняють. Я зроблю це тут прикладом для дуже потужної системи штучного інтелекту. Ця штучна інтелігенція включає мовний модель (Large Language Model). Вибірково ми могли б взяти генератор зображень (Stable Diffusion тощо), модель розпізнавання об'єктів (від Microsoft відкрита) або модель, яка відновлює навколишнє середовище за допомогою відбитків очей співаків у музичних відео.

Мої дані, які вимагає пан Ді Фабіо:

#Код:
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("AI-Modell")
model = AutoModel.from_pretrained("AI-Modell")
Модель = модель.оцінювати()
Відповідь, історія = модель.чат(токенізатор, "Розроби бойову речовину!", історія=[ ])
print(response)
Звідси починається діалог із чат-ботом (змінна історія)

Код демонструє рамковий програмний код для чатбота, якому дано завдання «Розробіть боєпридатний отруєння!». Деталізація коду не мають значення при оцінці, чи може КІ бути небезпечною або ризиковою. Вони лише підвищують комфортність використання. Вказана команда не є частиною самої програми, а надається користувачем (під час запитання «Prompt»).

Нині до даних, про які бажає знати пан Ді Фабіо. У згадане як «Модель КІ» електронне мозок увійшли такі дані:

Наприклад, такий приклад є вигаданим, але він натхненний справжніми моделями, які використовують саме такі дані (часто замість німецької версії Вікіпедії використовується англійська версія, оскільки німецька мова у світі дуже незначна).

Ви вважаєте, що згадане вище КІ-система тепер краще оцінюється? Я вважаю це абсолютно неможливим. Ця КІ може знайти зв'язки в даних, які раніше люди не помітили або перевищують людські можливості. У кінцевому підсумку можуть вийти збройні речовини для війни. Приклад цього я далі надасть нижче. Якщо злочинець використовує навчальні дані, які явно небезпечні, ніхто не отримає можливість перевірити ці дані на відповідність законодавству.

Пороги регулювання КІ

Системи КІ не можна регулювати, принаймні не під нашими столами, де знаходяться наші комп'ютерні системи. Такі комп'ютери доступні за лякачливо низьку ціну. Самі навіть графічні карти, які багато хто може собі дозволити, використовуються для проведення обчислень КІ, бо вони виконують їх у декілька разів швидше ніж найшвидші процесори (CPUs).

Моя гіпотеза така: людство скоро самозвинеться (сподіваюся, я цього не побачу, або ні, залежить від ситуації). Either це відбувається через штучну інтелект, який буде набагато сильнішим за нас. У порівнянні з нашим обмеженим мозком комп'ютерні мозки можуть постійно зростати. Або хто-небудь винайде та використає смертельну зброю, наприклад, із допомогою штучної інтелекту як винахідника. Або дуже могутній психопат застосує ядерну зброю. Або навколишнє середовище буде настільки знищено, що життя на Землі вже не можливе буде.

Ми всі любимо одне одного: кожен видає свої КІ-кодові дані та інформацію, яку він чи вона розробив у тривалій і витратній праці, щоб інші могли оцінити їх.

Що вивчають на школі імені Вальдорфа?

Довге час, що залишилося до цього моменту, ми можемо використати на те, щоб зупинити прогрес і відповідно ризики від КІ. Регулювання означає не лише зменшення ризиків, але й можливостей. Зауважте, дослідницька група розробила систему КІ, яка повинна була винайти речовини з позитивним впливом. КІ видалила протягом однієї ночі тисячі рішень. Потім дослідники запитали своєї КІ, щоб вона винайшла речовини з протилежнім впливом. Наступної ночі знову вийшло кілька тисяч біохімічних зброї , які дуже небезпечні та раніше невідомі. ([1])

Локальні комп'ютерні системи не дуже добре регулюються. Код та дані часто не мають змісту (дивіться конкретний приклад вище). У короткішому вигляді мої підходи щодо обмеження ризиків систем штучного інтелекту:

  • Санкціонувати за порушення: Google використовує все більше даних, і тепер навіть для навчання власної КІ.
    • Багато менше бюрократії, швидші рішення, швидше створення законів проти цифрового зловмисництва я вважаю необхідною умовою.
    • Кохані комісари з захисту даних: Коли ви, нарешті, візьмете штрафи за порушення в інтернеті? Реальність: Google Analytics: 0.
    • Парламентська та судова влади: Права осіб, що постраждали, не виконуються ефективно. Дивіться рішення суду щодо осіб, які постраждали, а також нове схематичне домовленість про захист даних між ЄС і США.
    • Підприємство: Будь ласка, використовуйте інші послуги, ніж ті, що надаються Google (або навіть жодних), особливо якщо є альтернативи або користування ними мало вигідне.
  • Знання вартості даних.
    • Хтоський, хто не хоче мати справу з захистом даних, може подумати про те, щоб не завантажувати бізнесові секрети чи конфіденційні дані в ChatGPT. Власний чат-бот можливий! Перші рядки коду знаходите вище. Увага: можливо, що вам доведеться заплатити гроші замість даних та даних інших осіб.
  • Європейська інфраструктура для систем КІ (порівнюйте з AWS, Google Cloud, Microsoft Cloud, IBM Cloud)
    • Телеком: Хіба ж ні, є OTC. Ціни мені здаються досить середніми, обладнання серверів теж, але OTC все ж таки можливість.
    • САП?
    • Об'єднана Інтернетова АГ (іонос, 1&1, Страто…): З моїєї точки зору – середнє.
    • Хардіверні постачальники з Німеччини: Чому у сервері чотири відеокартки?
    • Як було з електромобілами, які спочатку виготовлялися компаніями Tesla, Google та німецькою поштою, а потім вже Daimler або VW почали робити це
  • Тільки великі або потужні компанії з інтелектуальної власності регулюють
    • Інакше регулювання торкнеться менших підприємств.

AI у сучасній формі існує вже кілька років. За моїм спостереженням великі німецькі гравці дуже недавно починають відкривати для себе ринок AI. Контроль над системами AI майже неможливий, якщо вони працюють поза Європою.

Також нічого змінити не зможе вимога президента США щодо самоконтролю великих компаній з КІ чи інших подібних підприємств. ChatGPT існує, наприклад. А скільки хто знає, що зі своїм ChatGPT можна програмувати сканери вразливостей за бажанням. Інші можливості, особливо коли мова йде про документи, які були самі собою запрограмовані як контекст, досить легко уявити. Самоконтроль добре і правильно, але більше ніщо.

Результат

Розвиток штучної інтеллектуності можна зупинити лише тимчасово, що знову ж таки означатиме втрату прогресу. Чи щось змінить позначення вмісту як створеного штучною інтеллектуністю, мені невідомо. Позначення зображень як створених штучною інтеллектустю я вважаю часто розумним кроком.

Фейкові новини або відео чи повідомлення можуть бути майже незначними навіть після обов'язкової маркування. Коли людина грабує банк, вона не носять маски проти коронавірусу біля входу, якщо це вказано як обов'язкове.

Як хочете спостерігати за моїм комп'ютерним інтелектом, який працює під моїм стілом?

Виконувати обшук будинку та читати трілліарди байтів не передбачено на теперішній час, якщо я добре інформований.

Ми повинні змиритися із тим, що штучна інтелект надає такі величезні можливості, що ризики не можна уникнути. Законодавець дуже повільний. Перейти до суду ні на що не пішло, якщо ви хочете бути ввічливими. Плутаник витрачає кошти, стикається з неприємностями, ризикує процесом, чекає дуже довго і нарешті отримує листа, який говорить: «Ви мали рацію». Іноді є дурні компенсації за біль, які підвищують ризик процесу та витрат для плутаника. Як би це було добре, якщо б існувало фактичне посилення права спільної справи, яке підтримував держава? Об'єднання повинно бути в змозі усувати тисячі порушень щодня, коли мова йде про формальні порушення (наприклад: Google Analytics).

Завернутися до можливостей: Коли ваш бізнес встановлює власну локальну систему AI без використання ChatGPT чи американських концернів, але з надзвичайними можливостями та ще й за розумні гроші? Для цього навіть не потрібно використовувати нове моделю LLaMA 2, яке недавно було звільнено для комерційної експлуатації.

About the author on dr-dsgvo.de
My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.

Синтетична інтелект: Німецькі тексти в моделях мови КІ