Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen

Регламент ЄС про штучний інтелект: зобов'язання для компаній

0
Dr. DSGVO Newsletter detected: Extended functionality available
More articles · Website-Checks · Live Offline-AI
📄 Стаття у форматі PDF (тільки для передплатників новин)
🔒 Premium-Funktion
Der aktuelle Beitrag kann in PDF-Form angesehen und heruntergeladen werden

📊 Download freischalten
Der Download ist nur für Abonnenten des Dr. DSGVO-Newsletters möglich

З 2 лютого 2025 року німецькі компанії повинні дотримуватися загальних правил і заборон Закону про штучний інтелект, якщо вони використовують системи штучного інтелекту, такі як ChatGPT, Copilot або фільтр спаму в Outlook. Це включає в себе підтвердження експертизи в галузі штучного інтелекту та оцінку ризиків, пов'язаних з використанням штучного інтелекту. Огляд з рекомендаціями.

Вступ

З 2 лютого 2025 року німецьким компаніям доведеться щось робити, якщо вони використовують ШІ:

У статті 113 КІ-Верорнунгі регулюється, що деякі положення цієї верорнунги починаючи з 02 лютого 2025 року повинні бути застосовувані. КІ-Верорнунга називається також AI-VO і на англійській мові — AI Act.

Статті 1–4 КІ-ВО утворюють перше розділ. У ньому встановлені загальні вимоги.

Стаття 5 КІ-ВО складається з розділу ІІ та містить заборони.

Тому з 2 лютого 2025 року німецькі компанії повинні дотримуватися загальних правил і заборон, якщо в компанії використовуються системи штучного інтелекту. Використання ChatGPT, Copilot або систем штучного інтелекту від інших постачальників вже є відповідним використанням у розумінні Регламенту про штучний інтелект.

Згідно зі статтею 113, літера а КІ-ВО загальні вимоги (статті 1-4) та заборони (статті 5) КІ-ВО починаючи з 2 лютого 2025 року застосовуються.

Коли застосовуються зобов'язання?

З 2 серпня 2025 року набудуть чинності подальші положення Регламенту про ШІ, які, зокрема, стосуються моделей ШІ загального призначення. До останніх належать такі відомі системи штучного інтелекту, як ChatGPT, Microsoft Copilot або моделі штучного інтелекту з "Містраля".

Якщо взяти за основу пункт 12 Регламенту про штучний інтелект, то програмні системи, які використовують штучний інтелект, також вважатимуться системами штучного інтелекту. Прикладами цього є пошукові системи, які генерують рекомендації на основі ШІ, або спам-фільтри на основі ШІ. Що стосується спам-фільтрів, то необхідне навчання має бути мінімальним, але працівники повинні бути принаймні проінструктовані. З іншого боку, великі пошукові системи підпадають під дію іншого нормативно-правового акта, а саме Регламенту про цифрові послуги, згідно з пунктом 118 Регламенту про ШІ.

Які зобов'язання застосовуються з 2 лютого 2025 року?

Зобов'язання випливають зі статей 4 і 5 Регламенту АІ. Стаття 3 містить важливі визначення термінів. Перші дві статті містять інформацію про сферу застосування та предмет Регламенту.

Підтвердження компетентності в галузі штучного інтелекту

Стаття 4 Регламенту про штучний інтелект стосується виключно підтвердження компетентності у сфері штучного інтелекту. Це означає, що кожна компанія, працівники якої мають працювати з системами штучного інтелекту, повинна надати такий доказ.

Співробітники повинні бути проінструктовані компанією. Це також включає в себе навчання. Як саме компанія надає докази своєї компетентності в галузі ШІ, не прописано. У цьому відношенні існують хороші способи зробити це розумно і ефективно.

Приклад підтвердження компетентності КІ є на сайті Dr. GDPR. Подтвердження складається з ([1]) :

  • Технічна експертиза
  • Експертиза

Якщо пропонуються системи ШІ або відбувається програмування ШІ, технічна експертиза повинна бути принаймні присутня і бути правдоподібною. Останнє вже може бути реалізовано за допомогою інтерфейсу прикладного програмування (API), як-от той, що пропонує ChatGPT.

Категоризація використовуваних систем штучного інтелекту

Стаття 5 Регламенту про ШІ містить численні заборони, тобто цілі, для яких системи ШІ можуть або не можуть використовуватися. Наприклад, забороняється підсвідомий вплив на людей за допомогою ШІ. Також заборонено оцінювати або класифікувати фізичних осіб або групи осіб протягом певного періоду часу на основі їхньої соціальної поведінки. Стаття 5 містить багато інших заборон.

Щоб виключити заборонені цілі використання системи штучного інтелекту, необхідно проаналізувати та описати систему штучного інтелекту. Після цього її можна класифікувати та перевірити на відповідність положенням Регламенту про ШІ.

Також можна розібратися, чи підприємство лише власниця системи КІ або навіть її постачальниця. Постачальник систем КІ повинен виконувати набагато більше обов'язків ніж власник.

Рекомендації

Компанії повинні ознайомити своїх співробітників з роботою з системами штучного інтелекту і видавати інструкції в їхніх же інтересах. Те, як компанії будуть діяти далі, залежить від них самих.

Є введення – це навчання співробітників. Вона може відбуватися письмово або у формі особистої чи цифрової навчання. Введення призначене для підготовки працівників. Останнім часом КІ для підприємств є засобом до кінця. Тому слід забезпечити, щоб системи КІ створювали користь для підприємства.

Порада навпаки є більшою мірою регулюючим заходом. Вона призначена для того, щоб допомогти працівникам працювати з системами КІ в організованому порядку. бо не кожне використання КІ бажане або розумне.

Для брифінгу рекомендується використовувати загальну інформацію, збагачену цільовою інформацією. Конкретно це означає:

  • Навчання співробітників на місці – у вас або в навчальному центрі
  • Початкове навчання також може проходити онлайн, наприклад, у формі вебінару
  • Створення інструкції, яка може бути частиною AI-Організаційної вказівки. Інструкція призначена для підтримки працівників. Вона також може бути живою, тобто регулярно оновлюватися. Відповідно слід подумати про використання онлайн-підходу.

Інструкції для співробітників, які працюють зі штучним інтелектом у компанії, зокрема, включають:

  • Вимоги до дозволеного професійного використання ШІ
  • Вказівки щодо несанкціонованого професійного використання ШІ
  • Контактна особа (наприклад, відповідальний за захист даних)
  • Також вказівка може бути частиною AI-організаційної вказівки

Таким чином, організаційна інструкція зі штучного інтелекту як повноцінний документ містить

  • Інформація для інструктажу працівників та
  • Інформація для інструктажу співробітників.

Типи використання штучного інтелекту

Системи штучного інтелекту можна використовувати для різних завдань. Існують також різні системи ШІ, наприклад, різні типи моделей ШІ. Найвідомішими є голосові моделі ("чат-боти"). Існують також генератори зображень, відеогенератори, аудіомоделі тощо.

Компанії повинні визначити, для яких цілей співробітники мають право використовувати ту чи іншу систему штучного інтелекту.

Зокрема, важливо розуміти, що всі результати, отримані за допомогою ШІ, повинні бути перевірені перед подальшим використанням. Це пов'язано з тим, що не система ШІ, а користувач результатів ШІ несе відповідальність (спочатку і часто в кінцевому підсумку) за результати ШІ.

AI-випуски можуть порушувати авторські права третіх осіб. Це стосується як зображень, так і будь-якої іншої форми медіа, наприклад текстів чи аудіозаписів. Тому створені за допомогою AI зображення не повинні бути вільно використовувані співробітниками. Регулюйте це у своїй організації щодо використання AI!

В подальшому вміст, згенерований з допомогою КІ, згідно наявних даних не має охоронюваних авторських прав. КІ не може бути автором. Якщо ви створили чудовий логотип чи чудернацький текст за допомогою КІ, то забезпечте, щоб відповідний зображення або текст було пізніше ручної обробки. Тільки так можна буде пізніше звернутися до своєї авторської прави та попередити інших від використання вашого твору без згоди.

Захист та безпека даних

Системи штучного інтелекту обробляють більше даних, ніж будь-який інший тип традиційних ІТ-систем.

Тому важливо, щоб постачальник користувався довірою користувача ШІ (вашої компанії?). Провайдер також включає в себе країну, в якій знаходиться його штаб-квартира. Відомо, що в США є численні закони про розвідку, які дозволяють шпигувати за іноземцями та громадянами країни. До них належать Закон про хмарні технології, президентські укази 12333 і 14086, а також розділ 702 FISA.

Персональні дані можна автоматизовано НІ з надійністю анонімізувати або псевдонімізувати.

"Представники пропозицій, які стверджують це, можуть бути спростовані (Наприклад).

До чутливих даних у компаніях належать, зокрема, такі:

  • Господарські таємниці: підприємства можуть тут робити все, що їм заманеться. Чи є сенс у зниженні вартості секретів шляхом їх розповсюдження, це власне рішення кожного підприємства.
  • Відповідальні дані: Ці дані були суб'єктивно оголошені як конфіденційні, наприклад, згідно з угодою про нерозголошення (NDA). Партнер за договором зможе звернутися до суду щодо юридичних кроків, якщо його дані будуть передані третім особам (ChatGPT?).
  • Персональні дані: Якщо немає підстав для обробки даних згідно з стаття 6 (1) ДЗКП, особам, яким це стосується, можна звернутися до суду.

Для персональних даних також необхідно виконувати інформаційні обов'язки згідно з статтею 12 ДЗПВ. Тому слід знати, що саме відбувається в використовуваному системі штучного інтелекту. Це краще здійснюється тоді, коли система штучного інтелекту самовідправляється.

Підтвердження компетентності в галузі штучного інтелекту

Докази повинні бути надані у формі, яка відповідає формі ШІ, що експлуатується або пропонується.

Якщо на вебсайті надається КІ, тоді доказ повинен бути зроблений саме там, тобто на вебсайті.

Якщо доступ до чат-бота надається працівникам через інтранет, то інформацію слід надавати там же або додатково через розсилку.

Зміст сертифіката демонструє експертизу компанії або її співробітників у сфері штучного інтелекту. Йдеться про те, щоб зробити компетентність правдоподібною. У будь-якому випадку, наявність АІ-офіцера не є обов'язковою. Наявність людини, яка займається важливою темою штучного інтелекту в компаніях певного розміру, безумовно, не є чимось поганим.

Оцінка ризиків систем штучного інтелекту

Оцінку ризиків слід проводити для кожної системи ШІ та кожного інструменту ШІ, що використовується у вашій компанії.

Чим загальніший інструмент ШІ використовується, тим складніше оцінити ризик. Як ми знаємо, ChatGPT також можна використовувати для створення інструкцій зі створення бомб (з невеликими зусиллями для підказок). З іншого боку, виникає питання, який сенс у системі штучного інтелекту без конкретної мети для вашої компанії. З цих двох причин ваша компанія повинна дозволяти використання систем штучного інтелекту тільки для конкретних, значущих цілей. Те, що можна зробити за допомогою пошукової системи, не обов'язково реалізовувати за допомогою чат-бота.

Так звані ШІ з високим ступенем ризику не повинні використовуватися. Той, хто все ж має намір це зробити, потребує поглибленої консультації, яка виходить далеко за межі письмових порад.

Обмеження ризику

Компанії несуть відповідальність перед зовнішнім світом (спочатку і часто остаточну) за поведінку своїх співробітників, які діють від імені компанії.

Компанія повинна мати власний інтерес у тому, щоб працівники не вільно використовували відкриті системи КІ. У разі з ChatGPT або іншими загальними системами КІ це можна зробити шляхом спілкування працівників через Вступну сторінку із чат-ботом. Пряме звернення до ChatGPT через власну інтерфейс чату ніяк не забезпечує контролю компанії.

Така попередня сторінка отримує запити працівників і пересилає їх до ШІ у фоновому режимі. Відповідь АІ надсилається працівникові у зворотному напрямку.

Позитивним побічним ефектом є можливість контролювати витрати та інтенсивність використання. Певні запити також можуть бути заблоковані. Для деяких запитів до штучного інтелекту може мати сенс звернутися безпосередньо до внутрішнього документа компанії, замість того, щоб ChatGPT надавав відповідь зі світових знань.

Результат

Регламент про ШІ запроваджує помірні зобов'язання для компаній, якщо вони є лише операторами систем ШІ або постачальниками безпечних систем ШІ.

Однак ці зобов'язання вимагають зусиль, які слід докладати у власних інтересах компанії.

Чим раніше буде розпочато діяльність з розширення прав і можливостей працівників компанії, тим швидше вдасться досягти стійкого стану, який можна буде застосувати на практиці. Основна мета першого кроку – обмежити відповідальність компанії, проінструктувавши працівників не розвивати будь-яку діяльність зі штучним інтелектом, яка може становити небезпеку для компанії.

Якщо компанії хочуть використовувати загальні системи КІ, такі як ChatGPT або Copilot, їм слід також подумати про користь цих систем. У особливості Copilot виділяється через брак якості. ChatGPT навпаки є універсальним системою, яка не знає лексикону компанії та не була оптимізована для конкретних випадків застосування.

Ці питання можна з'ясувати, створивши організаційну директиву зі штучного інтелекту, в якій також можна назвати схвалені системи штучного інтелекту.

About the author on dr-dsgvo.de
My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.

Тренди штучного інтелекту до 2025 року