Аналіз наслідків захисту даних (DSFA) обов'язковий для певних видів обробки даних згідно з ДЗП і повинен допомогти визначити та зменшити ризики. Чи вона застосовується також до систем, які використовують штучну інтелект? Огляд із рекомендаціями.
Пodcast про тему
Оцінка ризиків для машинного навчання та штучної інтелегенції після випуску #29 подкасту "Делюкс Дані:
Вступ
Арт. 35 ДЗПВ запроваджує поняття оцінки наслідків захисту даних та описує, коли такий аналіз має бути здійснений. У абзаці 1 вказується, що ця вимога особливо стосується нових технологій. Кіберінтелект є однією з таких технологій. ([1])
Виключення ризику як частина ДСФА завжди повинна бути швидко створюваною. Де ризикообґрунтоване оцінювання є умовою для перевірки необхідності створення ДСФА та також складовою частиною кожного ДСФА, тому завжди необхідно створювати окремий розділ із цим.
Ризикове оцінювання = Перемноження трьох значень, дивіться статтю.
Мусить для кожного системи машинного навчання встановлювати DSFA? Машинне навчання також можна вважати новою технологією. бо революційні підходи, як наприклад Transformer або потужні попередньо навчені моделі КІ, але також відродження LSTM (Long Short-Term Memory, винахід з Німеччини) безумовно є щось нове в поєднанні або навіть окремо взяті.
Вказана правова норма регулює вид, обсяг, умови та цілі обробки персональних даних. При послугах цифрового типу, ймовірно, критерій щодо обсягу обробки даних буде регулярно розцінюватися як виконаний.
Виїмка щодо наслідків захисту даних не потрібна для всіх обробок даних, тому витрат на роботи, які виконуються також поза рамками ДСФА, не належать до ДСФА.
Наприклад такі роботи: обов'язкові повідомлення, захист систем, навчання.
Вищий рівень захисту даних згідно із ст. 35 абз. 1 ДЗП потрібний тоді, коли обробка даних вбудує високий ризик для прав та свобод фізичних осіб. Що саме відбувається з даними, повинно бути відомо відповідно до обов'язкових повідомлень згідно зі ст. 13 ДЗП або ст. 14 ДЗП.
Лист Стаття 35 абз. 2 ДЗП виконавець у процесі проведення оцінки впливу на захист даних звертається за порадою до офіційного представника захисту даних. Цей пункт, проте, для питання щодо ДСФА не має значення, як вже з цього можна зробити висновок лише тому, що в вказаному абзалі 2 також стверджується, що офіційний представник захисту даних повинен бути залучений тільки тоді, коли такий призначений (див. тут же як спеціальний випадок § 38 ЗПД).
За умовою статті 35, підрозділ 4, наглядові органи складають перелік обробок даних , які мають значення для ДСФА. Перелік ДСК містить приклади та згадує про надання послуг клієнтського підтримання за допомогою штучної інтелегенції. ([1])
Оцінка наслідків захисту даних
Значення ДСГВО застосовується лише до особистих даних. Доступи до пристроїв кінцевого користувача, як це регулюється спеціальним законодавством (§ 25 TDDDG, до 14 травня 2024 року воно називалося TTDSG), звичайно не є основним об'єктом обробки даних та можуть бути залишені поза увагою.
Всі інші дані, окрім потенційно особистих даних, для DSFA не мають значення. У цьому контексті варто згадати, що навіть ненаповнений особистий даніпункт вважається особистим, якщо він поєднується з особистими данимипунктом і наявність інформації про обидва даніпункти одночасно передає одному відповідальному особі. Дивіться приклад із Cookies, які через їхній контакт зі своїм IP-адресою вважаються особистими.
Як вже згадувалося, мова йде про нові технології КІ- систем. Тому згідно законодавчого акту потрібно більш детально вивчити цю проблему. Це також цілком розумне рішення, адже коли щось нове вводиться, раніше не було жодної роботи щодо питання, чи необхідно встановити ДСФА чи ні.
У статті Стаття 35 Пункт 3 GDPR згадуються випадки, коли необхідно призначити ДСФА. Ці випадки коротко такі:
- Систематичне та всестороннє оцінювання особистих аспектів фізичних осіб, включаючи профільування.
- Робота з особливими категоріями особистих даних (політичні переконання, дані про здоров'я тощо), див. Стаття 9, п. 1 ДЗПВ.
- Систематичний широкий моніторинг публічних місць.
Для всіх систем необхідно виконувати DSFA, якщо один із цих випадків є актуальним та інші умови виконуються, до яких відноситься ризик для осіб, які потрапляють під вплив системи… Наприклад, у випадку відеоконференц-пристрою Zoom. У своїй політиці користування (з 07.08.2023 року, станом на 10.08.2023 рік) Zoom пише:
Вони погодилися, що Zoom має доступ до даних, згенерованих цим сервісом для будь-якого призначення, використовує їх, збирає, створює, змінює, розповсюджує, обробляє, передає, підтримує та зберігає, якщо це дозволено законодавством країни, зокрема для розвитку продукції та послуг, реклами, аналізу якості, навчання машинного навчання або штучної інтелегенції (включаючи навчання та налаштування алгоритмів та моделей)
Вибірка з умов використання Zoom, жирний шрифт зроблений мною. ([1])
Як зазначено, усі дані із відеоконференцій, які проводяться за допомогою Zoom, можуть бути використані компанією Zoom майже для будь-яких цілей майже у будь-якій формі. Візуальні дані учасників відеоконференцій потрапляють до цієї групи разом із мовчаними словами або їх транскрипціями. Також згідно цих умов дозволено передавати чи використовувати інші дані, зокрема й транскрипції та інші дані клієнтів. Zoom зробила додатковий внесок після публічного тиску, який передбачає використання даних клієнтів лише після згоди на навчання КІ. Проте компанія зберігає собі право використовувати дані клієнтів навіть без згоди для багатьох інших цілей, зокрема й для реклами та машинного навчання!.
Zoom згадує в умовах застосування штучної інтелекту. Чи вони включені чи ні, тут не має значення для питання щодо ДСФА.
В цих трьох випадках статті 35 абз. 3 ДЗП, згаданих вище, охоплені випадки 1 та 2. Висловлено переконаність у тому, що навіть під час відеоконференцій можуть бути розкриті особисті аспекти або обговорені. Наприклад, планування часу та можливі майбутні відпустки, догляд за дітьми чи проблеми зі здоров'ям. Таким чином відкривається випадок 2.
Видно, Zoom дуже умовчено оброблює дані та робить це систематично. Систематичне оброблення можна вважати властивістю всіх цифрових оброблень до тих пір, поки не доведеться протилежне. Для цього потрібно, але ймовірно, проведення ДСФА.
Да Zoom є постачальником із-за кордон Європи, тоді всі дані отримувачі та їх країни повинні бути визначені. Це повинно відбутися обов'язково і не є особливим питанням щодо DSFA. Для кожного з цих країн необхідно перевірити, чи забезпечуються відповідно до ДSGVO права та свободи осіб у цій країні. Також це не особливе питання щодо DSFA. Але якщо вже ці дані наявні і країни не лише Німеччина або ті, що виходять із Європи, тоді ці країни повинні бути визнані. Виглядає дуже мало зусиль створити окрему DSFA для кожного з цих країн чи дуже багато зусиль. Мало зусиль рятує від дискусії щодо DSFA, оскільки дискусія триває довше, ніж написання. Багато зусиль виправдовує створення окремої DSFA, адже коли багато питань залишаються відкритими, тоді обов'язковим буде проведення оцінки впливу на захист даних.
Системи штучної інтелегенції можуть особливо торкнутися прав і свободі осіб. Це пов'язано з Стаття 35 Abs. 1 GDPR. Як показує ChatGPT, витрати КІ на запит користувача можуть призвести до високої довіри. Користувач бачить результат і часто захоплюється мовчазною якістю та висновками КІ. Це також призводить до того, що неправдиві або помилкові результати вважаються справжніми.
Генеративні системи КІ, які обробляють особисті дані та не здійснюють мінімальної псевдонімизації, особливо чутливі до обробки. Тут мені здається, що завжди потрібна ДСФА. навіть для дослідницьких цілей, яких вважають розумними, слід виконувати ДСФА. Що було б, якщо з результатів вийшло, які особи мали певну хворобу або мають її зараз? Якщо розмір групи осіб, яким належать результати дуже малий і дуже довірливий, тоді це потрібно записати письмово, чого знову ж таки потрібна ДСФА.
Системи, які повинні підтримувати вирішення питання про придатність людини, також особливо розглядаються. Цей процес профільовання впливає на біографії людей. Він не може відбуватися без додаткової перевірки. Частина цієї перевірки – DSFA. Чи таке системою КІ чи ні, не має значення або грає лише підлеглий роль.
Рекомендації
Найкращий варіант – це DSFA, коли вона не потрібна. Для уникнення необхідності встановлення DSFA слід використовувати тільки системи з захистом даних. Для цих систем можна швидко створити DSFA. Замість довгих обговорень щодо необхідності чогось, цю річ можна просто швидко записати.
Системи КІ у особливому порядку shouldn't бути використовуваними несправжніми сторонами, коли стосуються особистих даних або інших чутливих даних, таких як власні патенти, бізнес-секрети чи інші конфіденційні дані. Неповірливі мені здаються наприклад OpenAI з ChatGPT. Що відбувається із даними там ніхто точно не знає. Також для мене Microsoft та Google не є повірливими сторонами. Вони використовують будь-які дані для власних цілей.
Використання ризикоабвагування також допомагає оцінити, чи є система даними приємною чи ні.
Даніприязність охоплює всі види даних, які обробляються автоматизовано.
Як створювати власні системи штучного інтелекту в компанії, я описав тут:
- Пошук документів з використанням штучного інтелекту
- Власні системи штучного інтелекту підприємства
- Характерні застосування місцевих систем штучного інтелекту
Якщо для постачальника декількох використовуваних послуг необхідно створити ДСФА, може бути використана документаційна ієрархія. Це також передбачає ч. 35 ст. 1 ДЗП.
- Головний документ: Загальні оцінки щодо постачальника та його підконтрольних виконавців.
- Детальне-документ для служби: посилається на головний документ та оцінює спеціальні деталі служби.
Є можливість встановити DSFA у дуже грубій формі, яка може не вимагати багато зусиль. Приклад вказаний нижче. Якщо ця Коротка-DSFA викликає бажання продовжувати вивчати цю тему, тоді потрібно витратити більше часу та зусиль.
Для системи КІ типу ChatGPT така ДСФА могла б виглядати наступним чином. У скороті це називається перевіркою за допомогою оцінювальної схеми на основі чисел. Числа тут не будуть детально обґрунтовані та повинні бути розглянуті лише як прикладні.
Наприклад, оцінка ризиків для ChatGPT щодо пошуку документів
Вихідна інформація для прикладу полягає в тому, що дані співробітників компанії вводяться у ChatGPT у вигляді документа, на який задаються питання, які ChatGPT має відповісти. Це також називається Question Answering Task або більш конкретно як Ask You Document Task. Документ перед цим автоматизовано псевдонімується. При цьому можуть виникнути помилки, які тут у прикладі відзначені.
Нижче наведено Оцінка ризиків, яке є частиною повної ДСФА. Повна ДСФА необхідна тоді, коли ризик для тих осіб, які потрапляють під її дію, не дуже малий або досить високий. У Вікіпедії наведено такий зміст ДСФА (злегка скорочений та з примітками наприкінці кожного пункту):
- Систематичне описування запланованих операцій обробки даних та цілей обробки даних. → Бажано вже знати згідно ст. 12 РДПВ.
- Оцінка необхідності та пропорційності оброблювальних процесів щодо мети. → Частково надана через згадану тут прикладно ризикобезпеку, частково також (обов'язково) відомо з Стаття 12 GDPR.
- Оцінка ризиків для прав та свобод осіб, які стосуються цієї справи. → Дивіться наведену оцінку ризиків як частину повної ДСФА.
- Абілфемаßна́хми при вищі́йшому ризи́ку. → Якщо визначене ризик не дуже малий, тоді далі слід було б продовжувати.
Начнем із виявлюваністю випадків порушення конфіденційності. Це ймовірність того, що хто-небудь помітить таке порушення. Я вибірка шкалу від 1 до 10, де 1 — найкраща (найвищою) виявлюваністю. Коли працівники належно підготовлені, вони швидко помітять порушення та часто повідомлять про нього (окрім того, хто вважає ChatGPT дуже добре і не хоче повідомляти про це). Я вибірка значення 4. Хіба ні, хто міг би перевірити виведений текст чат-боту на наявність даних про окремих осіб? Особливо дані про окремих осіб не завжди легко розпізнавати. Також більші тексти можуть призвести до того, що не всі будуть прочитані, а лише скопійовані в публічний звіт за допомогою Copy & Paste.
Вхідна ймовірність — це ймовірність виникнення порушення конфіденційності. Значення 1 вказує на найкращий випадок, тобто дуже рідкі або навіть ніколи не відбуваючіся порушення конфіденційності. У прикладному сценарії здається дуже вірогідним, що таке порушення виникне. Навіть щодня можуть бути перевірені сотні документів. Автоматизована функція псевдонімування може не працювати ідеально. Тому я обираю значення 8.
Вага події вказує наскільки сильно порушення конфіденційності порушує права та свободи осіб. Вона залежить від типу інформації про співробітників. Якщо мова йде про відсутність робочого часу, який часто порівнюється з інформацією про здоров'я, тоді вага цієї події не буде занадто низькою навіть при оцінці 8. Але навіть оцінка працівника також би була досить серйозною. Вже набагато гірше, з точки зору працівників, майже нічого не відбувається.
Множачи Вагомість відкриття, Вагомість входу та Серйозність події, отримується значення між 1 і 1000. Значення 1 було б отримане, якщо всі три критерії були оцінені найкращим значенням 1. Значення 1000 є результатом 10 x 10 x 10, найгіршого уявного сценарію.
Встановлення ризикооцінки як частини оцінки наслідків захисту даних завжди є хорошою ідеєю. Either вона швидко створюється. Or вона піднімає додаткові питання. У будь-якому випадку після цього стає ясно, чи здається застосування цифрового системи з точки зору захисту даних або загалом сенсовитим чи ні.
У прикладі отримується значення 4 x 8 x 8 = 256 у рамках оцінки ризиків. Тепер кожен відповідальний повинен самостійно визначити, від якого порогу особливі заходи повинні бути описані, щоб обробляти цей випадок належним чином та швидко. Така дія могла б бути мінімальним тимчасовим забороною використовувати ChatGPT або використовувати його без обмежень.
Я вважаю вартість 200 або, можливо, 250 як порогову вартістю, від якої слід подумати про розробку планів дій у разі надзвичайної ситуації та запобігання наслідкам.
Встановлення ризиковго оцінювання призводить до того, що для випадку використання ChatGPT «Перегляд документів компанії, які можуть містити дані співробітників», ChatGPT вважається непридатним для цього випадку. Дані отримувачі не лише особи у компанії чи публічність, а й OpenAI, Microsoft та усі підконтрольні виконавці.
ДСФА повинна бути виконана мінімум на рівні множення трьох чисел як ризикова оцінка. Коли встановлений поріг перевищено, слід подумати про подальші дослідження. Поганий результат часто говорить проти використання системи. Це робить ДСФА непотрібною, яка добре служила для прийняття рішень.
Виконання ризикової оцінки може відбуватися схематично. Для багатьох послуг можуть виконуватися великі частини оцінки подібним чином або майже подібним чином, з можливими іншими значеннями для критеріїв ризику. Власне витрат на це мені здавалося найчастіше не дуже високими чи навіть дуже низькими.
Результат
Як складна повинна бути ДСФА, залежить від рівня ризику системи для тих, хто з нею має справу. Для систем штучного інтелекту третіх осіб я вважаю оцінку ризиків частиною ДСФА необхідною. Для власних систем штучного інтелекту можна швидко визначити, чи потрібно розширити аналіз або ні, шляхом множення трьох чисел. Зазвичай більшість внутрішніх систем штучного інтелекту є безпечними, якщо вони не призначені для оцінки працівників, даних про здоров'я тощо. Інші правові розгляди поза рамками ДСФА звісно завжди необхідні. Наприклад, необхідно роз'яснити походження та тип даних, які обробляються, а також підставу права обробки даних.
Чи проводиться перевірка ДСФА від захистника даних чи відповідального особи, то це другорядне питання, хоча на практиці воно особливо важливе для органів захисту даних.
Вищезначна ДСФА вимагає додаткової роботи лише створення заходів щодо ліквідації наслідків та планів дій у разі надзвичайної ситуації. Всі інші необхідні матеріали вже забезпечені відповідно до статті 12 ДЗКП та завжди розумною, часто швидко виконуваною оцінкою ризиків
Питання щодо оцінки впливу на захист даних ставає менш актуальним, коли власні або дружні дані системи третіх осіб використовуються та ризик швидко вважається малим. При використанні власних систем, особливо при використанні внутрішніх КІ-систем компанії, питання щодо потоків даних і отримувачів даних не виникає. Вони відомі та можуть бути обмежені вільно.
При третіх послугах звичайних підозрюваних, таких як Microsoft, Google або Zoom, можна використовувати одне DSFA для кожного постачальника, яке може бути доповнено лише деталями щодо конкретно використованого сервісу чи плагіна.
Є DSFA, яке зменшує ризик, але не виключає можливість отримати жалобу, попередження або судовий позов через незаконне використання послуг чи плагінів. З допомогою систем, що дотримуються вимог про захист даних, можна значно скоротити роботу та підвищити правову безпеку. Часто досить лише бажання. Для багатьох випадків існує багато альтернатив.
Останнє, кілька важливих аспектів підсумовані:
- Оцінка ризиків завжди розумна і часто навіть необхідна.
- Обов'язкові відомості з Стаття 12 GDPR обов'язково повинні бути наявні. Чи вони створені для DSFA чи відповідно до прав осіб, що перебувають під захистом, другорядне питання. Висвітлення витрат на створення обов'язкових відомостей не може бути віднесено до діяльності DSFA.
- Всі загальні гарантії, які повинні бути створені відповідальними згідно з статті 5 ДЗПВ, незалежні від наявності ДСФА. Вони повинні виконуватися обов'язково для всіх можливих обробок даних. Приклад: Безпекове пароль для доступу до ChatGPT. Загальна політика щодо паролів повинна бути присутня в компанії обов'язково.
- Визначені умови служби також повинні бути загальними та не мають нічого спільного з ДСФА. Обґрунтування: Безпечніші послуги не потребують ДСФА. Проте, для цих послуг повинна бути наявна гарантія, наприклад, щодо безпеки обробки даних.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
