La valutazione degli impatti sulla protezione dei dati (DSFA) è obbligatoria nella GDPR per certi tipi di elaborazione dei dati e deve aiutare a riconoscere e minimizzare i rischi. Si applica anche alle systeme che utilizzano l'intelligenza artificiale? Un'overview con raccomandazioni.
Podcast sul tema
La valutazione del rischio per l'apprendimento automatico e l'intelligenza artificiale a seguito dell'episodio #29 del podcast "privacy Deluxe":
Introduzione
L'articolo 35 del GDPR introduce il concetto di valutazione delle conseguenze sulla protezione dei dati e descrive quando tale valutazione deve essere effettuata. Nel paragrafo 1 si fa riferimento al fatto che la norma è in particolare per nuove tecnologie. L'intelligenza artificiale è una di queste tecnologie. ([1])
Una valutazione dei rischi come parte di un piano di emergenza (DSFA) dovrebbe sempre essere facilmente creabile. Poiché l'analisi dei rischi è sia una condizione per verificare se è necessaria una DSFA, che parte integrante di ogni DSFA, quindi sempre si deve creare un tale elemento.
Valutazione dei rischi = Moltiplicazione di tre valori, si veda il contributo.
Muss nun für ogni sistema dell'apprendimento automatico una DSFA essere aperta? L'apprendimento automatico può anche essere considerato come nuova tecnologia. Infatti gli approcci rivoluzionari come Transformer o modelli di intelligenza artificiale addestrati con grande potenza, ma anche il rilancio dell'LSTM (Long Short-Term Memory, invenzione tedesca) sono sicuramente nuovi in combinazione o anche per sé stessi.
La normativa giuridica menzionata disciplina l'aspetto della tipologia, dell'estensione, delle circostanze e degli scopi della trattazione dei dati personali. Per i servizi digitali è probabile che il criterio riguardante l'estensione della trattazione dei dati venga regolarmente considerato soddisfatto.
Poiché una valutazione degli impatti sulla protezione dei dati non è necessaria per tutte le elaborazioni di dati, il lavoro da svolgere, che anche al di fuori di un DSFA deve essere eseguito, non va attribuito al DSFA.
Esempi di tali lavori: informazioni obbligatorie, assicurazione dei sistemi, formazione.
Una DSFA completa è richiesta ai sensi dell'art. 35, comma 1, del Regolamento generale sulla protezione dei dati (GDPR) se la trattazione dei dati prevede un alto rischio per i diritti e le libertà delle persone fisiche. Quali trattamenti di dati si verifichino, deve essere noto nel quadro dell'obbligo di informazione ai sensi art. 13 del GDPR o art. 14 del GDPR.
Il responsabile Art. 35 comma 2 GDPR consulta il Garante per la protezione dei dati personali [7] durante l'effettuazione di un'analisi delle conseguenze sulla protezione dei dati. Questo punto è comunque irrilevante per la domanda sulla DSFA, come si può capire da solo dal fatto che nel citato comma 2 si afferma che il DSB [8] deve essere aggiunto solo se ne è stato nominato uno (cfr. § 38 BDSG).
Secondo quanto stabilito dall'art. 35, comma 4, le autorità di controllo redigono una lista delle attività di elaborazione dei dati che sono rilevanti per la DSFA. La lista della DSK fornisce esempi e menziona ad esempio il supporto al cliente mediante intelligenza artificiale.
La valutazione degli effetti sulla protezione dei dati personali
Inizialmente la GDPR si applica solo ai dati personali. L'accesso a dispositivi, come regolato dal lex specialis (§ 25 TDDDG, fino al 14/05/2024 era regolato dal TTDSG), non è di solito oggetto centrale delle applicazioni AI e può essere lasciato fuori.
Tutti gli altri dati, tranne quelli potenzialmente personali, sono quindi irrilevanti per una DSFA. In questo contesto si deve notare che un dato non-personale può essere considerato personale se viene utilizzato insieme a un dato personale e la conoscenza di entrambi i dati è disponibile allo stesso responsabile. Si veda l'esempio dei Cookies, che sono da considerarsi personali per il loro contatto con l'indirizzo IP.
Come già detto, si tratta di nuove tecnologie dei sistemi AI. Pertanto, secondo la normativa giuridica, è necessario esaminare con maggiore attenzione. Ciò risulta anche logico, poiché quando viene introdotta una nuova tecnologia, in precedenza non si era mai occupati della questione di stabilire se debba essere istituita o meno una DSFA.
Nell'articolo 35 comma 3 del GDPR sono citati casi in cui è necessario stabilire un DSFA. Questi casi sono i seguenti ([1]) :
- Valutazione sistematica e completa degli aspetti personali delle persone naturali, inclusa la profilazione.
- Elaborazione estesa di categorie particolari di dati personali (opinioni politiche, dati sanitari ecc.), vedi Art. 9 comma 1 GDPR.
- Vigilanza sistematica e vasta di aree pubblicamente accessibili.
Per tutti i tipi di sistemi è necessario effettuare una DSFA, a condizione che uno dei casi sopra citati sia presente e soddisfino le altre condizioni, tra cui rientra il rischio per le persone coinvolte. Prendiamo ad esempio la software di conferenza video Zoom. Zoom scrive nelle sue Condizioni d'uso (valido dal 07.08.2023, data: 10.08.2023):
Si dichiarano d'accordo con il fatto che Zoom acceda, utilizzi, raccogli, crei, modifichi, distribuisca, elabori, trasmetta, mantenga e archivi i dati generati dal servizio per qualsiasi scopo legale, compreso lo sviluppo del prodotto e del servizio, la promozione, l'analisi, il controllo della qualità, l'apprendimento automatico o l'intelligenza artificiale (compresa l'addestramento e la regolazione degli algoritmi e dei modelli) …
Estratto dalle condizioni di utilizzo di Zoom, in grassetto da me.
Come si legge, tutte le informazioni relative alle conferenze video tenute con Zoom possono essere utilizzate da Zoom per scopi quasi qualsiasi e in modo quasi indiscriminato. Sono compresi i video dei partecipanti alle conferenze, le parole pronunciate o i loro trascritti. Anche la condivisione o l'utilizzo ulteriore dei trascritti e delle altre informazioni è consentito secondo queste condizioni per Zoom. Dopo pressioni pubbliche, Zoom ha aggiunto una modifica che prevede che le informazioni dei clienti siano utilizzate solo dopo il consenso per l'addestramento di intelligenza artificiale. Tuttavia, Zoom si riserva il diritto di utilizzare le informazioni dei clienti anche senza consenso per numerosi altri scopi, inclusa la pubblicità e l'apprendimento automatico!.
Zoom menziona nelle condizioni anche applicazioni dell'intelligenza artificiale. Se queste sono comprese o meno, qui non sembra giocare alcun ruolo per la domanda di una DSFA.
Ecco i casi 1 e 2 di cui parla l'art. 35, comma 3 della GDPR. È evidente che anche in videoconferenze possono essere rivelati o discusse aspetti personali. Basta pensare alla pianificazione del tempo e eventualmente ai prossimi permessi, all'assistenza dei figli o a problemi di salute. Con ciò è aperto anche il caso 2.
Evidentemente Zoom elabora i dati in modo estremamente ampio e anche sistemico. L'elaborazione sistematica può essere sottintesa per tutte le elaborazioni digitali, fino a quando non si dimostra il contrario. Per farlo plausibile sarebbe probabilmente necessario una DSFA.
Quando Zoom è un fornitore di fuori dall'Europa, dovrebbero essere identificati tutti i destinatari dei dati e i loro paesi. Ciò deve comunque accadere e non è un tema specifico della DSFA. Per ogni Paese si dovrebbe poi verificare se i diritti e le libertà delle persone ivi residenti sono garantiti in conformità alla GDPR. Anche questo non è un tema specifico della DSFA. Ma se già queste informazioni sono disponibili e i paesi non sono solo la Germania o quelli che si trovano nell'Europa, allora questi paesi dovrebbero essere anche valorizzati. Sembrerebbe che sia poco sforzo creare una DSFA per ogni singolo Paese oppure molto sforzo. Poco sforzo risparmia la discussione sulla DSFA, poiché la discussione dura più a lungo del semplice riassunto. Molto sforzo giustifica direttamente una DSFA, perché dove ci sono molte domande aperte, una valutazione delle conseguenze per la protezione dei dati dovrebbe essere considerata appropriata.
Sistemi di Intelligenza Artificiale possono colpire particolarmente i diritti e le libertà delle persone. Ciò è rilevante per quanto previsto all'art. 35, comma 1, del Regolamento UE n. 2016/679 (GDPR). Come mostra ChatGPT, gli output della AI possono essere portati a una grande credibilità in base alle domande degli utenti. L'utente vede il risultato e spesso è entusiasta della qualità linguistica e delle conclusioni della AI. Ciò porta anche a considerare come vere o false le informazioni errate o false.
Sistemi di intelligenza artificiale generativa, che elaborano dati personali e non li pseudonimizzano almeno, sono particolarmente sensibili da gestire. In questo caso mi sembra sempre appropriato utilizzare una DSFA ( Dichiarazione di Sicurezza dei Dati). Anche per gli scopi di ricerca ritenuti sensati è opportuno procedere con la DSFA. Cosa succederebbe se dall'esito emergesse che certe persone hanno avuto o hanno una determinata malattia? Se il gruppo di persone cui si riferiscono i risultati è piccolo e molto affidabile, dovrebbe essere scritto a verbale, e in questo caso la DSFA sarebbe il luogo giusto.
Sistemi che dovrebbero supportare la decisione riguardo l'idoneità di una persona sono anch'essi da considerare in modo particolare. Questo processo di profilazione influenza comunque i curriculum vitae. Non può avvenire senza ulteriori assicurazioni. Parte di queste assicurazioni è un DSFA. Se un tale sistema sia o meno una AI non gioca alcuna o solo un ruolo subordinato.
Consigli
La migliore è una DSFA quando non è necessaria. Per evitare di doverla fare, dovrebbero essere utilizzati solo sistemi amichevoli per il rispetto della privacy. Per questi ultimi può poi essere facilmente predisposta una DSFA. Invece di discutere a lungo sulla necessità di qualcosa, questo qualcosa può semplicemente essere scritto velocemente.
I sistemi AI in particolare non dovrebbero essere utilizzati da terzi poco credibili, se si tratta di dati personali o altri dati sensibili come brevetti propri, segreti commerciali o altre informazioni riservate. Non sembra credibile a me ad esempio OpenAI con ChatGPT. Nessuno sa precisamente cosa succede ai dati lì. Anche Microsoft e Google non sono per me terzi credibili. Utilizzano tutti i tipi di dati per scopi propri di ogni genere.
Una valutazione dei rischi aiuta anche a valutare se un sistema è amichevole con i dati o meno.
Amichevole con i dati include tutti i tipi di dati che vengono elaborati in modo automatico.
Come possono essere costruiti sistemi di intelligenza artificiale aziendali, ho descritto ad esempio qui:
- Ricerca di documenti con l'intelligenza artificiale
- Sistemi di intelligenza artificiale propri dell'azienda
- Tipici casi di utilizzo per sistemi di intelligenza artificiale locali
Se si deve stilare un DSFA per un fornitore di più servizi attivi, potrebbe essere utilizzata una gerarchia documentale. Ciò è anche suggerito dall'art. 35, comma 1, ultimo periodo della GDPR.
- Master-Documents: Valutazioni generali sull'azienda e sui suoi subappaltatori di servizi.
- Dettaglio-documento per il servizio: si riferisce al documento principale e valuta dettagli specifici del servizio.
Una DSFA può essere inizialmente stabilita in una forma molto approssimativa che può richiedere poco sforzo. Un esempio è menzionato di seguito. Se questa Breve DSFA dà luogo a ulteriori indagini, sarebbe necessario investire più sforzo.
Per un sistema di intelligenza artificiale come ChatGPT, una DSFA potrebbe svolgersi in questo modo. In breve si tratta del solito schema di valutazione a base numerica chiamato "Zahlen". Le cifre non vengono spiegate qui e sono da considerarsi solo esemplari.
Esempio: Valutazione dei rischi per ChatGPT per la ricerca di documenti
L'ipotesi per l'esempio è che i dati dei dipendenti di un'azienda vengano inseriti in ChatGPT. Ciò avviene sotto forma di documento, a cui vengono poste domande che ChatGPT dovrebbe rispondere. Ciò viene anche chiamato Question Answering Task o più specificamente come Ask You Document Task. Il documento viene prima pseudonymizzato automaticamente. Naturalmente possono verificarsi errori, che qui nell'esempio vengono valorizzati.
Il seguente valutazione del rischio è una parte di un DSFA completo. Un DSFA completo è necessario quando il rischio per le persone coinvolte non è basso o sufficientemente alto. In Wikipedia è stato fornito il contenuto richiesto di un DSFA come segue (qui leggermente abbreviato e con note alla fine di ogni punto):
- Descrizione sistematica dei processi di elaborazione previsti e degli scopi dell'elaborazione. → Dovrebbe già essere noto tramite Art. 12 GDPR.
- Valutazione della necessità e proporzionalità dei trattamenti in relazione al fine. → In parte data dalla considerazione del rischio qui esemplificata, in parte anche (obbligatoriamente) nota da Art. 12 GDPR.
- Valutazione dei rischi per i diritti e le libertà delle persone interessate. → Vedi la valutazione del rischio come parte di un'analisi completa della DSFA (Data Protection Impact Assessment).
- Misure di soccorso in caso di maggiore rischio. → In tal caso bisogna proseguire con ulteriori approfondimenti.
Iniziamo con la Probabilità di scoperta. Questo è il livello di probabilità con cui qualcuno riconosce che un incidente di protezione dei dati sia avvenuto. Sceglierei come scala i numeri da 1 a 10, dove 1 rappresenta la migliore (più alta) probabilità di scoperta. Se gli impiegati sono stati adeguatamente formati, riconosceranno rapidamente un incidente e probabilmente lo segnaleranno spesso (eccetto che qualcuno trovi ChatGPT molto affascinante e non voglia denunciarlo). Sceglierei quindi il valore 4. In effetti, non tutti gli output di un bot possono essere esaminati per determinare se contengono dati personali. In particolare, i dati personali non sono sempre facili da riconoscere. Anche le grandi uscite di testo possono portare a una situazione in cui non tutto viene letto, ma piuttosto copiato e incollato in un rapporto pubblico senza essere esaminato.
La probabilità di ingresso è la probabilità con cui si verifica un incidente di protezione dei dati. Il valore 1 rappresenta il caso più favorevole, cioè casi molto rari o forse mai verificatisi. Che un evento si verifichi sembra molto probabile nell'esempio di scenario. Infatti potrebbero essere esaminati quotidianamente centinaia di documenti. La funzione di pseudonimizzazione automatica non può funzionare perfettamente. Sceggo quindi il valore 8.
La Gravità dell'evento indica in che misura un incidente di protezione dei dati viola i diritti e le libertà delle persone. È dipendente dall'esempio, a seconda del tipo di informazioni sui dipendenti. Se si tratta di ritardi nel lavoro, il cui sapere potrebbe essere equiparato ai dati sulla salute, allora la gravità sarebbe probabilmente valutata con un valore 8 troppo basso. Ma anche l'evaluazione del rendimento dei dipendenti giustificherebbe tale valore. Probabilmente non andrà molto peggio, dal punto di vista dei dipendenti.
Moltiplicando la probabilità di scoperta, la probabilità di ingresso e il peso dell'evento, si ottiene un valore compreso tra 1 e 1000. Il valore 1 sarebbe stato ottenuto se tutti e tre i criteri fossero stati valutati con il miglior valore 1. Il valore 1000 è il risultato di 10 x 10 x 10, lo scenario peggiore immaginabile.
Una valutazione del rischio come parte di un'analisi delle conseguenze per la protezione dei dati è sempre una buona idea. Ogni volta che viene creata, si scopre se è veloce o se solleva ulteriori domande. In ogni caso, dopo averla fatta diventa chiaro se l'utilizzo di un sistema digitale sia sensato dal punto di vista della protezione dei dati o in generale non lo sia.
Nell'esempio si ottiene un valore di 4 x 8 x 8 = 256 in un contesto di valutazione del rischio. Ora ogni responsabile deve riflettere su quale soglia sia raggiunta per descrivere misure speciali, al fine di gestire l'evento in modo adeguato e rapido. Una tale misura potrebbe essere il divieto minimo interinale di utilizzare ChatGPT o di usarlo senza restrizioni.
Vedo il valore 200 o forse anche 250 come soglia, da cui si dovrebbe pensare a formulare piani di emergenza o misure di soccorso.
L'effettuazione di un'analisi dei rischi porta comunque a considerare ChatGPT non utilizzabile per l'applicativo "Ricerca di documenti aziendali che possono contenere dati degli impiegati" in quanto i destinatari dei dati non sono solo le persone all'interno dell'azienda o eventualmente anche nella pubblica sfera, ma anche OpenAI, Microsoft e tutti gli undercontractor.
Una DSFA dovrebbe quindi essere almeno valutata a livello di moltiplicazione di tre numeri come rischiovalutazione. Se un limite di soglia viene superato, si dovrebbero fare ulteriori indagini. Un valore basso parla spesso anche contro l'uso di un sistema. Ciò rende la DSFA allora obsoleta, che ha fatto un buon servizio per la decisione.
Una valutazione dei rischi può avvenire a sua volta in modo schematico. Per molti servizi possono essere valutati grandi parti della valutazione in modo simile o analogo, con valori forse diversi per i criteri di rischio. L'impegno richiesto sembra a me generalmente non particolarmente alto o addirittura molto basso.
Conclusione
La completezza di un DSFA dipende dall'entità del rischio per le persone coinvolte in un sistema. Per i sistemi di intelligenza artificiale (IA) di terzi, considero la valutazione dei rischi come parte di un DSFA sempre necessaria. Per i propri sistemi di IA, si può determinare se una considerazione più ampia è necessaria o meno attraverso la moltiplicazione di tre numeri. Di norma, la maggior parte dei sistemi di IA aziendali non presenta problemi critici, a meno che non siano destinati all'analisi dei dipendenti, dei dati sanitari ecc. Altre considerazioni giuridiche al di fuori di un DSFA non sono sempre necessarie. È quindi necessario chiarire l'origine e la natura dei dati di input e la base legale per il trattamento dei dati.
Se una DSFA viene effettuata dal Garante per la protezione dei dati o dall'amministratore, è secondaria, sebbene in pratica sia soprattutto rilevante per i DSB.
Una DSFA completa richiede come attività aggiuntiva "soltanto" la creazione di misure di prevenzione e piani d'emergenza. Tutti gli altri contenuti necessari sono già dati da Art. 12 GDPR e una valutazione del rischio sempre sensata, spesso velocemente eseguita
La domanda sulla valutazione dell'impatto sulla protezione dei dati si pone comunque meno quando vengono utilizzati sistemi propri o amichevoli di terzi e il rischio può essere rapidamente valutato come basso. Nelle proprie sistemazioni, in particolare nei sistemi AI aziendali, la domanda sulle correnti dei dati e sui riceventi dei dati non si pone. Sono noti e possono essere limitati a piacere.
Per i servizi di terzo livello dei soliti sospettati, come Microsoft, Google o Zoom, potrebbe essere utilizzata una DSFA per ciascun fornitore, che potrebbe essere eventualmente "solo" integrata con dettagli specifici per ogni singolo servizio o plugin utilizzato.
Una DSFA riduce il rischio ma non elimina, per l'uso illegale di servizi o plugin, la possibilità di ricevere una lagnanza, avvertimento o denuncia. Con sistemi amichevoli nei confronti della protezione dei dati si può risparmiare molto lavoro e aumentare notevolmente la sicurezza giuridica. Basta spesso volerlo. Ci sono alternative per molti casi di utilizzo.
Infine, alcuni aspetti importanti riassunti:
- Una valutazione del rischio è sempre utile e spesso necessaria.
- Le informazioni obbligatorie da Art. 12 GDPR devono comunque essere presenti. Se vengono utilizzate per la DSFA o a causa dei diritti degli interessati, è secondario. L'impegno per le informazioni obbligatorie non può quindi essere attribuito alla DSFA.
- Garanzie generali che i responsabili devono istituire ai sensi dell'art. 5 del Regolamento generale sulla protezione dei dati (GDPR) sono indipendenti da una DSFA. Devono essere comunque fornite per tutte le possibili elaborazioni di dati. Esempio: Una password sicura per l'accesso a ChatGPT. Una linea guida di password generale dovrebbe comunque essere presente nell'azienda. ([1])
- Le specifiche garanzie per servizio sono anche da considerarsi generali e non hanno nulla a che fare con una DSFA (dichiarazione di sicurezza dei dati). Motivazione: I servizi meno rischiosi non richiedono una DSFA. Tuttavia, per questi ultimi dovrebbe essere presente una garanzia, ad esempio per la sicurezza del trattamento.
Messaggi chiave
La valutazione dei rischi per l'intelligenza artificiale e altri servizi digitali è importante per identificare e minimizzare i potenziali rischi per la privacy.
Per valutare il rischio per la privacy quando si usano sistemi di intelligenza artificiale, bisogna considerare se i dati raccolti possono diventare personali e se vengono utilizzati per scopi come la profilazione o l'analisi di grandi quantità di dati sensibili.
Zoom utilizza i dati dei suoi utenti, inclusi video e conversazioni, per addestrare sistemi di intelligenza artificiale, anche senza il consenso esplicito. Questo solleva preoccupazioni per la privacy, in quanto i dati personali potrebbero essere utilizzati in modo non previsto o potenzialmente dannoso.
Per proteggere i dati personali, è importante utilizzare una DSFA (Dichiarazione di Sicurezza dei Dati) quando si utilizzano sistemi di intelligenza artificiale, soprattutto quelli di terzi poco affidabili.
L'inserimento di dati sensibili di dipendenti in ChatGPT presenta un rischio elevato per la privacy, a causa della possibilità di errori nella pseudonimizzazione e della difficoltà nel riconoscere i dati personali negli output del modello.
Per valutare se un sistema di intelligenza artificiale (IA) è sicuro, è importante considerare il rischio per le persone coinvolte.
Per la maggior parte dei sistemi di intelligenza artificiale aziendali, una valutazione approfondita del rischio non è sempre necessaria.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
