Dataskyddseffektvurdering (DSFA) er pålagt i GDPR for bestemte typer af databehandling og skal hjælpe med at identificere og minimere risikoen. Gælder den også for systemer, der bruger kunstig intelligens? En oversigt med anbefalinger.
Podkast om emnet
Risikovurdering for maskinlæring og kunstig intelligens efter podcasten privacy Deluxe #29:
Indledning
Artikel 35 af GDPR introducerer begrebet om persondatakonsekvensvurdering og beskriver, hvornår en sådan skal foretages. I afsnit 1 nævnes det, at bestemmelsen er særligt relevant for nye teknologier. AI er en sådan teknologi. ([1])
En risikovurdering som del af en DSFA skal altid være hurtigt til at oprette. Da risikovurderingen både er en forudsætning til at undersøge, om en DSFA er nødvendig, og også en del af hver DSFA, skal der altid være en del af DSFA'en til at oprette.
Risikovægning = Multiplikation af tre værdier, se artiklen.
Muss nun für jedes System des maschinellen Lernens eine DSFA angestellt werden? Maschinelles Lernen kann også som en ny teknologi betragtes. Fordi de revolutionære tilgange som Transformer eller kapable trænede AI-modeller, men også det nye opvågn af LSTM (Long Short-Term Memory, opfindelse fra Tyskland) er sikker i kombination eller delvis også for sig selv nyttig.
Den nævnte retlige bestemmelse bygger på art, omfang, omstændigheder og formål for behandlingen af persondata. Ved digitale tjenester bør kriteriet vedrørende omfanget af datafremstillingen regelmæssigt anses som opfyldt.
Da en datatilsynsbehandling af følger ikke skal foretages for alle databehandling, er arbejdet med de opgaver, der også udføres udenfor en DSFA, ikke til at regne som en del af DSFA.
Eksempler på sådanne arbejder: Obligatoriske oplysninger, sikring af systemer, uddannelse.
En fuldstændig DSFA er i overensstemmelse med artikel 35, stk. 1 GDPR påkrævet, hvis databehandling forventes at have et højt risiko for rettighederne og friheden til naturlige personer som følge. Hvilke databehandlinger der foregår, skal i henhold til artikel 13 GDPR eller artikel 14 GDPR allerede være kendt i forbindelse med pligtspersondannelsen.
Laut Artikel 35 Abs. 2 DS-bekendtgørelsen henter den ansvarlige ved udførelse af en konsekvensvurdering til dataskydd råd fra dataskutzeksperten. Denne punkt er dog irrelevant for spørgsmålet om DSFA, som man kan se alene på, at i nævnte artikel 2 også står, at DSB'erne kun skal tilføjes, hvis der er benyttet en sådan (se her til som specialtilfælde § 38 DS-bekendtgørelsen).
I følge med artiklen 35, stk. 4 skal tilsynsmyndigheder opstille en liste over behandlingsaktiviteter, der er relevante for en DSFA. Listen fra DSK giver eksempler og nævner f.eks. kundeservice ved hjælp af kunstig intelligens.
Dataprotektionseffektvurdering
Til at begynde med gælder GDPR kun for personlige oplysninger. Adgang til enheder, som reguleres i lex specialis (§ 25 TDDDG, indtil den 14.05.2024 hed det TTDSG), er normalt ikke kerneområdet for AI-applikationer og kan her uden omgående blive efterladet.
Alle andre endda potentielt persondata er således for en DSFA irrelevante. I dette sammanhængende skal nævnes, at en ikke-persondata-punkt også da er persondata, hvis den sammen med et persondata-punkt optræder og kendskabet til begge data-punkter samtidig findes hos samme ansvarlige. Se herfor eksemplet på cookies, der på grund af deres kontakt med IP-adressen skal betragtes som persondata.
Som allerede nævnt, drejer det sig om ny teknologi ved AI-systemer. Det skal derfor ifølge lovgivningen nøje undersøges. Det passer også godt sammen, for når noget nyt indføres, var der jo ikke tid til at beskæftige sig med spørgsmålet om en DSFA skulle oprettes eller ej.
I Artikel 35 § 3 GDPR er nævnt, hvornår en DSFA skal oprettes. Disse tilfælde kan i korte træk beskrives:
- Systematisk og omfattende vurdering af personlige aspekter hos fysiske personer, herunder profilering.
- Omfattende behandling af særlige kategorier personlige data (politisk mening, sundhedsdata etc.), se Art. 9 § 1 GDPR.
- Systematisk omfattende overvågning af offentlige områder.
For alle slags systemer skal en DSFA foretages, hvis den ene af disse tilfælde er givet og de andre betingelser opfylder, herunder risikoen for påvirkede personer. Tag Zoom som eksempel på videokonference-software:
De erklærer sig indforstået med, at Zoom til enhver tid har adgang til de af tjenesten genererede data til hvilket som helst formål, og bruger dem, høster dem, opretter dem, ændrer dem, distribuerer dem, behandler dem, overdrager dem, vedligeholder dem og gemmer dem, såfremt det er tilladt efter loven, inklusive til formålet med produkt- og tjenestedannelse, markedsføring, analyse, kvalitetskontrol, maskinlæring (inklusive til formålet med træning og justering af algoritmer og modeller) …
Ekstrakt fra Zooms brugsbetingelser, fet skrift af mig.
Som læses, må alle data fra videokonferencer, der afholdes med Zoom, af Zoom bruges til næsten hvilke formål i næsten hvilken måde. Videobillederne af deltagere ved videokonferencen er inkluderet ligesom de talte ord eller transkripterne af disse ord. Også viderebringen eller viderebrug af transkripterne og andre data er ifølge disse vilkår tilladt for Zoom. Zoom har efter offentlig presse påført en tilføjelse, der foreslår, at kundedata først skal være blevet godkendt til AI-træning før de kan blive brugt. Dog bevarer Zoom sig retten til at bruge kundedata uden godkendelse til mange andre formål inklusive markedsføring og maskinelt læring! Se også kommentarer nedenfor.
Zoom nævnes også i betingelserne for anvendelse af kunstig intelligens. Hvis disse er medtænkt eller ej, spiller her sandsynligvis ingen rolle ved spørgsmålet om en DSFA.
Her er de tre ovenstående tilfælde af artikel 35 § 3 GDPR dækket af tilfælde 1 og 2. Det er åbenbart også muligt at i videokonferencer åbne personlige aspekter eller diskutere dem. Man tænker blot på planlægningen af tid og eventuelle ferier, pleje af børn eller sundhedsproblemer. Derved bliver også tilfælde 2 åbnet.
Offensigtvis behandler Zoom data meget omfattende og også systematisk. Den systematiske behandling kan sandsynligvis til at begynde med understilles ved alle digitale behandlinger, indtil det modsatte er blevet gjort plausibel. For at dette skal være plausibelt, ville der sandsynligvis være brug for en DSFA.
Når Zoom er en leverandør uden for Europa, skal alle datamodtagere og deres lande identificeres. Dette må ske i hvert fald og er ikke et særligt emne for en DSFA. For hver enkelt land skal derefter undersøges, om personers rettigheder og friheder efter GDPR er garanteret. Det er også ikke et særligt emne for en DSFA. Men hvis disse oplysninger allerede eksisterer og landene ikke kun er Tyskland eller andre fra Europa, så bør disse lande også værdsættes. Det synes enten at være meget lidt besvær at opstille en DSFA for hver enkelt land, eller også er det meget besvær. Lidt besvær spar den diskussion omkring en DSFA, da diskussionen tager længere tid end at skrive det ned. Mange besvær gør dog en DSFA nødvendig, fordi hvor mange spørgsmål der er åbne, skal en persondatafølgeafvikling være til at anse som passende.
Systemer med kunstig intelligens kan særligt berøre ret og frihed for personer. Dette er relevant i henhold til artikel 35, stk. 1 i dataskyddsforskriften (GDPR). Som ChatGPT viser, kan udgifter fra AI på brugerens spørgsmål føre til en høj troværdighed. Brugeren ser resultatet og er ofte begejstret for sprogkvaliteten og konklusionerne fra AI. Det fører også til, at usande eller falske resultater bliver set som gyldige.
Generative AI-systemer, der behandler personlige data og ikke mindst pseudonymiserer dem, er således særligt følsomme at håndtere. Her synes mig en DSFA altid til at være på plads. Selv for de forskningsformål, som anses for værdifulde, skal der foretages en DSFA. Hva' hvis det fremgår af resultaterne, hvilke personer har haft eller har en bestemt sygdom? Er den persongruppe, der modtager resultaterne meget lille og meget tillidsværdig, så skulle dette skriftligt dokumenteres, hvorfor en DSFA er det rette sted.
Systemer, der skal understøtte beslutningen om en persons egnethed, skal også særligt overvejes. Dette profileringsprocess er faktisk med til at påvirke livsforløb. Det kan ikke foregå uden yderligere sikring. En del af denne sikring er en DSFA. Hvis et sådant system nu er en AI eller ej, spiller det ingen eller kun en underordnet rolle.
Anbefalinger
Det bedste er en DSFA, hvis den ikke er nødvendig. For at undgå en DSFA skal kun dataskyddsvenlige systemer anvendes. Til disse kan så også hurtigt en DSFA opstilles. I stedet for at diskutere længe om behovet for noget, kan dette noget simpelthen hurtigt skrives ned.
AI-systemer i særdeleshed skal ikke anvendes af usikre tredje partier, hvis personlige data eller andre følsomme data som egne patenter, forretningssøm og andre hemmeligheder er involveret. Jeg synes, at OpenAI med ChatGPT er et eksempel på en usikker tredje part. Man ved ikke nøjere, hvad der sker med dataene dér. Microsoft og Google er også for mig ikke sikre tredje partier. De bruger alle slags data til egne formål.
En risikovægning hjælper også ved at vurdere, om et system er datavenlig eller ej.
Datavenlighed omfatter alle slags data, der automatisk behandles.
Hvordan virksomhedsindbyggede AI-systemer kan opbygges, har jeg beskrevet her:
- Dokumentersøgning med AI
- Egen AI-teknologi til virksomheder
- Typiske anvendelsesforsøg for lokale AI-systemer
Hvis en DSFA skal opstilles for en leverandør af flere tilkaldte tjenester, kunne en dokumenthierarki anvendes. Det foreslår også artikel 35, stk. 1 sidste sætning i dataskyddsforskriften.
- Hoveddokument: Almindelige vurderinger til leverandøren og dens underleverandører.
- Detail-Dokument for tjeneste: Henviser til det hoveddokument og vurderer detaljer, der er specifikke for tjenesten.
En DSFA kan først opstilles i en meget grob form, der kan betyde meget lidt arbejde. Et eksempel er nævnt nedenfor. Hvis denne Kort DSFA giver anledning til yderligere undersøgelse, ville mere arbejde være påkrævet.
For et AI-system som ChatGPT kunne en DSFA følge således: I korthed er det kendte vurderingskriterium på basis af talerne blot. Talene bliver her ikke nærmere begrundet og skal kun ses som eksempelvis.
Eksempel: Risikovægning for ChatGPT ved dokumentets søgning
Antagelsen for eksemplet er, at medarbejderdata fra et firma indsættes i ChatGPT. Dette sker ved hjælp af en dokument, hvor spørgsmål stilles, som ChatGPT skal besvare. Dette kaldes også for Question Answering Task eller mere specifikt for Ask You Document Task. Dokumentet bliver først automatisk pseudonymiseret. Her kan selvfølgelig fejl opstå, der her i eksemplet værdiges.
Den følgende risikovurdering er en del af en fuldstændig DSFA. En fuldstændig DSFA er således nødvendig, hvis risikoen for pårørte personer ikke er lav nok eller høj nok. I Wikipedia er den nødvendige indhold i en DSFA følgende (her let forkortet fremstillet og med bemærkninger ved siden af hver punkt):
- Systematisk beskrivelse af de planlagte behandlingsprocesser og formålet med behandlingen → Bør allerede være kendt via Art. 12 GDPR.
- Vurdering af behovet og tilpasningen af behandlingsprocesserne i forhold til formålet. → Delvist givet ved den her nævnte eksempelvis risikobetonning, delvist også (tvunget) kendt fra Art. 12 GDPR.
- Vurdering af risikoen for rettighederne og friheden for de pårørte personer. → Se nævnte risikovægning som del af en fuldstændig DSFA.
- Hjælpearbejde ved højere risiko. → Hvis det udregnede risiko ikke er lille, skulle dette føjes til hermed.
Fang med Opdagelses sandsynlighed. Det er sandsynligheden for, at nogen opdager, at en privatlivsbeskyttelse-ulykke har fundet sted. Jeg vælger som skala talene fra 1 til 10, hvor 1 er den bedste (dvs. største) entdeckenswahrscheinlichkeit. Hvis medarbejderne er tilstrækkeligt uddannede, vil de hurtigt opdage en ulykke og nok også ofte melde den (bortset fra hvis nogen finder ChatGPT meget godt og ikke ønsker at skæmme det). Jeg vælger derfor Værdi 4. Man kan ikke altid se, om output fra en chatbot indeholder personlige oplysninger. Særligt personlige oplysninger er ikke altid let at genkende. Store tekstudgaver kan også føre til, at ikke alt læses, men blinde per Copy & Paste overføres til en offentlig rapport.
Eintrittswahrscheinlichkeit er sandsynligheden for, at en dataskandale finder sted. Værdien 1 repræsenterer den bedste mulighed, altså meget sjældne eller måske aldrig forekommende dataskandaler. At et skandal kunne finde sted synes i eksempelscenariet at være meget sandsynligt. Man kunne nemt dagligt undersøge hundreder af dokumenter. Den automatiserede pseudonymiseringfunktion kan ikke fungere perfekt. Jeg vælger derfor værdien 8.
Schwere des Ereignisses angiver, hvor meget en persondataudskrivelse indtræffer i rettigheder og friheder for individer. Den er afhængig af hvilken slags medarbejderinformationer det drejer sig om. Hvis det drejer sig om arbejdstidssvigt, hvis kendskab ofte kan sammenlignes med sundhedsdata, ville værdien 8 ikke være for lav. Men også præstationsevaluering af medarbejdere ville kunne gøre en sådan værdi til at støtte. Der er meget værre fra medarbejderens synspunkt.
Hvis man gør Entdeckens sandsynlighed, Indtrædsels sandsynlighed og Alvorligheden af begivenheden til at multiplikeres, får man en værdi mellem 1 og 1000. Værdien 1 ville være resultatet af, hvis alle tre kriterier var blevet vurderet med det mest gunstige værdi 1. Værdien 1000 er resultatet af 10 x 10 x 10, det værste forestengelige scenario.
En risikovurdering som en del af en dataskyddseffektbeskeden at opstille, er altid en god idé. Enten bliver den hurtigt lavet. Eller den åbner op nye spørgsmål. I hvert tilfælde bliver det efterfølgende klart, om indsatsen af et digitalt system fra dataskyddssynspunkt eller generelt set er meningsfuld eller ikke.
I et eksempel resulterer der en Værdi på 4 x 8 x 8 = 256 i forhold til en risikovurdering. Nu skal hver ansvarlige selv overveje, fra hvilken trinbrænder værktøjerne skal beskrives, så det begivenhed kan håndhæves ordentligt og hurtigt. En sådan handling kunne være mindst mellemrejseforbudet at bruge ChatGPT eller bruge det ubegrænset.
Jeg ser værdien 200 eller måske også 250 som en trøsteværdi, fra hvilken tid man skal overveje at udarbejde Notfallpläne/ Hjælpeåtgærder.
Indlæggelsen af en risikovurdering fører i hvert fald til, at ChatGPT ikke er brugbar for dette anvendelsesfald "At gennemsøge virksomhedsdokumenter, der kan indeholde medarbejderdata". Datamodtagerne er nemlig ikke kun personer i virksomheden eller muligvis også offentligheden, men også OpenAI, Microsoft og alle underleverandører.
En DSFA skal derfor mindst vurderes på niveau af multiplikationen af tre tal som risikoafvægning. Hvis en trinnsgrænse overskrides, bør man overveje yderligere undersøgelser. En dårlig værdi siger dog ofte også imod anvendelsen af et system. Det gør DSFA således hinfalden, der har gjort en god indsats til fordel for beslutningstagningen.
En risikovægtning kan igen sker i en skemaform. For mange tjenester kan store dele af vægten være ensartede eller lignende, med muligvis andre værdier for risikokriterierne. Den indsats herfor synes mig ofte ikke særligt høj eller endda meget lav.
Konklusion
Hvor omfattende en DSFA er, afhænger af risikoen for et system for pårørende personer. For AI-systemer fra tredje part ser jeg risikovurderingen som en del af en DSFA som altid nødvendig. For egne AI-systemer kan man hurtigt finde ud af, om betragtningen skal udvides eller ej ved at multiplikere tre tal. I almindelighed er de fleste selvstændige AI-systemer usærlige, hvis de ikke bruges til at vurdere medarbejdere, sundhedsdata o.sv. Yderligere juridiske overvejelser udenfor en DSFA er selvfølgelig ikke altid nødvendig. Så skal herkomst og art af indtastedata være klaret op og lige så meget rechtsgrundlag for datafremgang.
Hvis en DSFA udføres af den personlige datatilsynsperson eller af den ansvarlige, er det sekundært, selv om det i praksis er mest relevant for de personlige datatilsynspersoner.
En fuldstændig DSFA kræver som tilføjelse "kun" at tænke sig frem på redningsmidler og nødanlægsplanner. Alle andre nødvendige indhold er allerede givet ved Art. 12 GDPR og en altid meningsfuld, ofte hurtigt afklaret risikovurdering
Spørgsmålet om en dataskyddseffektiv vurdering opstår i hvert fald ikke, når eget eller datavenlige systemer fra tredje part anvendes og risikoen hurtigt kan vurderes som lav. Ved eget systemer, især ved virksomheds-ejede AI-systemer, stilles spørgsmålet om dataløb og -modtagere ikke. De er kendte og kan begrænses frit.
Ved tredjeparts-tjenester fra de sædvanlige mistænkte, som Microsoft, Google eller Zoom, kunne der anvendes en DSFA til hver leverandør, der muligvis blot skulle suppleret med detaljer pr. specifikt brugt service eller plugin.
En DSFA reducerer risikoen, men ikke risikoen for at modtage en beskyldning, advarsel eller retssag på grund af ulovlig brug af tjenester eller plugins. Med dataskyddsvænlige systemer kan meget arbejde spares og rettens sikkerhed væsentligt øges. Man må ofte blot vilje til det. Alternativer findes til mange anvendelsesfald.
Til sidst, en del vigtige aspekter samlet sammen:
- En risikovurdering er altid meningsfuld og ofte nødvendig at se.
- Påkræftende oplysninger fra Art. 12 GDPR må i hvert fald være til rådighed. Hvis de nu er til brug for DSFA eller på grund af borgernes rettigheder er blevet udarbejdet, er det underordnet. Omfanget af arbejde vedrørende påkræftende oplysninger kan derfor i hvert fald ikke tilskrives DSFA.
- Almindelige garantiydelser, som den ansvarlige fra Art. 5 GDPR skal opfylde, er uafhængige af en DSFA. De skal i hvert fald være til stede for alle mulige databehandling. Eksempel: Et trygt adgangspassword til en ChatGPT-adgang. En almindelig passwordpolitik skulle i virksomheden være til stede i enhver fald.
- Specifikke garantiydelser pr. service skal også være tilgængelige og har ikke noget med en DSFA at gøre. Begrundelse: Mindre risikofylde tjenester kræver ingen DSFA. Alligevel bør der være en garanti, f.eks. for databehandlingens sikkerhed.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
