Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen

Persondatafgørelsevurdering for kunstig intelligens og andre digitale tjenester

0
Dr. DSGVO Newsletter detected: Extended functionality available
More articles · Website-Checks · Live Offline-AI
📄 Artikel som PDF (kun for abonnenter på nyhedsbrevet)
🔒 Premium-Funktion
Der aktuelle Beitrag kann in PDF-Form angesehen und heruntergeladen werden

📊 Download freischalten
Der Download ist nur für Abonnenten des Dr. DSGVO-Newsletters möglich

Dataskyddseffektvurdering (DSFA) er pålagt i GDPR for bestemte typer af databehandling og skal hjælpe med at identificere og minimere risikoen. Gælder den også for systemer, der bruger kunstig intelligens? En oversigt med anbefalinger.

Podkast om emnet

Risikovurdering for maskinlæring og kunstig intelligens efter podcasten privacy Deluxe #29:

Indledning

Artikel 35 af GDPR introducerer begrebet om persondatakonsekvensvurdering og beskriver, hvornår en sådan skal foretages. I afsnit 1 nævnes det, at bestemmelsen er særligt relevant for nye teknologier. AI er en sådan teknologi. ([1])

En risikovurdering som del af en DSFA skal altid være hurtigt til at oprette. Da risikovurderingen både er en forudsætning til at undersøge, om en DSFA er nødvendig, og også en del af hver DSFA, skal der altid være en del af DSFA'en til at oprette.

Risikovægning = Multiplikation af tre værdier, se artiklen.

Muss nun für jedes System des maschinellen Lernens eine DSFA angestellt werden? Maschinelles Lernen kann også som en ny teknologi betragtes. Fordi de revolutionære tilgange som Transformer eller kapable trænede AI-modeller, men også det nye opvågn af LSTM (Long Short-Term Memory, opfindelse fra Tyskland) er sikker i kombination eller delvis også for sig selv nyttig.

Den nævnte retlige bestemmelse bygger på art, omfang, omstændigheder og formål for behandlingen af persondata. Ved digitale tjenester bør kriteriet vedrørende omfanget af datafremstillingen regelmæssigt anses som opfyldt.

Da en datatilsynsbehandling af følger ikke skal foretages for alle databehandling, er arbejdet med de opgaver, der også udføres udenfor en DSFA, ikke til at regne som en del af DSFA.

Eksempler på sådanne arbejder: Obligatoriske oplysninger, sikring af systemer, uddannelse.

En fuldstændig DSFA er i overensstemmelse med artikel 35, stk. 1 GDPR påkrævet, hvis databehandling forventes at have et højt risiko for rettighederne og friheden til naturlige personer som følge. Hvilke databehandlinger der foregår, skal i henhold til artikel 13 GDPR eller artikel 14 GDPR allerede være kendt i forbindelse med pligtspersondannelsen.

Laut Artikel 35 Abs. 2 DS-bekendtgørelsen henter den ansvarlige ved udførelse af en konsekvensvurdering til dataskydd råd fra dataskutzeksperten. Denne punkt er dog irrelevant for spørgsmålet om DSFA, som man kan se alene på, at i nævnte artikel 2 også står, at DSB'erne kun skal tilføjes, hvis der er benyttet en sådan (se her til som specialtilfælde § 38 DS-bekendtgørelsen).

I følge med artiklen 35, stk. 4 skal tilsynsmyndigheder opstille en liste over behandlingsaktiviteter, der er relevante for en DSFA. Listen fra DSK giver eksempler og nævner f.eks. kundeservice ved hjælp af kunstig intelligens.

Dataprotektionseffektvurdering

Til at begynde med gælder GDPR kun for personlige oplysninger. Adgang til enheder, som reguleres i lex specialis (§ 25 TDDDG, indtil den 14.05.2024 hed det TTDSG), er normalt ikke kerneområdet for AI-applikationer og kan her uden omgående blive efterladet.

Alle andre endda potentielt persondata er således for en DSFA irrelevante. I dette sammanhængende skal nævnes, at en ikke-persondata-punkt også da er persondata, hvis den sammen med et persondata-punkt optræder og kendskabet til begge data-punkter samtidig findes hos samme ansvarlige. Se herfor eksemplet på cookies, der på grund af deres kontakt med IP-adressen skal betragtes som persondata.

Som allerede nævnt, drejer det sig om ny teknologi ved AI-systemer. Det skal derfor ifølge lovgivningen nøje undersøges. Det passer også godt sammen, for når noget nyt indføres, var der jo ikke tid til at beskæftige sig med spørgsmålet om en DSFA skulle oprettes eller ej.

I Artikel 35 § 3 GDPR er nævnt, hvornår en DSFA skal oprettes. Disse tilfælde kan i korte træk beskrives:

  1. Systematisk og omfattende vurdering af personlige aspekter hos fysiske personer, herunder profilering.
  2. Omfattende behandling af særlige kategorier personlige data (politisk mening, sundhedsdata etc.), se Art. 9 § 1 GDPR.
  3. Systematisk omfattende overvågning af offentlige områder.

For alle slags systemer skal en DSFA foretages, hvis den ene af disse tilfælde er givet og de andre betingelser opfylder, herunder risikoen for påvirkede personer. Tag Zoom som eksempel på videokonference-software:

De erklærer sig indforstået med, at Zoom til enhver tid har adgang til de af tjenesten genererede data til hvilket som helst formål, og bruger dem, høster dem, opretter dem, ændrer dem, distribuerer dem, behandler dem, overdrager dem, vedligeholder dem og gemmer dem, såfremt det er tilladt efter loven, inklusive til formålet med produkt- og tjenestedannelse, markedsføring, analyse, kvalitetskontrol, maskinlæring (inklusive til formålet med træning og justering af algoritmer og modeller) …

Ekstrakt fra Zooms brugsbetingelser, fet skrift af mig.

Som læses, må alle data fra videokonferencer, der afholdes med Zoom, af Zoom bruges til næsten hvilke formål i næsten hvilken måde. Videobillederne af deltagere ved videokonferencen er inkluderet ligesom de talte ord eller transkripterne af disse ord. Også viderebringen eller viderebrug af transkripterne og andre data er ifølge disse vilkår tilladt for Zoom. Zoom har efter offentlig presse påført en tilføjelse, der foreslår, at kundedata først skal være blevet godkendt til AI-træning før de kan blive brugt. Dog bevarer Zoom sig retten til at bruge kundedata uden godkendelse til mange andre formål inklusive markedsføring og maskinelt læring! Se også kommentarer nedenfor.

Zoom nævnes også i betingelserne for anvendelse af kunstig intelligens. Hvis disse er medtænkt eller ej, spiller her sandsynligvis ingen rolle ved spørgsmålet om en DSFA.

Her er de tre ovenstående tilfælde af artikel 35 § 3 GDPR dækket af tilfælde 1 og 2. Det er åbenbart også muligt at i videokonferencer åbne personlige aspekter eller diskutere dem. Man tænker blot på planlægningen af tid og eventuelle ferier, pleje af børn eller sundhedsproblemer. Derved bliver også tilfælde 2 åbnet.

Offensigtvis behandler Zoom data meget omfattende og også systematisk. Den systematiske behandling kan sandsynligvis til at begynde med understilles ved alle digitale behandlinger, indtil det modsatte er blevet gjort plausibel. For at dette skal være plausibelt, ville der sandsynligvis være brug for en DSFA.

Når Zoom er en leverandør uden for Europa, skal alle datamodtagere og deres lande identificeres. Dette må ske i hvert fald og er ikke et særligt emne for en DSFA. For hver enkelt land skal derefter undersøges, om personers rettigheder og friheder efter GDPR er garanteret. Det er også ikke et særligt emne for en DSFA. Men hvis disse oplysninger allerede eksisterer og landene ikke kun er Tyskland eller andre fra Europa, så bør disse lande også værdsættes. Det synes enten at være meget lidt besvær at opstille en DSFA for hver enkelt land, eller også er det meget besvær. Lidt besvær spar den diskussion omkring en DSFA, da diskussionen tager længere tid end at skrive det ned. Mange besvær gør dog en DSFA nødvendig, fordi hvor mange spørgsmål der er åbne, skal en persondatafølgeafvikling være til at anse som passende.

Systemer med kunstig intelligens kan særligt berøre ret og frihed for personer. Dette er relevant i henhold til artikel 35, stk. 1 i dataskyddsforskriften (GDPR). Som ChatGPT viser, kan udgifter fra AI på brugerens spørgsmål føre til en høj troværdighed. Brugeren ser resultatet og er ofte begejstret for sprogkvaliteten og konklusionerne fra AI. Det fører også til, at usande eller falske resultater bliver set som gyldige.

Generative AI-systemer, der behandler personlige data og ikke mindst pseudonymiserer dem, er således særligt følsomme at håndtere. Her synes mig en DSFA altid til at være på plads. Selv for de forskningsformål, som anses for værdifulde, skal der foretages en DSFA. Hva' hvis det fremgår af resultaterne, hvilke personer har haft eller har en bestemt sygdom? Er den persongruppe, der modtager resultaterne meget lille og meget tillidsværdig, så skulle dette skriftligt dokumenteres, hvorfor en DSFA er det rette sted.

Systemer, der skal understøtte beslutningen om en persons egnethed, skal også særligt overvejes. Dette profileringsprocess er faktisk med til at påvirke livsforløb. Det kan ikke foregå uden yderligere sikring. En del af denne sikring er en DSFA. Hvis et sådant system nu er en AI eller ej, spiller det ingen eller kun en underordnet rolle.

Anbefalinger

Det bedste er en DSFA, hvis den ikke er nødvendig. For at undgå en DSFA skal kun dataskyddsvenlige systemer anvendes. Til disse kan så også hurtigt en DSFA opstilles. I stedet for at diskutere længe om behovet for noget, kan dette noget simpelthen hurtigt skrives ned.

AI-systemer i særdeleshed skal ikke anvendes af usikre tredje partier, hvis personlige data eller andre følsomme data som egne patenter, forretningssøm og andre hemmeligheder er involveret. Jeg synes, at OpenAI med ChatGPT er et eksempel på en usikker tredje part. Man ved ikke nøjere, hvad der sker med dataene dér. Microsoft og Google er også for mig ikke sikre tredje partier. De bruger alle slags data til egne formål.

En risikovægning hjælper også ved at vurdere, om et system er datavenlig eller ej.

Datavenlighed omfatter alle slags data, der automatisk behandles.

Hvordan virksomhedsindbyggede AI-systemer kan opbygges, har jeg beskrevet her:

Hvis en DSFA skal opstilles for en leverandør af flere tilkaldte tjenester, kunne en dokumenthierarki anvendes. Det foreslår også artikel 35, stk. 1 sidste sætning i dataskyddsforskriften.

  1. Hoveddokument: Almindelige vurderinger til leverandøren og dens underleverandører.
  2. Detail-Dokument for tjeneste: Henviser til det hoveddokument og vurderer detaljer, der er specifikke for tjenesten.

En DSFA kan først opstilles i en meget grob form, der kan betyde meget lidt arbejde. Et eksempel er nævnt nedenfor. Hvis denne Kort DSFA giver anledning til yderligere undersøgelse, ville mere arbejde være påkrævet.

For et AI-system som ChatGPT kunne en DSFA følge således: I korthed er det kendte vurderingskriterium på basis af talerne blot. Talene bliver her ikke nærmere begrundet og skal kun ses som eksempelvis.

Eksempel: Risikovægning for ChatGPT ved dokumentets søgning

Antagelsen for eksemplet er, at medarbejderdata fra et firma indsættes i ChatGPT. Dette sker ved hjælp af en dokument, hvor spørgsmål stilles, som ChatGPT skal besvare. Dette kaldes også for Question Answering Task eller mere specifikt for Ask You Document Task. Dokumentet bliver først automatisk pseudonymiseret. Her kan selvfølgelig fejl opstå, der her i eksemplet værdiges.

Den følgende risikovurdering er en del af en fuldstændig DSFA. En fuldstændig DSFA er således nødvendig, hvis risikoen for pårørte personer ikke er lav nok eller høj nok. I Wikipedia er den nødvendige indhold i en DSFA følgende (her let forkortet fremstillet og med bemærkninger ved siden af hver punkt):

  • Systematisk beskrivelse af de planlagte behandlingsprocesser og formålet med behandlingen → Bør allerede være kendt via Art. 12 GDPR.
  • Vurdering af behovet og tilpasningen af behandlingsprocesserne i forhold til formålet. → Delvist givet ved den her nævnte eksempelvis risikobetonning, delvist også (tvunget) kendt fra Art. 12 GDPR.
  • Vurdering af risikoen for rettighederne og friheden for de pårørte personer. → Se nævnte risikovægning som del af en fuldstændig DSFA.
  • Hjælpearbejde ved højere risiko. → Hvis det udregnede risiko ikke er lille, skulle dette føjes til hermed.

Fang med Opdagelses sandsynlighed. Det er sandsynligheden for, at nogen opdager, at en privatlivsbeskyttelse-ulykke har fundet sted. Jeg vælger som skala talene fra 1 til 10, hvor 1 er den bedste (dvs. største) entdeckenswahrscheinlichkeit. Hvis medarbejderne er tilstrækkeligt uddannede, vil de hurtigt opdage en ulykke og nok også ofte melde den (bortset fra hvis nogen finder ChatGPT meget godt og ikke ønsker at skæmme det). Jeg vælger derfor Værdi 4. Man kan ikke altid se, om output fra en chatbot indeholder personlige oplysninger. Særligt personlige oplysninger er ikke altid let at genkende. Store tekstudgaver kan også føre til, at ikke alt læses, men blinde per Copy & Paste overføres til en offentlig rapport.

Eintrittswahrscheinlichkeit er sandsynligheden for, at en dataskandale finder sted. Værdien 1 repræsenterer den bedste mulighed, altså meget sjældne eller måske aldrig forekommende dataskandaler. At et skandal kunne finde sted synes i eksempelscenariet at være meget sandsynligt. Man kunne nemt dagligt undersøge hundreder af dokumenter. Den automatiserede pseudonymiseringfunktion kan ikke fungere perfekt. Jeg vælger derfor værdien 8.

Schwere des Ereignisses angiver, hvor meget en persondataudskrivelse indtræffer i rettigheder og friheder for individer. Den er afhængig af hvilken slags medarbejderinformationer det drejer sig om. Hvis det drejer sig om arbejdstidssvigt, hvis kendskab ofte kan sammenlignes med sundhedsdata, ville værdien 8 ikke være for lav. Men også præstationsevaluering af medarbejdere ville kunne gøre en sådan værdi til at støtte. Der er meget værre fra medarbejderens synspunkt.

Hvis man gør Entdeckens sandsynlighed, Indtrædsels sandsynlighed og Alvorligheden af begivenheden til at multiplikeres, får man en værdi mellem 1 og 1000. Værdien 1 ville være resultatet af, hvis alle tre kriterier var blevet vurderet med det mest gunstige værdi 1. Værdien 1000 er resultatet af 10 x 10 x 10, det værste forestengelige scenario.

En risikovurdering som en del af en dataskyddseffektbeskeden at opstille, er altid en god idé. Enten bliver den hurtigt lavet. Eller den åbner op nye spørgsmål. I hvert tilfælde bliver det efterfølgende klart, om indsatsen af et digitalt system fra dataskyddssynspunkt eller generelt set er meningsfuld eller ikke.

I et eksempel resulterer der en Værdi på 4 x 8 x 8 = 256 i forhold til en risikovurdering. Nu skal hver ansvarlige selv overveje, fra hvilken trinbrænder værktøjerne skal beskrives, så det begivenhed kan håndhæves ordentligt og hurtigt. En sådan handling kunne være mindst mellemrejseforbudet at bruge ChatGPT eller bruge det ubegrænset.

Jeg ser værdien 200 eller måske også 250 som en trøsteværdi, fra hvilken tid man skal overveje at udarbejde Notfallpläne/ Hjælpeåtgærder.

Indlæggelsen af en risikovurdering fører i hvert fald til, at ChatGPT ikke er brugbar for dette anvendelsesfald "At gennemsøge virksomhedsdokumenter, der kan indeholde medarbejderdata". Datamodtagerne er nemlig ikke kun personer i virksomheden eller muligvis også offentligheden, men også OpenAI, Microsoft og alle underleverandører.

En DSFA skal derfor mindst vurderes på niveau af multiplikationen af tre tal som risikoafvægning. Hvis en trinnsgrænse overskrides, bør man overveje yderligere undersøgelser. En dårlig værdi siger dog ofte også imod anvendelsen af et system. Det gør DSFA således hinfalden, der har gjort en god indsats til fordel for beslutningstagningen.

En risikovægtning kan igen sker i en skemaform. For mange tjenester kan store dele af vægten være ensartede eller lignende, med muligvis andre værdier for risikokriterierne. Den indsats herfor synes mig ofte ikke særligt høj eller endda meget lav.

Konklusion

Hvor omfattende en DSFA er, afhænger af risikoen for et system for pårørende personer. For AI-systemer fra tredje part ser jeg risikovurderingen som en del af en DSFA som altid nødvendig. For egne AI-systemer kan man hurtigt finde ud af, om betragtningen skal udvides eller ej ved at multiplikere tre tal. I almindelighed er de fleste selvstændige AI-systemer usærlige, hvis de ikke bruges til at vurdere medarbejdere, sundhedsdata o.sv. Yderligere juridiske overvejelser udenfor en DSFA er selvfølgelig ikke altid nødvendig. Så skal herkomst og art af indtastedata være klaret op og lige så meget rechtsgrundlag for datafremgang.

Hvis en DSFA udføres af den personlige datatilsynsperson eller af den ansvarlige, er det sekundært, selv om det i praksis er mest relevant for de personlige datatilsynspersoner.

En fuldstændig DSFA kræver som tilføjelse "kun" at tænke sig frem på redningsmidler og nødanlægsplanner. Alle andre nødvendige indhold er allerede givet ved Art. 12 GDPR og en altid meningsfuld, ofte hurtigt afklaret risikovurdering

Spørgsmålet om en dataskyddseffektiv vurdering opstår i hvert fald ikke, når eget eller datavenlige systemer fra tredje part anvendes og risikoen hurtigt kan vurderes som lav. Ved eget systemer, især ved virksomheds-ejede AI-systemer, stilles spørgsmålet om dataløb og -modtagere ikke. De er kendte og kan begrænses frit.

Ved tredjeparts-tjenester fra de sædvanlige mistænkte, som Microsoft, Google eller Zoom, kunne der anvendes en DSFA til hver leverandør, der muligvis blot skulle suppleret med detaljer pr. specifikt brugt service eller plugin.

En DSFA reducerer risikoen, men ikke risikoen for at modtage en beskyldning, advarsel eller retssag på grund af ulovlig brug af tjenester eller plugins. Med dataskyddsvænlige systemer kan meget arbejde spares og rettens sikkerhed væsentligt øges. Man må ofte blot vilje til det. Alternativer findes til mange anvendelsesfald.

Til sidst, en del vigtige aspekter samlet sammen:

  • En risikovurdering er altid meningsfuld og ofte nødvendig at se.
  • Påkræftende oplysninger fra Art. 12 GDPR må i hvert fald være til rådighed. Hvis de nu er til brug for DSFA eller på grund af borgernes rettigheder er blevet udarbejdet, er det underordnet. Omfanget af arbejde vedrørende påkræftende oplysninger kan derfor i hvert fald ikke tilskrives DSFA.
  • Almindelige garantiydelser, som den ansvarlige fra Art. 5 GDPR skal opfylde, er uafhængige af en DSFA. De skal i hvert fald være til stede for alle mulige databehandling. Eksempel: Et trygt adgangspassword til en ChatGPT-adgang. En almindelig passwordpolitik skulle i virksomheden være til stede i enhver fald.
  • Specifikke garantiydelser pr. service skal også være tilgængelige og har ikke noget med en DSFA at gøre. Begrundelse: Mindre risikofylde tjenester kræver ingen DSFA. Alligevel bør der være en garanti, f.eks. for databehandlingens sikkerhed.
About the author on dr-dsgvo.de
My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.

ChatGPT og Bing-AIsom garanti for fejlede resultater. Datavenlighed og datarettighed?