Dataskyddsförfarandepåverkan (DSFA) är i GDPR föreskrivet för vissa typer av dataverkstad och ska hjälpa till att identifiera och minimera risker. Gäller den även för system som använder artificiell intelligens? En översikt med rekommendationer.
Podcast om ämnet
Riskbedömning för maskinellt lärande och konstig intelligens efter avsnitt 29 i podcasten "Dataskydd Deluxe":
Inledning
Artikel 35 i GDPR inför begreppet dataskyddskonsekvensbedömning och beskriver när en sådan ska upprättas. I punkt 1 nämns att föreskriften särskilt gäller för nya teknologier. AI är en sådan teknik. ([1])
En riskbedömning som del av en DSFA ska alltid kunna skapas snabbt. Eftersom risikovärderingen både är en förutsättning för att pröva om en DSFA är påkallad, och också ingår i varje DSFA, måste alltid en del av DSFA skapas.
Riskvärdering = Multiplikation av tre värden, se artikel.
Muss nun für jedes System des maschinellen Lernens eine DSFA angestellt werden? Artificiell intelligens kan också ses som en ny teknik. För att vara riktigt, revolutionära tillvägagångssätt som Transformer eller kapabla föruttränade AI-modeller, men även återupplivandet av LSTM (Long Short-Term Memory, uppfinning från Tyskland) är säkert i kombination eller delvis också för sig själva nyartade.
Den nämnda rättsregeln bygger på art, omfång, omständigheter och syfte för behandlingen av personuppgifter. Vid digitala tjänster torde kriteriet beträffande omfång av datahanteringen regelmässigt anses vara uppfyllt.
Eftersom en dataskyddspåverkanseffektutvärdering inte är nödvändig för alla datahanteringsprocesser, hör den arbetsinsats som även skall utföras utanför en DSFA inte till DSFA.
Exempel på sådana arbeten: Obligatoriska informationer, säkerställande av systemet, utbildningar.
En fullständig DSFA är enligt artikel 35 § 1 GDPR påkallad, så länge datapolitiken förväntas medföra ett högt risk för människors rättigheter och friheter. Vilka datapolitiker som sker måste vara känt inom ramen för de skyldiga uppgifterna enligt artikel 13 GDPR eller artikel 14 GDPR.
Enligt Artikel 35 punkt 2 GDPR tar ansvarig kontrollen av en dataskyddskonsekvensbedömning råd från den personuppgiftsansvarige vid genomförandet. Detta är dock för frågan om DSFA irrelevanta, som man kan se redan på att i nämnda punkt 2 står att DSB ska endast läggas till, så länge en sådan har utsetts (jämför härvid med som specialfall § 38 BDSG).
Enligt föreskrift i artikel 35, punkt 4 skall tillsynsmyndigheterna upprätta en lista över hanteringsåtgärder som är relevant för en DSFA. Listan från DSK ger exempel och nämner till exempel kundtjänst genom konstgjord intelligens.
Dataskyddseffekterutvärdering
Först gäller GDPR bara för personuppgifter. Åtkomster till enheter, som regleras i lex specialis (§ 25 TDDDG, fram till den 14 maj 2024 hette det TTDSG), är vanligtvis inte kärnämnet inom AI-användningar och kan här lämnas utanför.
Alla andra än potentiellt personuppgiftsliknande data är således för en DSFA irrelevanta. I detta sammanhang ska nämnas att ett icke-personuppgiftsliknande datapunkt också är personuppgiftsliknande om det förekommer tillsammans med ett personuppgiftsliknande datapunkt och den som har kännedom om båda datapunkterna samtidigt är en och samma ansvarige. Se till exempel exemplet på cookies, som på grund av sitt sammanträffande med IP-adressen ska betraktas som personuppgiftsliknande.
Som redan nämnts handlar det sig om nya teknologier i AI-systemen. Det måste alltså enligt lagregeln noggrannare undersökas. Detta gör också sinn, eftersom när något nytt infördes fanns ju ingen tidigare diskussion om om det är nödvändigt att upprätta en DSFA eller inte.
I Artikel 35 § 3 GDPR nämns fall som en DSFA ska upprättas. Dessa fall är i korthet:
- Systematisk och omfattande bedömning av personliga aspekter hos fysiska personer, inklusive profilering.
- Omfattande behandling av särskilda kategorier personuppgifter (politiska åsikter, hälsoinformation etc.), se Artikel 9 §1 GDPR.
- Systematisk omfattande övervakning av allmänt tillgängliga områden.
För alla typer av system är en DSFA att genomföra, om något av dessa fall gäller och de andra villkoren uppfylls, till vilka risken för inblandade personer hör. Låt oss ta exemplet med videokonferensprogrammet Zoom. Zoom skriver i sina användarvillkor (giltigt från 07.08.2023, giltighet: 10.08.2023):
Declarerar sig med detta i samsyn, att Zoom tillgriper, använder, inhämtar, skapar, ändrar, distribuerar, bearbetar, överför, vårdat och sparar de data som genereras av tjänsten för något syfte alls, så länge detta är lagligt enligt gällande rätt, inklusive till ändamål att utveckla produkter och tjänster, marknadsföra, analysera, säkerställa kvalitet, maskinellt lära eller künstlig intelligens (inklusive för ändamål att träna och justera algoritmer och modeller) …
Utkast från Zooms användarvillkor, fetstil av mig.
Som man kan läsa, får alla data från videokonferenser som hålls med Zoom av Zoom användas för nästan vilka ändamål som helst på nästan vilket sätt som helst. Videobilderna från deltagarna i videokonferensen omfattar såväl tal som transkript av detta tal. Även vidaregivande eller återanvändning av transkripten och andra data är enligt dessa villkor tillåten för Zoom. Efter påtryck från allmänheten har Zoom senare lagt till ett tillägg som antyder att kunddata endast kommer att användas efter samtycke för AI-träning. Trots detta bevarar Zoom rätten att använda kunddata utan samtycke för många andra ändamål, inklusive marknadsföring och maskinlärande! Se även kommentarer längst ned i inlägget.
Zoom nämns i villkoren även för tillämpningar av konstig intelligens. Om dessa är inkluderade eller inte spelar här väl ingen roll vid frågan om en DSFA.
Här är de två första fallen av artikel 35 § 3 i GDPR täckta. Det är uppenbart att även personliga aspekter kan diskuteras eller nämnas under videokonferenser. Man tänk bara på tidplanering och eventuella kommande semester, barnomsorg eller hälsoproblem. Med det är också fall 2 öppnat.
Tydligt verkar Zoom hantera data mycket omfattande och även systematiskt. Systematisk behandling kan nog först antas vara fallet vid alla digitala behandlingar, tills motsatsen visats vara sann. För att kunna visa detta skulle det dock sannolikt krävas en DSFA.
När Zoom är en leverantör från utanför Europa måste alla mottagare av data och deras länder identifieras. Detta måste ändå ske och är inget särskilt ärende för DSFA. För varje land ska sedan kontrolleras om rättigheter och friheter för individer där uppfylls enligt GDPR. Även detta är inget särskilt ärende för DSFA. Men om dessa uppgifter redan finns tillgängliga och länderna inte bara Tyskland eller andra från Europa kommer, borde dessa länder också värderas. Det verkar antingen vara mycket liten ansträngning att upprätta en DSFA för enskilda länder, eller mycket stor ansträngning. Litet ansträngning sparar diskussionen om en DSFA, eftersom diskussionen tar längre tid än att skriva ner det. Stor ansträngning motiverar rakt av en DSFA, eftersom där många frågor är öppna ska en dataskyddspåföljd bedömas som tillfredsställande.
System för konstig intelligens kan särskilt påverka rättigheter och friheter hos personer. Detta är relevant enligt artikeln 35 § 1 GDPR. Som ChatGPT visar, kan utgifter från AI leda till hög trovärdighet om de ställs till användarens frågor. Användaren ser resultatet och är ofta imponerad av språklig kvalitet och slutsatserna från AI. Detta leder också till att ointresseliga eller falska resultat betraktas som sannolikt.
Generativa AI-system, som hanterar personuppgifter och inte minst pseudonymiserar, är särskilt känsliga att behandla. Här tycker jag att en DSFA alltid är på sin plats. Även för de forskningsändamål som anses vara meningsfulla bör en DSFA genomföras. Vad händer om det från resultaten framkommer vilka personer som haft eller har en viss sjukdom? Även om den grupp som får ta del av resultaten är liten och mycket tillförlitlig, måste detta skriftligen dokumenteras, varför en DSFA är rätt plats.
System som ska stödja beslutet om en persons lämplighet är också särskilt att överväga. Denna process med profilering påverkar ju människors livsbanor. Den kan inte ske utan ytterligare säkerställande. En del av detta säkerställande är en DSFA. Om ett sådant system nu är en AI eller ej spelar ingen eller bara en underordnad roll.
Rekommendationer
Det bästa är en DSFA (dataskyddsförordning) om den inte behövs. För att undvika en DSFA bör endast dataskyddsvänliga system användas. För dessa kan sedan snabbt en DSFA upprättas. Istället för att långsamt diskutera nödvändigheten av något, kan detta även snabbt skrivas upp.
AI-systemen i synnerhet bör inte användas av otronvärda tredje parter när det gäller personuppgifter eller andra känsliga data som till exempel egna patent, affärssekretess eller annan konfidentiell information. Otronvärda tycker jag är OpenAI med ChatGPT. Vad som händer med datorna där vet ingen riktigt så exakt. Även Microsoft och Google är för mig inte trovärdiga tredje parter. De utnyttjar data av alla slag för alla möjliga egna syften.
En riskbedömning hjälper också vid bedömningen om ett system är datavänligt eller inte.
Datatillgänglighet omfattar alla slags data som kan hanteras automatiskt.
Hur företagsägda AI-system kan byggas upp har jag beskrivit till exempel här:
- Dokumentssökning med AI
- Eget företagsartificiell intelligenssystem
- Vanliga tillämpningsområden för lokala AI-system
Om en DSFA ska upprättas för en leverantör av flera inrättade tjänster, kan en dokumenthierarki användas. Detta tyder också på artikeln 35 §1 sista meningen i GDPR.
- Huvuddokument: Sammanfattande bedömningar av leverantören och dennes underleverantörer.
- Detail-Dokument för tjänst: Hänvisar till det övergripande dokumentet och bedömer tjänstspecifika detaljer.
En DSFA kan först upprättas i en mycket grov form som kan betyda litet arbete. Ett exempel nämns nedan. Om denna Kort-DSFA ger anledning till ytterligare undersökningar skulle mer arbete krävas.
För ett AI-system som ChatGPT skulle en DSFA kunna gå till så här. I korthet är det ett beprövat värderingsschema på nummerbaserad grund. Numren förklaras inte närmare och ska ses som exempelvis.
Exempel: Riskbedömning för ChatGPT vid dokumenthämtning
Antagandet för exemplet är att från ett företag läses in anställdas uppgifter i ChatGPT. Detta sker genom ett dokument, mot vilket frågor ställs som ChatGPT ska besvara. Detta kallas också för Question Answering Task eller mer specifikt för Ask You Document Task. Dokumentet pseudonymiseras innan det används. Naturligtvis kan även här fel uppstå, som i exemplet uppmärksammats.
Den följande riskbedömningen är en del av en komplett DSFA. En fullständig DSFA krävs då risken för berörda personer inte är låg eller tillräckligt hög. I Wikipedia anges innehållet i en DSFA på följande sätt (här något kraftigt kantad och med anteckningar vid slutet av varje punkt):
- Systematisk beskrivning av de planerade behandlingsprocesserna och syftet med behandlingen. → Bör redan vara känt enligt artikul 12 GDPR.
- Bedomning av behov och proportionerhet för behandlingsprocesserna i fråga om ändamål. → Delvis genom den här exempelvis nämnda riskbedömningen givna, delvis också (tvungent) känt från Artikel 12 GDPR.
- Bedomning av risker för rättigheter och friheter hos de berörda personerna. → Se nämnda riskvärdering som del i en komplett DSFA.
- Hjälpåtgärder vid högre risk. → Om det uppmätta risken inte är lågt, skulle detta behövas fortsättas med.
Låt oss börja med Upptäcksprobbilitet. Det är sannolikheten att någon upptäcker att ett dataskyddshändelse har inträffat. Jag väljer som skala numren från 1 till 10, där 1 är den mest fördelaktiga (d.v.s. största) entdeckenssannolikhet. Om anställda har fått rätt utbildning kommer de att upptäcka en händelse snabbt och troligen också ofta rapportera om det (utom om någon tycker att ChatGPT är helt fantastisk och inte vill skvallra). Jag väljer därför Värde 4. Man kan inte alltid se om ett utskriftsdatum från en chattbot innehåller personuppgifter. Särskilt personuppgiftsrelaterade uppgifter är inte alltid lätt att upptäcka. Även större textutgivningar kan leda till att man inte läser allt, utan istället kopierar och klistrar in det i en offentlig rapport.
Eintrittswahrscheinlichkeit är sannolikheten för att ett dataskyddshändelse sker. Värdet 1 representerar den mest gynnsamma situationen, alltså extremt sällsynta eller kanske aldrig inträffande dataskyddshändelser. Att en händelse inträffar syns i exemplet som mycket sannolik. Man kunde till och med söka igenom hundratals dokument varje dag. Den automatiska pseudonymiseringsfunktionen kan inte fungera perfekt. Därför väljer jag värde 8.
Schwere des Ereignisses anger på hur mycket en dataskyddshändelse inkräktar på människors rättigheter och friheter. Den är i exemplet beroende av vilken typ av anställdsinformation det handlar om. Om det gäller arbetstidshaverier, vars kunskap ofta kan jämföras med hälsodata, skulle svårighetsgraden väl inte vara för låg med värde 8. Men även prestationsevaluering av anställda skulle föra till ett sådant värde. Det går sannolikt knappt sämre från anställdas synvinkel.
Om man multiplicerar Entdeckenssannolikhet, Inträdes sannolikhet och Tyngd av händelsen får man ett värde mellan 1 och 1000. Värdet 1 skulle uppkomma om alla tre kriterier hade värderats med det mest fördelaktiga värdet 1. Värdet 1000 är resultatet av 10 x 10 x 10, det allra sämsta tänkbara scenario.
En riskbedömning som en del av en dataskyddspåverkan bedömning att ställa upp, är alltid en bra idé. Antingen skapas den snabbt. Eller så väcker den ytterligare frågor. I alla fall blir det tydligt om användningen av ett digitalt system från dataskyddssynvinkel eller i allmänhet syns vara meningsfull eller inte.
I exemplet resulterar ett värde av 4 x 8 x 8 = 256 inom ramen för en riskbedömning. Nu måste varje ansvarig person själv fundera över, från vilken tröskelvärdet särskilda åtgärder ska beskrivas för att kunna hantera händelsen på ett tillfredsställande och snabbt sätt. En sådan åtgärd kunde vara det minst mellanliggande förbudet att fortsätta använda ChatGPT eller använda den obegränsat.
Jag ser värdet 200 eller kanske också 250 som en tröskelvärde, från och med när man bör tänka på att formulera Notfallpläner respektive Hjälpåtgärder.
Att genomföra en riskbedömning leder i alla fall till att ChatGPT inte är användbar för tillämpningsområdet "Genomgång av företagsdokument som innehåller anställdas uppgifter" för ChatGPT. Mottagarna av data är nämligen inte bara personer inom företaget eller eventuellt även i allmänheten, utan också OpenAI, Microsoft och alla underleverantörer.
En DSFA bör därför minst sett genomföras på nivån för multiplikation av tre siffror som en riskbedömning. Om ett tröskvärde överskrids bör man överväga ytterligare undersökningar. En dålig värdering talar dock ofta också emot att använda ett system. Det gör DSFA sedan hängande, den har gjort en bra tjänst vid beslutsfattningen.
En riskbedömning kan återigen ske schematiskt. För många tjänster kan stora delar av bedömningen följa samma mönster eller vara likartade, med kanske andra värden för riskkriterierna. Ansträngningen härvidlag syns mig oftast inte särskilt hög eller till och med mycket låg.
Sammandrag
Hur omfattande en DSFA ska utformas, beror på risken för systemet för de inblandade personerna. För tredjeparts-AI-system ser jag riskbedömningen som en del av en DSFA som alltid är nödvändig. För egna AI-system kan man snabbt avgöra om utvidgning behövs genom att multiplicera tre siffror. I regel är de flesta företagsägda AI-system okritiska, förutsatt att de inte används för att bedöma anställda, hälsodata m.m. Ytterligare juridiska överväganden utanför en DSFA är inte alltid nödvändiga. Så måste ursprunget och arten av ingående data vara klara och även rättslig grund för dataverksamheten.
Om en DSFA genomförs av dataskyddsoffentlighetsombudet eller av den ansvarige, är det andraordigt, även om det i praktiken främst är relevant för DSB:erna.
En fullständig DSFA kräver som tillägg "bara" att tänka ut åtgärder för att avhjälpa och nödfallsplaner. Alla andra nödvändiga innehåll är redan genom Artikel 12 GDPR och en alltid meningsfull, ofta snabbt utförd riskbedömning redan givet,
Frågan om en dataskyddsförvaltning skall genomföras ställs i varje fall mindre då egna eller datavänliga system från tredje part används och risken kan snabbt bedömas som låg. Vid eget system, särskilt vid företagsägda AI-system, uppstår frågan om datalöp och datapmottagare inte. De är kända och kan begränsas hur mycket som helst.
Vid tredjepartsleverantörer av den vanliga misstänkta, som Microsoft, Google eller Zoom, kunde en DSFA användas per leverantör i sin helhet, som eventuellt bara skulle kompletteras med detaljer per specifikt installerat tjänst eller plugin.
En DSFA minskar dock inte risken att få en anmälan, varning eller rättsprocess på grund av olaglig användning av tjänster eller plugins. Med dataskyddsvänliga system kan mycket arbete sparas och rättssäkerheten markant ökas. Man måste ofta bara vilja. Alternativ finns för många tillämpningsfall.
Till sist, ett par viktiga aspekter sammanfattade:
- En riskbedömning är alltid meningsfull och ofta också nödvändig att se som sådan.
- Pålagda uppgifter från Artikel 12 GDPR måste i alla fall finnas tillgängliga. Om de nu skall användas för DSFA eller på grund av rättigheter för berörda personer är av underordnad betydelse. Ansvaret för arbete med pålagda uppgifter kan därför inte heller åläggas DSFA.
- Allmänna garantier som den ansvariga från Artikel 5 GDPR måste upprätta, är oberoende av en DSFA. De måste ändå utföras för alla möjliga dataverkningar. Exempel: Säkert lösenord för ett ChatGPT-tillträde. En allmän lösenordspolicy bör i varje fall finnas inom företaget.
- Specifika garantier per tjänst ska också tillhandahållas allmänt och har ingenting att göra med en DSFA. Motivering: Mindre riskfyllda tjänster kräver ingen DSFA. Ändå bör det för dessa finnas en garanti, exempelvis för dataskyddets säkerhet.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
