Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen

AI-systemen en AI-wet: zorgen voor transparantie en correctheid

0
Dr. DSGVO Newsletter detected: Extended functionality available
More articles · Website-Checks · Live Offline-AI
📄 Artikel als PDF (alleen voor abonnees van de nieuwsbrief)
🔒 Premium-Funktion
Der aktuelle Beitrag kann in PDF-Form angesehen und heruntergeladen werden

📊 Download freischalten
Der Download ist nur für Abonnenten des Dr. DSGVO-Newsletters möglich

AI-systemen leveren onvoorspelbare resultaten op. Het probleem kan niet worden opgelost voor AI-systemen met een algemeen doel (ChatGPT), maar wel voor bedrijfseigen AI-systemen met een specifiek doel. Alleen al uit de GDPR kan een transparantieverplichting worden afgeleid. Exploitanten en aanbieders van AI-systemen moeten voldoen aan aanvullende verplichtingen onder de AI-wet.

Inleiding

Hoe kun je een AI-systeem transparant maken? Het antwoord op deze vraag voor algemene AI-systemen is: helemaal niet. Dit komt omdat deze algemene systemen, inclusief ChatGPT, werken op basis van neurale netwerken. Hoe dit netwerk werkt is bekend. Als je een formule zou opschrijven die het netwerk beschrijft, zou niemand het begrijpen, laat staan het goed kunnen lezen.

De GDPR schrijft in Artikel 5 de plicht tot transparantie bij het verwerken van persoonsgegevens voor. Deze geldt dus voor alle AI-systeem, waarin persoonsgegevens worden verwerkt. Dit zijn alle systemen, in welke tijdens het trainingsproces of bij de gebruikersingang (vaak via een prompt) persoonsgegevens zijn binnengekomen. Dat is een feit, die (alleen?) door de Hamburgse gegevensbeschermingsbeambte in gevaarlijke wijze wordt ontkend.

In art. 5, §1, lid d GDPR wordt geëist dat gegevens inhoudelijk correct zijn, dus juist moeten zijn. Dit geldt voor alle persoonsgegevens in AI-systeem. Ten minste op het moment van inferentie, dus wanneer een AI-systeem een uitvoeringsresultaat produceert, moet deze wet- en regelgeving worden nagekomen.

De AI-Verordening (AI Act) definieert verplichtingen, die vooral leveranciers van AI-systemen moeten nakomen. Bijzondere verplichtingen worden opgelegd voor hoogrisicokunstmatige intelligentie. Deze soort systeem zal in de praktijk een uitzondering zijn.

De meeste bedrijven die AI-systeem gebruiken, zijn exploitanten. Voor exploitanten gelden veel minder verplichtingen dan voor leveranciers. Exploitant is men als onderneming of organisatie volgens art. 3 Nr. 4 AI-VO, wanneer men „een AI-systeem in eigen verantwoordelijkheid gebruikt.” Alles wat daarbovenuit gaat, valt onder de leverancier-begrip (art. 3 Nr. 3 AI-VO).

Een idee voor het vergroten van de transparantie en documentatie van AI-systemen kwam bij de auteur op tijdens een bijeenkomst van de AI-expertgroep van de Staatscommissie voor gegevensbescherming van Nedersaksen, waarvan de auteur lid is. De auteur heeft eerder ook een boek gepubliceerd over testgestuurde softwareontwikkeling.

Aan de ene kant is transparantie een externe presentatie van AI-resultaten. Maar interne transparantie, d.w.z. voor de operator van een AI, is bijna nog belangrijker: Hoe werkt de AI? Welke resultaten levert het op?

Bewijs van de juistheid van AI-outputs

In het algemeen is het niet mogelijk om volledig te garanderen dat een AI alleen correct uitgeeft. Het is echter wel mogelijk om in de buurt te komen. Voordat er een suggestie in dit verband wordt gedaan, wordt er een voorbeeld gegeven door de zeer goede DEEPL vertaler (uit Duitsland!), die zelf AI gebruikt en, net als elk ander AI systeem, soms fouten maakt:

DEEPL vertaalfout, bron: Klaus Meffert

DEEPL werd gevraagd een tekst met een geldbedrag te vertalen. DEEPL vertaalde €1.050,00 op zo'n manier dat het bedrag in euro's werd vervangen door een bedrag in ponden. Dit is duidelijk fout. Voor iedereen die het zelf wil uitproberen: Het hangt af van de totale tekst! Dit is gedeeltelijk verborgen in de bovenstaande schermafbeelding omdat het semi-gevoelige informatie what. Je krijgt waarschijnlijk een correct resultaat als je alleen de laatste zin in DEEPL invoert. Maar als de preambule tekst anders is, kan de fout optreden. Dit alleen al laat zien hoe niet-transparante AI-systemen werken.

Fouten kunnen dus niet worden vermeden. Hoe kun je toch aan je transparantieverplichting voldoen en de juistheid van AI-uitvoer zoveel mogelijk garanderen?

De antwoord is: Door testgevallen.

Testgevallen zijn paren van werkelijke invoer en beoogde uitvoer. Een testgeval bestaat uit een werkelijke invoer en een werkelijke uitvoer die als goed wordt geaccepteerd. De AI-regeling (AI-VO) heeft hier blijkbaar zelfs rekening mee gehouden:

Art. 3 nr. 53 van de AI-verordening definieert de term "plan voor een praktijktest" als "een document waarin de doelstellingen, methodologie, geografische, populatie- en temporele reikwijdte, monitoring, organisatie en uitvoering van een praktijktest worden beschreven".

De nr. 56 van hetzelfde artikel definieert AI-Kompetentie als "de vaardigheden, kennis en inzicht die aanbieders, beheerders en betrokkenen mogelijk maken om AI-systemen op een deskundige manier toe te passen en zich bewust te zijn van de kansen en risico's van AI en mogelijke schade die ze kunnen veroorzaken

Met behulp van testcases kunnen operators (en nog meer providers) zich meer bewust worden van de kansen en risico's van de AI die ze exploiteren of aanbieden.

Auch kunnen de in artikel 3, lid 60 van de AI-VO genoemde Deepfakes zo geïnjecteerd worden. Hier gaat het om een "door AI gegenereerde of gemanipuleerde beeld-, geluids- of videomateriaal dat op echte personen, objecten, plaatsen, instellingen of gebeurtenissen lijkt en waarbij een persoon foute informatie over iemand krijgt". Bij beeldmodellen zou men erop toezien dat invoer die gericht is op reële personen en deze in het nadeel wilde stellen, zo goed mogelijk herkend en tegengehouden worden. In elk geval kan met behulp van testgevallen al gedocumenteerd worden waar (nog) de zwakke plekken van het AI-systeem liggen.

Testgevallen zijn een uitstekend middel om de kwaliteit van AI-systemen te documenteren. Ze kunnen dergelijke systemen ook transparanter maken en hun resterende zwakke punten aan het licht brengen.

De verplichting voor aanbieders van AI-systemen zonder hoog risico om hun eigen systeem te beoordelen, zoals bepaald in artikel 6, lid 4, van de AI-verordening, kan ook via testcases plaatsvinden.

Het risicobeheersysteem waarnaar wordt verwezen in artikel 9, lid 1, van de AI-verordening kan zeer goed worden onderbouwd met behulp van testcases.

Talrijke andere bepalingen in de AI-wet leggen verplichtingen op aan aanbieders en exploitanten van AI-systemen die kunnen worden ondersteund door gedocumenteerde testcases. Deze omvatten:

Ganzen Artikel jetzt über kostenfreien Dr. DSGVO Newsletter lesen.
Weitere Extras für Abonnenten:
Viele Artikel in PDF-Form · Kompakte Kernaussagen für Beiträge · Offline-KI · Freikontingent+ für Website-Checks
Schon Abonnent? Link im Newsletter anklicken & diese Seite auffrischen.
Newsletter abonnieren
About the author on dr-dsgvo.de
My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.

AI: Welk taalmodel is het beste?