Auteurs van online beschikbare werken hebben volgens de wet de mogelijkheid om een gebruiksvrijwilligheid uit te spreken. Zo moeten werken worden beschermd tegen het binnendringen in elektronische hersenen. Werkt deze aanpak? In dit artikel worden mogelijkheden en beperkingen genoemd.
Inleiding
Kunstmatige intelligentie heeft enorme capaciteiten ontwikkeld, die de gemiddelde intelligente mens vaak aanzienlijk overtreffen. De Turing-test wordt als positief afgerond beschouwd. Deze test beoordeelt of een computer even intelligent is als een mens. Yes, dat is hij nu. Zoals ChatGPT bewijst, kan een AI zelfs in bepaalde gebieden de mens ver overtreffen, tenminste wanneer men het gemiddelde van alle mensen neemt. AI kent geen vermoeidheid en kan altijd betere hardware gebruiken, heel anders dan de mens met zijn zeer beperkte brein. De enige voordelen van de mens zijn volgens mij nog de sensoriek en de capaciteit om de omgeving te verkennen en waar te nemen. Dat zal zich binnenkort aanzienlijk veranderen ten gunste van kunstmatige systemen.
AI-modellen kunnen online teksten en beelden van auteurs bijna onbeperkt opsnuiven, en dat rechtsgeldig. Het wetsvoorstel geeft auteurs het recht op een gebruiksvoorbehoud, waarvan er in feite geen sprake is. De redenen zijn puur organisatorisch en technisch van aard.
Deze verbazingwekkende vaardigheden van AI beangstigen tegelijkertijd. Auteurs maken zich zorgen dat hun werken nu door een elektronisch brein worden opgeslokt en verwerkt. Google heeft dit al gedaan, maar niet zo veel mensen waren opgewonden: Iemand geeft een zoekwoord in de zoekmachine in. In plaats van dat uw website met het zoekwoord passend verschijnt en u de gebruiker kunt vangen en voor uw legitieme doeleinden kunt gebruiken, wordt de antwoord als extractie van uw inhoud in de zoekmachine gegeven. De gebruiker landt zelfs niet op uw website, maar wordt eerder afgesloten. U bent de content-leverancier en de domme. Google is blij. Voor de gebruiker maakt het niets uit.
Uit dit is voortgekomen de eis van een toestemmingsplicht. De auteur moet dus toestemmen dat zijn werk door een AI wordt gebruikt. Andere eisen alleen wat in de wet staat, namelijk een keuzemogelijkheid. Deze is in § 44b Abs. 3 UrhG vastgelegd en wordt daar zo geformuleerd:
Gebruiken naar artikel 2 lid 1 [Vervielfoudigingen van rechtmatig toegankelijke werken voor het Text and Data Mining] zijn alleen toegestaan, als de rechthebbende zich deze niet heeft voorbehouden. Een gebruiksvoorbehoud bij online toegankelijke werken is alleen dan effectief, wanneer dit in machinaleesbare vorm geschiedt.
Artikel 44b, lid 3 van de Uitvoeringswet auteursrecht
Verdere kopieën van auteurswerken voor doeleinden van kunstmatige intelligentie moeten verwijderd worden, zodra ze niet meer nodig zijn. Dat is echter geen probleem, want als je een tekst goed hebt gelezen, weet je dan ook zonder het origineel wat de tekst bedoeld heeft. Zo werkt het ook met een AI.
De voorwaarde van gebruik vanuit technisch oogpunt
Online beschikbare werken zijn bijvoorbeeld websites, verlinkte PDF-bestanden, afbeeldingen, audio-bestanden, broncodebestanden of gratis e-boeken. Auteurs van dergelijke werken hebben volgens § 44b UrhG geen toestemmingsrecht (toestemmingsteken), maar alleen een opt-outmogelijkheid. Wanneer de auteur het signaal voor opt-out niet geeft, mag zijn tekst volgens de genoemde wetgeving worden gelezen en gebruikt worden voor text and data mining. Onder deze Grondverweringprocessen begrijp ik ook toepassingen van kunstmatige intelligentie. Met deze opvatting ben ik waarschijnlijk niet alleen.
Overigens is de term Uitstapje nemen eigenlijk geen synoniem voor gebruikvoorbehoud. Want een Opt-Out werkt ook in het verleden, terwijl een gebruikvoorbehoud alleen in de toekomst geldt. Is het gebruikvoorbehoud pas na een leesactie door een crawler gegeven, dan heeft het ten aanzien van deze leesactie geen effect.
Hoe ziet een afwijzingsmogelijkheid technisch eruit?
Voor zoekmachines en andere crawlers is deze mogelijkheid al beschikbaar. Deze wordt gegeven door de robots.txt-bestand. Dit bestand volgt een algemeen vastgestelde, verder verspreide en algemeen bekende conventie. Elke zoekmachine die wil doen alsof ze rechtsconform is, respecteert dit bestand.
De robots.txt-bestand van een website is beschikbaar onder de hoofdpad, dus bijvoorbeeld onder dr-dsgvo.de/robots.txt. Hij ziet er voor mijn blog zo uit:
# robots.txt
User-agent: ia_archiver
Disallow: /
User-agent: archive.org_bot
Disallow: /
User-agent: slurp
Disallow: /
User-agent: ChatGPT-User
Disallow: /
User-agent: CCBot
Disallow: /
Opmerking: Ik gebruik ook een dynamische bot-beveiliging die enkele zoekmachines blokkeert.
In mijn robots.txt-bestand is geregeld dat het Internet Archief mijn website niet mag lezen. Dit wordt aangegeven door de User-Agent ia_archiver en de directie Disallow. Eveneens verbied ik ChatGPT om te crawlen, zoals uit de spreken User-Agent ChatGPT-User kan worden opgemaakt.
Welke User-Agent naam voor welke zoekmachine, welk crawler en welke AI-platform te gebruiken is, is ad hoc onbekend. Grote platformen publiceren de of de namen van hun crawlers (User-Agents). Een crawler is een programma dat online beschikbare inhoud afgrast.
Het hele principe van de robots.txt-bestand is gebaseerd op conventies. Technisch gezien is het proces heel eenvoudig. Is deze conventie er niet, dan is dit proces er ook niet.
De voorbehoudsrecht van online beschikbare werken tegenover een AI is voor auteurs feitelijk niet mogelijk. De reden is de ontbrekende technische conventie. Reeds getrainde AI-modellen overwegen sowieso geen voorbehalte die pas na het trainingsproces zijn uitgesproken.
Verwijst naar artikel 44b, lid 3 van de Uitvoeringswet auteursrechten.
Veronderst u dat u een nieuwe AI-platform wilt blokkeren, dat gisteren in de pers bekend werd, hoe doet u dat? Eerst wist u nog niets van dit platform en kon dus ook niet op zoek gaan naar het user-agent van dit platform dat u vandaag wilt blokkeren. Toch zou een Roland of een Susi zelfs een eigen AI-model kunnen bouwen en hiervoor met een eigen crawler inhoud uit het internet zuigen.
Viele Artikel in PDF-Form · Kompakte Kernaussagen für Beiträge · Offline-KI · Freikontingent+ für Website-Checks



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
