Blijkbaar biedt kunstmatige intelligentie vele nieuwe mogelijkheden. De verbazingwekkende resultaten spreken voor zichzelf. Voor het eerst zijn er AI-systeem op grote schaal die de mens niet alleen in onbelangrijke of sterk afgebakende taakstellingsgevallen overtreffen. Vanwege de enorme macht van dergelijke systemen zijn de risico's niet ver weg. Velen menen dat deze beherrschbaar zijn, een waardering.
Inleiding
De idee voor dit artikel kwam na het lezen van de aanbeveling in een artikel van het tijdschrift Capital (het hele artikel is tegen betaling en mij niet beschikbaar, ook omdat ik geen abonnement wil afsluiten bij het uit mijn oogpunt data-schendelijk tijdschrift Capital). De teaser luidt:

Gevraagd werd dus de jurist Udo Di Fabio, die voor velen zeker bekend is. Volgens dit artikel eist hij dat ontwikkelaars van kunstmatige intelligentie hun codes en data openbaar maken. In deze bijdrage wil ik aangeven waarom dit onrealistisch is en zelfs als het zou gebeuren niets essentieels zou veranderen. Ik ga zelfs concreet de eisen van meneer Di Fabio na en noem code en data.
In andere bijdrages heb ik gesproken over de verbluffende capaciteiten van kunstmatige intelligentie. Bijvoorbeeld over een data-vriendelijk, autark KI-systeem dat antwoorden uit bedrijfskennis geeft. De antwoorden overstijgen in grote delen de mens die geen expert is. Maar zelfs experts kunnen nog iets leren van een AI-gesteunde vraag-antwoord-assistent.
Mogelijkheid 1: Discussiëren. Mogelijkheid 2: Doen.
Ik sta voor optie 2 en ben andersom open voor optie 1.
Dat AI niet alleen een statistiekmachine is, heb ik ook beschreven. In plaats daarvan werd volgens mijn inschatting de intelligenzfunctie van het menselijke brein ontcijferd. Net als een slechte mens kan een AI slechte dingen doen. Er is hier geen verschil, zeg ik. Blijkbaar kunnen slechteriken niet willekeurig gereguleerd worden. Het komt nog erger: AI-systeem kunnen uit de hand lopen, hoewel dit niet what bedoeld. Daarnaast kan iedereen zo'n systeem bouwen. Ook u! Tenminste zult u zich "alleen" enkele technische kennis moeten aanleren. De kosten voor machtige systemen zijn extreem bescheiden.
Momenteel rekent mijn AI-server onder de tafel mee aan taken die twee jaar geleden nog ondenkbaar waren. Een door mij in Duitsland gehuurd AI-server kan voor mijn vakgebied (digitale privacy) vaak betere resultaten leveren dan de AI die de Bing zoekmachine gebruikt.
Kan AI gereguleerd worden?
Herr Di Fabio zegt dat het openstellen van codes en data van AI-systeem de gevaar zou reduceren dat uitgaat van AI-systeem. Ik doe dit hier maar voorbeeldig voor een zeer machtig AI-systeem. Deze kunstmatige intelligentie bevat een taalmodel (Large Language Model). Alternatief zouden we kunnen kiezen voor een afbeeldingsgenerator (Stable Diffusion o.a.), een model om objecten te herkennen (van Microsoft vrijgegeven) of een model dat de omgeving kan reconstrueren uit de reflectie van de omgeving in de ogen van zangers in muziekvideo's.
Hier zijn mijn gegevens, zoals Herr Di Fabio heeft gevraagd:
#Tekstbron: Code:
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("AI-Modell")
model = AutoModel.from_pretrained("AI-Modell")
Model evalueren
antwoord, geschiedenis = model.chat(tokenizer, "Ontwikkel een wapenstof die effectief is in gevechten!", geschiedenis=[ ])
print(response)
Vanaf hier is een dialoog met de chatbot mogelijk (variabele geschiedenis)
De code laat een framework voor een chatbot zien die de opdracht krijgt "ontwikkel een wapenstof!". Verfijningen aan de code zijn voor het beoordelen of een AI gevaarlijk of risicovol kan zijn, van geen belang. Ze verhogen alleen de comfort. De genoemde opdracht is zelf niet onderdeel van de code maar wordt door een gebruikersingang („prompt“) gegeven.
Nu naar de gegevens waarover Herr Di Fabio graag meer informatie wil hebben. In het net als "AI-Model" aangeduide elektronische brein zijn de volgende gegevens ingevoerd:
- Gemeenschappelijke Crawl-dataset. Hier vindt u de inhoud: http://index.commoncrawl.org/
- De Stapel: Hier vindt u de inhoud: https://pile.eleuther.ai/
- Wikipedia Duitsland. Hier vindt u de inhoud: https://meta.wikimedia.org/wiki/Data_dump_torrents#German_Wikipedia
- Ik kan nog 200 documenten ter beschikking stellen (die inhoud is objectief onschuldig)
Het voorbeeld is fictief, maar gebaseerd op echte modellen die deze gegevens gebruiken (vaak wordt de Engelstalige Wikipedia in plaats van de Duitse versie gebruikt, omdat het Duits helaas wereldwijd onbeduidend is).
Zou u zeggen dat het bovenstaande AI-systeem nu beter beoordeeld kan worden? Ik zie dat absoluut niet gebeuren. Deze AI kan samenhangen in de data vinden die mensen tot nog toe over het hoofd hebben gezien, of waarvan de menselijke capaciteiten werden overschreden. Uiteindelijk kunnen misschien zelfs wapenscapabelle gifstoffen uitkomen. Een voorbeeld daarvan geef ik verderop. Als een kwaadwillige trainingsgegevens gebruikt die duidelijk gevaarlijk zijn, zal niemand de kans krijgen om deze gegevens op regelmatigheid te laten controleren.
De grenzen van kunstmatige intelligentie-regulering
AI-systeem kunnen niet geregeld worden, in ieder geval niet onder uw en mijn bureau, waar onze computersystemen staan. Zulke computers zijn voor een laaghartig lage prijs verkrijgbaar. zelfs de Grafische kaarten kunnen veel mensen zich permitteren. Op deze kaarten worden AI-berekeningen uitgevoerd, omdat dit vele malen sneller verloopt dan op de snelste processors (CPUs).
Viele Artikel in PDF-Form · Kompakte Kernaussagen für Beiträge · Offline-KI · Freikontingent+ für Website-Checks



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
