Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen

De gevaar achter AI-agenten: Macht zonder controle?

0
Dr. DSGVO Newsletter detected: Extended functionality available
More articles · Website-Checks · Live Offline-AI

Als buzz-woord zijn AI-agenten overal bekend. Met het Moltbot (Clawdbot) werden de kunstmatige agenten dan definitief populair. Echter, hebben AI-agenten om effectief te kunnen werken, uitgebreide rechten nodig. Dat betekent een grote gevaar dat van dergelijke autonome en ondoorzichtige programma's uitgaat.

Introductie

De e-mails met standaardvragen die in uw inbox binnenkomen, worden automatisch beantwoord, zonder dat u hoeft te interveniëren. U typt een zoekopdracht in uw Signal-messenger. Uw AI-agent neemt de taak over, zoekt de benodigde informatie op in zoekmachines en maakt een antwoord dat u een minuut later in de messenger kunt lezen of via een link kunt openen naar een rapport van daaruit.

Precies dit en nog veel meer is met AI-agenten mogelijk. Er bestaat zelfs een Open-Source-oplossing die dat doet. Ze heet Clawdbot (vroeger Clawdbot) en werd binnen korte tijd bekend. De ontwikkelaar van Moltbot wist dat te bereiken wat miljarden-dollar-waardige Big Tech-concernen eerder niet op de rails kregen.

Moltbot biedt de mogelijkheid om vaak gebruikte kanalen en diensten aan te sluiten, u. a.

  • Berichten: Signal, Discord e.d.
  • E-mail-diensten: via IMAP bijna alle platforms
  • Productiviteit: Agenda's, taaklijstjes, e.d.
  • Ontwikkeling: Jira, NPM (NodeJS) e.d.
  • Slimhuis: Philips Hue, enz
  • AI-leveranciers: Alle bekende en lokale modellen

In het nieuws kwam Moltbot waarschijnlijk door het zogenaamde Moltbook. Moltbook is een sociaal netwerk voor agenten.

Moltbook als sociale netwerk voor agenten. Bron: moltbook.com

Agenten interacteren dus met andere agenten, en dat gebeurt opzettelijk. Moderne taalmodellen maken het mogelijk. Bovendien zijn open-source LLMs vaak even krachtig als de commerciële topmodellen en bieden ze een concurrent voor ChatGPT. In tegenstelling tot OpenAI's oplossing biedt lokale AI, die ook door Moltbot wordt ondersteund, digitale soevereiniteit bij altijd gelijk blijvende (lage) kosten. ChatGPT berekent bij automatisering via de API na gebruik welke omvang het is geweest, maar dat is vooraf niet bekend.

AI-agenten bieden verbluffende mogelijkheden. Voordat ingegaan wordt op de problemen met AI-agenten, moet eerst worden uitgelegd wat een AI-agent precies is en wat hem onderscheidt van een gewone AI-dienst.

Wat is een AI-agent?

Een AI-agent verschilt van een gewoon AI-systeem. Hieronder wordt het verschil verduidelijkt. De grenzen zijn echter vloeibaar.

AI-Agent

Een AI-agent is autonoom of semi-autonoom en onderscheidt zich vooral door de volgende kenmerken:

  • Doelgericht: Heeft eigen doelen en kan stappen plannen om deze te bereiken
  • Handelingscapabel: Kan zelfstandig beslissingen nemen en meerdere op elkaar volgende acties uitvoeren
  • Toolgebruik: Kan verschillende tools gebruiken (bijv. zoekopdrachten, databases, APIs)
  • Interaktief: Interageert met zijn omgeving en past zich aan resultaten aan
  • Voorbeelden: Een assistent die zelfstandig onderzoekt, code uitvoert en iteratief een probleem oplost

In tegenstelling hieraan staan 'klassieke' AI-programma's of conventionele AI-systemen.

AI-Service/AI-Programm

Een AI-service is eerder passief en functiegericht:

  • Reactief: Reageert op specifieke vragen
  • Functiespecifiek: Biedt een bepaalde functie (bijv. afbeeldingherkenning, vertaling)
  • Invoer → Verwerking → Uitvoer: Volgt een vast patroon zonder eigen initiatief
  • Zonder status: houdt typisch geen lange-termijn doelen vast
  • Forbeelden: Een vertaal-API, een beeldherkenningsservice, een eenvoudige chatbot

Kortom: Een agent handelt zelfstandig, terwijl een service op aanvraag reageert. De grens is echter vloeibaar – een AI-service kan onderdeel zijn van een agent.

Gevaar door AI-agenten

Een voorbeeld uit de praktijk verduidelijkt het probleem met AI-agenten. Het gaat om Microsoft Copilot. Copilot heeft agentische structuren. Met AI-agenten samen heeft Copilot in elk geval dat het een breed scala aan systeemtoegang heeft, om de gebruikers te kunnen helpen.

Dit leidde ertoe dat Copilot aanvallbaar werd en gegevens van Copilot-kunden naar hackers stuurde. De beveiligingslek is onder het label EchoLeak bekend.

De aanvalsvariant genaamd EchoLeak: via e-mail wordt uw Copilot op afstand bestuurd, door kwaadwillenden.

Het slachtoffer, dus u, als uw bedrijf Copilot gebruikt, krijgt dus een onschadelijke ogende e-mail van een aanvaller. U leest deze e-mail zelf niet. U opent deze e-mail zelfs niet eens. Dat doet uw Copilot voor u, want u vertrouwt Microsoft tenslotte uw leven en uw gegevens toe.

Een agent die e-mails mag lezen, leest die e-mails natuurlijk ook. Anders zou de toestemming om uw e-mails te lezen immers zinloos zijn.

Een AI-agent die anderen namens u een bericht mag en moet schrijven, doet dat dan ook hopelijk. Anders hadden u die agent helemaal niet nodig. Als een ondoorzichtig programma (= AI-agent) nu berichten naar de verkeerde ontvangers stuurt of met ongewenst inhoud, kan iedereen zich de gevolgen zelf voorstellen.

AI-agenten zullen steeds of zeer krachtig of (in plaats daarvan) onschadelijk kunnen zijn. Prestaties sluiten gevaarlijkheid quasi altijd in.

Daan zal zich nooit veranderen, net zoals de bestaan van licht.

Sommige mensen denken dat het straks allemaal beter wordt. Onzin. Er zijn technische en conceptuele grenzen die niet kunnen worden overwonnen.

Analoog gaat het met Agentic Coding: U vertelt de AI-programmeur waar op de harde schijf (of in het intranet of internet) uw broncode staat. Vervolgens typen jullie een instructie in, bijvoorbeeld "voeg een onderhoudsview toe om nieuwsbrief-geabonneerden te kunnen beheren". De AI-agent werkt nu stilletjes op basis van uw code, wijzigt een paar bestaande codes en voegt nieuwe toe. Uw hoop is dat u het gewenste resultaat hebt bereikt.

Deze proces van het programmeren van AI met behulp van agenten is maximaal ondoorzichtig. Een tussenfase zijn agenten die bij elke geplande wijziging in uw programma-code vragen of u als ontwikkelaar daarmee akkoord gaat. Maar dat gaat niet lang goed. Zodra u de Autopiloot activeert en bent uitgeliefd.

In plaats van Agentic Coding is er een betere aanpak om efficiënt met AI te programmeren. De productiviteitstoename bedraagt een factor 5, naar onze ervaringen en de feedback van de getrainde ontwikkelteams.

Conclusie

Programma's die uitgebreide toegang hebben tot andere systemen, hebben die toegang omdat ze voor die toegang bedoeld zijn. Anders zou de toegang niet bewust worden verleend.

Een programma dat e-mails moet analyseren, moet en kan deze e-mails lezen. Waar dit alleen al toe kan leiden, laat de realiteit zien. Angreppers kunnen instructies in e-mails verbergen die AI-agenten kunnen manipuleren.

Waarom kunnen AI-agenten worden gemanipuleerd? Omdat het zich om hoog flexibel, ondoorzichtige systemen handelt die niet regel-gebaseerd, maar taak-gebaseerd werken.

AI-agenten krijgen geen regels voorgelegd. AI-systemen krijgen geen regels voorgelegd. Ze leren deze regels zelf op basis van voorbeelden. Dit wordt aangeduid als AI-training.

Daarom zijn AI-agenten potentieel zeer krachtig en potentieel zeer gevaarlijk: ze zijn "intelligent" en kunnen ook onbekende problemen vaak uitstekend oplossen. Tegelijkertijd zijn ze machtig omdat ze omvattende bevoegdheden hebben gekregen.

Iedereen die op een oplossing voor dit probleem wacht, kan lang wachten. In plaats daarvan moet men kiezen: toegang tot alle mogelijke systemen verlenen ODER een acceptabel risico nemen. Beiden tegelijkertijd bestaat er praktisch niet.

Ook wie in Agentic Coding investeert, zet in op de verkeerde trein. Te weinig programmeercompetentie wordt vervangen door gevaarlijke agentsystemen die onnavolgbare resultaten opleveren.

De oplossing is: een solide basis van expertise gecombineerd met de passende toepassing van AI.

About the author on dr-dsgvo.de
My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.

Agentencodering: AI-programmering van de tweede rang