Als buzz-woord zijn AI-agenten overal bekend. Met het Moltbot (Clawdbot) werden de kunstmatige agenten dan definitief populair. Echter, hebben AI-agenten om effectief te kunnen werken, uitgebreide rechten nodig. Dat betekent een grote gevaar dat van dergelijke autonome en ondoorzichtige programma's uitgaat.
Introductie
De e-mails met standaardvragen die in uw inbox binnenkomen, worden automatisch beantwoord, zonder dat u hoeft te interveniëren. U typt een zoekopdracht in uw Signal-messenger. Uw AI-agent neemt de taak over, zoekt de benodigde informatie op in zoekmachines en maakt een antwoord dat u een minuut later in de messenger kunt lezen of via een link kunt openen naar een rapport van daaruit.
Precies dit en nog veel meer is met AI-agenten mogelijk. Er bestaat zelfs een Open-Source-oplossing die dat doet. Ze heet Clawdbot (vroeger Clawdbot) en werd binnen korte tijd bekend. De ontwikkelaar van Moltbot wist dat te bereiken wat miljarden-dollar-waardige Big Tech-concernen eerder niet op de rails kregen.
Moltbot biedt de mogelijkheid om vaak gebruikte kanalen en diensten aan te sluiten, u. a.
- Berichten: Signal, Discord e.d.
- E-mail-diensten: via IMAP bijna alle platforms
- Productiviteit: Agenda's, taaklijstjes, e.d.
- Ontwikkeling: Jira, NPM (NodeJS) e.d.
- Slimhuis: Philips Hue, enz
- AI-leveranciers: Alle bekende en lokale modellen
In het nieuws kwam Moltbot waarschijnlijk door het zogenaamde Moltbook. Moltbook is een sociaal netwerk voor agenten.

Agenten interacteren dus met andere agenten, en dat gebeurt opzettelijk. Moderne taalmodellen maken het mogelijk. Bovendien zijn open-source LLMs vaak even krachtig als de commerciële topmodellen en bieden ze een concurrent voor ChatGPT. In tegenstelling tot OpenAI's oplossing biedt lokale AI, die ook door Moltbot wordt ondersteund, digitale soevereiniteit bij altijd gelijk blijvende (lage) kosten. ChatGPT berekent bij automatisering via de API na gebruik welke omvang het is geweest, maar dat is vooraf niet bekend.
AI-agenten bieden verbluffende mogelijkheden. Voordat ingegaan wordt op de problemen met AI-agenten, moet eerst worden uitgelegd wat een AI-agent precies is en wat hem onderscheidt van een gewone AI-dienst.
Wat is een AI-agent?
Een AI-agent verschilt van een gewoon AI-systeem. Hieronder wordt het verschil verduidelijkt. De grenzen zijn echter vloeibaar.
AI-Agent
Een AI-agent is autonoom of semi-autonoom en onderscheidt zich vooral door de volgende kenmerken:
- Doelgericht: Heeft eigen doelen en kan stappen plannen om deze te bereiken
- Handelingscapabel: Kan zelfstandig beslissingen nemen en meerdere op elkaar volgende acties uitvoeren
- Toolgebruik: Kan verschillende tools gebruiken (bijv. zoekopdrachten, databases, APIs)
- Interaktief: Interageert met zijn omgeving en past zich aan resultaten aan
- Voorbeelden: Een assistent die zelfstandig onderzoekt, code uitvoert en iteratief een probleem oplost
In tegenstelling hieraan staan 'klassieke' AI-programma's of conventionele AI-systemen.
AI-Service/AI-Programm
Een AI-service is eerder passief en functiegericht:
- Reactief: Reageert op specifieke vragen
- Functiespecifiek: Biedt een bepaalde functie (bijv. afbeeldingherkenning, vertaling)
- Invoer → Verwerking → Uitvoer: Volgt een vast patroon zonder eigen initiatief
- Zonder status: houdt typisch geen lange-termijn doelen vast
- Forbeelden: Een vertaal-API, een beeldherkenningsservice, een eenvoudige chatbot
Kortom: Een agent handelt zelfstandig, terwijl een service op aanvraag reageert. De grens is echter vloeibaar – een AI-service kan onderdeel zijn van een agent.
Gevaar door AI-agenten
Een voorbeeld uit de praktijk verduidelijkt het probleem met AI-agenten. Het gaat om Microsoft Copilot. Copilot heeft agentische structuren. Met AI-agenten samen heeft Copilot in elk geval dat het een breed scala aan systeemtoegang heeft, om de gebruikers te kunnen helpen.
Dit leidde ertoe dat Copilot aanvallbaar werd en gegevens van Copilot-kunden naar hackers stuurde. De beveiligingslek is onder het label EchoLeak bekend.

Het slachtoffer, dus u, als uw bedrijf Copilot gebruikt, krijgt dus een onschadelijke ogende e-mail van een aanvaller. U leest deze e-mail zelf niet. U opent deze e-mail zelfs niet eens. Dat doet uw Copilot voor u, want u vertrouwt Microsoft tenslotte uw leven en uw gegevens toe.
Een agent die e-mails mag lezen, leest die e-mails natuurlijk ook. Anders zou de toestemming om uw e-mails te lezen immers zinloos zijn.
Een AI-agent die anderen namens u een bericht mag en moet schrijven, doet dat dan ook hopelijk. Anders hadden u die agent helemaal niet nodig. Als een ondoorzichtig programma (= AI-agent) nu berichten naar de verkeerde ontvangers stuurt of met ongewenst inhoud, kan iedereen zich de gevolgen zelf voorstellen.
AI-agenten zullen steeds of zeer krachtig of (in plaats daarvan) onschadelijk kunnen zijn. Prestaties sluiten gevaarlijkheid quasi altijd in.
Daan zal zich nooit veranderen, net zoals de bestaan van licht.
Sommige mensen denken dat het straks allemaal beter wordt. Onzin. Er zijn technische en conceptuele grenzen die niet kunnen worden overwonnen.
Analoog gaat het met Agentic Coding: U vertelt de AI-programmeur waar op de harde schijf (of in het intranet of internet) uw broncode staat. Vervolgens typen jullie een instructie in, bijvoorbeeld "voeg een onderhoudsview toe om nieuwsbrief-geabonneerden te kunnen beheren". De AI-agent werkt nu stilletjes op basis van uw code, wijzigt een paar bestaande codes en voegt nieuwe toe. Uw hoop is dat u het gewenste resultaat hebt bereikt.
Deze proces van het programmeren van AI met behulp van agenten is maximaal ondoorzichtig. Een tussenfase zijn agenten die bij elke geplande wijziging in uw programma-code vragen of u als ontwikkelaar daarmee akkoord gaat. Maar dat gaat niet lang goed. Zodra u de Autopiloot activeert en bent uitgeliefd.
In plaats van Agentic Coding is er een betere aanpak om efficiënt met AI te programmeren. De productiviteitstoename bedraagt een factor 5, naar onze ervaringen en de feedback van de getrainde ontwikkelteams.
Conclusie
Programma's die uitgebreide toegang hebben tot andere systemen, hebben die toegang omdat ze voor die toegang bedoeld zijn. Anders zou de toegang niet bewust worden verleend.
Een programma dat e-mails moet analyseren, moet en kan deze e-mails lezen. Waar dit alleen al toe kan leiden, laat de realiteit zien. Angreppers kunnen instructies in e-mails verbergen die AI-agenten kunnen manipuleren.
Waarom kunnen AI-agenten worden gemanipuleerd? Omdat het zich om hoog flexibel, ondoorzichtige systemen handelt die niet regel-gebaseerd, maar taak-gebaseerd werken.
AI-agenten krijgen geen regels voorgelegd. AI-systemen krijgen geen regels voorgelegd. Ze leren deze regels zelf op basis van voorbeelden. Dit wordt aangeduid als AI-training.
Daarom zijn AI-agenten potentieel zeer krachtig en potentieel zeer gevaarlijk: ze zijn "intelligent" en kunnen ook onbekende problemen vaak uitstekend oplossen. Tegelijkertijd zijn ze machtig omdat ze omvattende bevoegdheden hebben gekregen.
Iedereen die op een oplossing voor dit probleem wacht, kan lang wachten. In plaats daarvan moet men kiezen: toegang tot alle mogelijke systemen verlenen ODER een acceptabel risico nemen. Beiden tegelijkertijd bestaat er praktisch niet.
Ook wie in Agentic Coding investeert, zet in op de verkeerde trein. Te weinig programmeercompetentie wordt vervangen door gevaarlijke agentsystemen die onnavolgbare resultaten opleveren.
De oplossing is: een solide basis van expertise gecombineerd met de passende toepassing van AI.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
