Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen
Externe Links sind mit dem Symbol Externer Link Symbol gekennzeichnet. Datenschutzinfo

Die Gefahr hinter KI-Agenten: Macht ohne Kontrolle?

Deutsche Version (Original)
0
Dr. DSGVO Newsletter erkannt: Erweiterte Funktionen verfügbar
Artikel als PDF · Mehr Inhalte & kompakte Kernaussagen · Webseiten-Checks · Offline-KI Live
Standardansicht: Dr. DSGVO Newsletter nicht erkannt. Erweiterte Funktionen nur für Abonnenten:
Artikel als PDF · Mehr Inhalte & kompakte Kernaussagen · Webseiten-Checks · Offline-KI Live

Als Buzz-Word sind KI-Agenten in aller Munde. Mit dem Moltbot (Clawdbot) wurden die künstlichen Agenten dann endgültig populär. Jedoch benötigen KI-Agenten weitreichende Berechtigungen, um effektiv arbeiten zu können. Das bedingt eine große Gefahr, die von solchen autonomen und intransparenten Programmen ausgeht.

Einleitung

Die E-Mails mit Standardanfragen, die in Ihrem Posteingang eintrudeln, werden automatisch beantwortet, ohne dass Sie eingreifen müssen. Sie schreiben eine Rechercheaufgabe in Ihren Signal-Messenger. Ihr KI-Agent übernimmt die Aufgabe, sucht die benötigten Informationen in Suchmaschinen zusammen und erstellt eine Antwort, die Sie eine Minute später im Messenger lesen oder per Link auf einen Bericht von dort öffnen können.

Genau dies und noch viel mehr ist mit KI-Agenten möglich. Es gibt sogar eine Open-Source Lösung, die das leistet. Sie heißt Moltbot (zuvor Clawdbot) und wurde innerhalb kürzester Zeit bekannt. Der Entwickler von Moltbot schaffte das, was milliardenschwere Big Tech Konzerne zuvor nicht auf die Reihe bekamen.

Moltbot bietet die Möglichkeit, häufig genutzte Kanäle und Dienste anzubinden, u. a.

  • Messenging: Signal, Discord usw.
  • E-Mail-Dienste: über IMAP quasi alle Plattformen
  • Produktivität: Kalender, To-do-Listen, usw.
  • Entwicklung: Jira, NPM (NodeJS) usw.
  • Smart Home: Philips Hue, weitere
  • KI-Anbieter: Alle bekannten und lokale Modelle

In die Nachrichten kam Moltbot aber wohl wegen des sogenannten Moltbook. Moltbook ist ein Soziales Netzwerk für Agenten.

Moltbook als soziales Netzwerk für Agenten. Quelle: moltbook.com

Agenten interagieren also mit anderen Agenten, und zwar planmäßig. Moderne Sprachmodelle machen es möglich. Übrigens sind Open-Source LLMs oft ähnlich leistungsfähig wie die kommerziellen Platzhirsche und machen so ChatGPT Konkurrenz. Im Gegensatz zu OpenAI's Lösung bietet lokale KI, die auch von Moltbot unterstützt wird, eine völlige digitale Souveränität bei immer gleich bleibenden (niedrigen) Kosten. ChatGPT hingegen rechnet bei automatisierter Nutzung über die API nach Nutzungsumfang ab, der allerdings vor Nutzung nicht bekannt ist.

KI-Agenten bieten erstaunliche Möglichkeiten. Bevor auf die Problematik mit KI-Agenten eingegangen wird, soll geklärt werden, was ein KI-Agent überhaupt ist und was ihn von einem ordinären KI-Dienst unterscheidet.

Was ist ein KI-Agent?

Ein KI-Agent unterscheidet sich von einem gewöhnlichen KI-System. Die folgende veranschaulicht den Unterschied. Die Grenzen sind allerdings fließend.

KI-Agent

Ein KI-Agent ist autonom oder semi-autonom und zeichnet sich insbesondere durch folgende Merkmale aus:

  • Zielorientiert: Hat eigene Ziele und kann Schritte planen, um diese zu erreichen
  • Handlungsfähig: Kann eigenständig Entscheidungen treffen und mehrere aufeinanderfolgende Aktionen ausführen
  • Werkzeugnutzung: Kann verschiedene Tools verwenden (z.B. Websuche, Datenbanken, APIs)
  • Interaktiv: Interagiert mit seiner Umgebung und passt sich an Ergebnisse an
  • Beispiele: Ein Assistent, der selbstständig recherchiert, Code ausführt und iterativ ein Problem löst

Im Gegensatz dazu stehen „klassische“ KI-Programme oder herkömmliche KI-Systeme.

KI-Service/KI-Programm

Ein KI-Service ist eher passiv und funktionsorientiert:

  • Reaktiv: Reagiert auf spezifische Anfragen
  • Funktionsspezifisch: Bietet eine bestimmte Funktion (z. B. Bilderkennung, Übersetzung)
  • Eingabe → Verarbeitung → Ausgabe: Folgt einem festen Muster ohne eigene Initiative
  • Zustandslos: behält typischerweise keine langfristigen Ziele
  • Beispiele: Eine Übersetzungs-API, ein Bilderkennungs-Service, ein einfacher Chatbot

Kurz gesagt: Ein Agent handelt eigenständig, während ein Service auf Anfrage reagiert. Die Grenze ist aber fließend – ein KI-Service kann Bestandteil eines Agenten sein.

Gefahr durch KI-Agenten

Ein Beispiel aus der Praxis verdeutlicht das Problem mit KI-Agenten. Es geht um Microsoft Copilot. Copilot hat agentische Strukturen. Mit KI-Agenten gemeinsam hat Copilot jedenfalls, dass es weit reichende Systemzugriffe hat, um den Nutzern Nutzen bringen zu können.

Dies führte dazu, dass Copilot angreifbar wurde und Daten von Copilot-Kunden an Hacker sendete. Die Sicherheitslücke ist unter dem Schlagwort EchoLeak bekannt.

Der Angriffsvektor namens EchoLeak: Per E-Mail wird Ihr Copilot ferngesteuert, von Bösewichten.

Das Opfer, also Sie, wenn Ihr Unternehmen Copilot nutzt, bekommt also eine harmlos wirkende E-Mail von einem Angreifer. Sie selbst lesen diese Mail nicht. Sie öffnen diese Mail nicht einmal. Das tut Ihr Copilot für Sie, denn schließlich vertrauen Sie Microsoft Ihr Leben und Ihre Daten an.

Ein Agent, der E-Mails lesen darf, liest diese E-Mails hoffentlich auch. Denn ansonsten wäre die Berechtigung zum Lesen Ihrer E-Mails unsinnig.

Ein KI-Agent, der anderen eine Nachricht in Ihrem Namen schreiben darf und soll, tut dies hoffentlich auch. Denn ansonsten bräuchten Sie diesen Agenten gar nicht. Wenn ein intransparentes Programm (= KI-Agent) nun Nachrichten an die falschen Empfänger oder mit unerwünschtem Inhalt sendet, kann sich jeder selbst die Folgen ausmalen.

KI-Agenten werden immer entweder sehr leistungsfähig oder (stattdessen) harmlos sein können.
Leistungsfähigkeit schließt Gefährlichkeit quasi immer mit ein.

Daran wird sich nie etwas ändern, genau wie an der Existenz von Licht.

Manche glauben, demnächst wird alles besser. Bullshit. Es gibt technische und konzeptionelle Grenzen, die nicht eliminiert werden können.

Analog verhält es sich mit Agentic Coding: Sie sagen dem KI-Programmierknecht, wo auf der Festplatte (oder im Intranet oder Internet) Ihre Quelltexte liegen. Dann tippen Sie eine Anweisung ein, etwa „Füge eine Pflege-View hinzu, um Newsletter-Abonnenten verwalten zu können.“ Der KI-Agent arbeitet nun still und leise auf Ihrer Code-Basis, verändert ein paar bestehende Codes und fügt neue hinzu. Am Ende haben Sie hoffentlich das gewünschte Ergebnis.

Dieser Prozess der KI-Programmierung mithilfe von Agenten ist maximal intransparent. Eine Zwischenstufe sind Agenten, die bei jeder geplanten Modifikation Ihres Programmcodes nachfragen, ob Sie als Entwickler damit einverstanden sind. Das geht aber nicht lange gut. Spätestens nach der fünften Nachfrage werden Sie den Autopiloten aktivieren und sind ausgeliefert.

Statt Agentic Coding gibt es einen besseren Ansatz, um hocheffizient mit KI zu programmieren. Die Produktivitätssteigerung liegt bei Faktor 5, nach unseren Erfahrungen und den Rückmeldungen der geschulten Entwicklerteams.

Fazit

Programme, die weit reichende Zugriffe auf andere Systeme haben, haben diese Zugriffe, weil sie genutzt werden sollen. Andernfalls würde der Zugriff wissentlich nicht gewährt werden.

Ein Programm, das E-Mails auswerten soll, muss und soll diese E-Mails lesen können. Wohin das alleine führen kann, zeigt die Realität. Angreifer können Anweisungen in E-Mails hinterlegen, die KI-Agenten manipulieren können.

Warum können KI-Agenten manipuliert werden? Weil es sich um hochplastische, intransparente Systeme handelt, die nicht Regel-basiert, sondern Aufgaben-basiert arbeiten.

KI-Agenten bekommen keine Regeln vorgegeben. KI-Systeme bekommen keine Regeln vorgegeben. Sie lernen diese Regeln anhand von Beispielen selbst. Das wird als KI-Training bezeichnet.

Deshalb sind KI-Agenten potentiell sehr leistungsfähig und potentiell sehr gefährlich: Sie sind „intelligent“ und können auch unbekannte Problemstellungen oft hervorragend lösen. Zugleich sind sie mächtig, weil ihnen umfassende Berechtigungen erteilt wurden.

Jeder, der auf eine Änderung dieses Problems wartet, kann lange warten. Stattdessen sollte man sich entscheiden: Zugriff auf alle möglichen Systeme erteilen ODER ein akzeptables Risiko. Beides gleichzeitig gibt es praktisch nicht.

Auch wer auf Agentic Coding setzt, setzt auf den falschen Zug. Zu wenig Programmier-Kompetenz wird durch gefährliche Agentensysteme, die nicht nachvollziehbare Ergebnisse liefern, ersetzt.

Die Lösung ist: Ein solides Fundament an Kompetenz gepaart mit der angemessenen Nutzung von KI.

KI-Beratung, KI-Lösungen

Umfassende Beratung (fachlich, rechtlich, technisch):

Leistungsangebot:

  • Erstberatung inkl. Machbarkeitsaussagen
  • Schulungen und Workshops für Führungskräfte, Berufsgeheimnisträger, Angestellte, Entwickler
  • KI-Lösungen mit und ohne ChatGPT/Azure. Cloud oder eigener KI-Server

Ihre Anfrage

Oder Mail an ki@dr-dsgvo.de

Wer schreibt hier?
Mein Name ist Klaus Meffert. Ich bin promovierter Informatiker und beschäftige mich seit über 30 Jahren professionell und praxisbezogen mit Informationstechnologie. In IT & Datenschutz bin ich auch als Sachverständiger tätig. Ich stehe für pragmatische Lösungen mit Mehrwert. Meine Firma, die IT Logic GmbH, berät Kunden und bietet Webseiten-Checks sowie optimierte & sichere KI-Lösungen an.
Bitte nutzen Sie bei Verwendung meiner Ergebnisse die Quellenangabe oder verlinken Sie gut wahrnehmbar auf diesen Artikel:
Quelle: Klaus Meffert, Dr. DSGVO Blog, Link: https://dr-dsgvo.de/die-gefahr-hinter-ki-agenten-macht-ohne-kontrolle
Einen Kurzlink oder eine Bestätigung für Ihre Quellenangabe erhalten Sie kurzfristig auf Anfrage. Ein Teilen oder Verteilen dieses Beitrags ist natürlich ohne weiteres möglich und gewünscht.

Schreiben Sie einen Kommentar

Ihre Mail-Adresse wird nicht veröffentlicht.

Agentic Coding: KI-Programmierung zweiter Wahl