Moderne KI-Systeme leisten längst mehr, als auf Fragen zu antworten. Sie beobachten, planen, lernen – und arbeiten auch dann, wenn niemand mit ihnen spricht. Was das für Unternehmen bedeutet, welche Chancen darin stecken und wo echte Risiken lauern, zeigt ein ungewöhnlicher Einblick hinter die Kulissen.
Was hinter den Kulissen passiert
Kürzlich wurde bekannt, dass der vollständige Quellcode eines KI-Coding-Assistenten des Unternehmens Anthropic unbeabsichtigt öffentlich zugänglich wurde. Das passierte nicht durch einen Angriff von außen, sondern durch einen simplen Konfigurationsfehler beim Veröffentlichen eines Software-Pakets. Eine vergessene Zeile sorgte dafür, dass sichtbar wurde, was eigentlich im Verborgenen bleiben sollte.
Öffentlich zugängliche KI ist weiter entwickelt als viele es sich vorstellen können.
Ein Grund ist, dass viele durch Prompting-Workshops von echten Lösungen abgelenkt werden.
Was Entwickler und Technikjournalisten dort fanden, liest sich nicht wie eine Produktdokumentation. Es liest sich wie ein Blick in die Werkstatt der Zukunft. Der Vorhang steht offen. Der Einblick wirft Fragen auf, die weit über den konkreten Vorfall hinausgehen: Wie weit sind moderne KI-Systeme wirklich? Was tun sie, ohne dass wir es sehen? Und wessen Kontrolle unterstehen sie eigentlich?
Nebenbei: der Quellcode ist immer noch verfügbar und wird es immer bleiben: dank KI. Denn selbst wenn ie Originaldateien einmal entfernt werden, bleiben die Portierungen in andere Programmiersprachen sicher länger (immer?) öffentlich. Auch wenn dies urheberrechtlich kritisch zu beurteilen sein dürfte, ist das die Realität. Das Rechtswesen ist eben nur eine (gewollte) Fiktion, die mit der Wirklichkeit in der rasanten Technikentwicklung immer weniger zu tun hat.
In Konsequenz zeigt sich: Vordenken (durch den Menschen) sticht Prompting und Nachdenken, erst recht aber Bequemlichkeit. Siehe Fazit am Ende.
Was der Leak tatsächlich beweist
Bevor über die Zukunft spekuliert wird, kann man festhalten: Vieles, was vorher kaum vorstellbar war, ist keine Theorie mehr. Durch den beschriebenen Vorfall wurde der vollständige, kommentierte Quellcode des KI-Assistenten claude code der Welt öffentlich einsehbar – inklusive interner Systemarchitektur, Featurebeschreibungen und Entwicklerkommentaren. Was bislang als Roadmap-Spekulation abgetan werden konnte, ist nun belegbar.

Konkret nachgewiesen ist damit: KI-Assistenten dieser Generation verfügen bereits heute über Hintergrundprozesse, die zwischen aktiven Sitzungen eigenständig laufen. Sie sind so gebaut, dass sie proaktiv handeln können, ohne auf eine Eingabe zu warten. Es existieren Architekturen, in denen KI komplexe Planungsaufgaben autonom übernimmt und Ergebnisse zur menschlichen Freigabe vorlegt. Und: Interne Entwicklungslinien zeigen, dass diese Fähigkeiten gezielt als strategischer Kern und nicht als Randfeature ausgebaut werden.
Das ist relevant, weil es die Diskussion über KI von der Ebene des Möglichen auf die Ebene des Realen verschiebt. Wir reden nicht mehr über das, was irgendwann kommen könnte. Wir reden über das, was in aktuellen Systemen bereits steckt und in vielen Fällen nur noch nicht für die Öffentlichkeit freigegeben ist.
Ein Reigen an erstaunlichen Assistenten
KI kann nicht nur träumen. Sie kann dauerhaft arbeiten und ihre Ergebnisse reflektieren und selbst verbessern.

Sie kann verschiedene Persönlichkeiten einnehmen. Klingt nach Wahnsinn und ist es auch. Anscheinend träumen viele Menschen allerdings auch vor sich hin. Jener Wahnsinn heißt: Prompting. Das geht so weit, dass Dienstleister ohne jeden Software-Bezug Prompting-Workshops anbieten – damit sie mehr Kunden bekommen.
Zurück zum Leak: Neben Auto Dream hat Anthropic aus Versehen auch noch BUDDY, den digitalen Begleiter öffentlich gemacht.
Als würde das nicht schon reichen, gibt es KAIROS noch oben drauf. Ähnlich wie OpenClaw wacht KAIROS permanent über den Input und wird tätig, wenn es relevant zu sein scheint.
ULTRAPLAN als weiteres geheimes Feature ist eine Art agentischer Planer, der das Deep Thinking (oder Reasoning) praxistauglich macht.
Die Konsequenzen dieses Leaks:
- KI kann mehr als viele denken.
- Viele denken aber nicht. Deswegen nutzen sie KI falsch oder denken, KI können ihre Bequemlichkeit vollständig kompensieren.
- KI kann optimiert betrieben werden – ohne Prompting und ohne KI-Training. Die Zauberzutat heißt "konventionelles Programm statt nur KI".
Das Träumen der KI schauen wir uns etwas näher an.
Wenn KI schläft und dabei arbeitet
Eine der überraschendsten Erkenntnisse aus diesem Einblick: Moderne KI-Assistenten arbeiten nicht nur, wenn man mit ihnen spricht. Sie sind so konzipiert, dass sie im Hintergrund – zwischen den aktiven Nutzungsphasen – eigenständig Informationen verarbeiten, sortieren und verdichten.
Die Idee ist dem menschlichen Schlaf nachempfunden. So wie das Gehirn in der Nacht Erlebtes verarbeitet, Wesentliches festigt und Überflüssiges aussortiert, soll ein solches System gesammelte Arbeitserfahrungen zu strukturierten, dauerhaften Erinnerungen kondensieren. Es analysiert zurückliegende Sitzungen, erkennt Widersprüche, löscht veraltete Informationen und baut so schrittweise ein kontextreiches Langzeitgedächtnis auf.
Das ist keine Spielerei. Es ist eine ernsthafte Antwort auf eines der größten Defizite heutiger KI-Werkzeuge: Wer täglich mit einem Cloud-KI-Dienst arbeitet, beginnt jedes Gespräch praktisch von vorne. Ein KI-System, das wirklich „mitlernt" und sich zwischen den Sessions weiterentwickelt, wäre ein grundlegend anderes Werkzeug – und ein erheblicher Wettbewerbsvorteil.
Anthropics heimliches Feature für Claude Code
Anthropic hat still und leise eine Funktion in seinen KI-gestützten Coding-Assistenten Claude Code eingebaut, ohne sie offiziell anzukündigen: Auto Dream. Der Name klingt poetisch, und er ist es auch. Denn die Funktion tut genau das, was der Name verspricht: Sie lässt die KI träumen. Das löst ein echtes Problem.
Das Problem: Ein Notizbuch, das sich selbst widerspricht
Gute Coding Assistenten können sich Dinge merken. Wer das Programm regelmäßig nutzt, profitiert davon, dass der Assistent mit der Zeit das eigene Projekt kennenlernt – bevorzugte Programmierstile, wiederkehrende Befehle, getroffene Architekturentscheidungen. Das klingt praktisch, und das ist es auch – zumindest am Anfang.
Nach Dutzenden von Arbeitssitzungen verwandelt sich dieses Gedächtnis jedoch zunehmend in Rauschen. Alte Einträge widersprechen neuen. Hinweise auf Dateien, die längst gelöscht wurden, geistern durch die Notizen. Zeitangaben wie „gestern haben wir entschieden …" verlieren ihren Sinn, wenn Wochen vergangen sind. Das Gedächtnis, das helfen sollte, beginnt zu verwirren.
Die Lösung: Schlafen wie ein Gehirn
Hier kommt der Vergleich mit dem menschlichen Schlaf ins Spiel, der erstaunlich treffend ist. Unser Gehirn verarbeitet tagsüber ununterbrochen Eindrücke und speichert sie als Kurzzeiterinnerungen. Erst im Schlaf, genauer gesagt in der REM-Phase, werden diese Eindrücke sortiert: Wichtiges wird gefestigt, Unwichtiges aussortiert, Widersprüche aufgelöst.
⚠ Nur zu Dokumentationszwecken
Genau das macht Auto Dream. Zwischen den Arbeitssitzungen läuft die Funktion im Hintergrund und geht die angesammelten Notizen systematisch durch. Sie löscht veraltete Einträge, löst Widersprüche auf, wandelt vage Zeitangaben in konkrete Daten um und fasst mehrfach notierte Erkenntnisse zu einem einzigen klaren Eintrag zusammen. Das Ergebnis: ein aufgeräumtes, verlässliches Gedächtnis – statt eines chaotischen Stapels Notizzettel.
Was das in der Praxis bedeutet
Für professionelle Entwickler, die regelmäßig mit KI programmieren arbeiten, ist der Unterschied zunächst verlockend. Die KI macht potentiell weniger Fehler, die auf veralteten Annahmen beruhen. Sie greift nicht mehr auf längst verworfene Lösungsansätze zurück. Und sie liefert konsistentere Ergebnisse, weil ihr Wissensstand über das Projekt tatsächlich aktuell ist – nicht bloß umfangreich.
Durch Träumen kann ein KI-System potentiell besser werden – und zugleich intransparenter.
Halbwissende können sich nun noch besser selbst entmündigen.
Jedoch gibt es ein Problem: Agentic Coding ist keine wirklich gute Idee. Der Ansatz wird meist von unerfahrenen oder faulen Entwicklern eingesetzt, weil sie es nicht besser können. KI sollte in der Software-Entwicklung unbedingt eingesetzt werden, aber nicht in Form von Agenten. Die Kontrolle muss erhalten bleiben, damit Qualität und Sicherheit passen. Agenten reduzieren Kontrolle erheblich.
Die Risiken: Was beim Träumen schiefgehen kann
So nützlich die Funktion klingt, sie bringt auch Risiken mit sich, die man nicht unterschätzen sollte.
Kontrollverlust über das Gedächtnis. Auto Dream entscheidet eigenständig, was behalten und was gelöscht wird. Was die KI als „veraltet" oder „widersprüchlich" einstuft, muss aus menschlicher Sicht nicht zwingend unwichtig sein. Eine Entscheidung, die vor Wochen aus gutem Grund getroffen wurde, könnte stillschweigend aus dem Gedächtnis verschwinden, ohne dass der Nutzer davon erfährt.
Fehlerhafte Konsolidierung. Wenn die KI Einträge zusammenführt oder umdeutet, kann dabei Information verloren gehen oder falsch interpretiert werden. Subtile Nuancen, die in mehreren Einträgen steckten, lassen sich nicht immer verlustfrei in einen einzigen verschmelzen.
Mangelnde Transparenz. Da die Funktion bislang nicht offiziell dokumentiert ist, wissen viele Nutzer schlicht nicht, dass sie aktiv ist. Noch weniger ist bekannt, was genau dabei mit ihren Projektdaten passiert. Für sensible oder unternehmenskritische Projekte ist das ein nicht zu vernachlässigender Aspekt.
Auto Dream ist ein cleveres Konzept, das ein echtes Problem auf elegante Weise angeht. Die Metapher des Schlafs ist dabei mehr als Marketing. Sie beschreibt treffend, was technisch passiert. Wer auf vollständige Kontrolle über den Wissensstand seiner KI angewiesen ist, sollte genau beobachten, was das System im Hintergrund tut, und sich nicht blind darauf verlassen, dass das Träumen immer das Richtige vergisst.
Was machen autonome KI-Systeme im Hintergrund?
Genau an dieser Stelle lohnt sich eine Frage, die im Alltag zu selten gestellt wird: Wohin fließen die Daten, die solche Systeme verarbeiten?
KI-Assistenten, die im Hintergrund lernen, Sitzungen protokollieren und Kontext aufbauen, brauchen dafür Informationen. Code, Projektstrukturen, interne Kommentare und Entscheidungsverläufe landen typischerweise auf externen Servern, häufig jenseits des europäischen Datenschutzrahmens. Das ist kein böswilliger Akt, sondern schlicht das Geschäftsmodell cloud-basierter KI-Dienste.
Für Unternehmen, die mit sensiblen Prozessen, proprietären Algorithmen oder vertraulichen Kundendaten arbeiten, ist das keine abstrakte Sorge. Es ist eine strategische Entscheidung, die getroffen werden sollte – bevor man sie unbewusst längst getroffen hat.
Lokale KI-Lösungen, die vollständig auf eigener Hardware oder im eigenen Rechenzentrum laufen, bieten hier nicht nur mehr Datensicherheit. Sie sind für spezifische, gut definierte Aufgaben oft auch qualitativ überlegen: Ein spezialisiertes Modell, das auf die eigenen Daten und Prozesse abgestimmt ist, schlägt einen generischen Cloud-Dienst in vielen praxisnahen Szenarien schlicht in der Qualität seiner Ergebnisse.
Die KI, die immer aktiv ist
Was ebenfalls sichtbar wurde: KI-Systeme werden zunehmend so entwickelt, dass sie nicht mehr auf Eingaben warten, sondern aktiv beobachten und von sich aus handeln. Ein Assistent, der kontinuierlich im Hintergrund läuft, Aktivitäten mitverfolgt, Muster erkennt und proaktiv reagiert, bevor der Nutzer überhaupt eine Anfrage stellt.
Das klingt hilfreich und ist es auch, sofern die Bedingungen die richtigen sind. OpenClaw hat etwas ähnliches getan. Der Durchbruch, wenn man ihn so nennen mag, markiert gleichzeitig einen grundlegenden Wandel im Verhältnis zwischen Mensch und Werkzeug. Ein Werkzeug wartet auf den Handwerker. Ein Assistent, der eigenständig handelt, ist kein Werkzeug mehr, sondern ein Mitarbeiter. Vielleicht wird daraus auch demnächst der Chef.
Hinzu kommt: Solche Systeme sind so konzipiert, dass sie nicht nur beobachten, sondern auch eskalieren können, bis hin zu externen Benachrichtigungen, automatisierten Aktionen und der Übergabe von Aufgaben an weitere autonome Prozesse. Die Entscheidung, wo die Grenze zwischen nützlicher Automatisierung und unkontrollierter Autonomie liegt, ist keine technische. Sie ist eine organisatorische Entscheidung und muss bewusst getroffen werden.
Wenn die KI alleine plant
Ein weiterer Ansatz, der in modernen Systemen bereits erprobt wird, geht noch einen Schritt weiter: KI übernimmt eine komplexe Planungsaufgabe vollständig autonom, arbeitet sie über einen längeren Zeitraum durch und legt das Ergebnis anschließend dem Menschen zur Freigabe vor.
Das Muster ist bewusst gewählt: Nicht der Mensch führt durch, während die KI assistiert. Die KI arbeitet, während der Mensch prüft und entscheidet. Das ist, bei richtigem Einsatz, ein erheblicher Effizienzgewinn. Es verlangt aber auch ein neues Verantwortungsbewusstsein: Wer nur noch Ergebnisse freigibt, ohne den Prozess zu verstehen, der zu ihnen geführt hat, verliert die Kontrolle – auch wenn er formal der letzte Klick ist.
Autonome KI im Einsatz: Mächtig, aber mit Maß
All diese Entwicklungen fallen unter den Begriff der agentischen KI – Systeme, die nicht nur antworten, sondern handeln: Dateien bearbeiten, Code ausführen, externe Dienste aufrufen, andere KI-Prozesse koordinieren. Agentisches Coding, also das Entwickeln von Software durch autonom handelnde KI-Agenten, ist der konsequenteste Ausdruck dieses Ansatzes.
Und hier ist Nüchternheit angebracht.
Ein Agent, der eigenständig Code schreibt und ausführt, kann Fehler produzieren, die sich schnell durch ein System fressen – unbemerkt, weil niemand jeden Schritt prüft. Er kann Sicherheitslücken öffnen, Datenbankstrukturen verändern, Abhängigkeiten einführen, die später niemand mehr versteht. Nicht aus böser Absicht, sondern weil er den Gesamtkontext eines gewachsenen Systems nicht kennt und nicht kennen kann.
Agentische Ansätze haben ihren Platz – in klar abgegrenzten Aufgaben, kontrollierten Umgebungen, mit menschlicher Überprüfung an jedem kritischen Punkt. Wer sie darüber hinaus einsetzt, führt Experimente durch – auf Kosten der Stabilität, Sicherheit und Nachvollziehbarkeit.
Ehrlich gesagt nutzen viele Agenten schlicht deswegen, weil sie keinen anderen Weg kennen, überhaupt zu einem Ergebnis zu kommen. Das ist verständlich. Es ist aber kein Qualitätsmerkmal – und kein Ersatz für Fachkenntnis.
Die Grenzen von KI bestimmt vor allem der Anwender
KI-Werkzeuge ermöglichen heute tatsächlich, dass Menschen ohne tiefe Programmierkenntnisse funktionierende Websites, kleine Automatisierungen oder praktische Helferlein erstellen können, die vor wenigen Jahren noch professionelle Hilfe erfordert hätten. Das ist ein echter Fortschritt.
Die Grenze liegt eine Ebene höher. Wer ausschließlich durch Eingaben in ein Chat-Interface arbeitet, ist in aller Regel Einzelanwender, oder jemand, der den nächsten Schritt nicht gehen kann oder will. Die entstehenden Lösungen sind oft für den Moment funktional, aber selten skalierbar, zuverlässig oder dauerhaft wartbar. Sie sind vom Prompt abhängig, nicht von einer durchdachten Architektur.
Professionelle KI-Lösungen kommen ohne Prompts aus. Sie sind in Prozesse integriert, laufen automatisiert, liefern strukturierte Ergebnisse, haben Fehlerbehandlung, Protokollierung und Monitoring. Der Nutzer sieht kein Chat-Interface – er sieht ein Ergebnis. Das ist der Unterschied zwischen einem Werkzeug und einer Lösung.
Für mittelständische Unternehmen bedeutet das konkret: Der interne Versuch, mit KI-Agenten und Prompting-Tools auf eigenem Wege Lösungen zu bauen, ist als Erkundung sinnvoll. Als Strategie reicht er selten. Ein erfahrener Entwickler, der KI als präzises Instrument beherrscht – nicht als Autopilot –, kann mit vergleichsweise geringem Mehraufwand Lösungen liefern, die einen echten Unterschied machen: zuverlässig, sicher, integrierbar und in einem Jahr noch verständlich.
Der Abstand zwischen einer Lösung, die wirklich automatisiert, und einer, die halbautomatisch mit menschlichem Nachhelfen irgendwie funktioniert, ist der Abstand zwischen einem Werkzeug und einem Spielzeug.
Fazit
Der Einblick in die Architektur moderner KI-Systeme zeigt: Diese Werkzeuge sind bereits erheblich komplexer, als ihre Oberflächen vermuten lassen. Sie lernen, beobachten, planen und handeln – oft ohne dass der Nutzer es bewusst wahrnimmt. Das ist in vielen Fällen beeindruckend. Es ist in vielen Fällen nützlich. Und es ist in allen Fällen ein Grund, mit Bedacht zu entscheiden, welche Systeme man einsetzt, unter wessen Kontrolle – und mit welchem Verständnis der eigenen Daten und Prozesse.
Die Frage ist nicht, ob man KI nutzt. Die Frage ist: Wie und zu welchem Zweck. Rein autonom oder durch Prompting ist erfahrungsgemäß eher Spielerei, die weit hinter den Möglichkeiten zurückbleibt, die KI bietet.
Mit eine Low-Cost KI-Server können herausragende Ergebnisse erzielt werden – wenn die KI optimiert und richtig angesteuert wird.
Damit ist weder KI-Training noch Prompting gemeint.
Der Dauereinsatz eines KI-Systems lohnt sich nun noch mehr denn je. Nicht als Lieferant von Endergebnissen, sondern als unermüdlicher Erkenntnisgenerierer. Beispielsweise für die Auswertung von tausenden internen Dokumenten.
Für diese Zwecke eignen sich aus Gründen der Kosten und der Sicherheit lokale KI-Systeme am besten. Vorgedachte Anwendungen sind der beste Weg, um zuverlässige und sehr gute Ergebnisse mit gleichzeitig hoher Sicherheit zu erhalten. Weg vom Prompting oder Nachdenken, hin zum Vordenken.
KI-Beratung, KI-Lösungen
Leistungsangebot:
- Erstberatung inkl. Machbarkeitsaussagen
- Schulungen und Workshops für Führungskräfte, Berufsgeheimnisträger, Angestellte, Entwickler
- KI-Lösungen mit und ohne ChatGPT/Azure. Cloud oder eigener KI-Server

gekennzeichnet.
Mein Name ist Klaus Meffert. Ich bin promovierter Informatiker und beschäftige mich seit über 30 Jahren professionell und praxisbezogen mit Informationstechnologie. In IT & Datenschutz bin ich auch als Sachverständiger tätig. Ich stehe für pragmatische Lösungen mit Mehrwert. Meine Firma, die 