Die rasante Entwicklung von KI-Chatbots wie ChatGPT hat die Geschäftswelt revolutioniert. Doch während die Technologie beeindruckende Möglichkeiten bietet, lauern erhebliche Risiken hinsichtlich Datensicherheit, Datenschutz und rechtlicher Vorgaben, die Unternehmen kennen sollten. Die KI-Verordnung (AI Act) sorgt für zusätzliche Vorgaben.
Einleitung
Dieser Artikel ergänzt die Datenschutz Deluxe Podcast-Folge #34: Chatbots nutzen: wofür und wofür besser nicht?
Den Podcast können Sie hier anhören:
Der Podcast wird lokal auf Dr. DSGVO betrieben. Podigee wird nicht weiter verwendet. Stattdessen wurde der bisherige Podigee-Podcast automatisiert migriert.
Die Grenzen der KI-Technologie verstehen
Künstliche Intelligenz hat zweifellos den Turing-Test bestanden – in vielen Anwendungsfällen ist kaum noch ein Unterschied zwischen Mensch und Maschine erkennbar. Doch ein entscheidendes Merkmal teilen KI-Systeme mit Menschen: Sie sind unzuverlässig.
Der wesentliche Unterschied liegt in der Spezialisierung. Während hochspezialisierte menschliche Experten in ihrem Fachgebiet äußerst zuverlässig arbeiten können, handelt es sich bei öffentlich verfügbaren Chatbots um generelle Intelligenzen. Sie können vieles – aber nichts perfekt.
Das Problem mit juristischen Texten
Besonders problematisch wird der Einsatz bei juristischen Anwendungen. ChatGPT wurde nur zu einem kleinen Prozentsatz mit deutschen Texten trainiert, und von diesem Anteil sind juristische Dokumente noch einmal deutlich unterrepräsentiert. Juristische Texte zeichnen sich durch spezifisches Vokabular, deutlich längere Satzstrukturen und hochgradige Verschachtelungen aus – Eigenschaften, für die generelle KI-Modelle nicht optimal trainiert sind.
Präzision ist in juristischen Texten unverzichtbar. Die vagen Formulierungen, die KI-Systeme häufig produzieren, stehen im direkten Widerspruch zu den präzisen Anforderungen rechtlicher Dokumente.
Datenschutzrechtliche Herausforderungen
Das Grundproblem: Personenbezogene Daten
Wenn Unternehmen Chatbots wie ChatGPT nutzen, entstehen massive datenschutzrechtliche Probleme, sobald personenbezogene Daten im Spiel sind:
Bei Klageschriften etwa erscheinen Namen der Parteien nicht nur in der Einleitung, sondern können indirekt an vielen Stellen auftauchen – durch Ortsangaben, regionale Besonderheiten oder spezifische Formulierungen. Ein Nachname wie „Müller“ kann eine Berufsbezeichnung, ein Firmenname oder ein Personenname sein – wie soll eine KI das zuverlässig unterscheiden?
Beim Cold Calling mit KI-Sprachassistenten wurde dokumentiert, wie Personen ihre personenbezogenen Daten mit einem Chatbot teilen, ohne darüber informiert zu werden, dass:
- Sie nicht mit einem Menschen sprechen
- Ihre Daten an US-amerikanische Unternehmen übertragen werden
- Diese Daten als Trainingsdaten verwendet werden können
- Der Anbieter selbst zugibt, personenbezogene Daten nicht zuverlässig aus Trainingsdaten filtern zu können
Die Illusion der Anonymisierung
Angebliche Anonymisierungslösungen erreichen bestenfalls 90 – 95 % Zuverlässigkeit. Das reicht nicht, denn:
- Personenbezug entsteht oft durch die Kombination mehrerer Informationen
- Regionale Eingrenzungen, spezifische Schimpfworte oder Kontextinformationen können Personen identifizierbar machen
- Selbst Menschen erkennen nicht ohne Weiteres alle personenbezogenen Daten
Auch angebliche Anonymisierungs-Lösungen funktionieren nicht, wie man mit halbwegs kritischen Tests leicht feststellen kann. Eine Anonymisierung kann an sich schon nicht zuverlässig funktionieren, weil generelle Gründe dagegen sprechen (siehe Informationen im verlinkten Beitrag).
Weder Menschen noch KI können vollständig garantieren, dass alle personenbezogenen Daten erkannt und entfernt werden.
Enterprise-Versionen: Keine Garantie für Rechtssicherheit
Microsoft und OpenAI bieten Enterprise-Versionen ihrer Produkte an, die angeblich „rechtskonform“ sind. Doch hier ist – wie immer, bei Werbeversprechen – Vorsicht geboten:
Die Enterprise-Version bedeutet nicht automatisch Rechtssicherheit – sie ist lediglich die Voraussetzung dafür, dass Rechtskonformität überhaupt möglich sein könnte. Im Umkehrschluss gibt der Anbieter damit öffentlich zu: Ohne Enterprise-Version ist keine Rechtskonformität garantiert.
Die Realität zeigt: Unternehmen, die Microsoft-Produkte unrechtmäßig zur Verarbeitung von Kundendaten eingesetzt haben, wurden in den letzten Jahren mit Bußgeldern ab 50.000 Euro und aufwärts belegt.
Das Datenleck-Risiko bei Custom GPTs
Seit Kurzem können Nutzer eigene GPTs mit spezifischen Trainingsdaten erstellen. Dabei sollte beachten werden: Andere Nutzer können diese vermeintlich privaten Informationen durch geschicktes Nachfragen aus dem System extrahieren. Intime Daten, die im guten Glauben hochgeladen wurden, sind nicht so geschützt, wie viele annehmen.
Die bessere Alternative: Lokale KI-Systeme
Für Unternehmen und Organisationen gibt es eine deutlich sicherere und oft auch effektivere Lösung: Eigene, lokale KI-Systeme.
Vorteile lokaler Systeme:
Die Vorteile eines eigenen KI-Systems sind immens:
- Datensicherheit & Datenschutz: Keine Datenübertragung an Dritte, vollständige Kontrolle über sensible Informationen
- Bessere Ergebnisse: Durch Feintraining auf spezifische Anwendungsfälle können lokale Systeme oft bessere Resultate liefern als generelle Chatbots
- Geschäftsgeheimnisse bleiben geschützt: Kein Risiko, dass proprietäre Informationen in fremde Hände geraten
- Rechtssicherheit: Einhaltung der DSGVO wird deutlich einfacher
Datenschutz bezieht sich auf personenbezogene Daten, während Datensicherheit alle Arten von Daten berücksichtigt. In Unternehmen sind sensible Daten nicht nur Daten von Mitarbeitern oder Kunden, sondern auch Geschäftsgeheimnisse, vertrauliche Daten (NDA) oder privat gehaltene Daten wie Studienergebnisse oder interne Arbeitsanweisungen.
Eine eigene KI muss übrigens nicht viel kosten. Mehr Informationen dazu finden Sie im Beitrag zu KI-Apps.
Sinnvolle Einsatzgebiete für öffentliche Chatbots
Nicht alle Anwendungen sind problematisch. Chatbots können durchaus sinnvoll eingesetzt werden:
- Im privaten Bereich für allgemeine Anfragen ohne sensible Daten
- Für Kreativaufgaben wie Werbetexte oder Bildgenerierung (mit anschließender menschlicher Überprüfung)
- Zur Generierung von Trainingsdaten für eigene Modelle (mit nicht-sensiblen Eingabetexten)
- Für Synonyme und Textvarianten bei allgemeinen Inhalten
Wichtig: Das Ergebnis muss immer überprüft werden – generelle Chatbots sind Kreativitätswerkzeuge, keine Zuverlässigkeitswerkzeuge.

Bei einem allgemeinen Chatbot stellt sich allerdings die Frage, wie ein Unternehmen damit einen nennenswerten Mehrwert generieren kann. Besser sind spezialisierte KI-Apps, die konkrete Probleme konkret lösen. Beispiele für KI-Apps:
- Wissensassistent: Befragen Sie Ihr (!) Unternehmenswissen und erhalten abgesicherte Ergebnisse, immer mit Quellenangaben und der Möglichkeit, direkt auf die Seite 139 in Ihrem PDF-Dokument zu springen, von wo die KI das Wissen für ihre Antwort bezogen hat.
- Audio-Transkription: Ja, das gibt es schon. Probieren Sie mal die allgemeinen Lösungen aus. Wollen Sie lieber 50 Korrekturen vornehmen oder nur 3? Wird Ihr Nachname oder der Ihrer Kollegin richtig erkannt? Das geht besser mit einer eigenen KI-App, die Open-Source KI-Modelle nutzt.
- KI-Datenbank: Verknüpfen Sie das Wissen aus mehreren IT-Systemen, die bis dato nicht miteinander sprechen können.
Die Möglichkeiten sind endlos. Viele Probleme können sehr gut und wirtschaftlich mit KI gelöst werden! Lassen Sie sich eine Einschätzung zur Machbarkeit Ihres Vorhabens geben.
Fazit
Datensicherheit ist nur dann gegeben, wenn die Daten dort bleiben, wo sie hingehören: bei Ihnen. Zudem müssen die Zwecke der Datenverarbeitung legitim und rechtlich abgesichert sein. Das alles ist bei lokaler KI kein Problem. Lokale KI-Systeme speichern nur dann Daten (wie etwa Nutzereingaben), wenn Sie dies wünschen.
Datenschutz ist im Kern eine Frage des Respekts gegenüber Kunden, Mitarbeitern und Geschäftspartnern. Unternehmen, die personenbezogene Daten leichtfertig in öffentliche KI-Systeme einspeisen, riskieren nicht nur unzufriedene Kunden, sondern auch einen Datenskandal.
Die Konsequenzen können gravierend sein:
- Bußgelder nach DSGVO
- Schadenersatzklagen von Betroffenen
- Verlust von Geschäftsgeheimnissen
- Reputationsschäden
Die Empfehlung: kann daher nur lauten: Wer KI im Unternehmenskontext einsetzen will, sollte auf lokale, selbst kontrollierte Systeme setzen. Diese bieten nicht nur mehr Sicherheit, sondern oft auch bessere Ergebnisse für spezifische Anwendungsfälle.
Bevor Sie externe KI-Dienste nutzen, konsultieren Sie nicht nur Juristen, sondern auch technische Spezialisten für KI-Entwicklung. Denn juristische Dokumente lösen keine technischen Probleme, und die grundlegenden Herausforderungen beim Umgang mit personenbezogenen Daten in KI-Systemen sind nach wie vor ungelöst.
KI-Beratung, KI-Lösungen
Leistungsangebot:
- Erstberatung inkl. Machbarkeitsaussagen
- Schulungen und Workshops für Führungskräfte, Berufsgeheimnisträger, Angestellte, Entwickler
- KI-Lösungen mit und ohne ChatGPT/Azure. Cloud oder eigener KI-Server

gekennzeichnet.

Mein Name ist Klaus Meffert. Ich bin promovierter Informatiker und beschäftige mich seit über 30 Jahren professionell und praxisbezogen mit Informationstechnologie. In IT & Datenschutz bin ich auch als Sachverständiger tätig. Ich stehe für pragmatische Lösungen mit Mehrwert. Meine Firma, die 