Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen
Externe Links sind mit dem Symbol Externer Link Symbol gekennzeichnet. Datenschutzinfo

KI-Chatbots: Chancen und Risiken für Unternehmen – Lokale KI als sichere Alternative

0
Dr. DSGVO Newsletter erkannt: Erweiterte Funktionen verfügbar
Artikel als PDF · Mehr Inhalte & kompakte Kernaussagen · Webseiten-Checks · Offline-KI Live
Standardansicht: Dr. DSGVO Newsletter nicht erkannt. Erweiterte Funktionen nur für Abonnenten:
Artikel als PDF · Mehr Inhalte & kompakte Kernaussagen · Webseiten-Checks · Offline-KI Live
📄 Artikel als PDF (nur für Newsletter-Abonnenten)
🔒 Premium-Funktion
Der aktuelle Beitrag kann in PDF-Form angesehen und heruntergeladen werden

📊 Download freischalten
Der Download ist nur für Abonnenten des Dr. DSGVO-Newsletters möglich

Die rasante Entwicklung von KI-Chatbots wie ChatGPT hat die Geschäftswelt revolutioniert. Doch während die Technologie beeindruckende Möglichkeiten bietet, lauern erhebliche Risiken hinsichtlich Datensicherheit, Datenschutz und rechtlicher Vorgaben, die Unternehmen kennen sollten. Die KI-Verordnung (AI Act) sorgt für zusätzliche Vorgaben.

Einleitung

Dieser Artikel ergänzt die Datenschutz Deluxe Podcast-Folge #34: Chatbots nutzen: wofür und wofür besser nicht?

Den Podcast können Sie hier anhören:

Der Podcast wird lokal auf Dr. DSGVO betrieben. Podigee wird nicht weiter verwendet. Stattdessen wurde der bisherige Podigee-Podcast automatisiert migriert.

Die Grenzen der KI-Technologie verstehen

Künstliche Intelligenz hat zweifellos den Turing-Test bestanden – in vielen Anwendungsfällen ist kaum noch ein Unterschied zwischen Mensch und Maschine erkennbar. Doch ein entscheidendes Merkmal teilen KI-Systeme mit Menschen: Sie sind unzuverlässig.

Der wesentliche Unterschied liegt in der Spezialisierung. Während hochspezialisierte menschliche Experten in ihrem Fachgebiet äußerst zuverlässig arbeiten können, handelt es sich bei öffentlich verfügbaren Chatbots um generelle Intelligenzen. Sie können vieles – aber nichts perfekt.

Das Problem mit juristischen Texten

Besonders problematisch wird der Einsatz bei juristischen Anwendungen. ChatGPT wurde nur zu einem kleinen Prozentsatz mit deutschen Texten trainiert, und von diesem Anteil sind juristische Dokumente noch einmal deutlich unterrepräsentiert. Juristische Texte zeichnen sich durch spezifisches Vokabular, deutlich längere Satzstrukturen und hochgradige Verschachtelungen aus – Eigenschaften, für die generelle KI-Modelle nicht optimal trainiert sind.

Präzision ist in juristischen Texten unverzichtbar. Die vagen Formulierungen, die KI-Systeme häufig produzieren, stehen im direkten Widerspruch zu den präzisen Anforderungen rechtlicher Dokumente.

Datenschutzrechtliche Herausforderungen

Das Grundproblem: Personenbezogene Daten

Wenn Unternehmen Chatbots wie ChatGPT nutzen, entstehen massive datenschutzrechtliche Probleme, sobald personenbezogene Daten im Spiel sind:

Bei Klageschriften etwa erscheinen Namen der Parteien nicht nur in der Einleitung, sondern können indirekt an vielen Stellen auftauchen – durch Ortsangaben, regionale Besonderheiten oder spezifische Formulierungen. Ein Nachname wie „Müller“ kann eine Berufsbezeichnung, ein Firmenname oder ein Personenname sein – wie soll eine KI das zuverlässig unterscheiden?

Beim Cold Calling mit KI-Sprachassistenten wurde dokumentiert, wie Personen ihre personenbezogenen Daten mit einem Chatbot teilen, ohne darüber informiert zu werden, dass:

  • Sie nicht mit einem Menschen sprechen
  • Ihre Daten an US-amerikanische Unternehmen übertragen werden
  • Diese Daten als Trainingsdaten verwendet werden können
  • Der Anbieter selbst zugibt, personenbezogene Daten nicht zuverlässig aus Trainingsdaten filtern zu können

Die Illusion der Anonymisierung

Angebliche Anonymisierungslösungen erreichen bestenfalls 90 – 95 % Zuverlässigkeit. Das reicht nicht, denn:

  • Personenbezug entsteht oft durch die Kombination mehrerer Informationen
  • Regionale Eingrenzungen, spezifische Schimpfworte oder Kontextinformationen können Personen identifizierbar machen
  • Selbst Menschen erkennen nicht ohne Weiteres alle personenbezogenen Daten

Auch angebliche Anonymisierungs-Lösungen funktionieren nicht, wie man mit halbwegs kritischen Tests leicht feststellen kann. Eine Anonymisierung kann an sich schon nicht zuverlässig funktionieren, weil generelle Gründe dagegen sprechen (siehe Informationen im verlinkten Beitrag).

Weder Menschen noch KI können vollständig garantieren, dass alle personenbezogenen Daten erkannt und entfernt werden.

Enterprise-Versionen: Keine Garantie für Rechtssicherheit

Microsoft und OpenAI bieten Enterprise-Versionen ihrer Produkte an, die angeblich „rechtskonform“ sind. Doch hier ist – wie immer, bei Werbeversprechen – Vorsicht geboten:

Die Enterprise-Version bedeutet nicht automatisch Rechtssicherheit – sie ist lediglich die Voraussetzung dafür, dass Rechtskonformität überhaupt möglich sein könnte. Im Umkehrschluss gibt der Anbieter damit öffentlich zu: Ohne Enterprise-Version ist keine Rechtskonformität garantiert.

Die Realität zeigt: Unternehmen, die Microsoft-Produkte unrechtmäßig zur Verarbeitung von Kundendaten eingesetzt haben, wurden in den letzten Jahren mit Bußgeldern ab 50.000 Euro und aufwärts belegt.

Das Datenleck-Risiko bei Custom GPTs

Seit Kurzem können Nutzer eigene GPTs mit spezifischen Trainingsdaten erstellen. Dabei sollte beachten werden: Andere Nutzer können diese vermeintlich privaten Informationen durch geschicktes Nachfragen aus dem System extrahieren. Intime Daten, die im guten Glauben hochgeladen wurden, sind nicht so geschützt, wie viele annehmen.

Die bessere Alternative: Lokale KI-Systeme

Für Unternehmen und Organisationen gibt es eine deutlich sicherere und oft auch effektivere Lösung: Eigene, lokale KI-Systeme.

Vorteile lokaler Systeme:

Die Vorteile eines eigenen KI-Systems sind immens:

  • Datensicherheit & Datenschutz: Keine Datenübertragung an Dritte, vollständige Kontrolle über sensible Informationen
  • Bessere Ergebnisse: Durch Feintraining auf spezifische Anwendungsfälle können lokale Systeme oft bessere Resultate liefern als generelle Chatbots
  • Geschäftsgeheimnisse bleiben geschützt: Kein Risiko, dass proprietäre Informationen in fremde Hände geraten
  • Rechtssicherheit: Einhaltung der DSGVO wird deutlich einfacher

Datenschutz bezieht sich auf personenbezogene Daten, während Datensicherheit alle Arten von Daten berücksichtigt. In Unternehmen sind sensible Daten nicht nur Daten von Mitarbeitern oder Kunden, sondern auch Geschäftsgeheimnisse, vertrauliche Daten (NDA) oder privat gehaltene Daten wie Studienergebnisse oder interne Arbeitsanweisungen.

Eine eigene KI muss übrigens nicht viel kosten. Mehr Informationen dazu finden Sie im Beitrag zu KI-Apps.

Sinnvolle Einsatzgebiete für öffentliche Chatbots

Nicht alle Anwendungen sind problematisch. Chatbots können durchaus sinnvoll eingesetzt werden:

  • Im privaten Bereich für allgemeine Anfragen ohne sensible Daten
  • Für Kreativaufgaben wie Werbetexte oder Bildgenerierung (mit anschließender menschlicher Überprüfung)
  • Zur Generierung von Trainingsdaten für eigene Modelle (mit nicht-sensiblen Eingabetexten)
  • Für Synonyme und Textvarianten bei allgemeinen Inhalten

Wichtig: Das Ergebnis muss immer überprüft werden – generelle Chatbots sind Kreativitätswerkzeuge, keine Zuverlässigkeitswerkzeuge.

Spezialisierter Chatbot für die Marktforschung (Personas-Befragung). Das Wissen aus 100.000 Promotion-Aktionen wird berücksichtigt und im Ergebnis angezeigt.

Bei einem allgemeinen Chatbot stellt sich allerdings die Frage, wie ein Unternehmen damit einen nennenswerten Mehrwert generieren kann. Besser sind spezialisierte KI-Apps, die konkrete Probleme konkret lösen. Beispiele für KI-Apps:

  • Wissensassistent: Befragen Sie Ihr (!) Unternehmenswissen und erhalten abgesicherte Ergebnisse, immer mit Quellenangaben und der Möglichkeit, direkt auf die Seite 139 in Ihrem PDF-Dokument zu springen, von wo die KI das Wissen für ihre Antwort bezogen hat.
  • Audio-Transkription: Ja, das gibt es schon. Probieren Sie mal die allgemeinen Lösungen aus. Wollen Sie lieber 50 Korrekturen vornehmen oder nur 3? Wird Ihr Nachname oder der Ihrer Kollegin richtig erkannt? Das geht besser mit einer eigenen KI-App, die Open-Source KI-Modelle nutzt.
  • KI-Datenbank: Verknüpfen Sie das Wissen aus mehreren IT-Systemen, die bis dato nicht miteinander sprechen können.

Die Möglichkeiten sind endlos. Viele Probleme können sehr gut und wirtschaftlich mit KI gelöst werden! Lassen Sie sich eine Einschätzung zur Machbarkeit Ihres Vorhabens geben.

Fazit

Datensicherheit ist nur dann gegeben, wenn die Daten dort bleiben, wo sie hingehören: bei Ihnen. Zudem müssen die Zwecke der Datenverarbeitung legitim und rechtlich abgesichert sein. Das alles ist bei lokaler KI kein Problem. Lokale KI-Systeme speichern nur dann Daten (wie etwa Nutzereingaben), wenn Sie dies wünschen.

Datenschutz ist im Kern eine Frage des Respekts gegenüber Kunden, Mitarbeitern und Geschäftspartnern. Unternehmen, die personenbezogene Daten leichtfertig in öffentliche KI-Systeme einspeisen, riskieren nicht nur unzufriedene Kunden, sondern auch einen Datenskandal.

Die Konsequenzen können gravierend sein:

  • Bußgelder nach DSGVO
  • Schadenersatzklagen von Betroffenen
  • Verlust von Geschäftsgeheimnissen
  • Reputationsschäden

Die Empfehlung: kann daher nur lauten: Wer KI im Unternehmenskontext einsetzen will, sollte auf lokale, selbst kontrollierte Systeme setzen. Diese bieten nicht nur mehr Sicherheit, sondern oft auch bessere Ergebnisse für spezifische Anwendungsfälle.

Bevor Sie externe KI-Dienste nutzen, konsultieren Sie nicht nur Juristen, sondern auch technische Spezialisten für KI-Entwicklung. Denn juristische Dokumente lösen keine technischen Probleme, und die grundlegenden Herausforderungen beim Umgang mit personenbezogenen Daten in KI-Systemen sind nach wie vor ungelöst.

KI-Beratung, KI-Lösungen

Umfassende Beratung (fachlich, rechtlich, technisch):

Leistungsangebot:

  • Erstberatung inkl. Machbarkeitsaussagen
  • Schulungen und Workshops für Führungskräfte, Berufsgeheimnisträger, Angestellte, Entwickler
  • KI-Lösungen mit und ohne ChatGPT/Azure. Cloud oder eigener KI-Server

Ihre Anfrage

Oder Mail an ki@dr-dsgvo.de

Wer schreibt hier?
Mein Name ist Klaus Meffert. Ich bin promovierter Informatiker und beschäftige mich seit über 30 Jahren professionell und praxisbezogen mit Informationstechnologie. In IT & Datenschutz bin ich auch als Sachverständiger tätig. Ich stehe für pragmatische Lösungen mit Mehrwert. Meine Firma, die IT Logic GmbH, berät Kunden und bietet Webseiten-Checks sowie optimierte & sichere KI-Lösungen an.
Bitte nutzen Sie bei Verwendung meiner Ergebnisse die Quellenangabe oder verlinken Sie gut wahrnehmbar auf diesen Artikel:
Einen Kurzlink oder eine Bestätigung für Ihre Quellenangabe erhalten Sie kurzfristig auf Anfrage. Ein Teilen oder Verteilen dieses Beitrags ist natürlich ohne weiteres möglich und gewünscht.

Schreiben Sie einen Kommentar

Ihre Mail-Adresse wird nicht veröffentlicht.

KI-Apps statt Prompting: Effiziente Lösungen für konkrete Aufgaben