Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.

Jetzt testen

sofort das Ergebnis sehen

DSGVO Website-Check
Externe Links sind mit dem Symbol Externer Link Symbol gekennzeichnet. Datenschutzinfo

Chatbots nutzen: wofür und wofür besser nicht? (Datenschutz Deluxe Podcast #34)

Diese Folge kann hier angehört werden:

Außerdem gibt es einen Hintergrundartikel zum Thema dieser Folge, der die Chancen und Risiken von Chatbots betrachtet.

KI-generiertes Transkript

Das folgende Transkript wurde von einem selbst programmierten optimierten KI-Programm generiert. Das Programm ist datenschutzkonform, es benötigt keine Internetverbindung und tauscht keine Daten mit Dritten aus. Das Ergebnis ist hervorragend.

Hohe Datensicherheit
Offline-Betrieb möglich
Hohe Qualität
AI Act leicht beherrschbar
Ja, hallo liebe Zuhörer des Datenschutz-Deluxe-Podcasts.
Mein Name ist Stephan Plesnik und ich begrüße euch ganz recht herzlich zu dieser neuen Folge.
Mit dabei ist wie immer mein Partner in Crime, Dr. Klaus Meffert.
Und ich begrüße auch dich, Klaus.
Wie geht es dir heute Morgen?
Stephan, hallo.
Schön, dass wir wieder sprechen.
Immer, wenn wir uns unterhalten, geht es mir natürlich sehr gut und ich bin gespannt auf unser heutiges Thema.
Ja, wunderbar.
Bei so einer schleimenden Einleitung können wir ja nur ein perfektes Thema auswählen.
Und zwar haben wir uns überlegt, wir reden heute mal über Chatbots und den damit verbundenen Datenschutz.
Das ist im Übrigen ein Thema, was ich schon vor, ich weiß nicht, es ist schon ein paar Jahre her, dass ich das auf meinem YouTube-Channel thematisiert habe.
Und deswegen bin ich jetzt mal sehr gespannt, Klaus, was ist eigentlich deine allgemeine Einstellung zu den Chatbots?
Also wie wirken die auf dich als Person?
Und dann natürlich auch die datenschutzrechtliche Einschätzung, wo du da vielleicht Probleme siehst?
Ja, sehr gute Frage.
Also grundsätzlich sind natürlich die Entwicklungen ganz enorm.
Erstes Beispiel ist ja ChatGPT.
Da hat dann spätestens jeder gemerkt in Deutschland Anfang dieses Jahres, dass künstliche Intelligenz ein neues Thema ist.
Die Erfindung des Feuers so ungefähr, ja, war jetzt Version 2.0. Also natürlich ganz erstaunliche Fähigkeiten.
Touring-Test, meiner Meinung nach, ganz eindeutig bestanden.
Also es gibt keinen Unterschied mehr in vielen Anwendungsfällen zwischen Mensch und Maschine.
Die Maschine sogar, muss man ehrlicherweise sagen, teilweise deutlich besser in nicht sehr abgegrenzten Bereichen, also weitgehenden Bereichen, Frage-Antwort-Maschine, Zusammenfassung von Texten und so weiter.
Aber wer die Technik ein bisschen kennt, und das tue ich, der weiß, und das ist das Erstaunliche natürlich auch, dass KI sich genauso wie ein Mensch verhält.
Das heißt, KI ist genauso unzuverlässig wie ein Mensch.
Und der Unterschied ist, dass es bei Menschen eben hoch spezialisierte Modelle gibt, im Gegensatz zu Chatbots, die der Allgemeinheit zur Verfügung stehen.
Die sind nämlich nicht hoch spezialisiert, sondern generelle Intelligenzen, die vieles können, aber alles nicht super und sind auch nicht 100% zuverlässig, genau wie der Mensch nicht.
Aber der Spezialist, den sich kaum jemand leisten kann, der ist dann vielleicht doch noch zuverlässiger.
Und das Problem ist, dass diese Chatbots eben von jedem verwendet werden können, teilweise auch kostenlos, und jeder natürlich diese nutzt und denkt, die Antworten, die da rauskommen, sind richtig.
Und ich muss mir jetzt weniger Arbeit machen.
Ich habe jetzt zuletzt gelesen, da wurde vorgeschlagen, zumindest, dass Gerichte sich die Klageschriften usw. zusammenfassen lassen sollen von Chatbots und die dann verwenden sollen.
Das halte ich für eine sehr schlechte Idee.
Und wer sowas vorschlägt, der ist in einer gewissen Weise auch dumm, muss ich sagen, weil ich finde, es ist einfach eine Unverschämtheit, diese angebliche Komfortverbesserung zu verwenden, um dann eine erhöhte Unzuverlässigkeit in bestimmte Prozesse reinzubringen, die hoch kritisch sind.
Also, wo man Chatbots verwenden kann, ist natürlich im privaten Bereich.
Wenn ich irgendwelche Anfragen habe, allgemeine Art, da können wir noch drüber reden, macht es dann nicht Sinn, einfach eine Suchmaschine zu verwenden.
Aber es gibt durchaus im privaten Bereich viele Fälle, wo man das mal machen kann.
Aber im Unternehmensumfeld sehe ich da oder bei Gerichten sehe ich da teilweise andere Systeme als Vorzug.
Vor allem, wenn wir über Chatbots von Dritten sprechen, wie ChatGPT, Googlebot.
Mich würde interessieren, wofür nutzt du denn eigentlich Chatbots, wenn ich dich jetzt mal so fragen darf und die Rolle umkehren darf, sozusagen.
Das würde mich mal sehr interessieren.
Ja, also wofür ich Chatbots nutze.
Also, ich habe natürlich in der Anfangsphase von ChatGPT, weil das ja so ein Megahype war, dann musste man sich das ja natürlich auch mal angucken.
Da habe ich auf jeden Fall mit ChatGPT zum größten Teil getestet, könnte das helfen, zum Beispiel beim Verfassen von Videoskripten oder beim Erstellen von Blogartikeln.
Und habe dann sehr, sehr schnell festgestellt, dass wenn ich dem sehr, sehr spezielle Informationen gebe zu einem Thema, wozu ich zum Beispiel ein Videoskript haben möchte, dass ich ihm sogar die Aufgabe gestellt habe, den Stil, den Sprachstil meiner Videos als Grundlage zu nehmen.
Und dabei habe ich festgestellt, was das Ding eigentlich macht, ist Abstract for Abstract, Word for Word, irgendwas von vorhandenen Blogartikeln zu kopieren.
Also, es war überhaupt nichts Neugeneriertes, sondern das Einzige, was quasi Neugeneriert war, wenn du so möchtest, war das Gesamtergebnis, weil es eine andere Zusammenstellung von Inhalten war, die aber eigentlich essentiell von anderen Blogs kopiert waren.
Also, ich habe dann wirklich mal den Test gemacht und habe einen kompletten Absatz, den mir ChatGPT gegeben hat, zurück in Google eingegeben und habe sofort beim ersten Suchergebnis die Webseite gefunden, auf der exakt dieser Abschnitt stand.
Also, da war nichts Neugeneriert, da war keine Intelligenz hinter, sondern das war einfach nur, wenn du so möchtest, nichts weiter als ein Parametervergleich in der Datenbank und das Ausspucken von vorhandenen Informationen, die bereits eingelesen wurden.
Okay, sehr interessant.
Also, ich sage mal so, ich will jetzt ChatGPT nicht verteidigen, aber ich habe durchaus auch schon Ergebnisse gesehen, wo ich jetzt sagen würde, die sind neuartig.
Also, das würde ich schon sagen.
Es kann durchaus sein, dass es Fälle gibt oder Anwendungsfälle an sich, Klassen von Problemen, wo Zitate zurückkommen oder Satzteile, Teile von Sätzen, die es anderswo gibt, wie du gesagt hast.
Dieses Aufnehmen der vorgegebenen Sprechweise oder Zuhörers oder Lesers sozusagen, das denke ich, funktioniert auch mit eigenen Worten, aber die Zuverlässigkeit sinkt.
Also, ich sage mal so, Kreativität und Zuverlässigkeit sind zwei Gegensätze, die nicht zusammenkommen.
Das heißt, man kann sich überlegen, will ich entweder eine besonders kreative Antwort haben oder eine besonders zuverlässige Antwort, aber beides gleichzeitig geht nicht.
Und da sind wir, glaube ich, auch schon beim, du hast ja auch schon Anwendungsfälle jetzt genannt, es gibt ja durchaus Fälle, wo man Chatbots verwenden kann, ohne dass daraus ein rechtliches Problem oder ein Datenproblem entsteht.
Personenbezogene Daten, Geschäftsgeheimnisse und so weiter, vertrauliche Daten sind ja nicht immer da.
Und es geht auch nicht immer um exakte Antworten.
Wenn ich jetzt zum Beispiel über Bildgenerierung nachdenke, ist jetzt kein Chat, dann ist das Ergebnis, ich sage jetzt mal, beim Bild gibt es jetzt nicht so die Art von Zuverlässigkeit wie beim Text.
Wenn man Menschen generieren lässt, dann wäre es schön, wenn die Hand natürlich aussieht und fünf Finger hat und nicht nur drei.
Aber ansonsten, wenn das alles so ungefähr so aussieht wie ein Mensch, was ja heute schon super funktioniert, dann kann man sagen, hat es funktioniert.
Beim Text auch diese kreativen Werbebotschaften, da kann ich mir schon vorstellen, dass es eine Erleichterung ist, weil irgendjemand nimmt ja dieses Ergebnis und verfeinert es dann noch ein bisschen auch.
Es gibt ja nicht unreflektiert irgendwelche Ausgaben des Chatbots direkt auf die Webseite als Werbebotschaft, das macht ja keiner hoffentlich, sondern guckt dann vielleicht noch mal drüber.
Was wir auch mal gemacht haben, ich habe es für den Kunden gemacht, über die Schnittstelle von ChatGPT, ist, um Trainingsdaten zu erzeugen für eigene Modelle, da bin ich auch ein Verfechter von eigenen KIs, lokal laufen lassen, keine Datentransfers zu dritten.
Wenn ich zum Beispiel einen Eingabetext habe und möchte da Varianten haben davon, dann kann ich mir von ChatGPT sowas generieren lassen.
Natürlich reden wir jetzt bei den Eingabetexten nicht über Texte über Personen oder Sonstiges, sondern einfach lapidare Texte.
Es können auch Fragen sein, da kann ich mir schon Synonyme generieren lassen.
Ich muss mir natürlich das Ergebnis auch anschauen, weil manchmal passt es auch nicht 100 Prozent, aber in meisten Fällen schon.
Da sehe ich dann schon den Einsatz von Chatbots, aber da, wo die meisten, wenn man sich mal die sozialen Medien anguckt, LinkedIn oder so, den Einsatz sehen, sehe ich ihn persönlich ehrlich gesagt nicht.
Ja, das ist ein spannendes Thema, wo du jetzt gerade auch LinkedIn erwähnt.
Am Anfang hattest du ja gerade eben mal kurz gesagt, von wegen, dass das eben auch Gerichte und so weiter schon hingehen oder Anwälte und sich davon Klageschriften formulieren lassen.
Bleiben wir doch mal kurz bei diesen beiden Themen, weil ich finde es extrem spannend.
Erstes Thema, Formulieren von Klageschriften in Bezug auf den Datenschutz.
Normalerweise haben wir in Klageschriften, wenn ich die so wie ich die kenne, haben wir den Vermerk und den Personenbezug im Endeffekt nur in der Einleitung, wo die beiden Klageparteien sozusagen erwähnt werden.
Wer gegen wen und was ist der Gegenstand?
Sonst wird ja meistens nur generisch von die Beklagte und die Klagende gesprochen als Parteien, die verteidigt werden.
Jetzt ist es aber ja nun mal so, in dem Dokument steht ja am Anfang dann drin, wer sind denn diese Parteien?
Die werden ja identifiziert.
Und da, denke ich, ist ja alleine schon der Punkt gegeben, hier müsste ja eigentlich der Anwalt, der diese Klageschrift verfassen lässt und das mit Hilfe eines Chatbots wie zum Beispiel ChatGPT tut, tendenziell erst mal die Einwilligung holen und die vollständigen Rattenschwanzgedönse der Aufklärung bezüglich der Verwendung personenbezogener Daten durch US-amerikanische Unternehmen und so weiter und so fort demjenigen geben.
Also diese Einwilligungspflicht ist ja an der Stelle auf jeden Fall gegeben, weil wir personenbezogene Daten haben.
Auf der anderen, da kann ich mir sogar vorstellen, dass das passiert.
Also wenn ich mir jetzt denke, jemand geht zu einem Anwalt, weil er eine Klage formulieren möchte und so weiter, dann kann ich mir sehr gut vorstellen, dass diese Information passiert.
Die Frage ist, gibt es einen Anwalt, der überhaupt eine Klageschrift verfasst?
Ich hatte ein anderes Beispiel, aber kennst du jemanden, der eine Klageschrift mit einer KI verfasst?
Nee, ich persönlich nicht.
Ich habe nur auch schon davon gehört, dass eben auch in Berichten sozusagen erzählt wurde, dass sowas getestet wurde und auch getestet wurde, ob zum Beispiel Gerichtsurteile, die gesprochen wurden mit der Unterstützung, was KI in der Auswertung der Sachlage angeht, eben zum Beispiel gezeigt werden konnte, was ich sehr beeindruckend fand, dass die KI bei Falschverurteilungen eine wesentlich geringere Negativquote hatte, was falsche Verurteilungen angeht.
Weil die KI eben nicht, und das haben die dann sehr viel darauf zurückgeführt, dass zum Beispiel die Uhrzeit am Tag und der Tag in der Woche sehr stark dazu beiträgt, wie Richter bestimmte Urteile sprechen.
Jetzt muss ich dazu nur sagen, das sind alles Informationen, die aus Amerika kommen.
Also da ist ein ganz dicker Disclaimer dran.
Ich weiß, unser Rechtssystem ist halt vielleicht ein bisschen anders aufgestellt.
Ich weiß nicht, ob wir davor gefeit sind, ob es da wirklich so viele Prozesse gibt, die so viel besser sind im Detail.
Und weil ich das nicht weiß, sage ich dazu, das sind Informationen, die habe ich eben aus Blogartikeln, die die amerikanische Seite behandelt haben und da eben in Studien das versucht haben zu erheben.
Ja, aber mit den 10 Uhr morgens oder so, das habe ich auch schon gelesen.
Ich weiß nicht, welches Land das war, ob es Amerika war oder Deutschland.
Spielt ja auch keine Rolle.
Ja, genau das.
Aber vielleicht zwei Sachen dazu.
Das eine ist, was richtig und falsch ist.
Man regt sich natürlich über manche Urteile auf und da sind glaube ich 99 Prozent der Deutschen der Meinung, das ist ein falsches Urteil vielleicht.
Aber die Frage ist, was ist richtig und falsch?
Ist es so, dass der Richter tatsächlich falsch geurteilt hat anhand des bestehenden Rechtes?
Oder hat er vielleicht das bestehende Recht einfach nur richtig angewandt und es kam was bei raus, wo jeder sagt, es ist falsch.
Aber dann liegt es eben an den Gesetzen.
Also ich hatte ja auch schon einen Fall, da hat der Richter einfach die Akte nicht gelesen.
Da kann man natürlich dann schon vom falschen Urteil sprechen.
Aber solange das nicht von der höchsten Instanz in Deutschland bestätigt wurde, ist es formal eben kein falsches Urteil.
Also unter uns ist es dann vielleicht klar, aber was ist schon richtig und falsch, das kann man irgendwie gar nicht richtig sagen.
Aber der Punkt, den du genannt hast, diese Zusammenfassung von Ergebnissen, also von Urteilen zum Beispiel oder auch von Klageschriften.
Was ich gelesen hatte, dass jemand vorschlägt, dass Gerichte Klageschriften sich zusammenfassen lassen können über eine KI, über eine Chats GPT zum Beispiel und haben dann weniger Arbeit.
Das halte ich für grob fahrlässig Unsinn, muss ich sagen.
Wer sowas vorschlägt, hat einfach keine Ahnung oder nicht genug ausprobiert, wie Chatbots funktionieren.
Der hat vielleicht 20 mal einen Prompt eingegeben oder vielleicht 100 Mal.
Allerdings nicht für juristische Texte, 100 Mal, sondern für irgendwas.
Und dann meint derjenige, dass eine KI zuverlässig funktioniert.
Er hat ein Beispiel genannt und da meint er, weil das richtig ist.
Möglicherweise hat er es gar nicht richtig durchgelesen.
Wäre das eine Empfehlung?
Also halte ich für groben Unsinn.
Man muss einfach sagen, juristische Texte sind erst mal ungleich dem Text, den ein normaler Mensch schreibt.
Wenn man sich Urteile zum Beispiel anschaut oder juristische Klageschriften.
Stephan, da sind wir uns, glaube ich, einig.
Das Vokabular ist erstmal ein komplett anderes.
Außerdem ist die Satzlänge deutlich länger als bei normalen Texten.
Und wenn man jetzt noch berücksichtigt, dass Chat GPT zum ganz kleinen Prozentsatz nur auf deutsche Texte trainiert wurde und von diesem kleinen Prozentsatz noch viel weniger juristische Texte sind.
Dann sind immer noch sehr viele Texte, aber eben viel, viel weniger als für alle anderen Gebiete, Englisch und Deutsch allgemein.
Dann weiß man, dass diese KI nicht besonders gut trainiert ist auf diese Texte.
Und das muss man einfach wissen, wenn man so ein Chatbot verwendet.
Ja, definitiv.
Absolut.
Gebe ich dir vollkommen recht.
Besonders auch, da hängt ja auch noch der Rattenschwanz insofern dran, als dass diese Sätze, die dort formuliert werden, sind ja im Normalfall höchstgradig verschachtelt und bieten super viele Eventualitäten und Ausschlüsse innerhalb desselben Satzes, damit eben die Aussage sehr präzise ist.
Und das ist genau ein Punkt.
Präzise Aussagen, finde ich, kann ich wirklich einem, zumindest einem ChatGPT in der aktuellen Version nicht zusprechen.
Also die Aussagen haben sehr, sehr häufig extrem vage Formulierungen, die extrem vage bestimmte Dinge umreißen.
Aber eine wirklich präzise Beschreibung, so wie es eben auch in einem juristischen Text, wie du gerade sagtest, auch absolut notwendig ist.
Das sehe ich da absolut nicht.
Ich wollte mal kurz auf den Punkt kommen.
Du hattest gerade schon mal angesprochen, Leute, was man bei LinkedIn und so weiter liest über die Nutzung von solchen Chatbots.
Da habe ich letztens was gesehen und das fand ich sehr spannend, weil da geht es hauptsächlich um das Thema personenbezogene Daten, zumindest aus meiner Perspektive.
Und zwar hat da jemand, der irgendwie Sales-Automatisierungen für Unternehmen anbietet, einen Test gemacht und hat geguckt, ob die Sprachrückgabe-Funktion, dieser Sprachassistent von ChatGPT, der jetzt neu ist oder zu dem Zeitpunkt wenn es neu war, wie gut der funktioniert.
Und hat im Endeffekt wirklich, also hat sich dabei gefilmt, wie er einen Cold Call bei einer unbekannten Person macht.
In dem Video von LinkedIn hat er richtigerweise immer dann, wenn die Person, die dort zu hören ist über das Telefonat, die Informationen ausgebliebt, wenn es um eine Identifizierbarkeit dieser Person ging.
Das heißt, außer der Stimme als Merkmal, sage ich mal, ist es nicht möglich, über das Video die Person zu identifizieren, die angerufen wurde.
Aber es ist halt interessant, weil im Video sieht man und hört man, dass diese Person ihre personenbezogenen Daten mit diesem Chatbot tauscht und in keiner Form, und das ist das Wichtige, weil das ist ja das Experiment, in keiner Form darüber informiert wird, dass er gerade mit einem Chatbot redet.
Und das bis zum Ende des Gesprächs nicht.
Also er hat das gemacht, inklusive bis zu dem Moment, wo er auflegt.
Und da habe ich dann gedacht, das ist ein 1A-Beispiel an alle Unternehmen, wie man das auf keinen Fall machen darf.
Weil hier haben wir eine Datenübertragung personenbezogener Daten, ohne die Information, was mit den Daten gemacht wird, ohne die Information, dass man diese Daten gerade nicht mit der Person teilt, die der Chatbot vorgibt zu sein.
Denn das ist ganz wichtig.
Also der Chatbot hat sich als die Person selbst ausgegeben.
Und dann geht man noch hin und überträgt das an ein US-amerikanisches Unternehmen, dass das wiederum als Trainingsdaten verwendet und als eigene Veröffentlichung im Statement sagt, es ist uns nicht möglich, zuverlässig personenbezogene Daten aus den Trainingsdaten zu filtern.
Ja, das kann ja auch niemand.
Also muss man tatsächlich sagen, vielleicht komme ich zu deinem Punkt da nochmal zurück mit dem Urteil oder Klageschrift.
Also es stimmt natürlich, was du sagst, dass am Anfang Kläger und Beklagte genannt sind und das muss man natürlich anonymisieren.
Das wäre ja noch einfach, wenn man weiß, ganz am Anfang steht nur was und das lösche ich einfach oder mache es XY draus und dann ist es erledigt.
So ist es ja nicht, weil wenn jetzt irgendein Rechtsfall ist, der in einer bestimmten Stadt spielt sozusagen, dann wird die Stadt ja genannt in der Ursprungsschrift.
Die muss ja dann auch rausgenommen werden oder es geht um eine Adresse.
An der Adresse so und so ist das Auto in das andere Auto reingefahren.
Ja, dann wird das natürlich auch, wenn es anonymisiert wird, rausgelöscht und da hat man sehr viel zu tun mit Daten rauslöschen oder wenn irgendwas, ein Zitat wiedergegeben wird, zum Beispiel jemand beleidigt einen anderen.
Ja, es gibt ja durchaus Schimpfworte, die regional sind.
Ja, sie werden besonders häufig, das ist auch schon eine Eingrenzung.
Alleine ein Schimpfwort ist jetzt kein Personenbezug, aber wenn ich drei, vier, fünf Datenwerte zu einer Person habe und eine ist eine Einschränkung auf Unterfranken, dann reduziert sich der Personenkreis immer weiter und irgendwann kann man schon vom Personenbezug sprechen.
Und die Frage ist, wer erkennt eigentlich, ob da personenbezogene Daten da sind und das erkennt man erst mal nicht.
Sogar der Mensch erkennt es nicht ohne weiteres.
Und diese, wir hatten ja schon darüber gesprochen, Stephan, in einer der vorigen Folgen, angebliche Anonymisierungslösungen sind einfach keine Lösungen.
Sie können höchstens, ich sage mal 90, maximal 95 Prozent Zuverlässigkeit erreichen.
Das heißt, ich drücke auf den Knopf und am Ende ist alles anonymisiert.
Das ist ein Wunschraum, der nie in Erfüllung gehen wird, außer die Definition von personenbezogenen Daten wird verändert.
Ja, absolut.
Das, was du gerade ansprachst, selbst wenn es nur um eine Beleidigung geht oder so.
Gehen wir mal davon aus, jemand beschimpft mich auf offener Straße und sagt, Plastik, du alte Sau oder du dreckige Sau.
Dann ist das ja die Beschimpfung.
Die tritt ja dann in der Klageschrift auch wieder auf, weil es der inhaltliche Gegenstand der Klage ist.
Dementsprechend, da steht ja der Personenbezug drin.
Woher soll ChatGPT oder irgendeine KI aus diesem Satz erkennen, dass Plastik ein Name ist?
Das könnte auch ein Objekt sein oder ein Gegenstand oder der Eigenname von irgendeiner Sache, wo ChatGPT einfach nur denkt, das habe ich halt bisher noch nicht gelernt, in welchem Bezug das zu irgendetwas steht.
Und nur weil das mal in Bezug zu einem anderen Namen steht, heißt es ja auch nicht, dass es automatisch Teil des Namens ist und damit personenbezogene Daten darstellt.
Es kann ja auch eine wahllose Aneinanderordnung von Informationen sein, die ChatGPT an einer anderen Stelle aufgreift, wo das eben anders kombiniert ist.
Und all diese Faktoren oder auch ganz einfach, gehen wir mal davon aus, man hat jetzt nicht so einen exotischen Nachnamen wie ich, der in Deutschland, glaube ich, nur zweimal, also nur bei meinen Familienmitgliedern direkten vorkommt, sondern du heißt Müller oder du heißt Meier.
Das ist eine Berufsbezeichnung aus der Altdeutschen, aus dem Mittelhochdeutschen.
Dementsprechend kann ChatGPT ja nicht wissen, dass es gerade nicht um eine Person geht und nicht um die Berufsbezeichnung.
Und bei Müller übrigens auch ein Firmenname.
Wenn es um eine Firma geht, Mercedes-Benz Mitarbeiter, dann wäre es Unsinn, dir das rauszunehmen.
Ja, genau.
Genau diese Probleme.
Ich meine, wir hatten ja über dieses Ding hier Nele-AI gesprochen und ich habe mir das letztens noch mal angeguckt, wie die auch schildern, wie die diesen Personenbezug eigentlich entfernen wollen.
Und es ist halt wirklich wieder mal bezeichnet.
Das fand ich sehr spannend bei der Recherche.
Ich habe an keiner Stelle eine Information darüber gefunden, wie wirklich technisch dieser Vorgang abgebildet werden soll.
Also, wie die sich vorstellen, dass sie diese Prompts eben von diesen Dingen bereinigen, damit die entpersonalisiert sind, dass der Prompt dann verarbeitet wird und dann später bei der Rückgabe der Antwort wieder personalisiert wird.
Und sie sagen, es gibt Einschränkungen.
Das finde ich halt spannend, weil das sind so hanebüchene Einschränkungen.
Also, wenn es möglich wäre, dass wir personenbezogene Daten vorher herausfiltern können oder dass Chatbots diese zuverlässig erkennen können und dementsprechend herausfiltern können, dann müsste es für einen Chatbot unheimlich einfach möglich sein, zu wissen, dass der Name Kim Kardashian ein Name einer Person des öffentlichen Interesses ist und dass diese Person sich selbstständig entschieden hat, mit ihrem Namen zum Beispiel Werbung zu machen.
Das heißt, dieser Name ist kein personenbezogenes Datum, was in dem Sinne schützenswert ist, weil diese Person diesen Namen in der Öffentlichkeit als Synonym für ihre öffentliche Tätigkeit, für ihr Business nutzt.
Wenn sie den Namen ändern würde, würde sie ihr Business verlieren.
Dementsprechend können wir nicht davon sprechen, dass dieser Name in irgendeiner Form für sie geschützt ist, sodass sie komplett frei damit jetzt entscheiden kann, dass jeder das aus seinen Systemen löschen muss, weil sie sich nun mal dazu entschieden hat, zu einer Person des öffentlichen Lebens zu werden.
Genauso ist das mit Politikern ja auch.
Deren Namen dürfen wir ja auch verwenden, ohne deren Einwilligung, wenn wir darüber schreiben, weil sie eben Personen des öffentlichen Lebens sind.
Und ich bin der Meinung, ein ChatGPT müsste doch dann imstande sein, sowas zu erkennen, oder nicht?
Ja, du hast vollkommen recht.
Also erst mal, es kommt natürlich auf den Kontext an.
Man kann über Olaf Scholz als Bundeskanzler den Namen, kann man ja erwähnen, mit öffentlichen Informationen verknüpfen, dann ist es, glaube ich, nicht verboten.
Verleumdung wäre was anderes und so weiter.
Oder den Namen verknüpfen mit intimen Kenntnissen, weil man Nachbar ist und irgendwas gesehen hat, was andere nichts angeht.
Das wäre wieder schwierig.
Aber grundsätzlich ist es so, wie du sagst.
Der Umkehrschluss wäre ja, wenn es möglich wäre, personenbezogene Daten als solche zu erkennen, könnten Chatbots ja auch und dann entsprechend damit umgehen.
So passiert es aber ja letztendlich nicht.
Also um es nochmal zu sagen, es ist ganz erstaunlich, was da passiert ist mit der KI und man kann das auch durchaus für viele Fälle nutzen, aber eben nicht für sensible Daten, die vor allem anderen gehören.
Wenn ich meine eigenen Daten da reinlade, das ist mein Thema, kann ich machen, was ich will, aber Daten von anderen Menschen darf ich nur mit deren Zustimmung, in den meisten Fällen jedenfalls, hochladen oder muss sie informieren vielleicht und fragen, ob sie damit einverstanden sind.
Und ansonsten bin ich dafür und empfehle es auch, vor allem für Unternehmen und Organisationen, eigene KI-Systeme aufzubauen.
Und da merkt man sehr schnell, habe ich überhaupt einen Nutzen von solchen KI-Systemen oder nutze ich eine KI einfach nur als Suchmaschine und da sage ich, ja gut, eine Suchmaschine gibt es schon sehr lange, die können Sie auch weiterhin nutzen, allerdings dann auch wieder nicht, indem Sie einen Vertrag reinladen, was ja bei einer Suchmaschine eh nicht geht.
Das ist nämlich gerade der Punkt.
Eine KI bietet ja viel mehr Möglichkeiten.
Ich kann ein Dokument reinladen, einen langen Text und lasse es mir zusammenfassen.
Das kann ich mit einer Suchmaschine nicht machen.
Aber dafür würde ich dann ein eigenes System nur verwenden wollen oder auch, wenn ich über Gerichte nachdenke, wenn die eine Zusammenfassung haben wollen, dann würde ich das höchstens über ein lokales KI-System machen lassen, was auch noch auf juristische Texte feintrainiert wurde.
Dann kann das mit einer relativ hohen Zuverlässigkeit klappen und die Daten sind vor allem in einem System drin, was man selbst betreibt.
Das ist schon mal besser oder überhaupt erst die Voraussetzung dafür, dass das Ganze funktionieren kann.
Wenn ich das in Chats GPT hochlade, wie du auch sagst, Amerika oder sonst wo, der Anbieter macht damit, was er will, dann sehe ich es für schwierig.
Und noch einen Punkt.
Wenn ich lese, dass Chats GPT Enterprise rechtskonform ist, ich sage es mal mit meinen Worten, und alle Datenschutzgesetze einhält, dann frage ich mich, was ist denn, wenn ich nicht Enterprise-Version habe?
Das Gleiche übrigens bei Microsoft Windows.
Da kann ich viel Geld bezahlen, dass alle möglichen Daten nicht übermittelt werden.
Da frage ich mich, heißt es, dass es dann rechtskonform ist und wenn ich nicht viel Geld bezahle, dann nicht?
Also diese Fragen kann sich jeder stellen.
Und vielleicht noch ein letztes dazu.
Man kann mit Chats GPT seit Kurzem eigene GPTs generieren.
Das heißt, eigene Trainingsdaten verwenden und in sehr kurzer Zeit das Modell fein trainieren auf seinen eigenen Anwendungsfall.
Da kam jetzt heraus, wenn du das machst, Stephan, und dein Modell reinlädst in Chats GPT, was zum Beispiel deine Sprache, deinen Sprachstil nachahmt oder sowas, damit es natürlicher klingt, als hättest du es geschrieben, dann könnten andere aus Chats GPT diese Informationen rauskitzeln, wenn sie nur höflich nachfragen.
Also Datenleck sozusagen.
Das heißt, deine intimen Daten, die du als gesichert ansehen würdest möglicherweise, du bist ja nicht so naiv, aber manche machen sie ja, lässt es in Chats GPT rein im guten Glauben, dass kein anderer diese Daten sieht, der wird dann bitter enttäuscht werden.
Und mich nervt es wirklich, wenn ich manche lese, ja, jetzt hat ja Microsoft oder jetzt hat ja OpenAI nachgebessert.
Ja, die bessern ihr ganzes Leben lang nach.
Das wird nicht besser am Ende.
Die wollen auch gar keine Daten schützen.
Die wollen die Daten verwenden, um mehr Geld zu verdienen.
Richtig.
Ja, pass auf.
Ich finde, das ist super cool.
Das ist eine tolle Überleitung.
Ich finde, wir sollten hier zum Ende hin nochmal kurz so eine kleine Zusammenfassung machen von dem, was unser ganzer Austausch, das ganze Gelaber in der Welt und der ganze Hype um diese Tatsachen denn jetzt überhaupt mal faktisch so für den Unternehmensalltag bedeutet.
Weil KI, du findest ja zurzeit fast kein Produkt mehr, das nicht damit wirbt, dass jetzt auch KI drin steckt.
So, wir wissen, dass bei Microsoft, einem der Hauptanbieter für wahrscheinlich nahezu jedes Betriebssystem auf jedem Rechner, der in Unternehmen genutzt wird, KI einsetzt.
Wir wissen, dass die bei OpenAI fett mit im Geschäft sind.
Das heißt, die werden auf jeden Fall auch im Hintergrund ChatGPT-Technologie benutzen, sonst hätten die sich da nicht so fett eingekauft.
So, jetzt hast du gerade gesagt, wir haben mit Windows sowieso schon das Problem, es werden Versionen angeboten bei ChatGPT und bei Microsoft, die sagen, mit Enterprise ist es rechtskonform.
Dann achten wir auf Rechtskonformität.
Das heißt, übersetzt für alle Unternehmer, das Unternehmen sagt öffentlich, und das ist ganz wichtig, es sagt öffentlich, dass keine Rechtskonformität garantiert ist, wenn man nicht diese Enterprise-Version nutzt.
Ach so, kann man sehen.
Das ist wichtig, vor allen Dingen, weil, jetzt kommt ja das Beste, das heißt ja nicht, dass die Enterprise-Version automatisch rechtssicher ist oder Rechtssicherheit garantiert.
Das heißt, nur damit ist sie möglich.
Und wenn man sich dann anguckt, dass, und nur mal so by the way, Microsoft gar kein kleiner Fisch im DSGVO-Bußgeldkatalog der letzten Jahre war, man muss halt nur mal genau nachsuchen und gucken, wie häufig haben die es auf den Deckel bekommen und in welchem Zusammenhang standen die mit Datenschutzverstößen, dann findet man die nicht rechtskonformen Einsatz von Microsoft-Windows-Produkten zur Verarbeitung von Kundendaten doch relativ häufig in den letzten zwei Jahren.
Und die Bußgelder, die ausgesprochen wurden, sind auch verdammt nicht niedrig.
Ich sage nur 50.000 Euro und aufwärts.
Dementsprechend würde ich das Unternehmen empfehlen, aufzupassen.
Meinst du 50 Millionen oder 50.000?
50.000 ist für Microsoft nicht so viel.
Ne, 50.000 für die Unternehmen, die unrechtmäßig Microsoft-Produkte eingesetzt haben zur Verarbeitung von Kundendaten.
Dass wir Microsoft nicht kommen können mit 50.000, das ist klar.
Es geht eigentlich auch nicht darum, welche Rechtsverstöße Microsoft selber durchführt, sondern es geht darum, dass die Unternehmen, die deren Produkte einsetzen, für Rechtsverstöße durch den Einsatz dieser Produkte belangt wurden.
Und das ist eben eine Tatsache, die super viele Unternehmen immer wieder außer Acht lassen.
Und ich finde, das ist ziemlich fahrlässig, gerade wenn man die gesamte Infrastruktur, und das ist in vielen Unternehmen so, auf Microsoft-Produkten aufbaut, die jetzt nach und nach in Cloud-Produkte alle umgewandelt werden.
Alles ist nur noch Azure, alles kostet nur noch monatlich Geld, ist nur noch gemietet.
Und Microsoft eigentlich jederzeit entscheiden kann, welches Unternehmen es als nächstes wirtschaftlich lahmlegt, weil es denen einfach mal, keine Ahnung, die Preise erhöht oder die Lizenz sperrt so lange, wie sie nicht bezahlen und solche Gedönse.
Also diese Abhängigkeitsgeschichten auf der wirtschaftlichen Ebene kommen eben auch noch da rein.
Aber der Verstoß in der, sage ich mal, in der Nutzung von personenbezogenen Daten, Verarbeitung von Kundendaten und vor allen Dingen auch, und das ist mir so wichtig bei der Datenschutzgrundverordnung, der Respekt gegenüber der anderen Person.
Das ist das, worum es geht.
Es geht um nichts anderes als diesen Respekt.
Und wenn ich als Unternehmen sage, Datenschutz ist mir egal, dann heißt das, der Respekt gegenüber meinem Kunden, meinem Mitarbeiter, meinem Lieferanten ist mir egal.
Und dann habt ihr, nach moralischer Definition, es eben leider auch nicht verdient, dass die euch mit Respekt behandeln.
Das ist so ein Fühlen wieder.
Jetzt noch eine Sache für alle Unternehmen, denen Datenschutz egal ist, habe ich noch eine Botschaft, also denen auch ihre eigenen Geschäftsgeheimnisse vielleicht egal sind oder die glauben, wenn sie die hochladen, passiert schon nichts.
Denen kann ich sagen, lokale, also unternehmenseigene Systeme, manche nennt es Co-Location oder auch Miethardware, eigene Hardware, was auch immer, können für viele Anwendungsfälle deutlich bessere Ergebnisse produzieren als ChatGPT, Google-Bart oder Bing oder auch Bild-Generatoren oder sowas.
Das muss man einfach nur wissen.
Da reden wir über den reinen Nutzen.
Wem schon der Datenschutz egal ist, was wirklich traurig genug ist oder auch die eigenen Datengeschäftsgeheimnisse, der soll darüber nachdenken, wenigstens den Nutzen in den Vordergrund zu stellen.
Ja, definitiv.
Wenn ich dem auch nicht zustimmen möchte, weil du hast ja allgesprochen, wenn es schon egal ist und mir ist es nicht egal, aber du hast natürlich in der Essenz recht, ist dann wenigstens mal darüber nachdenken, was soll mir der ganze Bums eigentlich bringen, wenn ich ihn dann schon benutze.
Also ich glaube, zusammengefasst können wir sagen, der Einsatz von Chatbots mit KI oder KI im Unternehmen ist ein äußerst kritisches Feld, das extrem vorsichtig und umsichtig behandelt werden sollte, denn wenn es leichtsinnig behandelt wird, dann steht einem eben auch nicht der Schutz zu, dass man im Falle eines Verstoßes gegen die Datenschutz-Grundverordnung, eines Bußgeldes, das verhängt wird, einer Schadenersatzklage von Betroffenen in irgendeiner Form eine Handhabe hat, um zu sagen, ja, aber wir haben ja versucht, das Richtige zu tun.
Also bitte, liebe Leute, wenn ihr das schon einsetzen müsst, dann folgt Klaus Rat, macht das mit einer lokalen Lösung, sodass ihr das selber kontrollieren könnt und dass es auch wirklich euch selbst gehört.
Und wenn ihr die anderen Systeme nutzt, dann verflucht noch mal, lasst euch nicht von irgendwelchen Anwälten beraten dazu, wie das funktioniert, die von Technik keine Ahnung haben, sondern holt euch einen Spezialisten für die Entwicklung von Generative AI Modules und so weiter und fragt den, ob das überhaupt möglich ist, das umzusetzen, was ihr wirklich vorhabt.
Denn in den meisten Fällen ist es halt so, dass diese Chatbots nicht dazu da sind, personenbezogene Daten von irgendwelchen Daten zu unterscheiden.
So ist es.
Ja, so kann man es sagen, Stephan.
Und ein guter Schlusspunkt.
Rein formal, man kann halt einfach Probleme nicht einfach wegdiskutieren, die da sind, sondern man muss sie lösen und lösen kann man sie nicht, indem man ein Dokument draufschmeißt, ein juristisches.
So, das vielleicht zum Schluss von mir.
Die EU-US-Privacy-Framework lässt grüßen.
Wir schmeißen mal das dritte Dokument drauf und hoffen, dass es kleben bleibt.
Ja, genau das ist es noch.
Absolut.
Ja, wunderbar.
Klaus, ich danke dir vielmals für diesen kleinen Talk, allen Zuhörern da draußen.
Ich hoffe, es hat euch Spaß gemacht und ihr konntet was davon mitnehmen, auch für euren Unternehmensalltag.
Oder würde ich mich freuen, wenn wir uns beim nächsten Mal wieder treffen beim Datenschutz Deluxe Podcast.
Bleibt uns treu und noch weiter einen schönen Tag.
Tschüss.
Das war Datenschutz Deluxe.
Du willst mehr spannende Themen oder Kontakt zu uns?
Dann besuche Klaus Meffert auf seinem Blog Dr. DSGVO und Stephan Plesnik auf seinem YouTube-Kanal Datenschutz ist Pflicht.
Bis zum nächsten Mal.

Das Beitragsbild wurde von einer eigenen KI generiert. Diese Art von KI-Programm kann ebenfalls lokal ablaufen, ganz ohne Datentransfers zu Dritten.