Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.

Jetzt testen

sofort das Ergebnis sehen

DSGVO Website-Check
Externe Links sind mit dem Symbol Externer Link Symbol gekennzeichnet. Datenschutzinfo

Künstliche Intelligenz: Der Nutzungsvorbehalt von Urhebern, den es nicht gibt (Folge #37)

Diese Folge kann hier angehört werden:

KI-generiertes Transkript

Das folgende Transkript wurde von einem selbst programmierten optimierten KI-Programm generiert. Das Programm ist datenschutzkonform, es benötigt keine Internetverbindung und tauscht keine Daten mit Dritten aus. Das Ergebnis ist hervorragend.

Hohe Datensicherheit
Offline-Betrieb möglich
Hohe Qualität
AI Act leicht beherrschbar
Hallo und herzlich willkommen beim Datenschutz Deluxe Podcast. Ich bin Stephan Plesnik und bei mir ist wieder mal Dr. Klaus Meffert. Klaus, wie geht es dir?
Stephan, mir geht es gut. Dir auch, habe ich eben schon vernommen im Vorgespräch und insofern freue ich mich, dass wir jetzt über ein spannendes Thema sprechen.
Ja, wunderbar. Dann steigen wir auch direkt mal rein. Liebe Zuhörer, Zuhörerinnen und diverse dazwischen und drumherum und außerhalb. Wir sprechen heute über das Thema künstliche Intelligenz, aber mit einem ganz besonderen Twist und zwar dem sogenannten Nutzungsvorbehalt, der laut Paragraf 44b Urheberrechtsgesetz, der jetzt wohl irgendwie neu eingefügt wurde und neu behandelt wurde, wenn ich es richtig verstanden habe, die Möglichkeit geben soll, dass Menschen bzw. Webseiten einen Nutzungsvorbehalt ihrer Informationen, die sie veröffentlichen, im Rahmen von KI-Verwendung, also Crawling und auch KI-Training aussprechen dürfen. Und da gibt es dann doch wohl sehr große Diskrepanzen Richtung, wann ist das automatisiert möglich und wann muss man da eine manuelle Einschränkung machen und warum manuelle Einschränkungen nicht funktionieren.
Und damit ich mich hier nicht zu weit aus dem Fenster lehne, weil ihr schon merkt, ich habe keine Ahnung von dem Thema, gebe ich mal ab an dich, Klaus. Klär uns doch mal allgemein auf, was ist der Sachverhalt, worum geht es da, was ist genau der Gegenstand dieser schwierigen Thematik?
Ja, vielen Dank Stephan für die Einladung. Urhebergesetz heißt es, nicht Urheberrechtsgesetz, (–>Korrektur: Urheberrechtsgesetz ist richtig!). Ist nicht schlimm, nur dass wir hier UrhG abgekürzt, normalerweise hat man damit ja wenig zu tun. Also es geht darum, der deutsche Gesetzgeber hat für das Text- und Data-Mining und erzählt dann auch künstliche Intelligenz dazu, sagt, wenn du, Stephan, eine Webseite hast zum Beispiel und da sind Online-Texte drauf von dir, zum Beispiel Wissensartikel oder sowas, dann sollst du das Recht haben, anderen zu untersagen, diese Informationen, die du ja selbst erstellt hast, du bist der Urheber, zu verwenden, um damit eine künstliche Intelligenz zu trainieren. Text- und Data-Mining zu betreiben, um es genauer zu sagen.
Das heißt, die Frage ist, wo ist der Urheber? Das ist eine Frage, die wir uns immer wieder fragen, wo auf deiner Webseite gibst du das an, weil künstliche Intelligenz basiert ja auf Massendaten.
Es ist also nicht so, typischerweise jedenfalls, ist es nicht so, dass da irgendein Mensch seitenweise Copy und Paste von Webseiten betreibt, ja, 100.000 Links manuell aufruft und dann die Inhalte rauskopiert oder so, sondern da wird ein Programm geschrieben, ein sogenannter Crawler, der ja auch für Suchmaschinen verwendet wird, ja exakt derselbe Crawler wird auch für Suchmaschinen verwendet und diese Suchmaschine geht dann auf deine Webseite, auf die Startseite zum Beispiel und liest dann alle Seiten, die da intern verlinkt sind, ein, ruft die ab und liest die Inhalte ein, also auch deine Wissensartikel.
Und dieser Crawler, der ist wie gesagt für Suchmaschinen identisch wie für jegliche andere Datenverarbeitenden Systeme wie KI-Systeme, weil diese Crawler sind erstmal dumm.
Und diese Inhalte werden dann in KI eingegeben und die KI lernt damit sozusagen intelligent zu sein, anhand des Wissens, was sie da gelernt hat, wenn du natürlich nur Unsinn schreiben würdest, was jetzt hoffentlich nicht der Fall ist, dann würde die KI Unsinn lernen.
Also ich schreibe grundsätzlich nur Unsinn ins Internet, das ist meine liebste Tätigkeit.
Okay, das heißt, du sagst, wir haben es da eigentlich mit demselben Prozess zu tun, den wir auch von Suchmaschinen kennen.
Es werden Daten in großen Mengen automatisiert ausgelesen.
Jetzt ist es ja so, dass wir auf Webseiten Methodiken haben, um das zu steuern.
Angeblich, und das ist, ich sage bewusst, angeblich unter Vorbehalt, gibt es da ja sowas wie zum Beispiel eine Robots-TXT, die eben diesen Crawling-Bots, wie sie genannt werden, bestimmte Rechte zugesteht oder nicht zugesteht und denen sagt, wenn die auf die Webseite kommen, die sollen sich bitte von der Webseite fernhalten zum Beispiel.
Das wäre ja so eine Art Automatismus, der diesen Nutzungsvorbehalt aussprechen könnte.
Richtig oder falsch?
Richtig.
Mhm.
Und wenn ich jetzt so eine Robots-TXT habe, dann weiß ich aus der Vergangenheit, dass man da im Endeffekt, so ziemlich jedem Crawler einzeln irgendwie sagen muss, ich möchte bitte, dass du das lässt, dass du das hier nicht indizierst, den Inhalt auf meiner Seite.
Muss ich dann ergo auch wissen, von jeder einzelnen KI, die irgendwo rumfleucht im Internet und da guckt, wie ich die ausschließe, weil dann, also das ist ja dann unmöglich für ein Unternehmen oder auch für eine Privatperson zu machen, oder nicht?
Also du hast es genau richtig gesagt.
Sehr gut gesagt.
Also bei den Suchmaschinen hat man das Problem ja auch schon.
Wobei es ist so, man kann entweder alle Suchmaschinen verbieten oder auch einzelne oder auch Suchmaschinen erlauben.
Und ich glaube, es ist möglich, da die Reihenfolge wohl auch wichtig ist, man erlaubt zum Beispiel erst der Suchmaschine DuckDuckGo die Webseite einlesen zu dürfen und danach verbietet man allen anderen, also mit dem Stern sozusagen.
Also allow DuckDuckGo.
Disallow heißt es dann.
Also verbiete, Stern.
Das würde dazu führen, wenn ich es richtig weiß, dass nur DuckDuckGo deine Webseite einlesen darf, also als Suchmaschine und alle anderen danach sehen, ich darf es nicht.
Also das heißt, man müsste jetzt nicht mehr wissen, es gibt 7000 Suchmaschinen, die muss ich allen einzelnen erlauben oder verbieten, sondern es reicht, wenn ich Einzelnen es erlaube oder auch sage, ich verbiete es Einzelnen.
Weil wenn wir ehrlich sind, bei Suchmaschinen, da gibt es vielleicht mittlerweile maximal 10, die man als halbwegs relevant bezeichnen mag oder relevant.
Darüber hinaus keine.
Und wenn es noch weitere gibt, dann sind die halt da, aber ja, Probleme wird es damit wohl nicht geben.
Bei KI-Systemen ist es ein bisschen anders.
Wie du sagst, man müsste wissen, wie heißen die denn?
Also will ich denn, dass kein KI-System meine Daten einliest?
Das will ich zum Beispiel, ich will es, dass kein KI-System meine Daten auf einer Webseite nimmt, außer mein eigenes.
Das darf ich mir ja selbst auch erlauben, da brauche ich kein Erlaubnis, weil ich ja der Urheber bin.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja.
Ja. richtig verstanden habt, dann ist es so, dass quasi diese Nutzungsvorbehalte auf einer Webseite ausdrücklich erklärt werden müssen, sodass diese automatisierten Systeme, dieses Data Mining, dann nicht mehr betreiben, aber das wohl irgendwie nicht möglich ist, technologisch umzusetzen, sondern man das irgendwie manuell erklärt und das ist dann der KI aber wieder egal, weil die KI automatisiert arbeitet oder irgendwie so.
Ja, also es ist so, der deutsche Gesetzgeber hat ein eigenes, also der hat zum Gesetzentwurf des Urhebergesetzes, hat er gesagt, also im Urhebergesetz selbst steht nur drin, dass der Nutzungsmoment, also hier steht, Nutzungen nach Absatz 2 Satz 1, das ist also Vervielfältigung für das Text und Data Mining, also Einlesen der Webseite, ist nur zulässig, wenn der rechte Inhaber, also du, wenn es deine Webseite ist, sich diese Nutzung deiner Inhalte durch die KI nicht vorbehalten hat und ein Nutzungsvorbehalt bei online zugänglichen Werken, also bei deiner Webseite, ist nur dann wirksam, wenn er in maschinenlesbarer Form erfolgt.
Also du musst den Nutzungsvorbehalt maschinenlesbarer Form aussprechen, da könnte man die Robots.txt-Datei natürlich nehmen, weil die versteht jeder.
Jetzt hat aber in der Kommentierung, also in der Drucksache zum Deutscher Bundestag-Gesetzesentwurf, zu diesem Urhebergesetz, Paragraf 44b, Drucksache 19-27426, hat der deutsche Gesetzgeber dummerweise gesagt, dass dieser Nutzungsvorbehalt auch im Impressum oder in den allgemeinen Geschäftsbedingungen AGB enthalten sein kann oder soll, sofern er auch dort maschinenlesbar ist.
Und das ist einfach Bullshit.
Diese Forderung ist Bullshit.
Ich kann es auch gerne erklären, warum.
Also zunächst mal weiß ja eine Maschine nicht, wo ein Impressum oder die allgemeinen Geschäftsbedingungen auf deiner Webseite sind.
Der Text ist ja erstmal Text.
Genau, Text ist Text und es nennt ja auch nicht jeder sein Impressum, impressum.html oder slash impressum, sondern könnte man auch nennen, rechtliche Informationen oder Seite Nummer 49, oder manche vermischen auch die Datenschutzhinweise, mit dem Impressum, das ist dann eine Seite, wo erst die Datenschutzhinweise kommen, dann kommt das Impressum oder sie schreiben es auf die Startseite unten in der Fußzeile oder sonst irgendwo.
Also ich meine, es ist nicht so trivial, ein Impressum als solches zu erkennen.
Das kann ich sagen, es gelingt zwar sehr oft, aber eben nicht immer.
Und bei den AGBs ist es noch viel schlimmer.
Da gibt es ja oft auch PDF-Dateien, die müssen dann eingelesen werden.
Oft sind AGBs dann vielleicht auch zweispaltig geschrieben.
Und ich kann aus Erfahrung berichten, dass es technisch sehr herausfordernd ist, ein mehrspaltiges PDF.
Das ist ja auch ein sehr schwieriges Dokument, so einzulesen, dass der Text nicht zerwürfelt wird.
Also nur technische Probleme über Probleme.
Aber dann haben wir ja erst mal darüber gesprochen, dass die Maschine das Impressum oder die AGB-Seite überhaupt gefunden hat.
Wir reden dann ja erst noch darüber, dass die Inhalte dieser Seiten auch noch verstanden werden müssen von dem dummen Crawler.
Also es ist nämlich so, dass viele meinen, ein KI-Crawler sei bereits intelligent.
Das ist aber falsch.
Das ist nicht wahr.
Ja, der wird ja erst durch die Daten, die er gecrawlt hat, später in der Verarbeitung intelligent.
Beim Crawling ist das ja einfach nur ein Sammeln von Informationen.
Genau, wie du sagst.
Wir reden über ein KI-System.
Und die Vorstufe des KI-Systems ist der Crawler.
Und die Hauptkomponente ist ein sogenanntes KI-Modell, in dem Fall jetzt ein Sprachmodell beispielsweise, wie ChatGPT, was aufgrund der Daten, die der dumme Crawler liefert, überhaupt sich erst Intelligenz verschaffen kann.
Also erzogen wird mit diesen Daten.
Das heißt, der Crawler selbst ist dumm.
Der liefert einfach nur Daten.
Der kann also nicht ein Impressum verstehen.
Und angenommen, der Crawler wäre nicht dumm, weil er nämlich schon auf eine KI zugreifen kann, dann würde das die großen Unternehmen, die schon die KI-Systeme haben, deutlich bevorzugen.
Ja, absolut.
Weil wir beide wissen, ChatGPT gibt es schon.
Der Crawler kann auch im Hintergrund ChatGPT fragen.
Aber wenn du jetzt eine KI erstellen möchtest, dann kannst du deine KI nicht fragen.
Weil es die nämlich noch nicht gibt.
Also wärst du benachteiligt als kleiner Anbieter.
Also das kann jetzt auch nicht ernst gemeint sein.
Und unabhängig davon behaupte ich, ich habe nämlich eine Diskussion in einem sozialen Netzwerk gemacht, da hat eine Dame, also ernsthaft, es war jetzt nicht spaßig gemeint oder so, als Nutzungsvorbehalt einen Satz vorgeschlagen, der lautet, ich habe es nachgeguckt extra, jegliche Datennutzung, also auf ihrer Webseite, jegliche Datennutzung ist ausschließlich zum Zweck des Informationsgewinns in menschlichen neuronalen Netzen bestimmt.
Ich bezweifle, dass ein Mensch überhaupt versteht, was sie damit sagen will, der nicht weiß, dass es den §44 Urhebergesetz gibt.
Und erst recht bezweifle ich, dass eine KI diesen Satz zuverlässig verstehen kann.
Ja, absolut.
Gerade nicht beim Crawling, weil da ist ja noch kein Verständnisprozess.
Das ist ja erst mal nur der Sammelpunkt, das ist ja erst mal nur der Sammelprozess.
Also diese Information muss ja dann später von dem KI-System richtig interpretiert werden und auch im Zusammenhang.
Du sagst es.
Also zunächst ist der Crawler dumm und dann, selbst wenn es eine KI gäbe, ich bezweifle auch, dass ChatGPT, möglicherweise hat ChatGPT auch Probleme, diesen Satz mit dem §44 BU-Höfergesetz in Verbindung zu bringen.
Und also der Punkt ist, derjenige, der diese Webseite einliest, also der KI-Crawler, der Crawler, der soll dann beweisen später, wenn es einen Streit gibt, dass dieser Nutzungsvorbehalt nicht da war zum Zeitpunkt X, als die Webseite eingelesen wurde.
Ist da denn nicht sowieso diese generelle Problematik?
Also gehen wir uns mal davon aus, wenn ich ChatGPT benutzt habe, nur jetzt als Beispiel, weil das jeder kennt, dann ist mir das noch nie passiert, dass der bei seiner Antwort auch nicht sagt, dass er bei seiner Antwort automatisiert Querverweise mit Quellenbezügen mit ausgespuckt hat und gesagt hat, die Informationen, die ich dir gerade zurückgebe, die habe ich von da und daher und die stehen so und so in Zusammenhang zueinander, weil das müsste doch eigentlich erst möglich sein, damit ich überhaupt nachvollziehen kann, als derjenige, der die Informationen aus der KI zurückbekommt, die er eingefordert hat, dass bestimmte Urheberrechtsverletzungen vorliegen können, die eben zum Beispiel auch durch so ein Nutzungsverbot oder Nutzungsvorbehalt dann eben eigentlich hätten nicht ausgegeben werden dürfen.
Aber das machen die KI ja nicht, die Systeme.
Die sagen ja nur die Antwort.
Die sagen ja nicht, ich habe diese Antwort aus den und den Daten an den und den Quellen gelernt.
Genau, das machen sie nicht.
Du hast recht, eine eigene KI, die ich jetzt gerade für den Kunden erstelle oder erstellt habe zum großen Teil, die gibt immer zu jeder Antwort die Quellen zurück, auf Basis derer die Antwort gegeben wurde.
Da kann man also nicht nur sehen, welche Dateien, also Dokumente es sind, in denen die Antwortteile gefunden wurden, sondern man kann auch sehen, welche Auszüge aus diesen Dokumenten genommen wurden, um die Antwort zu generieren.
Also nicht nur ein ganzes Dokument als Stück, sondern auch ein Abschnitt wird dann sogar genannt.
Also da kann und sollte man dann nachlesen, stimmt das denn, was die KI da generiert hat.
Und hier ist es eben so, ich kann einfach nur sehr schwer oder oft auch gar nicht nachträglich beweisen, dass am 17.04.2023 der Nutzungsvorbehalt nicht auf einer Seite war.
Ich meine, dieser Negativbeweis ist immer sehr schwer.
Das pervertiert übrigens auch das Gesetzesvorhaben so ein bisschen.
Denn jetzt nehmen wir mal an, deine Webseite hat 10.000 Unterseiten.
Das gibt es sehr oft, oder noch mehr Unterseiten.
Spiegel Online und wie sie alle heißen.
Die haben Hunderttausende.
Und wenn du dir viel Mühe gibst, kommst du auch auf 10.000.
Du musst halt jeden Tag ein paar Artikel schreiben.
Mit einer KI zum Beispiel.
Genau, ich lasse die schreiben und dann beschwere ich mich später, dass jemand meinen Nutzungsvorbehalt missachtet hat.
Das wäre auch schön, da wird es ja noch irrer.
Ist möglich.
Es muss halt einmalig sein.
Und es darf niemand sehen, dass es mit einer KI generiert wurde.
Weil es gibt manche Leute, die sagen, also in den USA heißt es wohl, die Rechtslage wohl so, wenn ich es richtig gelesen habe, dass KI generierte Inhalte nicht schützenswert sind, was ich für Schwachsinn halte.
Also ich will jetzt niemanden wirklich verteidigen oder so, aber ich bin für die Urheber.
Aber ganz ehrlich, wenn du ein Bild malst und dasselbe Bild wäre durch eine KI entstanden, wo ist da der Unterschied?
Oder du schreibst einen Text und derselbe Text wörtlich wäre durch eine KI entstanden, also kreativ.
Wo ist da der Unterschied, ob du es warst oder eine KI?
Ich sehe da den Unterschied.
Das Ergebnis ist dasselbe.
Also warum soll es einen Unterschied machen, wer es erstellt hat?
Also da maßt sich der Mensch wieder irgendwas an, also dann verrate ich einfach niemandem, dass ich es durch eine KI generiert habe.
Fertig.
Ich meine, wenn es daran liegt, dann erzähle ich es einfach keinem.
Absolut.
Da gibt es natürlich dann wieder andere, die bei Bildgenerierung insbesondere, werden dann so unsichtbare Informationen ins Bild reingeneriert, dass man sieht, es war eine KI.
Aber ganz ehrlich, ich habe einen Bildgenerierungsmechanismus bei mir auf dem System, da gibt es diesen Schutzmechanismus nicht, weil ich nämlich nicht drin haben möchte.
Man muss, also meiner Meinung nach, ist der Kern des Problems ein anderer.
Also zunächst mal, also nochmal zu dem Perversen, was ich sagen wollte.
Angenommen, deine Webseite hat 100.000 oder 10.000 Unterseiten.
Um sicherzustellen, dass du keine Nutzungsvorbereitung hast, oder halt irgendwo formuliert hast, müsste ich ja alle deine Unterseiten einlesen.
Mhm.
In Wirklichkeit wollte ich aber eigentlich nur eine PDF-Data einlesen, auf die ich einen Deeplink, also der Crawler einen Deeplink gefunden hat.
Mhm.
Ich habe auf meiner Webseite ein PDF-Dokument oder ein Video von dir auf deiner Webseite verlinkt.
Video kann man ja auch ein Transkript draus machen, da habe ich deine Sprache.
Das heißt, eigentlich wollte der Crawler nur eine Seite von deiner Webseite einlesen.
Jetzt kommt der deutsche Gesetzgeber an, der muss aber, und zwingt den Crawler, er soll nach dem Nutzungsvorbehalt suchen.
Jetzt muss er ja alle Seiten durchsuchen, um sicherzugehen, dass nirgendwo der Nutzungsvorbehalt drauf ist, beziehungsweise auch noch die Seiten eigentlich ja abspeichern, wenn man es konsequent betrachtet, ja?
Abspeichern.
Klar, sonst kann er ja nicht nachweisen, dass er den gefunden hat.
Ja, wie soll ich, wenn mir dann jemand sagt, du darfst die Seiten nicht abspeichern, dann sage ich ja, wie soll ich denn da nachweisen, dass der Nutzungsvorbehalt nicht da war?
Also, ich bin ja ein User, und also meiner Meinung nach ist das Kernproblem ein anderes.
Also erstmal, die Lösung wäre, der deutsche Gesetzgeber hätte einfach schreiben müssen, in der Robots.txt-Datei, die seit 25 Jahren oder wie lang Standard ist, ich weiß es nicht, hätte man einfach reinschreiben können, müssen, wer das nicht will, dass seine Seiten, Inhalte eingelesen werden durch eine KI, oder genutzt werden durch eine KI, muss man ja sagen, eingelesen werden sie ja nicht durch eine KI, sondern durch einen Crawler.
Also, wenn du sagst, dass deine Webseite durch eine KI genutzt wird, der schreibt in die Robots.txt-Datei einen entsprechenden Eintrag rein.
Da hätte man sich auf eine Konvention einigen können, vielleicht auch mit dem User-Agent, wie es schon da ist, da musst du dann, musst du das respektieren.
Wenn da steht User-Agent allow, also erlaube Dr. Go, und disallow Stern, also alle anderen sind verboten, dann bist du als KI-Crawler auch verboten.
So, das wäre einfach und eindeutig, und da müsste man nicht weiter drüber diskutieren.
Aber dann hätten wir ja jetzt eine Sendung.
Also sehen wir das mal so.
Es gibt auf jeden Fall technologisch gesprochen einen sehr einfachen Workaround, um dieses gesamte Nutzungsrechte- und Urheberrechte-Problem zu umgehen, zumindest beim Indizieren von eigenen Webseiten.
Jetzt ist es aber ja so, wir haben ja den Datenschutz Deluxe Podcast, und jetzt haben wir ja auch viel schon über KI und die Verwendung von personenbezogenen Daten innerhalb von KI-Systemen geredet, und da haben wir ja auch schon in den letzten Gesprächen festgestellt, dass es nicht zuverlässig möglich ist, personenbezogene Daten eben von KI-Systemen auszuschließen oder dafür zu sorgen, dass die die nicht wieder rausgeben.
Wenn wir jetzt mal davon ausgehen, wir haben ja auch Millionen von Informationen auf Webseiten, die nicht uns selbst gehören.
Nehmen wir mal ein soziales Netzwerk, das Informationen auch nach Außenpreis geben kann.
Ich sage nicht, dass das tendenziell immer passiert, aber es ist nun mal so, dass der Nutzer ja auch selber bestimmen kann, zum Beispiel wer eine Facebook-Page hat, kann ja selber bestimmen, was nach Außen gezeigt wird, auch für die Nicht-Nutzer von Facebook.
Wenn da jetzt Informationen liegen, dann kann die KI die ja auch lesen, wenn die die Seite Facebook crawlt. Und wenn die diese Facebook-Seite crawlt, dann crawlt die ja erstmal einfach wild alles, was es da zu crawlen gibt, was quasi öffentlich verfügbar ist.
Wenn ich jetzt aber da als Urheber, sage ich mal, irgendwas hochgeladen habe, was dann da in der Öffentlichkeit sieht, ist es dann so, dass ich aufgrund der Tatsache, dass ich das soziale Netzwerk nutze, rechtlich betrachtet meine Nutzungsrechte ja schon abgetreten habe und deswegen auch kein Recht mehr habe zu sagen, Facebook, du musst bitte unterbinden, dass meine Informationen von einer KI verwendet werden?
Oder habe ich meine Nutzungsrechte per se erstmal nur an Facebook abgegeben?
Ja, das ist eine sehr gute Frage.
Ich kenne die genaue Antwort nicht, muss ich sagen.
Da habe ich mir noch keine tiefergehenden Gedanken gemacht, eine sehr gute Frage.
Also soweit ich weiß, von früher auch, ist es so, dass Facebook sich alle Rechte geben lässt von den Nutzern, die Facebook nutzen oder Instagram oder WhatsApp und diese Inhalte alle von Meta verwendet werden dürfen, angeblich.
So habe ich es mal verstanden.
Ob das dann rechtlich haltbar ist, ist eine andere Frage, aber ich glaube, Meta möchte das so.
Alles, was du da reinschreibst, kann Meta zu beliebigen Zwecken verwenden, sage ich mal, etwas vereinfacht. Das halte ich für rechtswidrig, aber so ist es, glaube ich, von Meta gewünscht.
Und das würde ja dazu führen, dass, also du bist immer noch der Urheber, der kann auch niemand anders sein.
Die Frage ist allerdings, wie könntest du denn jetzt einen Nutzungsvorbehalt formulieren? Da müsstest du ja, du kannst ja keine Robots.txt Datei von Facebook.com ändern als Nutzer von Facebook. Genau.
Und da müsstest du ja über, ein Impressum hast du zwar, da könnte man sagen, okay, auf deiner Facebook-Fanpage könntest du ein Impressum verlinken, musst du ja meistens auch.
Da könntest du es reinschreiben, aber wenn du jetzt einen Kommentar irgendwo reinschreibst, gut, das ist natürlich kein urheberrechtlich geschütztes Werk normalerweise, ein Kommentar. Ja. Wenn du jetzt aber ein Bild postest, in den Kommentar rein, ich glaube, das geht, oder?
Ja. Dann wäre das ja, könnte ja auch ein Werk von dir sein, auch ein Werk, was nicht einfach so weiter verwendet werden darf. Da könnte man natürlich drüber streiten, wenn du nicht möchtest, dass dein Werk verteilt wird in der Öffentlichkeit, dann solltest du es nicht auf sozialen Medien posten, weil dann wird es garantiert verteilt.
Absolut, dafür sind sie ja da.
Genau, also die Frage wäre, gibt es dann überhaupt Inhalte, die schützen, die nutzenswert sind, die du auf Facebook postest?
Ich glaube ja, aber es werden sehr wenige Fälle nur, und da stellt sich wirklich die Frage, wie kann ich da Nutzungsvorbehalt formulieren? Da müsste eigentlich Facebook für sorgen, das kann aber Facebook machen, wie es will wahrscheinlich.
Zunächst mal, bis es verklagt wird, wenn die sagen, wir geben keinen Nutzungsvorbehalt, dann muss, aber eigentlich hat Facebook ein Interesse daran, dass andere KIs deren Daten oder die Daten der Facebook-Nutzer oder Instagram nicht weiterverwenden, weil dann kann es Meta alleine machen. Also insofern, müsste eigentlich Meta selbst den Nutzungsvorbehalt für alle anderen formulieren, aus eigenem Interesse heraus. So sehe ich es jetzt mal.
Aber es ist eine sehr gute Frage, da müsste man nochmal tiefer einsteigen. Ich kann nur das sagen, was ich jetzt eben gerade gesagt habe.
Wenn ich das richtig verstanden habe, dann ist ja quasi so der Erarbeiter der Lösungsvorschlag jetzt für alle Leute, die selber Webseiten betreiben und da urheberrechtlich geschützte Werke in irgendeiner Form, ob jetzt Text, Bild oder Video veröffentlichen, der, dass man sagt, okay, ich habe eine Datei wie eine Robots.txt, in der ich zum Beispiel so einen disallowall-Befehl drin habe und nur die inkludiere, von denen ich wirklich möchte, dass sie die Webseite durchsuchen dürfen und damit hätte ich dann ja im Endeffekt einen maschinenlesbaren Nachweis, dass ich gesagt habe, ich habe mich darum gekümmert, allen das zu verbieten und das schließt eben Suchmaschinen sowie KI-Systeme ein, auch wenn die KI-Systeme selbst vielleicht darauf keine Rücksicht nehmen, hätte man dann ja zumindest den schriftlichen Nachweis, dass man das verboten hat, der sehr viel besser geeignet ist, als zu sagen, die KI muss erstmal meine ganze Webseite indizieren, crawlen und abspeichern, damit sie Nachweis liefern kann, dass ich irgendwo auf der Webseite ein Impressum hatte, in dem ich das reingeschrieben habe.
Ja, genau. Habe ich das so richtig zusammengefasst? Genau, es geht sogar noch weiter, denn die großen KIs, ChatGPT, Googlebot, ist ja auch ein Chatbot, für die gibt es registrierte User Agents, also Kennungen, User Agents ist das gleiche wie bei einer Suchmaschine, Googlebot für die Google Suchmaschine oder ir-archiver oder archive.org-bot für die Internet Archive, also Wayback Machine und diese User Agents von ChatGPT und Googlebot, die kann man schon in der Robots.txt Datei eintragen und die Google und OpenAI sagen, wir halten uns da dran, also angenommen sie halten sich dran, dann wäre das Problem für die schon gelöst, weil sie selbst schon den Vorschlag gemacht haben, die Robots.txt Datei zu benutzen, weil es einfach das einfachste ist. Jeder, der einen anderen Vorschlag hat, der hat einfach keine Ahnung, wie die Realität ist. Und die Politiker, ich erwarte nicht, dass die alles wissen, aber sie sollten wenigstens jemanden fragen, der es weiß.
Ja und vielleicht mal die Fragen, die es selbst entwickeln, auch wenn man sich dann vielleicht bei der Intention fragen sollte, mit welcher Intention die Antworten auf die Frage und ihre Beratung durchführen, aber immerhin hat man dann schon mal jemanden, der mit Fachwissen an der Stelle gefragt und nicht einfach irgendwas gemacht, was halt irgendwie in irgendwelchen verstaubten Rechtstexten vielleicht eher passt.
Weil so wirkt es halt so ein bisschen.
Jetzt geht es noch weiter. Jetzt hat nämlich sich ein deutscher Rechtsservice, fängt mit B an und dann online, dann kommt danach noch mehr, ich will jetzt, also sehr unter Juristen der bekannteste wohl, der hat nämlich in seinem Impressum, Moment, ich muss mal reingehen, geschrieben, brav, wie der deutsche Gesetzgeber es vorgeschrieben oder vorgeschlagen, muss man sagen, vorgeschrieben hat, Text- und Datamining gemäß § 44b UrhG, der Verlag behält sich das Recht zu Vervielfältigung für das Text- und Datamining gemäß § 44b Urbergesetz vor. Im Impressum, wie gesagt, da wo es kein Crawler findet, könnte man sagen, okay, das ist jetzt 44b, findet man, aber erstmal muss man das Impressum finden. Und, dann hat der Verlag aber, weil er, also die falschen Berater hat, sage ich, ja, leider vergessen, in der Robots.txt-Datei das auch noch konsequent durchzuziehen, da steht nämlich, es ist wirklich lustig, in Englisch wohlgemerkt nur, im Impressum steht's in Deutsch und Englisch, in der Robots.txt steht's in Englisch als Kommentar wohlgemerkt, ja. Als Kommentar, sehr vernünftig, ja.
Steht drinnen, Legal Notice Verlag so und so, den Namen will ich jetzt einfach nicht nennen, könnte ich machen, aber will ich nicht, Verlag so und so, ein deutscher Verlag, expressly reserves the right to use its content for commercial text and data mining in Klammern, Paragraph 44b, Urheberrechtsgesetz, da heißt es doch Urheberrechtsgesetz, ich dachte, das heißt immer Urhebergesetz, aber vielleicht hast du sogar recht.
Das spielt keine Rolle.
Du hast recht, siehst du, da habe ich schon wieder was gelernt, ich korrigiere mich, Urheberrechtsgesetz heißt es, du hast recht gehabt.
Ich hab dich falsch korrigiert.
So, und dann, der Witz ist, steht in der Robots.txt-Datei aber als echte Einträge, dass verboten ist, für ChatGPT und CCBot, weiß ich nicht genau, was das ist, aber vergessen wurde Google Extended.
Und ich sag mal so, wenn man schon so viel Wert drauf legt, dass die Inhalte nicht eingelesen werden für KI-Systeme, dann sollte man doch wenigstens die wichtigsten zwei Systeme, nicht nur das allerwichtigste, ich meine, Google Bot ist ja schon mittlerweile auch bekannt, ich meine, ich bin eine Einzelperson, wenn ich was vergesse, ist es blöd, aber wie viele Menschen arbeiten in diesem Verlag, oder für diesen Verlag, da hätte man das ja wirklich hinkriegen können. Stattdessen macht man einen Kommentar in Robots.txt-Datei und vergisst einen wichtigen Eintrag, der einfach eindeutig gewesen wäre. Aber ich möchte noch auf eine Sache hinweisen, also zwei Sachen. Das eine ist, es gibt Menschen, die sagen, der §44b Urheberrechtsgesetz wäre nicht für generative KI gemacht.
Da sage ich, das muss man erstmal beweisen, sagen Sie mir doch erstmal, was die Definition von Text- und Datamining ist, steht in §44b Absatz 1 Urheberrechtsgesetz drin, glaube ich. Genau, Text- und Datamining ist die automatisierte Analyse von einzelnen oder mehreren digitalen oder digitalisierten Werken, um daraus Informationen, insbesondere über Muster, Trends und Korrelationen zu gewinnen.
Genau das macht eine KI.
Und dann kommen die und sagen, ja, aber eine generative KI ist ja was anderes.
Und die meinen damit, eine generative KI erzeugt Ausgaben.
So habe ich es zumindest verstanden.
Und dann sagen sie auch noch, und das ist pervers, die erzeugt Ausgaben, die möglichst nah am Original dran sind.
Was aber vollkommen falsch ist.
Ich meine, du hast vielleicht auch schon mal mit KI-Systemen rumgespielt, auch mit Bildgenerierungsprogrammen. Ja, klar.
Der Sinn dieser generativen KI ist nicht, eine 1 zu 1 Abbildung des Originals zu machen, ein Zitat eines Bildes, sondern ein möglichst, sag mal, vielleicht annähernd teilweise, aber kreativ, eine kreative Ausgabe zu machen.
Ja, absolut.
Weil es ist ja so, jedes System, also ich behaupte mal, ich stelle es einfach mal zur Diskussion, ein System, was keine Ausgabe macht, ein IT-System, ein IT-System ohne Ausgabe macht überhaupt gar keinen Sinn.
Also, ich sage mal, was ist der Sinn eines Systems, wenn es keine Ausgabe hat? Was ist der Sinn von Intelligenz, wenn sie nichts erzeugt?
Also ganz ehrlich. Ja, oder auch, also generell meine ich jetzt, generell, ein System ohne Ausgabe, ich weiß gar nicht, ob es das gibt überhaupt, und selbst wenn, warum gibt es dieses System dann?
Nehmen wir mal, also selbst das Schreiben auf eine Piste… Da geht nur was rein, aber nichts raus.
Das ergibt ja gar keinen Sinn. Warum mache ich dann irgendwas dazwischen? Input, Put, Put, Output. Wenn der Output fehlt, dann ist es egal, wie viel Put, Put ich mache.
Das spielt doch gar keine Rolle.
Genau, das System frisst alles in sich rein und stirbt dann. Ja, genau.
Wenn der Mensch Holz hackt, hat er auch ein Output gemacht. Er hat nämlich seine Hand benutzt, um die Umgebung zu beeinflussen.
Ja, und genau das ist Output.
Ja, genau. Oder wenn ich was auf eine Festplatte schreibe, ist das auch ein Output.
Das ist wie dieses Monster aus Star Wars, wo in der Wüste die Leute reinwerfen.
Weißt du, diese Krake, die aus dem Boden kommt, die fängt dann und dann ist das weg. Und keiner weiß, wo das hingeht, keiner weiß, woher das Monster kommt. So ein System wäre das. Da fliegen einfach nur Sachen rein und am Ende ist es weg. Wie ein schwarzes Loch im Endeffekt. Ja. Genau, also wir hatten einen Anwalt gesagt, er sieht den 44b Urheberrechtsgesetz nicht für generative KI gemacht. Er hält ihn für nicht zutreffend. Und dann habe ich ihn gefragt, nach zahllosem Hin und Her, es war konstruktiv, was denn jetzt seine Definition von Text- und Datamining wäre und ob er mir Beispiele nennen könnte dafür, für seine Definition, die aber dann natürlich keine generative KI einschließen, weil er ja der Meinung ist, dass das keine generative KI sei.
Ich habe keine Antwort gekriegt.
Also er redet permanent über Text- und Datamining, sagt nur, was es nicht ist, weiß aber nicht, was es ist.
Halte ich für unzulässig und logisch Unsinn.
Man kann nicht sagen, ich weiß nicht, was es ist, aber ich weiß, was es nicht ist.
Da kommen wir nicht weiter, sage ich jetzt mal.
Das geht so in die Richtung von Glauben und Glauben hat nichts mit Wissenschaft zu tun. Wissenschaft hat was mit Wissen zu tun. So ähnlich wie die Frage nach dem Sinn des Lebens.
Da kannst du dir anknüpfen.
Das sind auch so hochmetaphysische Fragen, wo es halt keine wirkliche Antwort darauf gibt, aber alle ganz sicher, dass es nicht so ist.
Vielleicht zum Schluss noch eine wichtige Anmerkung.
Ich hatte ja vorhin erwähnt, ich glaube, das ganze Thema geht am Problem vorbei. Also ich bin für den Schutz der Urheber, aber dann bitte so, dass es jeder auch leisten kann.
Angenommen, dieser deutsche Paragraph, diese deutsche Regelung führt dazu, sage ich, dass die deutsche Sprache immer mehr verarmt in KI-Modellen, weil jeder Angst haben muss, dass er nicht den Nachweis bringen kann, dass der Nutzungsvorbehalt nicht da war.
Dann lese ich doch lieber gar keine deutsche Webseite ein als amerikanisches Unternehmen.
Deutsch interessiert mich dann einfach nicht.
Deutsch ist unbedeutend.
Weil wir die Einzigen sind, die uns mit dieser Sache auf diese Art und Weise beschäftigen.
Das stimmt.
Es gibt viel zu wenig Menschen in der Welt, die Deutsch sprechen leider.
Indische Sprachen sind viel weiter verbreitet. Also Deutsch kommt ganz weit hinten irgendwo. Interessiert niemanden.
Kann man auch weglassen. Das ist unser Problem.
Denn wir können keine intelligenten KI-Systeme mehr nutzen zukünftig, die Deutsch können. Aber jetzt kommt der eigentliche Kern. Es ist doch eigentlich egal, ob ein KI-System Daten gespeichert hat, die urheberrechtlich geschützt sind, solange diese Daten nicht in einer Ausgabe landen, die ein Urheberrechtsproblem darstellen.
Mhm. Ja.
Also es heißt, solange eine KI keine Texte ausgibt, die sehr nah am Original sind, muss sich doch niemand Sorgen machen.
Das Problem ist, ChatGPT zum Beispiel kann das gar nicht garantieren, dass dieses Problem nicht auftritt.
Da kann man ja auch nicht sagen, dass das nicht der Fall ist. Da kommt man dann auch sehr schnell in die Wiedergabe von Falschaussagen über Personen, also Verleumdung, Wiedergabe von Verleumdungen durch eine KI.
Da haftet dann schon der KI-Betreiber, würde ich sagen, normalerweise.
Wie man es lösen kann, ist, indem man ein eigenes KI-System hat, da kann man nämlich, wenn man das möchte, alle Ausgaben vergleichen mit der Wissensbasis, die man hat.
Die hat man nämlich als KI-Modellbetreiber.
Und kann dann die Textstellen rauslöschen oder verfremden, die zu nah am Original sind.
Das kann man aber nur machen, wenn man ein eigenes KI-System hat.
Ja, oder man macht das, was du gerade beschrieben hast, was du auch angewendet und ausprobiert hast, dass man eben der KI pflichtmäßig mit dazu gibt, gibt die Ausgabe raus, woher kommen die Info-, also wie hast du die Informationen, die du hier generiert hast, gelernt, aus welchen Quellen hast du die gelernt und gibt diese Quellen mit an, damit man das nachvollziehbar machen kann.
Weil dazu hätte ich ja zumindest schon mal eine Grundlage zu sagen, okay, ich weiß jetzt auch, woher das kommt, was ich dann weiter verwende.
Gehen wir mal davon aus, wie du sagtest, du schreibst 10.000 Blogartikel durch eine KI und begehst dabei eine Urheberrechtsverletzung, weil du irgendwelche Daten von jemand anders nutzt, die da trainiert wurden. Du weißt es ja gar nicht. Also wenn ich jetzt ChatGPT einen Blogartikel für mich schreiben lasse, weiß ich ja nicht, woher die Daten kommen. Das heißt, ich als derjenige, der die Daten dann weiter verwendet und diese Urheberrechtsverletzung begeht, weiß ja gar nicht, dass ich sie begangen habe. Weil OpenAI ja nicht sagt, woher die Daten kommen, die ChatGPT mir zurückgibt.
Ja, das stimmt.
Allerdings ist es schon so, also OpenAI, wir hätten schon ein Problem.
Die dürfen nämlich nicht einfach deine Inhalte, wenn du das nicht möchtest, wiedergeben. Deine urheberrechtlich geschützten Inhalte dürfen die gar nicht wiedergeben, wenn du es nicht willst.
Und da hilft es auch nicht, wenn deine Quelle angegeben wird, sozusagen.
Andererseits hast du natürlich recht, wenn jemand das weiterverwenden würde, dann müsste er jede Quelle durchlesen und gucken, ob die Inhalte, die die ChatGPT ausgespuckt hat, in der Quelle zu finden sind und dann es sein lassen.
Das kann man aber alles verhindern, wie gesagt, und einfach automatisiert prüfen, wenn man ein eigenes System hat. Und bei Bildern ist es ja noch extremer. Da kann man nämlich dann sogar prüfen mit Bildgeneratoren. Ich habe einen eigenen Bildgenerator, der kann mir tausende, habe ich auch schon gemacht, tausende von Bildern generieren und die kann ich dann sogar gemäß meiner Vorlieben sortieren lassen. Ich kann dem System beibringen, welche Bilder mir gefallen, welche nicht.
Dann kriege ich von den tausend Bildern nur die besten zehn präsentiert und die anderen 990 kann ich mir der Reihenfolge nach der Beliebtheit angucken.
Nach meiner Beliebtheit. Und ich kann mir einen Vergleich machen lassen mit den Bildern, die die Basis sind für die Generierung, ob da eins dabei ist, was sehr ähnlich mit dem Ergebnis ist, was rausgeneriert wurde. Und wenn es eine Ähnlichkeit hat, die zu hoch ist, dann schmeiße ich das Bild weg, weil es nämlich ein Urheberrechtsproblem sein könnte. Und es gibt ja mehrere Beispiele schon in der Öffentlichkeit, bei Marvel Comics zum Beispiel, dass diese Bildgenerierung, DALL-E 3 oder sowas, quasi Bilder generieren, die zu 98% gleich dem Original sind. Da hätte man dann Urheberrechtsprobleme, eine Urheberrechtsverletzung.
Und das kann man halt einfach nicht vermeiden, wenn man sowas wie ChatGPT benutzt. Das muss man einfach wissen. Ich meine, für den privaten Bereich kann man das nutzen, aber jeder, der die Ausgaben öffentlich benutzen will, der sollte es einfach nochmal überdenken, ob er das machen will.
Das heißt, wir haben da auf jeden Fall ein sehr, sehr spannendes Feld, das immer noch, egal wie viel wir uns damit beschäftigen, sehr, sehr viele Fragen offen lässt zu der Thematik, was ist jetzt urheberrechtlich schützenswert, was wird geschützt, wie kann es geschützt werden und vor allen Dingen auch, welche automatischen Mechanismen können wir nutzen. Wir haben ein paar Lösungswege identifiziert, bis hin zu der Tatsache, dass man seine eigene KI nutzt, wobei ich sage, das ist natürlich auch nur denen vorbehalten, die sich halt wirklich mit der Materie dann auch sehr, sehr gut auskennen und weitaus fundierter in ihrem Wissensstand sind, als die Leute, die glaube ich die Hauptuser von ChatGPT und DALL-E und den ganzen großen öffentlichen Systemen sind.
Ich denke, in Bezug auf die Zeit und in Bezug darauf, dass ich eine sehr, sehr interessante Information anknüpfend an dieses Thema gefunden habe, sollten wir in der nächsten Folge das Thema KI nochmal besprechen und zwar in die Richtung hin, dass Microsoft mit ihrem Copilot ein paar sehr, sehr interessante Dinge gemacht hat, die, wo ich mir wirklich die Frage stelle, wie wollt ihr das in der Realität umsetzen und seid ihr euch wirklich sicher, was ihr dort versprecht, denn Microsoft möchte für Rechtsverletzungen, die durch ihren Copilot passieren, eine Rechtsschutzversicherung anbieten.
Ich habe keine Ahnung, wie genau die sich das vorstellt und was das genau wird, aber es schlägt halt genau in diese Kerbe rein, weil gerade beim Urheberrecht haben wir ja viele Hebel und Möglichkeiten, dass man sich eben auch dagegen rechtlich wehren kann, dass die Daten irgendwie verwendet werden und von daher, das knüpft so schön an das Thema an. Also, lass uns das mal beim nächsten Mal besprechen und dann können wir ja auch gucken, ob die deutsche Sprache bis dahin vielleicht schon etwas stärker verarmt ist.
Ja, gerne.
Schlusswort von mir nur, du hast recht, für den normalen Menschen sind eigene KI-Systeme schwierig zu errichten, da muss er technische Kenntnisse haben, aber für Unternehmen ist es meiner Meinung nach die erste Wahl, vor allem, weil wir ja da nicht nur über Datenschutz reden, sondern auch über Geschäftsgeheimnisse und vertrauliche Daten, NDA und so weiter, also sollten die Unternehmen, die da sind, da mal drüber nachdenken. Sie haben vor allem auch oft viel bessere Ergebnisse, als ChatGPT sie liefern kann, so wahnsinnig das klingt.
Das ist sehr spannend.
Ich glaube, wir sollten auch mal irgendwie dazu übergehen, mal so Testings mit deiner KI zu machen und zu gucken, was das so im Unterschied rauskommt, wenn dann ChatGPT was rausgibt und wenn deine KI was rausgibt, was da so die Unterschiede sind und was wir daraus lernen können.
Ein unglaublich spannendes Thema.
Ich danke dir sehr, sehr für die Aufklärung in diesem Thema und finde das unglaublich spannend. Wir werden das, wie gesagt, nochmal neu aufgreifen und dann würde ich sagen an alle Zuhörer da draußen, vielen Dank fürs Zuhören. Ich hoffe, ihr habt eine Menge gelernt, so wie ich und ich hoffe, dass beim nächsten Mal Klaus uns dann auch noch belehren kann darüber, was der Microsoft Copilot für uns denn bereit hält und ja, in diesem Sinne würde ich sagen, vielen Dank Klaus, vielen Dank an alle da draußen und macht euch noch einen schönen Tag.
Stephan, ich danke dir, ich danke den Zuhörern fürs Dranbleiben und wünsche eben jedenfalls allen einen angenehmen Tag.
Tschüss. Ciao.

Eine Version mit Zeitstempeln ist ebenso erhältlich und wurde bei der Erstellung des Transkripts automatisch mit erzeugt.

Das Beitragsbild wurde von einer eigenen KI generiert. Diese Art von KI-Programm kann ebenfalls lokal ablaufen, ganz ohne Datentransfers zu Dritten.