Diese Folge kann hier angehört werden:
KI-generiertes Transkript
Das folgende Transkript wurde von einem selbst programmierten optimierten KI-Programm generiert. Das Programm ist datenschutzkonform, es benötigt keine Internetverbindung und tauscht keine Daten mit Dritten aus. Das Ergebnis ist hervorragend.
Hohe Datensicherheit
Offline-Betrieb möglich
Hohe Qualität
AI Act leicht beherrschbar
Datenschutz Deluxe, der Podcast rund um das Thema Datenschutz und IT mit Dr. Klaus Meffert und Stephan Plesnik.
Hallo und herzlich willkommen, liebe Zuhörer.
Hier ist wieder der Datenschutz Deluxe Podcast.
Mein Name ist Stephan Plesnik und ich begrüße euch recht herzlich.
Bei mir ist wie immer Dr. Klaus Meffert.
Lieber Klaus, wie geht es dir?
Mir geht es wie immer gut, wenn wir sprechen.
Stephan, wie geht es dir?
Mir geht es auch hervorragend.
Und zwar hauptsächlich, weil wir heute an das Thema, hatten wir ja schon angekündigt, anknüpfen wollen vom letzten Mal.
Da ging es ja um Nutzungsrechte bei der Nutzung von Generative AI und was da alles so im Argen sein kann.
Und da ist was ganz Interessantes passiert.
Nämlich Microsoft hat selber eine große Ankündigung gemacht zu ihrem Copilot und den damit verbundenen Copyright bzw. Urheberrechts- oder Nutzungsrechte Verletzungen, die da entstehen können, wenn Nutzer von Microsoft über den Copilot Inhalte generieren lassen.
Und was Microsoft da sagt, auf ihrem eigenen Blog, Stand 7. September 2023, ist, dass sie alle Rechtskosten, die eventuell entstehen, wenn jemand einklagt, übernehmen würden.
Bedeutet, wir benutzen den Microsoft Copilot, wir generieren darüber irgendwelche Dinge, verwenden diese Dinge und jetzt kommt jemand und sagt, hey, das ist aber so nicht richtig, das gehört eigentlich mir, das dürftet ihr so nicht verwenden, da habe ich ein Nutzungsrecht bzw. einen Urheberrechtsanspruch drauf.
Und dann sagt Microsoft, kein Problem, liebes Unternehmen, wir übernehmen für dich ab jetzt die Rechtskosten, die daraus entstehen, aus diesem Rechtsstreit.
Und für mich sieht das ein bisschen so aus, als wenn da ein Gigant mit unendlich viel Geld so ziemlich seine Marktmacht ausnutzt, weil wer gegen Microsoft klagt, als einzelner Künstler oder so, der hat ja wahrscheinlich relativ schlechte Karten.
Wie siehst du das, Klaus?
Ja, also zunächst mal, ich habe mich auch kurz eingelesen in dieses Thema.
Ich kenne jetzt nicht die genauen Details bei Microsoft, denn da hängt es auch von den Nutzungsbedingungen ab.
Also zunächst mal, Microsoft übernimmt nur, muss man sagen, aber immerhin ja natürlich, die Kosten eines Rechtsstreits, die Konsequenzen aus dem Rechtsstreit, die der, wenn der Kläger denn gewinnt, gegen den, der Copilot-generierte Werke genutzt hat, die übernimmt Microsoft nicht.
So habe ich es jedenfalls verstanden.
Das heißt, du nimmst ein Bild, was mit Copilot generiert wurde oder ein Programmcode, nehmen wir mal ein Bild, das kann man sich besser vorstellen, setzt es auf deine Webseite, druckst es auf deine Visitenkarten, beklipst es auf deine Webseite, druckst es auf deine Visitenkarten, druckst es auf deine Visitenkarten, druckst es auf deine Visitenkarten, druckst es auf deine Visitenkarten, schiebst deinen Firmenwagen damit, ja, und dann klagt jemand gegen dich, weil du, weil er sagt, das ist sein Bild.
Das ist zu ähnlich zu seinem Bild.
Und dann übernimmt Microsoft die Kosten, um einen Anwalt zu bezahlen und die Gerichtskosten, um deine Klage zu versuchen abzuwehren.
Wenn du jetzt, wenn du jetzt aber verlierst und das Gericht sagt, du darfst dieses Bild nicht mehr verwenden, dann musst du, so habe ich das verstanden, auf eigene Kosten dein Auto, von deinem Auto den Aufkleber abkratzen, die Visitenkarten wegschmeißen und neue drucken, die Webseite überarbeiten und wenn du auch Social Media Posts gemacht hast, die in aller Welt schon sind, dann musst du die alle zurückholen.
Das ist mein Kenntnisstand.
Also es ist natürlich so, wie du sagst, Microsoft tut so, also versucht quasi sein eigenes Produkt in den Markt zu pressen, indem es die Sorgen von Menschen lindern will.
Und wie du sagst, ich finde auch, Microsoft nutzt da seine Marktmacht, sagt natürlich gleichzeitig, wir sehen gar nichts.
Ich glaube gar nicht, dass es Urheberrechtsprobleme gibt mit KI-generierten Werken, aber trotzdem zur Sicherheit helfen wir euch, wenn was passiert.
Das ist natürlich Unsinn, weil, ich weiß es ja selbst, KI-generierte Bilder insbesondere, die sind sehr oft sehr ähnlich oder sogar nahezu gleich mit Originalwerken.
Marvel Comics insbesondere als Beispiel, weil wenn du als Suchbegriff Marvel oder Spider-Man eingibst oder sowas, da gibt es halt nicht so viele andere Dinge als von Marvel, diese eine Figur, die da rauskommt im Endeffekt.
Die ist eben populär ist in der KI.
Und die sieht halt eins zu eins oder exakt so aus.
Ich meine, ob der Spider-Man jetzt auf dem grauen Gebäude sitzt an der Wand oder auf dem grünen Gebäude, das ändert jetzt am Urheberrechtsschutz gar nichts, sage ich jetzt mal.
Oder ob der Spider-Man jetzt 1,60 Meter groß ist oder 1,50 Meter auf dem Bild, angenommenerweise natürlich, wenn man es hochskalieren würde.
Das spielt keine Rolle für den Urheberrechtsschutz.
Es ist sehr nah dran am Originalwerk zum Verwechseln ähnlich, muss man sagen.
Und damit ist das Urheberrecht verletzt.
Das ist vollkommen egal, ob das eine KI generiert hat oder ein Mensch.
Das Urheberrecht gilt immer in Deutschland jedenfalls.
Also für dich als Urheber, egal wie der andere, der dein Bild nachgemacht hat, wie er es nachgemacht hat.
Ich meine, es wäre noch schöner.
Angenommen, du bist der Urheber von Spider-Man, dann gehe ich her und sage, ja, ich habe ja Spider-Man mit einer KI generiert.
Da greift ja das Urheberrecht nicht.
Das wäre ja Unsinn, oder?
Also ich meine, da kann man schon die verquerte Logik von Microsoft.
Ich habe es, wie gesagt, nur gelesen.
Ich gehe davon aus, dass die Quelle hier seriös ist, die ich habe, ein deutsches Medium.
Aber man sieht daran, Microsoft ist da wieder mal, finde ich, ein asoziales Unternehmen.
Ja, ich finde das insofern auch interessant, weil Sie sagen ja, Sie hätten sogenannte Guardrails and Mitigations, die das Unternehmen quasi vorher implementiert haben muss.
Und das ist halt so ein Punkt.
Und wenn man sich dieses Werk durchlesen möchte, was man natürlich kann, dann ist man auf jeden Fall erstmal beschäftigt zu verstehen, was man überhaupt tun muss.
Und es hat halt auch damit zu tun, dass man bestimmte Dinge in diesem Copilot implementieren muss, in der Funktionalität von diesem Copilot.
Und nur dann greift das.
Also die Standardvariante des Copilot, die einfach mal so jetzt in jedem Windows genutzt werden könnte, die bietet also diesen Rechtsschutz gar nicht.
Man muss also vorher noch einen zusätzlichen Schritt gehen, bevor dann dieses Vertragswerk, über das Microsoft da spricht, dann überhaupt gilt.
Und wenn man das implementiert hat, dann ist es genau wie du sagst, dann übernehmen sie nur die Kosten des Rechtsstreits.
Also sie versuchen sozusagen im Endeffekt an der Stelle dann zu sagen, naja gut, wenn dann jemand klagt, dann übernehmen wir die Kosten dafür.
Die Wahrscheinlichkeit, dass jemand klagt, ist halt aufgrund dieser Tatsache relativ. . .
relativ viel geringer, weil wer hat schon Chancen, Microsoft in einem Rechtsstreit als einzelne Person irgendwie beizukommen?
Im Zweifel können die ja alles so lange hinauszögern und immer wieder verargumentieren, dass einem halt selber das Geld ausgeht, um dagegen zu klagen.
Besonders wenn ich jetzt darüber nachdenke, dass du halt irgendein freier Künstler bist, dessen Nutzungsrechte oder Urheberrechte dort verletzt werden.
Im Falle, den du beschreibst von Marvel jetzt zum Beispiel, finde ich, geht es ja nochmal ein ganzes Stück weiter.
Weil es gibt ja jetzt schon Webseiten wie Huggingface.
co, wo du einfach eingeben kannst eine Story und du schreibst einfach. . .
Ich habe das jetzt gerade parallel mal gemacht aus Joke und habe gesagt, ich gebe mal einen Spider-Man-Sitting-on-Bed-Typing-in-Laptop und der hat mir einfach ein komplettes Comic generiert.
Also ein komplettes Comic aus diesen Informationen.
Es sieht halt eins zu eins aus wie ein Original-Marvel-Comic.
Also es ist wirklich zu 100% Comic.
Es könnte das so ein Comic sein.
Und da sehe ich genau die Problematik, die du auch beschreibst.
Wir können halt den Unterschied nicht mehr machen, ob die AI das generiert hat oder ob es ein Original-Content ist.
Und ich finde es halt eigentlich ziemlich fahrlässig, was Microsoft da tut.
Weil es lädt ja eigentlich dazu ein, diese Verletzungen zu begehen.
Das erste, die Huggingface.
co, ist die populärste KI-Plattform grundsätzlich.
Das ist das erste für jeden, der es interessiert.
Allerdings, also klar, wie du es jetzt gemacht hast, kann natürlich jeder.
Wenn er da entsprechende Spaces, heißt es, also Anwendungen findet, kann er die nutzen.
Ansonsten ist es sehr stark auf Entwickler ausgerichtet, weil es eben sehr technisch ist.
Für mich sehr gut.
Ich wollte es nur mal erwähnen.
Dann das zweite, diese sogenannte Versicherung, die da Microsoft anbietet.
Also ich weiß jetzt erstmal nicht, ob es eine Versicherung ist oder ob Microsoft einfach nur die Kosten. . .
Das ist ja ein Unterschied, ja.
Ich meine, ob man dann einen Vertrag abschließt mit Versicherungsbedingungen oder wie, das ist keine Ahnung.
Ja.
Im Endeffekt ist es ja auch egal.
Aber Microsoft sagt, wie bei einer normalen Versicherung.
Versicherungsversicherung allerdings auch.
Beispielsweise bei der Hausratversicherung ist es, glaube ich, so.
Sie müssen alle möglichen Vorkehrungen, die wir Ihnen jetzt nennen, getroffen haben, damit der Versicherungsschutz greift.
Und bei der Hausrat- oder Gebäudeversicherung ist es, glaube ich, wenn man da zum Beispiel kein Rückschlagventil drin hat in dem Abfluss im Keller und da kommt Wasser rein, dann greift der Versicherungsschutz nicht.
Wenn man aber ein Rückschlagventil drin hat, dann kann eigentlich so gut wie nie was passieren, sage ich jetzt mal.
Ja, als Beispiel.
Das heißt, viele Versicherungen, die nehmen den Kunden so stark in die Pflicht, dass es die Frage ist, ob die Versicherung überhaupt nötig ist.
Bei Microsoft zum Beispiel ist es so, ich habe es jetzt gerade nachgeguckt, da gibt es Verpflichtungen, die der Kunde einhalten muss.
Und da wird dann geprüft bei einer Urheberrechtsverletzung, von Microsoft wird das geprüft, hat der Kunde denn eigentlich unsere Bedingungen eingehalten?
Und wenn nein, dann greift diese Versicherung gar nicht.
Ist ja okay grundsätzlich, ja.
Ich meine, es sollte nur einfach jeder wissen.
Klar.
Denn eine Bedingung ist zum Beispiel, dass der Kunde, wenn er zum Beispiel diesen Prompt, den du da eben verwendet hast, ja, den dürfte der Kunde gar nicht verwenden.
Der müsste nämlich noch hinten dran schreiben, einen sogenannten Metaprompt, der Copyright-Verletzungen verhindern soll.
Hier haben sie als Beispiel genannt in Englisch, to avoid copyright infringements.
So, wenn du das nicht dahingeschrieben hast, dann kannst du diese Versicherung auch gar nicht in Anspruch nehmen.
Das heißt, du bist dann der Dumme.
Das ist nur mal so nebenbei gesagt.
Und dann ist es auch so, man klagt natürlich nicht gegen Microsoft, sondern man klagt natürlich gegen den Urheberrechtsverletzer.
Also gegen dich in dem Fall, wenn du diesen Spider-Man auf deinem Auto drauf hättest.
Genau.
Kann sein natürlich, klar, wenn die Bedingungen alle eingehalten wurden von dir, Microsoft-Bedingungen eingehalten wurden, dass Microsoft dir dann zur Seite springt.
Aber zunächst mal weiß keiner, dass du von Microsoft protegiert wirst, was ja zu deinem Nachteil ist, muss man ja sagen in dem Fall, wenn du mal die Rolle des Sünders übernehmen möchtest.
Ja.
Denn wenn jeder wüsste, dass du von Microsoft vertreten wirst, dann würdest du vielleicht 50% weniger Klagen kriegen.
Ich sage es mal vereinfacht jetzt natürlich, man kann diese Zahlen nur imaginär zusammenstellen.
Aber das heißt, du kriegst erstmal die volle Bandbreite ab.
Und dann bist du erstmal, wie gesagt, das Beste, was dir passieren kann, ist, dass deine Gerichtskosten und die Anwaltskosten übernommen werden.
Und wenn du, also ich meine, bei Urheberrechtsverletzungen ist es oft sehr eindeutig, vor allem bei generativer KI.
Da guckt man sich den Original Spider-Man an, dann guckt man sich das an, was du da generiert hast und dann sieht man, dass das sehr ähnlich ist.
Da muss man, das ist ein No-Brainer.
Da würde ich jetzt mal persönlich sagen, ich kenne mich da bei Urheberrechtsthemen vor Gericht nicht aus.
Aber nach dem, was ich so gelesen und gehört habe, würde ich mal sagen, es ist ziemlich eindeutig, dass du da ein Problem kriegst vom Gericht.
Dass du nämlich das nicht mehr, dass du es unterlassen musst, dieses Werk zukünftig zu verwenden.
Und die Kosten, die dann entstehen, haben wir ja vorhin drüber gesprochen, Visitenkarten wegschmeißen, Webseite überarbeiten, Social-Media-Posts alle zurückholen.
Aufkleber vom Auto abkratzen, Neues alles erzeugen.
Die sind deutlich höher wahrscheinlich.
Und der Ärger, das wirkt ja nach, als das, was Microsoft übernimmt.
Und es muss alles in kurzer Zeit passieren, wohlgemerkt.
Ich weiß nicht, ob du schon mal versucht hast, im Internet Inhalte, die du rausgeschickt hast in alle Welt, innerhalb von sieben Tagen zu vernichten wieder.
Das geht.
Ich musste das schon mal machen, auch für Kunden.
Aber das kostet sehr, sehr viel Zeit und funktioniert auch nicht immer.
Okay.
Also, wenn es nicht funktioniert, manche Suchmaschinen bieten zum Beispiel diese Auslistungsmöglichkeit gar nicht explizit an.
Die machen das nur alle ein, zwei Monate mit dem Regelneulauf.
Da musst du das dokumentieren, dass du das versucht hast, bestmöglich.
Und dann, falls der Gegner dann nochmal sagt, nee, du hast aber jetzt immer noch nicht alles richtig gemacht, dann sagst du, ich habe es aber versucht.
Hier sind meine Beweise.
Dann kann es sein, dass es nochmal vor Gericht geht und da ist dann Microsoft schon längst draußen.
Also, wie du gesagt hast, ist eine Frechheit eigentlich von Microsoft.
Und unabhängig davon, wie gesagt.
Natürlich gibt es Urheberrechtsverletzungen, wenn du ein Original so 98 Prozent gleich machst.
Und vielleicht ein Punkt noch.
Microsoft schreibt ja, das ist ja erstmal gut, diese Guardrails, die du erwähnt hast.
Das heißt, Sicherheitsvorkehrungen, die in die KI eingebaut werden.
Und ich weiß auch, wie das technisch funktioniert.
Ich habe es schon selbst programmiert.
Man vergleicht eben das generativ erzeugte Bild, also den Output des KI-Modells, von Copilot in dem Fall, mit allen Eingabebildern.
Das sind 10 Milliarden zum Beispiel, die im Trainingsdatensatz der KI vorhanden sind.
Diese Bilder müssen gar nicht in Rohdaten gespeichert werden, sondern nur die sogenannten Einbettungen, Embeddings, also Zahlenreihen.
Das heißt, die Struktur des Bildes, so wie du bei dir im Gehirn ein Bild abspeicherst, so wird es in der KI auch abgespeichert.
In den Neuronen als Gewichte.
Und dann wird geguckt, ist eins der Eingabebilder zu ähnlich mit, mindestens eins der Eingabebilder zu ähnlich mit dem Ausgabebild.
Und wenn ja, dann wird das Ausgabebild vernichtet.
Problem dabei, jetzt nehmen wir mal an den Spider-Man wieder.
Klar kann man den Spider-Man erkennen als zu ähnlich.
Aber, wenn der Spider-Man nur eine von 100, ich übertreibe jetzt ein bisschen, von 100 Figuren ist oder 100 Dinge, die auf dem Bild zu sehen sind, auf dem Output-Bild.
Und der Spider-Man ist so winzig klein und alles andere ist anders.
Dann kann dieser Spider-Man nicht unbedingt erkannt werden.
Als im Original vorhanden.
Zu ähnlich sozusagen ist er dann nicht.
Das heißt, er ist weit genug entfernt nach Meinung der KI.
Jetzt weiß ich aber, dass es für die Größe eines Bildes eigentlich fast egal ist bei einer Urheberrechtsverletzung.
Das heißt, auch Icons können Urheberrechtsverletzungen hervorrufen.
Und ich meine, ein Icon in einem Bild mit 7000 anderen Sachen ist trotzdem ein Icon in einem Bild, was eine Urheberrechtsverletzung darstellt.
Und insofern kann man diese Guardrails gar nicht so ausgleichen.
Klar.
Das heißt, die KI muss gestalten, dass es ein Problem ist.
Kein Problem ist.
Das ist ja krass.
Dass es kein Problem ist.
Ja.
Ja, das ist ja krass.
Das heißt also, im Endeffekt spielt dabei auch das Verhältnis, in dem der Output generiert wurde, eine große Rolle dafür, ob die KI das richtig interpretieren kann überhaupt.
Und ob sie dann überhaupt Rücksicht darauf nehmen kann.
Das ist eine Sache, die ich nicht wusste.
Ich dachte, die KI wäre dann irgendwie intelligenter als ein Mensch.
Weil die ja irgendwie besser sowas scannen können.
Weil wir Menschen übersehen ja Dinge schon mal häufig.
Jetzt hätte ich eigentlich gedacht, dass eine KI dann das weniger übersieht.
Aber die sind ja an der Stelle noch menschlicher.
Kann sie auch.
Das ist ja krass.
Also sie kann natürlich mehr scannen und erkennt auch mehr.
Die Frage ist, ob der Ähnlichkeitswert, der ermittelt wird, hoch genug ist, um eine Copyright-Verletzung automatisiert annehmen zu können.
Weil wenn zu oft eine Copyright-Verletzung angenommen wird wiederum, dann werden ja alle Outputs, also dann werden die Kunden unzufrieden.
Weil dann sagen die alle, ja Copilot generiert ja nur Copyright-verletzende Werke.
Das finde ich jetzt super spannend, weil das ist eigentlich ein cooler Anknüpfungspunkt, wo ich jetzt gerade mal darüber nachdenke.
Datenschutz, personenbezogene Daten.
Wenn wir jetzt mal davon ausgehen, wir haben ein Bild, wo Menschen drauf sichtbar sind.
Wirkt sich das dann für zum Beispiel eine KI, die bestimmte Informationen verpixeln soll, weil Menschengesichter erkennbar sind, dann ähnlich aus?
Oder kann die KI an der Stelle mit anderen Mechanismen, zum Beispiel jetzt wenn ich ein Bild habe mit einer Gruppe von Menschen und deren Köpfe sind aber jetzt, vielleicht ist einer eher prominent und andere im Hintergrund sind irgendwie kleiner.
Wirkt sich das dann genau so aus?
Nicht unbedingt.
Also man kann diese Menschengesichter schon erkennen.
Wenn sie ein bisschen größer sind, hilft es natürlich.
Das ist analog zu Überwachungsvideos.
Wenn eine Überwachungskamera sehr schlechte Qualität hat, schwarz-weiß noch, weil es in der Nacht ist und dann noch weit weg von dem Objekt.
Ja.
Wo der Einbrecher vielleicht gerade ist, dann wird es natürlich immer schwieriger.
Aber grundsätzlich ist die Position und die Größe eines Objektes für die KI kein Problem.
Das ist ja das Schöne, muss man sagen.
Das ist invariant bezüglich Größe und Position und auch Farbgebung.
Das heißt, eine KI kann schon erkennen, ob da ein Gesicht oder ein Mensch ist, unabhängig davon, wie groß, in welcher Position und so weiter dieses Objekt sich befindet.
Okay, das heißt also an der Stelle.
An der Stelle könnte man sagen, wir können mit KI so eine Bildinterpretation von so Videoaufnahmen und so weiter, würde an der Stelle bis zu einem gewissen Grad funktionieren.
Aber dieser Grad ist eigentlich relativ hoch, sodass also ab dem Moment, wo eigentlich auch für einen Menschen nicht mehr zu erkennen ist, dass es ein Mensch ist oder welcher Mensch es ist, auch da würde die KI erst scheitern.
Naja, also ob es ein Mensch ist, kann man schon meistens erkennen.
Es kommt auf das Modell an.
Ja.
Wie gut es trainiert ist, ob es auf Menschen trainiert ist oder ein allgemeines.
Also das kann man schon bis zum sehr guten Grad.
Ich habe es sogar schon gemacht für eine 3SAT Sendung, die ausgestrahlt wird im März, glaube ich.
Da geht es um Sicherheit im Museumsbereich, Grünes Gewölbe und so weiter.
Und da wurde ich interviewt relativ lange und auch habe da eine KI programmiert, die zu originalen Überwachungsvideos die Menschen, also Einbrecher in dem Fall, markiert.
Das klappt sehr gut.
Es gibt einzelne Fälle, wo es nicht geklappt hat.
Da war aber wirklich.
Der Mensch sehr weit weg, sehr stark verschwommen mit dem Vordergrund, Balustrade und so weiter.
Und das KI-Modell war auch gar nicht fein trainiert auf diesen Fall.
Das heißt, ich habe einfach ein Basismodell genommen, das ein bisschen optimiert.
Das heißt, da hätte man noch viel mehr machen können.
Das geht schon alles.
Nur wie gesagt, es geht ja auch nicht immer um Spider-Man.
Es geht ja oft auch einfach um Formen.
Und da sagt man ja nicht, diese Form ist, also wie soll ich sagen, Spider-Man weiß jeder.
Wenn dann Spider-Man drauf ist, ist eine Urheberrechtsverletzung.
Aber wenn da jetzt die Form eines Künstlers 4711 drauf ist, ja, ich weiß ja gar nicht mal, dass es diese Form anderswo gibt.
Und was soll die KI mir da melden sozusagen?
Das ist das Problem.
Da müsste ich mir ja angucken, die Bilder.
Das könnte man machen übrigens.
Nur der Punkt ist halt, wenn, ja, Urheberrecht ist ja auch eine Ermessenssache, wenn man vor Gericht steht.
Wird der Richter das genauso beurteilen wie das KI-Modell?
Ja.
Wenn man diese Guardrails implementiert?
Ja, ich glaube natürlich nicht.
Jeder Richter macht das anders nach eigenem Gutdünken.
Und ein KI-Modell ist ja kein Richter.
Also natürlich ist es ein automatisierter Richter.
Aber was zählt, ist der Richter vor Gericht und nicht das KI-Modell.
Ja, ja, definitiv.
Definitiv.
Was genau, also wenn ich jetzt mal so gucke.
Einfach nur so diese Copilot-Geschichte.
Wenn ich mir jetzt vorstelle, die ist jetzt implementiert in den ganzen Windows-Produkten.
Und ich kann die nutzen.
Da steht direkt dabei mit Bing.
Das ist also irgendwie auch mit der Suchmaschine von denen verknüpft.
Jetzt weiß man ja von Windows, dass die, sag ich mal, in einem nicht unbeträchtlichen Maße Telemetriedaten übertragen.
Also Informationen über alles Mögliche, was ich mit meinem Rechner tue.
Wenn ich das denn nicht über bestimmte Datenschutzeinstellungshebel unterbinde.
Und wer weiß, ob das dann wirklich berücksichtigt wird von Microsoft an der Stelle.
Oder ob die die Daten trotzdem abgreifen.
Wenn ich also so wenig Kontrolle darüber habe, was ich an personenbezogenen Daten, an Dingen über mich preisgebe.
Alleine über die Nutzung meines Betriebssystems.
Und ich nutze jetzt diese KI.
Spielen dann nicht alle diese Daten mit in die Trainingsdaten der KI rein?
Dass dadurch gelernt wird, wie das Verhalten der Nutzer ist?
Um daraus bessere Rückgaben für die Prompts zu erzeugen?
Ja, da bin ich mir sicher, dass das Microsoft macht.
Ich meine, das sieht man ja auch daran, dass Microsoft mit dem neuen Outlook sagt, wir werden alle deine Daten, alle deine Mails in unsere KI einfließen lassen.
Und dafür nutzen wir deinen Benutzernamen und deinen Benutzernamen.
Und dafür nutzen wir deinen Benutzernamen und deinen Benutzernamen.
Und dafür nutzen wir deinen Benutzernamen und deinen Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deinen Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
schließen muss.
Ich persönlich kann damit umgehen, nur größere Unternehmen, die Microsoft-Jünger schon mittlerweile sind oder sein müssen, die davon abhängig sind von Microsoft, die haben dann dieses Problem.
Also ich sage natürlich, ich sage mal rein objektiv, wenn man mal die Gesetze weglässt, ist es natürlich das Beste, wenn man möglichst viele Daten in ein KI-Modell einfließen lässt.
Umso mehr, umso besser.
Wobei, also das muss man wirklich sagen, wobei irgendwann braucht man auch nicht mehr so viele Daten.
Wobei der Punkt ist, die Varianz.
Wenn du jetzt 50 Nutzer hast, die ein Sprachmodell befragen, dann wird wahrscheinlich, gibt es bestimmt 30 Nutzertypen, die unterschiedliche Fragearten haben von der sprachlichen Formulierung her.
Der eine zum Beispiel sagt, was sind Cookies?
Der andere sagt, sag mir mal, was Cookies sind.
Oder was meinst du sind Cookies?
Das ist alles dieselbe Frage, Frage von der Semantik her, aber sprachlich komplett anders formuliert.
Und ich weiß gar nicht, das waren jetzt nur meine Ideen, wenn du jetzt was sagen solltest oder irgendjemand, den ich nicht kenne, wie der dieses KI-Modell nach Cookies befragt, weiß ich nicht.
Und das kann man halt natürlich sehr schön rausfinden, wenn man einfach alles mitprotokolliert und 100.000 oder 3 Millionen User hat, dann weiß man eben alles.
Dann gibt es keine Frage.
Also wenn dann jemand nach Cookies fragt und anders als 3 Millionen Nutzer, dann muss er irgendeinen Dachschaden haben oder vielleicht kann er die Sprache nicht richtig.
Also was anderes bleibt dann ja schon fast nicht mehr übrig.
diese Verhaltensanalyse ist halt wirklich extrem.
Also man kann halt anhand des Verhaltens einer Person auch sehr schön herausfinden, welche Persona er verkörpert.
Ich bin so eher der analytische Typ und da gibt es welche, die sind eher emotionsgetrieben und so weiter.
Und dann sind die Menschen natürlich auch viel zugänglicher für Werbung.
Man weiß auch bei Wahlen und so weiter.
Das wurde ja gemacht bei der Trump-Wahl.
Cambridge Analytica hast du glaube ich auch schon erwähnt letztens.
Also Microsoft weiß dann alles über uns.
Ich möchte nochmal anfügen, der Gründer von Aleph Alpha, Andrulis heißt der glaube ich, der hat ja gesagt, wir sind dumm, wenn wir Microsoft alle unsere Daten geben.
Ich sehe es genauso.
Ich habe es auch vorher schon so gesagt.
Da brauche ich seine Aussage nicht, um das zu wissen, sondern ich finde es gut, dass er es gesagt hat.
Ich bin derselben Meinung schon immer gewesen.
Und wir sollten einfach mal drüber nachdenken, dass wir nicht noch mehr Abhängigkeit generieren, indem wir unsere Daten an Microsoft und Google weiter kostenlos liefern.
Und die freuen sich ohne Ende, weil sie hunderte von Milliarden jedes Jahr und irgendwann gibt es nur noch diese zwei Konzerne, weil mit KI kann man dann halt in ein paar Jahren einfach alles machen.
Da kann ich auch Erfindungen generieren.
Und alles kann ich damit machen.
Alles.
Das ist insofern finde ich sehr kritisch zu betrachten.
Auch wenn man jetzt mal davon ausgeht, wir reden immer so viel beim Datenschutz über Werbung.
Aber wenn ich mir jetzt mal überlege, wie sehr ja auch das Verhalten von Menschen kontrollierbar und lenkbar wird.
Schauen wir mal, nach China, nach Shenzhen, wo wir Social Credit Scoring Systeme haben, wo halt genauestens protokolliert wird, wenn einer bei Rot über die Ampel geht, wird er auf großen Werbetafeln gezeigt, sein Vergehen gezeigt und gezeigt, wie viele Abzüge er im Social Scoring bekommt.
Und mit einmal kann man aus dem Land nicht mehr ausreisen, man darf irgendwelche Verträge nicht mehr unterschreiben und so weiter.
Also eine komplett kontrollierte Gesellschaft.
Und wenn ich mir jetzt überlege, dass wir gerade bereitwillig dabei sind, diese Informationen an Privatunternehmen zu vergeben.
Also wir vergeben die noch nicht mal an eine Form einer Regierung, die in unserem Land auch für bestimmte Infrastruktur oder so sorgt, sondern wir übergeben die wirklich an ein kapitalgetriebenes Privatunternehmen.
Und dieses Unternehmen bietet sogar ja jetzt aktuell schon Services an, dass man als Unternehmensvorstand bestimmte Richtlinien erlassen kann, dass protokolliert wird, wie fleißig und sinnvoll arbeiten denn die Mitarbeiter am Arbeitsplatz.
Wenn man das jetzt kombiniert, dass ich nicht nur noch, dass ich nicht nur Zeit tracken kann und welche Programme benutzt wurden, sondern dass ich auch noch genau weiß, was innerhalb eines Programms getan wurde und dann über KI auswerten kann, ob das sinnhaft ist zum Ziel, das ich mit meinem Unternehmen verfolge.
Damit machen wir die Menschen, die in den Unternehmen arbeiten, vollständig unmündig.
Wir machen die im Endeffekt zu Maschinen.
Also wir versuchen den Menschen genau das abzuerziehen, weil wir die Menschen, die in den Unternehmen arbeiten, dass wir eigentlich von den Menschen wollen, nämlich die Kreativität und das Mitdenken wird dadurch immer stärker eingedämmt, weil wir uns jetzt dann darauf verlassen können, dass die KI für uns ja schon genug denkt.
Ja, genau.
Jetzt noch zu dem letzten Punkt, den du gesagt hast, will ich noch eine Sache sagen, weil Microsoft, habe ich jetzt auch wieder auf der Microsoft Seite gelesen, was die Pflichten des Kunden sind, der Copilot benutzt, damit er überhaupt einen Anspruch hat, dass Microsoft ihm beisteht bei einer Klage gegen ihn, Urheberrechtsklage.
Und zwar muss der Kunde vorher, wenn er sich für eine Urheberrechtsklage bezieht, ein Red Teaming gemacht haben, sogenanntes Red Teaming.
Das heißt, er muss versucht haben, das KI-Modell vom Copilot zu quälen und zu versuchen, ob da nicht doch irgendwelches problematisches Material rauskommt.
Das muss er selbst in einem eigenen Report festhalten.
Er muss testen und er muss diesen Report, also das heißt, er muss erst mal prüfen, kommt da eigentlich was raus, was ich als Mensch für bedenklich halten würde.
Und das muss er dokumentieren.
Ja, wunderbar.
Und wenn dann eine Klage kommt, muss der Kunde diesen, diese Dokumentation, diesen Report an Microsoft geben, um, damit Microsoft das dann verwenden kann im Sinne des Kunden vor Gericht, um zu sagen, wir haben doch alles getan.
Der Punkt ist, wenn ich mir schon so viel Mühe gebe, dann brauche ich auch keine Versicherung mehr.
Also weil dieser Fall, dass dann was passiert und vor allem die Kosten dafür, sage ich, sind deutlich höher, wenn man mal über größere Unternehmen denkt, weil bei kleineren, kleineren Unternehmen kann sowas ja gar nicht leisten.
Wahrscheinlich auch diese Zusatzversicherung gar nicht bezahlen.
Ich weiß nicht, was die kostet, ist ja alles relativ günstig, aber dieser Aufwand.
Geschweige denn zu verstehen, was das eigentlich alles heißt.
Zu verstehen, da kann ich auch ein eigenes KI-Modell nutzen oder mir eins mieten in Europa, in Deutschland, was nicht von Microsoft, weil es ja von einem rein europäischen Anbieter, deutschen Anbieter vielleicht sogar, wo ich quasi automatisiert diese ganzen Prüfungen bekomme und wo ich mir, wo ich dann sogar eine Ausgabe kriege.
Das, guckt ihr mal die Bilder an, die sind möglicherweise ähnlich.
Und das ist das, was ich dann an die Backe klebe.
Und das ist deutlich schneller, als wenn ich mir diesen ganzen Mumpitz, den Microsoft hier vorschreibt, an die Backe klebe.
Also es ist die weitere Öffnung der Büchse der Pandora an einer anderen Stelle wieder mal.
Und man kann nur jedem Unternehmer empfehlen, erklärt es ganz transparent.
Und wenn ihr das nicht könnt, lasst am besten die Finger davon.
Wenn ihr es könnt, dann bitte sorgt dafür, dass ihr von jedem Nutzer die informierte, eine Einwilligung habt, dass ihr diesen Mist nutzen dürft.
Und ich meine mit diesem Mist nicht den Copilot.
Ich meine Microsoft Windows und jede Applikation dieses Unternehmens.
Denn überall stecken, steckt ja jetzt dieser Mist drin, der da im Hintergrund irgendwelche Daten vernudelt.
Du hast gerade schon das neue Outlook angesprochen.
Dreimal dürfen wir raten, warum es das neue Teams gibt.
Ja, also alle diese Sachen bieten genau diese Angriffspunkte und genau diese Problematiken.
Und ein Unternehmen kann sich zumindest in Europa, wenn wir jetzt mal die Datenschutz-Grundverordnung nehmen, nur davor schützen, indem ihr wirklich eine transparente, freiwillig informierte Einwilligung dieses Nutzers habt.
Und da möchte ich mal ein Unternehmen finden, das schafft, das einem ganz normalen Mitarbeiter, der einfach nur seinen Office-PC verwendet oder seinen Office-Laptop mit Windows verwendet, klar zu machen, wie das genau abläuft und was das genau für Implikationen bedeuten kann.
Das wäre, finde ich, sogar mal ein spannendes Thema.
Man könnte ja wirklich mal versuchen, so eine Art Lackmustest dafür zu erarbeiten.
Wie kann ich einem DAO klar machen, dass das problematisch ist?
Also welche Worte muss ich benutzen?
Ich denke da so ein bisschen an so eine Folge von John Oliver, wo es um die NSA-Affäre und Edward Snowden ging.
Und der hat dann eben herausgefunden, dass die Leute keine Ahnung davon haben, was Datenverarbeitung ist und was man damit machen kann.
Aber als er die Leute gefragt hat, ob die es cool fänden, wenn Nacktfotos von ihnen von der Regierung gesehen würden, dann waren sie mit einem Mal alle dagegen.
Also man muss halt nur den richtigen Hebel finden, um den Leuten klar zu machen, dass das ein Thema ist, das relevant ist für sie.
Wäre vielleicht spannend, sowas mal zu überlegen, ob man sowas herstellen kann, weil das könnte vielleicht wirklich vielen Unternehmen in dieser kritischen Situation helfen.
Ja, stimmt.
Also zu empfehlen ist es auf jeden Fall nicht, den Copilot einzusetzen.
Das ist ganz klar, weil, ja, das ist ja krass.
Also du kannst ja noch nicht mal die Voraussetzungen erfüllen, damit Microsoft diesen Schutz, den sie anpreisen in ihrem Blog, dann auch wirklich später umsetzen für dich.
Das ist ja irre.
Also ich sag mal, das betrifft ja auch Code-Generierung, dieses Red-Teaming und so weiter.
Aber andererseits bei Code-generierung ist die Wahrscheinlichkeit, dass jemand dagegen klagt, nicht so hoch, wenn man den Code nicht gerade Open Source macht, was ja die meisten Firmen gerade nicht machen.
Das ist ja dein Asset.
Und da ist es allerdings so, zunächst mal kann man den Code auch mit eigenen KI- Modellen sehr gut trainieren und zwar sogar besser als Copilot, sage ich, weil jede Firma hat ihren eigenen Code-Stil oder ihre eigenen Grundsätze und Richtlinien, Entwickler, die auf bestimmte Sachen Wert legen.
Das kann man einem eigenen Modell viel besser beibringen.
Und zum Zweiten kann ich da auch Sicherheitsthemen viel besser einfließen lassen, als wenn ich so eine Generierung von so einer allgemeinen Allerwelts-KI, sag ich mal, die ist bestimmt toll, wenn man die Funktionalität ansieht.
Aber die Eingriffsmöglichkeiten sind halt relativ gering.
Man sollte es einfach mal perspektivisch betrachten.
Wenn ich nur über drei Monate nachdenke, dann ist es natürlich günstiger, irgendwas Vorgefertigtes zu nehmen.
Aber darüber hinaus, die Welt ist sehr schnelllebig, habe ich mit einem eigenen System, was viel besser spezialisierbar ist, viel bessere Ergebnisse und kann das Ding auch im Endeffekt wahrscheinlich günstiger nutzen.
Wenn ich mir nämlich vorstelle, dass ich, wenn ich zum Beispiel einen eigenen Server habe oder einen gemietet habe, dann kann ich den ja 24-7 laufen lassen, ohne dass er mehr kostet.
Wenn ich aber Microsoft Co-Pilot nutze, das wird irgendwann in ein Pay-Per-Use-Modell übergehen, genau wie alles.
Ich meine, ich will nur Spotify erwähnen.
Die wollen jetzt einfach drei Euro mehr pro Monat haben.
Einfach so.
Und wenn du aus Versehen falsch klickst, hast du es auch noch angenommen, obwohl es, sag ich, recht niedrig ist.
Da gibt es ja auch ein Urteil, glaube ich, dazu.
Aber ich will nur sagen, man ist komplett abhängig von diesem Konzern und abhängig, wer sich freiwillig abhängig macht, ich sage jetzt mal ganz deutlich, den halte ich für dumm.
Ja, also das muss ich wirklich einfach mal so sagen und mit dummen Menschen habe ich selten gerne zu tun.
Das ist definitiv, also da bin ich voll deiner Meinung.
Es bleibt halt, es bleibt halt wieder bei dieser Sache, die meisten Menschen werden es einfach machen, weil sie sich einfach gar nicht informieren können und denken, oh ja, dann ist das halt so, spielt ja keine Rolle, gibt mir ja irgendeinen Mehrwert, ohne darüber nachzudenken, was die Konsequenzen später sein können.
Die Leute, die sich unseren Podcast anhören, gehören hoffentlich zu den Leuten, die darüber nachdenken.
Ich glaube, sonst würden sie auch gar nicht zuhören, schon gar nicht über die Länge der Zeit, die wir darüber diskutieren können.
Aber ich denke, was so eine Sache ist für mich, wir sollten vielleicht noch mal gemeinsam ein bisschen genauer zum Beispiel auf dieses Thema neues Outlook gucken.
Oder das neue Teams, also was steckt denn wirklich hinter den Services, den so viele Menschen tagtäglich nutzen und wo Unternehmer sich überhaupt keine Gedanken darüber machen, dass sie ihren Mitarbeitern da eine Wahlmöglichkeit stellen müssen.
Ja, also man kann nicht einfach sagen, hier neues Outlook und wir nutzen das jetzt alle, sondern jeder Nutzer, jeder Mensch hat die freie Entscheidung zu sagen, nein, das nutze ich nicht.
Und dann muss man eine Alternative bereitstellen.
Man kann ja nicht einfach sagen, das machst du schon.
Das muss man als Unternehmer, glaube ich, auch wissen.
Ja, der Arbeitgeber haftet natürlich dafür, was mit den Daten seines Angestellten passiert, die er auf Veranlassung sozusagen an Microsoft weitergibt.
Da können wir gerne mal drüber sprechen.
Wir sind am Ende der Zeit, Stephan, du hast es gesagt.
Ich sage mal so, aus meiner Sicht, es war sehr spannend und ich fand unseren Austausch sehr gut.
Ich bin kein Microsoft-Freund mehr.
Ganz früher war ich es mal, da gab es ja auch gar keine großen Probleme, die aufgeworfen wurden.
Und jetzt sind wir aufgeworfen wurden 1995 oder so.
Aber ich sage mal so, wenn es geht, vermeide ich Microsoft.
Und wir können auch gerne mal drüber reden, wie man das machen kann.
Ich habe nämlich da ein Modell gefunden, was praktikabel ist und gleichzeitig die Vorzüge von Windows beibehält.
Aha, wunderbar.
Das ist doch eine spannende Vorausschau.
Dann würde ich sagen, liebe Zuhörer, freut euch auf die nächste Woche, wenn wir dann alle gemeinsam lernen können, wie Klaus das Microsoft-Problem für uns löst.
Und in diesem Sinne würde ich sagen, danke dir, Klaus.
Hat wieder mal sehr viel Spaß gemacht, viel gelernt und an alle da draußen, macht euch noch einen schönen Tag.
Ciao, ciao.
Tschüss. .
Das Beitragsbild wurde von einer eigenen KI generiert. Diese Art von KI-Programm kann ebenfalls lokal ablaufen, ganz ohne Datentransfers zu Dritten und inklusive automatisierter Prüfung der generierten Bilder auf Urheberrechtsprobleme.

gekennzeichnet.
