Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen
Externe Links sind mit dem Symbol Externer Link Symbol gekennzeichnet. Datenschutzinfo

Künstliche Intelligenz ist nicht regulierbar, weil Intelligenz nicht regulierbar ist.

Deutsche Version (Original)
3
Dr. DSGVO Newsletter erkannt: Erweiterte Funktionen verfügbar
Artikel als PDF · Mehr Inhalte & kompakte Kernaussagen · Webseiten-Checks · Offline-KI Live
Standardansicht: Dr. DSGVO Newsletter nicht erkannt. Erweiterte Funktionen nur für Abonnenten:
Artikel als PDF · Mehr Inhalte & kompakte Kernaussagen · Webseiten-Checks · Offline-KI Live
📄 Artikel als PDF (nur für Newsletter-Abonnenten)
🔒 Premium-Funktion
Der aktuelle Beitrag kann in PDF-Form angesehen und heruntergeladen werden

📊 Download freischalten
Der Download ist nur für Abonnenten des Dr. DSGVO-Newsletters möglich

Kürzlich forderten Songwriter in den USA den Schutz vor Plagiaten durch KI. Andere führen an, dass Dienstleister für die Aussagen von Chatbots haften, wenn sie deren KI-Ergebnisse veröffentlichen. Generiert eine KI ein Bild, sei es in den USA nicht dem Urheberrecht unterworfen. In Deutschland hingegen seien KI-generierte Bilder auch dem Urheberrecht unterlegen. All dem ist gemeinsam, dass KI als etwas Beherrschbares, irgendwie Außerirdisches angesehen wird. Es gibt allerdings einen Hauptgrund, warum KI nicht reguliert werden kann.

Einleitung

Alles fing damit an, dass im März 2023 ein Produkt namens ChatGPT in Deutschland für Aufsehen sorgte. Jeder verstand nach einer Minute, dass dieser Chatbot intelligent ist und es so etwas noch nie zuvor gegeben hatte.

Die Aussage aus dem vorigen Satz wollen leider viele nicht zur Kenntnis nehmen. Sie würden fälschlicherweise sagen: „ChatGPT ist künstlich intelligent“. Richtig ist: „ChatGPT ist intelligent“. Es geht nicht darum, hier jeden davon zu überzeugen, dass dies so ist. In sehr wenigen Jahren bereits wird die Realität den Glauben oder Unglauben ersetzen.

Aktuell investieren Firmen und Investoren wie OpenAI, Microsoft, Elon Musk, Nvidia oder Amazon Tausende von Milliarden Dollar in KI-Technologien! Wir reden über Billionen von Dollar, nicht über Milliarden, was auch schon sehr viel wäre. Es geht konkret um gigantomanische Chipfabriken und Roboterproduzenten.

Warum ist das so? Weil es ein No-Brainer ist, einen intelligenten Computer auf etwas Bewegliches zu setzen, das in der Gegend herumläuft. Dieses bewegliche Etwas wird auch Roboter genannt. Figure AI ist eine Firma, die solche Produkte im Portfolio hat und in die gerade massiv investiert wird. Ich selbst hatte bereits angefangen in GPU- und Rbobotikunternehmen zu investieren, bevor irgend jemandes Artikel oder Meinung mich dazu erreicht hatte.

Nicht umsonst hat der Chef von Aleph Alpha, Jonas Andrulis, in einer TV-Doku das geflügelte Wort der „GPU poor“ zitiert, das im Silicon Valley laut seiner Aussage populär ist. GPU bezeichnet Grafikkartenprozessoren, die für KI-Berechnungen aktuell unerlässlich sind. Diese GPUs finden sich vorwiegend in Grafikkarten genau eines Herstellers wieder. Dieser Hersteller heißt Nvidia. Andere Hersteller sind faktisch irrelevant, wie ein Blick auf die beliebtesten KI-Frameworks zeigt, die allesamt CUDA unterstützen. CUDA ist ein Nvidia-Standard, um der Grafikkarte Berechnungen zu befehlen. Dass KI-Grafikkarten nicht mehr zur Ausgabe von Bildern auf Monitoren genutzt werden, sei nur am Rande erwähnt.

Zurück zum Kern dieses Beitrags: Warum ist KI nicht regulierbar?

Die Antwort gibt der nächste Abschnitt.

Künstliche Intelligenz ist (künstliche) Intelligenz

Aufgrund der mangelhaften Definitionen von Künstlicher Intelligenz, wie sie in der KI-Verordnung der EU und bei der OECD zu finden sind, ist eine neue Definition von KI entstanden. Diese Definition lautet:

Als Künstliche Intelligenz wird ein künstliches System bezeichnet, das versucht, ein Problem auch bei unscharfer Vorgabe auf eine nicht konkret vorgegebene, lösungsorientierte Weise zu lösen und dazu bestehendes mit neuem Wissen kombiniert und Schlussfolgerungen zieht.

Quelle: Klaus Meffert im Dr. DSGVO Blog

Das Schöne an dieser Definition ist, dass sich daraus spielend leicht die Definition von Intelligenz ableiten lässt. Hingegen scheitern daran die Definitionen von EU und OECD.

Die Definition von Intelligenz lautet:

Als Intelligenz wird ein System bezeichnet, das versucht, ein Problem auch bei unscharfer Vorgabe auf eine nicht konkret vorgegebene, lösungsorientierte Weise zu lösen und dazu bestehendes mit neuem Wissen kombiniert und Schlussfolgerungen zieht.

Quelle: Klaus Meffert im Dr. DSGVO Blog

Die Definitionen von Künstlicher Intelligenz und Intelligenz sind quasi identisch, was richtig so ist. Sie unterscheiden sich in genau einem Wort. Dieses Wort heißt „künstlich“.

Es spielt keine Rolle, welche Gestalt ein intelligentes System hat. Dass Intelligenz genauso viel oder wenig mit Statistik zu tun hat wie alles andere, wurde bereits diskutiert. Kurzfassung: Alles ist Statistik, siehe Quantenphysik oder die Heisenbergsche Uschärferelation oder den radioaktiven Zerfall von Teilchen. Statistik ist kein exklusives Merkmal von KI und nicht nur im Gehirn des Menschen vorzufinden.

Exkurs

Forschern ist es anscheinend gelungen, Gehirnmuster von Menschen (oder Tieren?) zu entschlüsseln. Der Ansatz ist hier skizziert:

Quelle: https://github.com/littlepure2333/MindBridge/blob/main/assets/MindBridge_method.png

Das Verfahren nutzt KI, um eine Korrelation herzustellen zwischen gemessenen Gehirnimpulsen und Eingaben sowie Ausgaben, die das Versuchsobjekt erhalten bzw. gemacht hat. Wenn das nicht intelligent ist…!

Die im Bild dargestellten Verfahren sind allesamt gängig. Revolutionär ist der Ansatz, diese in cleverer Weise miteinander zu kombinieren.

Ist Intelligenz regulierbar?

Intelligenz ist regulierbar, und zwar über Verbote. Diese Verbote müssen aber wirksam sein, damit sie tatsächlich etwas regulieren. Ein Verbot ist dann wirksam, wenn

1) ein Verstoß gegen das Verbot festgestellt werden kann und wenn gleichzeitig

2) ein Verstoß gegen das Verbot konsequent bestraft wird.

Ob Verbote konsequent bestraft werden, hängt im Wesentlichen von der gesellschaftlichen Akzeptanz und auch der Meinung von Richtern ab, ob ein Gesetz wirklich so sinnvoll ist. Wenn ein Richter nämlich der Meinung ist, dass dann ja jeder kommen könnte, wenn Recht gebrochen wird, dann würde das Gericht ja mit Klägern überrannt werden. Also wird so mancher Richter den Klägern eher nicht Recht geben, obwohl sie (aus theoretischer objektiver Sicht) im Recht sind. Diese Aussage basiert auf Evidenz.

Wenn Richter meinen, ein Rechtsbruch liegt vor, dann könnte es sein, dass sie durch eine öffentliche oder politische Haltung beeinflusst werden. Das ist eine Annahme und Hypothese ohne Grundlage. Sie sei hier nur erwähnt. Belege aus eigener Anschauung liegen jedenfalls vor (Richter liest die Akte nicht, was die nächsthöhere Instanz in der Berufung selbst feststellt).

Die weitere Frage ist, ob ein Verstoß gegen ein Verbot festgestellt werden kann.

Nehmen wir als Beispiel KI-generierte Songs, über die sich Songwriter verständlicherweise aufregen. Ob ein Song von einem Menschen oder einer Maschine produziert wurde, sieht man dem Song nicht an. Auch bisher wurden Songs, so vermute ich, fast ausschließlich unter Zuhilfenahme von Synthesizern und ähnlichen elektronischen Hilfsmitteln oder Instrumenten hergestellt. Ob ein Synthesizer eine Melodie generiert oder gespeichert hat, die dann vom Künstler verwendet wird, oder ob die Melodie von einer KI generiert wurde, kann wohl niemand allgemein feststellen.

Als weiteres Beispiel seien KI-generierte Bilder genannt. Die Wasserzeichen, die jeder begabte Programmierer oder Hobby-Hacker ausschalten kann, mal außen vor gelassen. Einem Bild sieht man per se nicht an, ob es von einer Künstlichen Intelligenz erstellt wurde oder von einem Menschen gemalt wurde. Folgende Fälle seien zur Veranschaulichung genannt. Ein Bild kann:

a) von einem Menschen ganz alleine erstellt worden sein („Rembrandt“),

b) von einem Computerprogramm ganz alleine erstellt worden sein („Stable Diffusion“, Dall-E, Midjourney etc.),

c) von einem Menschen durch Nachbearbeitung der Vorlage aus b) erstellt worden sein,

d) von einem Menschen mit Adobe Photoshop (Nicht-KI-Funktionen) erstellt worden sein,

e) von einem Menschen aus der Vorlage b) nachbearbeitet mit Photoshop erstellt worden sein,

f) von einem Menschen aus Vorlage a) unter Eingabe in einen KI-Bildgenerator erstellt worden sein,

g – z) usw.

Wie da jemand durchblicken will, ist ein Rätsel.

Auch bei Texten/Antworten, die ein Chatbot generiert, erschließt es sich nicht, wie diese von den Antworten eines Menschen oder einer konventionellen Suchmaschine unterschieden werden sollen.

Die EU wusste es auch nicht. Deshalb hat sie ihre Definition von KI in der KI-Verordnung (AI Act) derart verunstaltet, dass laut dieser Definition ChatGPT nicht intelligent ist, ein stupider Staubsaugroboter aber schon.

Turing-Test

Der Turing-Test wurde von Alan Turing erdacht, der schon die Enigma-Codes der Deutschen im Zweiten Weltkrieg knackte. Der Test prüft, ob eine anspruchsvollere Frage von einem Menschen oder von einem Computer beantwortet wurde. Ist die Antwort des Computers von der eines Menschen nicht unterscheidbar, hat der Computer den Turing-Intelligenztest bestanden.

ChatGPT war wohl das erste in Deutschland bekannte KI-System, das den Turing-Test bestand.

Der Turing-Test sagt es bereits: Ein Computer ist dann intelligent, wenn seine Antworten von der des (angeblich intelligenten) Menschen nicht mehr unterscheidbar sind.

Etwas Ununterscheidbares kann also rechtlich effektiv nicht unterschiedlich behandelt werden. Viele Gesetzgeber werden sich von dieser Tautologie nicht beirren lassen und es dennoch versuchen. Es fühlt sich einfach besser an, es versucht zu haben.

Fazit

Intelligenz ist Intelligenz. Künstliche Intelligenz ist Intelligenz. Die Ergebnisse von künstlicher und unkünstlicher Intelligenz sind an sich ununterscheidbar. Ausnahmen gibt es, wie jeder bestätigen kann, der sich mehr als 10 KI-generierte Bilder angesehen hat. KI ist allerdings noch Lichtjahre vom denkbaren Maximum entfernt.

Das Maximum der künstlichen Intelligenz wird weit über dem des dann sehr dummen Menschen liegen. Die Probleme mit der Rentenkasse werden sich so ganz von selbst lösen.

Die Zeit bis zur Beherrschung der Menschheit durch künstlich-intelligente Systeme sollte jeder nutzen, ein erfülltes Leben zu führen. Manche sehen dieses Ende nicht. Das sind meistens diejenigen, die zugunsten ihrer Kinder lieber optimistisch als realistisch in die Zukunft blicken. Es sei ihnen zugestanden. Jeder, der gerne kein Ende sehen möchte, sollte auf keinen Fall anfangen zu lernen, wie man KI-Systeme programmiert. Denn dann wird es ziemlich direkt ersichtlich, wo das Potential von KI liegt.

Programmierer haben einen Vorteil. Sie können aktuell bereits auf extrem viele KI-Bibliotheken und KI-Gehirne zurückgreifen und sich und ihren Kunden dienstbar machen. Sogar das automatisierte Schlussfolgern auf Basis von Weltwissen aus dem Internet ist bereits möglich.

Wer etwas Geld übrig hat, sollte darüber nachdenken, ob Hersteller von anspruchsvollen Komponenten für Roboter nicht ein Investment wert sind.

Weil eine KI zwar grundsätzlich alles kann, was ein Mensch auch kann, und noch viel mehr, aber nicht haftbar gemacht werden kann, wird es das selbstfahrende Auto auf deutschen Straßen nicht geben. Jedenfalls gilt das, wenn man über alle möglichen Verkehrssituationen und Wetterlagen redet. Dass ein Auto bei Tempo 60 sehr zuverlässig geradeaus fahren kann, wurde bereits bewiesen. Ob das selbstfahrende Auto auf der Autobahn auch ohne den Menschen immer (!) aus Versehen niemanden umbringt, darf bezweifelt werden. Da selbst der Mensch gelegentlich aus Versehen jemanden zu Tode bringt, wäre dies bei einem leistungsfähigen KI -System auch zu erwarten und dem Gesetz der Wahrscheinlichkeit nach sicher zutreffend.

Kernaussagen dieses Beitrags

KI kann nicht reguliert werden, weil sie genauso intelligent ist wie natürliche Intelligenz und wir diese auch nicht regulieren können.

Künstliche Intelligenz ist ein System, das Probleme löst, auch wenn die Vorgaben unklar sind, indem es neues Wissen mit vorhandenem kombiniert und Schlussfolgerungen zieht.

Es ist schwierig, KI-generierte Inhalte von menschlichen Inhalten zu unterscheiden, daher ist es problematisch, Gesetze zu machen, die zwischen ihnen unterscheiden.

KI wird immer mächtiger, kann bald alles tun wie der Mensch, kann aber ist an sich nicht verantwortlich gemacht werden.

Über diese Kernaussagen

KI-Beratung, KI-Lösungen

Umfassende Beratung (fachlich, rechtlich, technisch):

Leistungsangebot:

  • Erstberatung inkl. Machbarkeitsaussagen
  • Schulungen und Workshops für Führungskräfte, Berufsgeheimnisträger, Angestellte, Entwickler
  • KI-Lösungen mit und ohne ChatGPT/Azure. Cloud oder eigener KI-Server

Ihre Anfrage

Oder Mail an ki@dr-dsgvo.de

Wer schreibt hier?
Mein Name ist Klaus Meffert. Ich bin promovierter Informatiker und beschäftige mich seit über 30 Jahren professionell und praxisbezogen mit Informationstechnologie. In IT & Datenschutz bin ich auch als Sachverständiger tätig. Ich stehe für pragmatische Lösungen mit Mehrwert. Meine Firma, die IT Logic GmbH, berät Kunden und bietet Webseiten-Checks sowie optimierte & sichere KI-Lösungen an.
Bitte nutzen Sie bei Verwendung meiner Ergebnisse die Quellenangabe oder verlinken Sie gut wahrnehmbar auf diesen Artikel:
Einen Kurzlink oder eine Bestätigung für Ihre Quellenangabe erhalten Sie kurzfristig auf Anfrage. Ein Teilen oder Verteilen dieses Beitrags ist natürlich ohne weiteres möglich und gewünscht.

Kommentare von Lesern

Die Kommentare drücken die Meinungen der jeweiligen Kommentargeber aus
  1. Martin Blaha

    Hallo Herr Meffert,
    danke für den sehr interessanten Artikel.

    Ich hätte zwei Fragen:

    > Die Zeit bis zur Beherrschung der Menschheit durch künstlich-intelligente Systeme sollte jeder nutzen, ein erfülltes Leben zu führen.

    Was veranlasst Sie zu der Annahme, dass künstlich-intelligente Systeme nach der Beherrschung der Menschheit lechzen?

    > Weil eine KI zwar grundsätzlich alles kann, was ein Mensch auch kann, und noch viel mehr, aber nicht haftbar gemacht werden kann, …

    Warum sollten wir KI haftbar machen wollen? Ist KI nicht nur ein Werkzeug in der Hand eines Menschen? Diesen kann man dann haftbar machen, wenn sein Werkzeug (KI) dann Schaden anrichtet. Schliesslich ist KI auch nicht geschäftsfähig, verfügt über keinen freien Willen etc.

    • Dr. DSGVO

      Danke für Ihre Rückmeldung und Ihre Fragen.

      Zur ersten Frage:
      "Lechzen" ist das falsche Wort. "Möglichkeiten nutzen" sehe ich eher als Problem, siehe den Menschen, beispielsweise Russlands Präsidenten.
      Es reicht außerdem bereits, wenn Bösewichte eine KI nutzen können, um viel Schaden anzurichten. Nur ein Stichwort: Kampfstoffe.
      Dieser KI-Rechner kann unter einem Schreibtisch (oder in einem Tunnelsystem) stehen und kostet nur 3000 Euro.

      Zur zweiten Frage:
      Wenn es keine Haftung gibt, können Verstöße nicht geahndet und somit nicht abgestellt werden. Deswegen kann man faktisch keine selbstfahrenden Autos (mit sehr wenigen Ausnahmen) erlauben. Bzw. kann man schon, aber dann werden einige Menschen bald im Gefängnis landen, die sich auf ihr KI-Auto verlassen haben.
      Viele meinen anscheinend, das zeigen aktuelle Beiträge und Posts, dass KI-generierte Inhalte einfach so da sind und kein Problem seien, weil eine KI sie generiert hat. Daraus bereits entstehen Probleme.

  2. Anonym

    Hallo Herr Dr. Meffert, super Newsletter. Besser hätte man es nicht auf den Punkt bringen können. Bin selber seit 30J. in der IT beruflich und erlaube mir somit auch meine persönliche Meinung zu haben. Und wie geschrieben genau meine Meinung. Danke

Schreiben Sie einen Kommentar

Ihre Mail-Adresse wird nicht veröffentlicht.

Was ist Künstliche Intelligenz? Eine neue Definition