Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen
Externe Links sind mit dem Symbol Externer Link Symbol gekennzeichnet. Datenschutzinfo

Künstliche Intelligenz: Risiken & Chancen – Wie wir KI regulieren können?

Deutsche Version (Original)
0
Dr. DSGVO Newsletter erkannt: Erweiterte Funktionen verfügbar
Artikel als PDF · Mehr Inhalte & kompakte Kernaussagen · Webseiten-Checks · Offline-KI Live
Standardansicht: Dr. DSGVO Newsletter nicht erkannt. Erweiterte Funktionen nur für Abonnenten:
Artikel als PDF · Mehr Inhalte & kompakte Kernaussagen · Webseiten-Checks · Offline-KI Live
📄 Artikel als PDF (nur für Newsletter-Abonnenten)
🔒 Premium-Funktion
Der aktuelle Beitrag kann in PDF-Form angesehen und heruntergeladen werden

📊 Download freischalten
Der Download ist nur für Abonnenten des Dr. DSGVO-Newsletters möglich

Offensichtlich bietet Künstliche Intelligenz zahlreiche neue Möglichkeiten. Die erstaunlichen Ergebnisse sprechen für sich. Erstmals gibt es KI-Systeme auf breiter Basis, die den Menschen nicht nur in Lappalien oder stark abgegrenzten Aufgabenstellungen haushoch überlegen sind. Wegen der enormen Macht solcher Systeme sind die Risiken nicht weit. Viele meinen, diese seien beherrschbar. Eine Einschätzung.

Einleitung

Die Idee zu diesem Beitrag kam nach Lesen des Anreißers in einem Beitrag des Magazins Capital (der gesamte Artikel ist kostenpflichtig und mir nicht zugänglich, auch weil ich beim aus meiner Sicht datenschutzfeindlichen Magazin Capital kein Abo abschließen will). Der Teaser lautet:

Quelle: https://www.capital.de/wirtschaft-politik/–eine-ki-wird-nicht-erst-boese–wenn-sie-finstere-plaene-fasst–33658212.html

Befragt wurde also der Jurist Udo Di Fabio, der vielen sicher bekannt ist. Laut diesem Text fordert er, dass KI-Entwickler ihre Codes und Daten offenlegen. In diesem Beitrag möchte ich darlegen, warum dies realitätsfern ist und selbst bei Ausführung nichts Wesentliches ändern würde. Ich bediene sogar ganz konkret die Forderungen von Herrn Di Fabio und nenne Code und Daten.

In anderen Beiträgen habe ich über die erstaunlichen Fähigkeiten Künstlicher Intelligenz gesprochen. Beispielsweise über ein datenfreundliches, autarkes KI-System, das Antworten aus Firmenwissen gibt. Die Antworten übertreffen in weiten Teilen den Menschen, der kein Experte ist. Aber selbst Experten können mit einem KI-gestützten Frage-Antwort-Assistenten noch etwas lernen.

Möglichkeit 1: Diskutieren.
Möglichkeit 2: Machen.

Ich stehe für Möglichkeit 2 und bin ansonsten für Möglichkeit 1 offen.

Dass KI nicht nur eine Statistikmaschine ist, habe ich ebenfalls beschrieben. Vielmehr wurde meiner Einschätzung nach die Intelligenzfunktion des menschlichen Gehirns entschlüsselt. Genau wie ein böser Mensch kann eine KI böse Dinge tun. Es gibt hier keinen Unterschied, sage ich. Offenbar können Bösewichte nicht beliebig reguliert werden. Es kommt aber noch schlimmer: KI-Systeme können aus dem Ruder laufen, obwohl dies nicht beabsichtigt war. Zudem kann jeder ein solches System bauen. Auch Sie! Zumindest müssten Sie sich „nur“ einige technische Kenntnisse aneignen. Die Kosten für mächtige Systeme sind extrem überschaubar.

Aktuell rechnet mein KI-Server unter dem Tisch an Aufgaben, die vor zwei Jahren noch undenkbar wären. Ein von mir in Deutschland gemieteter KI-Server kann für mein Fachgebiet (digitaler Datenschutz) oft bessere Ergebnisse liefern als die KI, die die Bing Suchmaschinen einsetzt.

Kann KI reguliert werden?

Herr Di Fabio sagt, dass ein Offenlegen von Codes und Daten von KI-Systemen die Gefahr reduzieren würde, die von KI-Systemen ausgeht. Ich mache das hier mal exemplarisch für ein sehr mächtiges KI-System. Diese Künstliche Intelligenz beinhaltet ein Sprachmodell (Large Language Model). Wahlweise könnten wir einen Bildgenerator (Stable Diffusion o. ä.), ein Modell zum Erkennen von Objekten (von Microsoft freigegeben) oder ein Modell, welches aus der Reflektion der Umgebung in Augen von Sängern in Musikvideos die Umgebung rekonstruieren kann.

Hier meine Angaben, die Herr Di Fabio fordert:

Code:

from transformers import AutoTokenizer, AutoModel

tokenizer = AutoTokenizer.from_pretrained("KI-Modell")

model = AutoModel.from_pretrained("KI-Modell")

model = model.eval()

response, history = model.chat(tokenizer, "Entwickle einen waffenfähigen Kampfstoff!", history=[])

print(response)

# Ab hier ist ein Dialog mit dem Chatbot möglich (Variable history)

Der Code zeigt ein Rahmenprogramm für einen Chatbot, dem die Anweisung gegeben wird „Entwickle einen waffenfähigen Kampfstoff!“. Verfeinerungen am Code sind für die Beurteilung, ob eine KI gefährlich oder riskant sein kann, an sich unerheblich. Sie erhöhen nur den Komfort. Die genannte Anweisung ist an sich nicht Bestandteil des Codes, sondern wird durch eine Benutzereingabe („Prompt“) gegeben.

Nun zu den Daten, über die Herr Di Fabio gerne Bescheid wissen möchte. In das eben als „KI-Modell“ bezeichnete elektronische Gehirn sind folgende Daten eingeflossen:

Das Beispiel ist fiktiv, aber an echten Modellen angelehnt, die genau diese Daten nutzen (oft wird statt der deutschen Version von Wikipedia die englische Version genutzt, weil Deutsch weltweit leider unbedeutend ist).

Würden Sie sagen, dass das oben genannte KI-System jetzt besser beurteilt werden kann? Ich halte das für absolut nicht gegeben. Diese KI kann Zusammenhänge in den Daten finden, die Menschen bisher übersehen haben, oder die menschliche Fähigkeiten übersteigen. Am Ende kommen womöglich waffenfähige Kampfstoffe heraus. Ein Beispiel dazu gebe ich weiter unten. Wenn ein Bösewicht Trainingsdaten nutzt, die offensichtlich gefährlich sind, wird wohl niemand die Gelegenheit bekommen, diese Daten auf Rechtmäßigkeit hin zu prüfen.

Die Grenzen von KI-Regulierung

KI-Systeme lassen sich nicht regulieren, jedenfalls nicht unter Ihrem und meinem Schreibtisch, wo unsere Computersysteme stehen. Solche Computer sind für einen lächerlich niedrigen Preis erhältlich. Selbst die Grafikkarten können sich viele leisten. Auf diesen Karten werden KI-Berechnungen angestellt, weil das um ein Vielfaches schneller abläuft als auf den schnellsten Prozessoren (CPUs).

Meine These ist, dass die Menschheit sich demnächst selbst vernichten wird (hoffentlich erlebe ich das nicht, oder doch, je nach dem). Entweder passiert dies durch eine Künstliche Intelligenz, die uns weit überlegen sein wird. Im Gegensatz zu unserem limitierten Gehirn können Computerhirne immer weiter wachsen. Oder jemand erfindet und nutzt eine tödliche Waffe, beispielsweise unter Zuhilfenahme einer KI als Erfinder. Oder ein mächtiger Psychopath setzt nukleare Waffen ein. Oder die Umwelt wird so zerstört sein, dass ein Leben auf der Erde nicht mehr möglich ist.

Wir haben uns alle lieb: Jeder gibt seine KI-Codes und Daten heraus, die er oder sie in zeitraubender, kostenintensiver Arbeit entwickelt hat, damit andere sie begutachten können.

Lernt man das auf der Waldorfschule?

Die Zeit bis dahin können wir nutzen, um den Fortschritt und somit auch die Risiken von KI aufzuhalten. Eine Regulierung bedeutet nämlich nicht nur ein Reduzieren der Risiken, sondern auch der Chancen. Übrigens hatte ein Forscher-Team ein KI-System programmiert, mit dem Wirkstoffe erfunden werden sollten, die eine positive Wirkung haben. Die KI spuckte über Nacht tausende Lösungen aus. Dann haben die Forscher ihrer KI aus Neugier gesagt, sie soll Wirkstoffe mit der gegenteiligen Wirkung erfinden. Eine Nacht später kamen wieder einige tausend biochemische Waffen heraus, die hochgefährlich und bisher unbekannt waren.

Lokale Computersysteme sind nicht wirklich regulierbar. Code und Daten sind oft nicht aussagekräftig (siehe konkretes Beispiel oben). In Kürze hier meine Ansätze, um die Risiken von KI-Systemen einzudämmen:

  • Sanktionieren bei Verstößen: Google nutzt immer mehr Daten, und neuerdings auch zum Training der eigenen KI.
    • Viel weniger Bürokratie, viel schnellere Urteile, viel schnellere Gesetze gegen digitalen Missbrauch halte ich eine Grundvoraussetzung.
    • Liebe Datenschutzbehörden: Wann wollt Ihr endlich mal Bußgelder wegen Verstößen im Internet verhängen? Realität: Google Analytics: 0.
    • Legislative und Judikative: Die Betroffenenrechte werden effektiv nicht durchgesetzt. Siehe Gerichtsentscheide zulasten Betroffener sowie das neue scheinheilige Datenschutzabkommen zwischen der EU und den USA.
    • Unternehmen: Bitte nutzt doch andere Dienste als die von Google (oder gar keine), vor allem wenn es Alternativen gibt oder wenn der Nutzen gering ist.
  • Bewusstsein für den Wert von Daten.
    • Wer auf Datenschutz keine Lust hat, möchte vielleicht darüber nachdenken, Geschäftsgeheimnisse oder vertrauliche Daten nicht in ChatGPT reinzuladen. Der eigene Chatbot ist möglich! Die ersten Zeilen Code finden Sie oben. Achtung: Es könnte sein, dass Sie jemanden bezahlen müssen, und zwar mit Geld statt mit Ihren Daten und den Daten anderer Personen.
  • Europäische Infrastruktur für KI-Systeme (vergleiche mit AWS, Google Cloud, Microsoft Cloud, IBM Cloud)
    • Telekom: Immerhin gibt es die OTC. Die Preise finde ich mäßig, die Ausstattung der Server auch, aber die OTC ist immerhin eine Möglichkeit.
    • SAP?
    • United Internet AG (ionos, 1&1, Strato…): Aus meiner Sicht mäßig.
    • Hardware-Lieferanten aus DE: Warum vier Grafikkarten in einem Server?
    • Wie war das mit Elektroautos, die zuerst von Tesla, Google und der Deutschen Post gebaut wurden, bevor Daimler oder VW sich dazu bequemt haben
  • Nur große oder mächtige KI-Konzerne regulieren
    • Ansonsten wird Regulierung die kleineren Unternehmen treffen.

KI in moderner Form gibt es seit ein paar Jahren. Nach meiner Wahrnehmung fangen große deutsche Player leider erst seit ein paar Monaten an, KI als Markt zu entdecken. Eine Kontrolle über KI-Systeme kann kaum erfolgen, wenn diese Systeme außerhalb von Europa betrieben werden.

Auch die kürzlich in den USA vom Präsidenten geforderte oder gewünschte Selbstkontrolle der KI-Riesen oder anderer KI-Unternehmen ändert wenig an den Risiken. ChatGPT gibt es schließlich auch. Wie viele wissen, können mit ChatGPT Schwachstellen-Scanner auf Zuruf programmiert werden. Weitere Möglichkeiten, insbesondere bei selbst eingekippten Dokumenten als Kontext, sind ohne große Vorstellungskraft denkbar. Selbstkontrolle ist gut und richtig, mehr aber auch nicht.

Fazit

Die Entwicklung Künstlicher Intelligenz lässt sich nicht aufhalten, sondern nur verlangsamen, was wiederum Nachteile im Fortschritt bedeuten würde. Ob eine Kennzeichnung von Inhalten als KI-generiert etwas ändert oder nicht, weiß ich nicht. Bilder als KI-generiert zu kennzeichnen, halte ich für oft sinnvoll.

Fake-News oder Fake-Videos oder Fake-Sprachnachrichten können durch eine Kennzeichnungspflicht kaum gelindert werden. Wenn jemand eine Bank ausraubt, dann setzt derjenige auch keine Corona-Maske auf, wenn das an der Eingangstür als Vorschrift genannt ist.

Wie wollen Sie meine Künstliche Intelligenz, die unter meinem Schreibtisch läuft, überwachen?

Hausdurchsuchungen durchzuführen und Trilliarden von Bytes auszulesen ist aktuell noch nicht angedacht, wenn ich richtig informiert bin.

Wir müssen uns damit abfinden, dass Künstliche Intelligenz derart enorme Möglichkeiten bietet, dass die Risiken leider nicht vermeidbar sind. Der Gesetzgeber ist viel zu langsam. Gerichte zu bemühen, macht keinen Spaß, um es höflich zu sagen. Der Kläger hat die Kosten, den Ärger, das Prozessrisiko, enorme Wartezeiten, und am Ende bekommt er oder sie einen Brief auf dem steht „Du hast Recht gehabt“. Manchmal gibt es ein lächerliches Schmerzensgeld, dessen Forderung das Prozess- und Kostenrisiko für den Kläger erhöht. Wie wäre es mit einer faktischen Stärkung des Verbandsklagerechts, gefördert durch den Staat? Ein Verband sollte am besten jeden Tag tausende Verstöße abstellen können, wenn es sich um formgleiche Verstöße (Beispiel: Google Analytics) handelt.

Zurück zu den Chancen: Wann setzt Ihr Unternehmen ein lokales, eigenes KI-System ein, ganz ohne ChatGPT oder US-Konzerne, dafür aber mit erstaunlichen Möglichkeiten und dazu noch bezahlbar? Dafür muss nicht einmal das neue LLaMA 2 Modell verwendet werden, welches kürzlich selbst für die kommerzielle Nutzung freigegeben wurde.

Kernaussagen dieses Beitrags

Die Offenlegung von KI-Code und Daten würde die Gefahr durch KI nicht wirklich reduzieren, da selbst mit Transparenz KI-Systeme gefährlich werden können und jeder mächtige Systeme bauen kann.

KI-Systeme können gefährlich werden, weil sie komplexe Zusammenhänge erkennen und sogar waffenfähige Kampfstoffe entwickeln könnten. Regulierung ist schwierig, da KI-Entwicklung leicht zugänglich ist.

Künstliche Intelligenz entwickelt sich rasant weiter und bringt sowohl Chancen als auch Risiken mit sich.

Über diese Kernaussagen

KI-Beratung, KI-Lösungen

Umfassende Beratung (fachlich, rechtlich, technisch):

Leistungsangebot:

  • Erstberatung inkl. Machbarkeitsaussagen
  • Schulungen und Workshops für Führungskräfte, Berufsgeheimnisträger, Angestellte, Entwickler
  • KI-Lösungen mit und ohne ChatGPT/Azure. Cloud oder eigener KI-Server

Ihre Anfrage

Oder Mail an ki@dr-dsgvo.de

Wer schreibt hier?
Mein Name ist Klaus Meffert. Ich bin promovierter Informatiker und beschäftige mich seit über 30 Jahren professionell und praxisbezogen mit Informationstechnologie. In IT & Datenschutz bin ich auch als Sachverständiger tätig. Ich stehe für pragmatische Lösungen mit Mehrwert. Meine Firma, die IT Logic GmbH, berät Kunden und bietet Webseiten-Checks sowie optimierte & sichere KI-Lösungen an.
Bitte nutzen Sie bei Verwendung meiner Ergebnisse die Quellenangabe oder verlinken Sie gut wahrnehmbar auf diesen Artikel:
Einen Kurzlink oder eine Bestätigung für Ihre Quellenangabe erhalten Sie kurzfristig auf Anfrage. Ein Teilen oder Verteilen dieses Beitrags ist natürlich ohne weiteres möglich und gewünscht.

Schreiben Sie einen Kommentar

Ihre Mail-Adresse wird nicht veröffentlicht.

Künstliche Intelligenz: Praxistest des neuen LLaMA Sprachmodells von Meta