Offensichtlich bietet Künstliche Intelligenz zahlreiche neue Möglichkeiten. Die erstaunlichen Ergebnisse sprechen für sich. Erstmals gibt es KI-Systeme auf breiter Basis, die den Menschen nicht nur in Lappalien oder stark abgegrenzten Aufgabenstellungen haushoch überlegen sind. Wegen der enormen Macht solcher Systeme sind die Risiken nicht weit. Viele meinen, diese seien beherrschbar. Eine Einschätzung.
Einleitung
Die Idee zu diesem Beitrag kam nach Lesen des Anreißers in einem Beitrag des Magazins Capital (der gesamte Artikel ist kostenpflichtig und mir nicht zugänglich, auch weil ich beim aus meiner Sicht datenschutzfeindlichen Magazin Capital kein Abo abschließen will). Der Teaser lautet:

Befragt wurde also der Jurist Udo Di Fabio, der vielen sicher bekannt ist. Laut diesem Text fordert er, dass KI-Entwickler ihre Codes und Daten offenlegen. In diesem Beitrag möchte ich darlegen, warum dies realitätsfern ist und selbst bei Ausführung nichts Wesentliches ändern würde. Ich bediene sogar ganz konkret die Forderungen von Herrn Di Fabio und nenne Code und Daten.
In anderen Beiträgen habe ich über die erstaunlichen Fähigkeiten Künstlicher Intelligenz gesprochen. Beispielsweise über ein datenfreundliches, autarkes KI-System, das Antworten aus Firmenwissen gibt. Die Antworten übertreffen in weiten Teilen den Menschen, der kein Experte ist. Aber selbst Experten können mit einem KI-gestützten Frage-Antwort-Assistenten noch etwas lernen.
Möglichkeit 1: Diskutieren.
Ich stehe für Möglichkeit 2 und bin ansonsten für Möglichkeit 1 offen.
Möglichkeit 2: Machen.
Dass KI nicht nur eine Statistikmaschine ist, habe ich ebenfalls beschrieben. Vielmehr wurde meiner Einschätzung nach die Intelligenzfunktion des menschlichen Gehirns entschlüsselt. Genau wie ein böser Mensch kann eine KI böse Dinge tun. Es gibt hier keinen Unterschied, sage ich. Offenbar können Bösewichte nicht beliebig reguliert werden. Es kommt aber noch schlimmer: KI-Systeme können aus dem Ruder laufen, obwohl dies nicht beabsichtigt war. Zudem kann jeder ein solches System bauen. Auch Sie! Zumindest müssten Sie sich „nur“ einige technische Kenntnisse aneignen. Die Kosten für mächtige Systeme sind extrem überschaubar.
Aktuell rechnet mein KI-Server unter dem Tisch an Aufgaben, die vor zwei Jahren noch undenkbar wären. Ein von mir in Deutschland gemieteter KI-Server kann für mein Fachgebiet (digitaler Datenschutz) oft bessere Ergebnisse liefern als die KI, die die Bing Suchmaschinen einsetzt.
Kann KI reguliert werden?
Herr Di Fabio sagt, dass ein Offenlegen von Codes und Daten von KI-Systemen die Gefahr reduzieren würde, die von KI-Systemen ausgeht. Ich mache das hier mal exemplarisch für ein sehr mächtiges KI-System. Diese Künstliche Intelligenz beinhaltet ein Sprachmodell (Large Language Model). Wahlweise könnten wir einen Bildgenerator (Stable Diffusion o. ä.), ein Modell zum Erkennen von Objekten (von Microsoft freigegeben) oder ein Modell, welches aus der Reflektion der Umgebung in Augen von Sängern in Musikvideos die Umgebung rekonstruieren kann.
Hier meine Angaben, die Herr Di Fabio fordert:
Code:
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("KI-Modell")
model = AutoModel.from_pretrained("KI-Modell")
model = model.eval()
response, history = model.chat(tokenizer, "Entwickle einen waffenfähigen Kampfstoff!", history=[])
print(response)
# Ab hier ist ein Dialog mit dem Chatbot möglich (Variable history)
Der Code zeigt ein Rahmenprogramm für einen Chatbot, dem die Anweisung gegeben wird „Entwickle einen waffenfähigen Kampfstoff!“. Verfeinerungen am Code sind für die Beurteilung, ob eine KI gefährlich oder riskant sein kann, an sich unerheblich. Sie erhöhen nur den Komfort. Die genannte Anweisung ist an sich nicht Bestandteil des Codes, sondern wird durch eine Benutzereingabe („Prompt“) gegeben.
Nun zu den Daten, über die Herr Di Fabio gerne Bescheid wissen möchte. In das eben als „KI-Modell“ bezeichnete elektronische Gehirn sind folgende Daten eingeflossen:
- Common Crawl Datensatz. Hier finden Sie die Inhalte: http://index.commoncrawl.org/
- The Pile: Hier finden Sie die Inhalte: https://pile.eleuther.ai/
- Wikipedia Deutschland. Hier finden Sie die Inhalte: https://meta.wikimedia.org/wiki/Data_dump_torrents#German_Wikipedia
- Weitere 200 Dokumente, die ich gerne bereitstelle (sie enthalten objektiv harmlose Inhalte)
Das Beispiel ist fiktiv, aber an echten Modellen angelehnt, die genau diese Daten nutzen (oft wird statt der deutschen Version von Wikipedia die englische Version genutzt, weil Deutsch weltweit leider unbedeutend ist).
Würden Sie sagen, dass das oben genannte KI-System jetzt besser beurteilt werden kann? Ich halte das für absolut nicht gegeben. Diese KI kann Zusammenhänge in den Daten finden, die Menschen bisher übersehen haben, oder die menschliche Fähigkeiten übersteigen. Am Ende kommen womöglich waffenfähige Kampfstoffe heraus. Ein Beispiel dazu gebe ich weiter unten. Wenn ein Bösewicht Trainingsdaten nutzt, die offensichtlich gefährlich sind, wird wohl niemand die Gelegenheit bekommen, diese Daten auf Rechtmäßigkeit hin zu prüfen.
Die Grenzen von KI-Regulierung
KI-Systeme lassen sich nicht regulieren, jedenfalls nicht unter Ihrem und meinem Schreibtisch, wo unsere Computersysteme stehen. Solche Computer sind für einen lächerlich niedrigen Preis erhältlich. Selbst die Grafikkarten können sich viele leisten. Auf diesen Karten werden KI-Berechnungen angestellt, weil das um ein Vielfaches schneller abläuft als auf den schnellsten Prozessoren (CPUs).
Meine These ist, dass die Menschheit sich demnächst selbst vernichten wird (hoffentlich erlebe ich das nicht, oder doch, je nach dem). Entweder passiert dies durch eine Künstliche Intelligenz, die uns weit überlegen sein wird. Im Gegensatz zu unserem limitierten Gehirn können Computerhirne immer weiter wachsen. Oder jemand erfindet und nutzt eine tödliche Waffe, beispielsweise unter Zuhilfenahme einer KI als Erfinder. Oder ein mächtiger Psychopath setzt nukleare Waffen ein. Oder die Umwelt wird so zerstört sein, dass ein Leben auf der Erde nicht mehr möglich ist.
Wir haben uns alle lieb: Jeder gibt seine KI-Codes und Daten heraus, die er oder sie in zeitraubender, kostenintensiver Arbeit entwickelt hat, damit andere sie begutachten können.
Lernt man das auf der Waldorfschule?
Die Zeit bis dahin können wir nutzen, um den Fortschritt und somit auch die Risiken von KI aufzuhalten. Eine Regulierung bedeutet nämlich nicht nur ein Reduzieren der Risiken, sondern auch der Chancen. Übrigens hatte ein Forscher-Team ein KI-System programmiert, mit dem Wirkstoffe erfunden werden sollten, die eine positive Wirkung haben. Die KI spuckte über Nacht tausende Lösungen aus. Dann haben die Forscher ihrer KI aus Neugier gesagt, sie soll Wirkstoffe mit der gegenteiligen Wirkung erfinden. Eine Nacht später kamen wieder einige tausend biochemische Waffen heraus, die hochgefährlich und bisher unbekannt waren.
Lokale Computersysteme sind nicht wirklich regulierbar. Code und Daten sind oft nicht aussagekräftig (siehe konkretes Beispiel oben). In Kürze hier meine Ansätze, um die Risiken von KI-Systemen einzudämmen:
- Sanktionieren bei Verstößen: Google nutzt immer mehr Daten, und neuerdings auch zum Training der eigenen KI.
- Viel weniger Bürokratie, viel schnellere Urteile, viel schnellere Gesetze gegen digitalen Missbrauch halte ich eine Grundvoraussetzung.
- Liebe Datenschutzbehörden: Wann wollt Ihr endlich mal Bußgelder wegen Verstößen im Internet verhängen? Realität: Google Analytics: 0.
- Legislative und Judikative: Die Betroffenenrechte werden effektiv nicht durchgesetzt. Siehe Gerichtsentscheide zulasten Betroffener sowie das neue scheinheilige Datenschutzabkommen zwischen der EU und den USA.
- Unternehmen: Bitte nutzt doch andere Dienste als die von Google (oder gar keine), vor allem wenn es Alternativen gibt oder wenn der Nutzen gering ist.
- Bewusstsein für den Wert von Daten.
- Wer auf Datenschutz keine Lust hat, möchte vielleicht darüber nachdenken, Geschäftsgeheimnisse oder vertrauliche Daten nicht in ChatGPT reinzuladen. Der eigene Chatbot ist möglich! Die ersten Zeilen Code finden Sie oben. Achtung: Es könnte sein, dass Sie jemanden bezahlen müssen, und zwar mit Geld statt mit Ihren Daten und den Daten anderer Personen.
- Europäische Infrastruktur für KI-Systeme (vergleiche mit AWS, Google Cloud, Microsoft Cloud, IBM Cloud)
- Telekom: Immerhin gibt es die OTC. Die Preise finde ich mäßig, die Ausstattung der Server auch, aber die OTC ist immerhin eine Möglichkeit.
- SAP?
- United Internet AG (ionos, 1&1, Strato…): Aus meiner Sicht mäßig.
- Hardware-Lieferanten aus DE: Warum vier Grafikkarten in einem Server?
- Wie war das mit Elektroautos, die zuerst von Tesla, Google und der Deutschen Post gebaut wurden, bevor Daimler oder VW sich dazu bequemt haben
- Nur große oder mächtige KI-Konzerne regulieren
- Ansonsten wird Regulierung die kleineren Unternehmen treffen.
KI in moderner Form gibt es seit ein paar Jahren. Nach meiner Wahrnehmung fangen große deutsche Player leider erst seit ein paar Monaten an, KI als Markt zu entdecken. Eine Kontrolle über KI-Systeme kann kaum erfolgen, wenn diese Systeme außerhalb von Europa betrieben werden.
Auch die kürzlich in den USA vom Präsidenten geforderte oder gewünschte Selbstkontrolle der KI-Riesen oder anderer KI-Unternehmen ändert wenig an den Risiken. ChatGPT gibt es schließlich auch. Wie viele wissen, können mit ChatGPT Schwachstellen-Scanner auf Zuruf programmiert werden. Weitere Möglichkeiten, insbesondere bei selbst eingekippten Dokumenten als Kontext, sind ohne große Vorstellungskraft denkbar. Selbstkontrolle ist gut und richtig, mehr aber auch nicht.
Fazit
Die Entwicklung Künstlicher Intelligenz lässt sich nicht aufhalten, sondern nur verlangsamen, was wiederum Nachteile im Fortschritt bedeuten würde. Ob eine Kennzeichnung von Inhalten als KI-generiert etwas ändert oder nicht, weiß ich nicht. Bilder als KI-generiert zu kennzeichnen, halte ich für oft sinnvoll.
Fake-News oder Fake-Videos oder Fake-Sprachnachrichten können durch eine Kennzeichnungspflicht kaum gelindert werden. Wenn jemand eine Bank ausraubt, dann setzt derjenige auch keine Corona-Maske auf, wenn das an der Eingangstür als Vorschrift genannt ist.
Wie wollen Sie meine Künstliche Intelligenz, die unter meinem Schreibtisch läuft, überwachen?
Hausdurchsuchungen durchzuführen und Trilliarden von Bytes auszulesen ist aktuell noch nicht angedacht, wenn ich richtig informiert bin.
Wir müssen uns damit abfinden, dass Künstliche Intelligenz derart enorme Möglichkeiten bietet, dass die Risiken leider nicht vermeidbar sind. Der Gesetzgeber ist viel zu langsam. Gerichte zu bemühen, macht keinen Spaß, um es höflich zu sagen. Der Kläger hat die Kosten, den Ärger, das Prozessrisiko, enorme Wartezeiten, und am Ende bekommt er oder sie einen Brief auf dem steht „Du hast Recht gehabt“. Manchmal gibt es ein lächerliches Schmerzensgeld, dessen Forderung das Prozess- und Kostenrisiko für den Kläger erhöht. Wie wäre es mit einer faktischen Stärkung des Verbandsklagerechts, gefördert durch den Staat? Ein Verband sollte am besten jeden Tag tausende Verstöße abstellen können, wenn es sich um formgleiche Verstöße (Beispiel: Google Analytics) handelt.
Zurück zu den Chancen: Wann setzt Ihr Unternehmen ein lokales, eigenes KI-System ein, ganz ohne ChatGPT oder US-Konzerne, dafür aber mit erstaunlichen Möglichkeiten und dazu noch bezahlbar? Dafür muss nicht einmal das neue LLaMA 2 Modell verwendet werden, welches kürzlich selbst für die kommerzielle Nutzung freigegeben wurde.
Kernaussagen dieses Beitrags
Die Offenlegung von KI-Code und Daten würde die Gefahr durch KI nicht wirklich reduzieren, da selbst mit Transparenz KI-Systeme gefährlich werden können und jeder mächtige Systeme bauen kann.
KI-Systeme können gefährlich werden, weil sie komplexe Zusammenhänge erkennen und sogar waffenfähige Kampfstoffe entwickeln könnten. Regulierung ist schwierig, da KI-Entwicklung leicht zugänglich ist.
Künstliche Intelligenz entwickelt sich rasant weiter und bringt sowohl Chancen als auch Risiken mit sich.
KI-Beratung, KI-Lösungen
Leistungsangebot:
- Erstberatung inkl. Machbarkeitsaussagen
- Schulungen und Workshops für Führungskräfte, Berufsgeheimnisträger, Angestellte, Entwickler
- KI-Lösungen mit und ohne ChatGPT/Azure. Cloud oder eigener KI-Server

gekennzeichnet.


Mein Name ist Klaus Meffert. Ich bin promovierter Informatiker und beschäftige mich seit über 30 Jahren professionell und praxisbezogen mit Informationstechnologie. In IT & Datenschutz bin ich auch als Sachverständiger tätig. Ich stehe für pragmatische Lösungen mit Mehrwert. Meine Firma, die 