Jeder findet KI irgendwie toll. Deswegen äußert sich auch jeder zu KI. Weil KI ein technisch hochkomplexes Feld ist, entstehen zahlreiche Halbwahrheiten oder Falschaussagen. Befeuert wird das ganze durch Marketing-Versprechen von Microsoft und anderen. Dieser Beitrag stellt klar, was richtig ist und was eher dem Bereich alternativer Fakten zuzurechnen ist.
Häufige Fehlannahmen zu KI
Aufgrund einer oft einseitigen Berichterstattung, die sich immer wieder um ChatGPT oder Microsoft KI-Produkte dreht, entstehen anscheinend zahlreiche Fehlannahmen. Einige davon sind:
- Sprachmodelle würden auf Statistik basieren und seien somit nicht intelligent.
- Ein KI-System sei ein Algorithmus.
- KI sei ein Tool.
- Ein KI-System könne exakt arbeiten.
- ChatGPT sei nicht intelligent.
- ChatGPT sei die beste Lösung.
- KI sei gleichzusetzen mit ChatGPT (OpenAI), Claude (Anthropic), Mixtral (Mistral) oder Command R+ (Cohere). Etwas anderes gäbe es nicht.
- Bei Microsoft seien die Daten sicher.
- KI sei rechtskonform betreibbar.
- Tokens seien keine echten Daten.
- KI-Modelle speicherten keine personenbezogenen Daten.
Aus diesen Fehlannahmen entstehen oft Falschaussagen. Einige davon werden nachfolgend klargestellt. Stellvertretend für andere Cloud-Dienste wird folgend nur von ChatGPT gesprochen.
Falschaussagen zu KI
Die folgenden Aussagen waren so oder so ähnlich in sozialen Medien zu lesen. Die Aussagen waren an den Fundstellen jeweils allgemein formuliert, oder spezifisch und dennoch falsch.
ChatGPT sei nicht intelligent
Nach der Definition von KI auf Dr. DSGVO ist ChatGPT intelligent. Diese Definition von KI lautet:

Auch nach Alan Turing, brillanter Mathematiker im Zweiten Weltkrieg und Enschlüsseler der Enigma-Kodiermaschine, ist ChatGPT intelligent: ChatGPT besteht den Turing-Test. Der Test prüft, ob Antworten einer Maschine von denen eines Menschen ununterscheidbar sind. Im Gegenteil: ChatGPT liefert oft (fast immer könnte man sagen) deutlich bessere Antworten als der durchschnittlich intelligente Mensch.
Die neue Definition der KI-Verordnung der KI definiert ChatGPT (hoffentlich) auch als intelligent. Siehe Artikel 3 AI Act vom 12.07.2024.
Was ist Intelligenz? Eben wurde die Definition von künstlicher Intelligenz genannt. Streichen Sie einfach das Attribut „künstlich“ zweimal aus der Definition. Schon steht die Definition von Intelligenz. Der Mensch hat keinen Anspruch auf das Intelligenzmonopol, auch wenn viele es gerne so hätten.
Intelligenz basiere auf menschlichen Maßstäben
Viele meinen, Intelligenz sei etwas, das der Mensch festlegt. Die KI Verordnung der EU hatte in einer mittlerweile revidierten Definition dessen, was Künstliche Intelligenz sei, geschrieben, dass Künstliche Intelligenz Ziele erreichen soll, „die vom Menschen festgelegt werden …“.
Es gibt keinen einzigen Grund für diese Fehlannahme. Der Mensch ist irrelevant bezüglich der Feststellung dessen, was Intelligenz ist. Man konnte ihn bisher höchstens als Maßstab nehmen. Zukünftig gilt dies wohl nicht mehr.
Übrigens wird auch einigen Tierarten intelligentes Verhalten zugeschrieben. Offenbar sind Tiere keine Menschen.
Intelligenz könne nicht auf einfachen Grundprinzipien basieren
Wo ist das Argument?
Diese Haltung kommt oft aus der Verzweiflung heraus, keine Rechtfertigung für die Aussage zu finden, Intelligenz sei nur beim Menschen (oder einigen Tieren) zu finden. In Wirklichkeit basiert Intelligenz auf einemk einfachen Grundprinzip: Der Aufmerkamkeit (Fokus) auf bestimmte Impulse, die in einem gegebenen Kontext auftreten. Dieses Prinzip wurde im Jahr 2017 mit der Forschungsarbeit Attention Is All You Need populär.
Weiterhin ist es so, dass das menschliche Gehirn sämtliche Signale von Auge, Ohr, Nase oder auch Tastsensoren in elektrische Spannung umwandelt, die im neuronalen Netz, das wir Gehirn nennen, landen. Spannung ist etwas, das mit mit einer Zahl ausdrücken kann. Genau mit solchen Zahlen arbeitet KI. Genau wie das menschliche Gehirn.
ChatGPT sei die beste Lösung
Es kommt darauf an, wofür. Für Allerweltsaufgaben ist ChatGPT oft eine tolle Antwortmaschine. Das gilt vor allem für Weltwissen oder häufige Aufgaben, die sich auch in den Trainingsdaten von ChatGPT wiederfinden.
Für alle konkreten Aufgaben, die halbwegs professionell bearbeitet werden sollen, scheint ChatGPT ungeeignet zu sein. Ein Beispiel: Zusammenfassen eines Textes ohne Haluzinationen. Anderes Beispiel: Finden von Wissen.
ChatGPT kann und will ganz sicher nicht einen größeren Teil des Internets oder einer Webseite für Sie abgrasen. Immerhin zahlen Sie entweder „nur“ mit Ihren Daten und den Daten anderer. Oder Sie zahlen $20 pro Monat oderr einen mickrigen Betrag pro Aufruf der API.
ChatGPT kann also nur auf Inhalte zurückgreifen, die entweder schon bekannt sind oder die unbekannt sind und einen geringen Umfang haben. Mit „geringer Umfang“ ist die Anzahl der Dokumente bzw. Webseiten gemeint.
Für Aufgaben wie die Digitalisierung von Dokumenten scheidet ChatGPT als gute Lösung aus, weil hier viele Spezialitäten zu beachten sind.
ChatGPT sei schlecht
Es kommt darauf an, wofür. ChatGPT ist keine Suchmaschine. Wer das System entgegen seiner Bestimmung nutzt, muss sich über mäßige Antworten nicht wundern. Ein KI-System ist auch nicht dafür gemacht, Buchstaben eines Wortes zu zählen.
Eine KI ist gut darin, komplexe Aufgaben kreativ zu lösen. Dieselbe KI ist schlecht darin, exakte Arbeiten auszuführen. Genau wie der Mensch!
KI-Training sei teuer
Richtig ist: Das Training von großen Sprachmodellen wie ChatGPT ist sehr teuer und zeitaufwändig.
Richtig ist aber auch: Das Training eigener KI-Sprachmodelle ist sehr günstig möglich. Der Grund ist, dass diese eigenen Modelle für bestimmte Anwendungsfälle spezialisiert werden. Das Training solcher Modelle ist in vielen Fällen auf einem Laptop oder einem eigenen KI-Server in ein paar Stunden möglich.
Weil eigene KI-Rechner meist sowieso an sind und laufen, sind die Kosten für das KI-Training bei null.
KI-Training ist also in den meisten Fällen kostenfrei möglich.
Inferenz sei teuer
Inferenz ist das Befragen eines KI-Modells, also etwa das Chatten mit einem Sprachmodell wie ChatGPT.
Richtig ist: Große Sprachmodelle wie ChatGPT benötigen dutzende oder gar hunderte von Servern gleichzeitig, um eine Antwort auf Ihre Frage zu generieren. Das ist teuer.
Richtig ist aber auch: Wird ein selbst betriebenes KI-Sprachmodell befragt, kostet das gar nichts.
Somit liegen die Kosten für Inferenz in den meisten Fällen bei null. Was OpenAI für seine Server bezahlt, kann uns genauso egal sein wie es OpenAI egal ist, was wir für unsere Rechner bezahlen.
Microsoft Azure und ChatGPT seien sicher
Viele verkaufen ihre „Lösung“ als innovativ. Eine Bank hat sogar von der Einführung einer eigenen (privaten) KI gesprochen, meint damit aber Microsoft Azure. Azure ist das Gegenteil von sicher. Microsoft selbst ist Gegenstand zahlreicher Hacker-Angriffe. Weiterhin muss man feststellen, dass Microsoft dem Thema Sicherheit nicht die höchste Priorität widmet.
Hinzu kommt dermassive Datenhunger von Microsoft. Das neue Outlook will Mails von Kunden für eigene Zeecke abrufen; Windows sendet dauernd Nutzerdaten an Microsoft usw.
Microsoft Copilot sei gut
Erste Tests zeigen, dass das Gegenteil richtig ist. Copilot sollte einen Text zusammenfassen. Die Anweisung (Prompt) dafür war supersimpel und unmissverständlich. Der Text wurde direkt vorgegeben. Die Textlänge war recht kurz, weil das Eingabefeld in der Web-Oberfläche von Copilot nicht mehr zuließ.
Der Testbericht mit Screenshots offenbart, dass Copilot anscheinend für einige Aufgaben völlig unbrauchbar ist. Selbst bei wohlwollender Betrachtung gelingt es nicht, den Copilot-Ergebnissen etwas Positives abzugewinnen. Die Zusammenfassung eines Auszugs eines Dr. DSGVO Blog-Artikels war dermaßen falsch, dass ein Mensch sich dafür schämen würde. Copilot erfand zahlreiche Aussagen einfach und erfüllte die gestellte Aufgabe komplett gar nicht.
Stattdessen tut Microsoft an der jeder Stelle so, als sei Copilot eine tolle Lösung und die Antworten seien so direkt verwendet. Nirgends konnte gelesen werden, dass eine Antwort mal falsch sein könnte oder ähnliches.
Sprachmodelle basierten auf Statistik
Ja, richtig. Genau so funktioniert Grammatik. Genau so funktioniert Intelligenz. Siehe das menschliche Gehirn. Sprachmodelle sind eben nicht derart trainiert wie der Mensch, der weitere Schritte vollzieht, um eine Antwort zu geben.
Unsere gesamte Existenz basiert auf Wahrscheinlichkeiten: Vergleiche den radioaktiven Zerfall oder, noch allgemeiner, die Quantenphysik. Alles basiert auf Zufall. Alles. Bitte fragen Sie bei Bedarf jemanden, der sich mit Quantenphysik etwas auskennt.
Es spielt keine Rolle, wieso ein System intelligent ist. Entscheidend sind alleine die Ergebnisse. Wer noch daran glaubt, dass das menschliche Gehirn nicht "hackbar" sei, für den ich vielleicht ein Bericht über ein künstliches Rattengehirn auch nicht interessant. Es gelang anscheinend, Bewegungen und die zugehörigen Gehirnaktivitäten über eine Simulation nachzuvollziehen.
KI sei rechtskonform nutzbar
Theoretisch mag dies so sein. In der Praxis stellen sich einige Fragen:
- Woher kommen die Milliarden oder gar Billionen von Datensätzen, die in ein KI-System für dessen Training eingeflossen sind?
- Bei Cloud-Diensten wie ChatGPT oder Azure stellt sich die Frage, ob die rechtlichen Bedingungen ausreichen.
- Kann der § 44b UrhG (deutsches Urheberrechtsgesetz) überhaupt eingehalten werden?
- Wie können Daten aus einem bestehenden KI-Modell gelöscht werden?
Zur Frage 3: Der deutsche Gesetzgeber fordert, dass Crawler Inhalte von Webseiten nur einlesen dürfen, wenn der Webseitenbetreiber dem nicht widersprochen hat. Der Widerspruch solle, so Deutschland, im Impressum oder den AGB verankert sei. Das ist aus technischer Sicht vollkommen praxisfern und nicht realisierbar. Crawler verstehen Widerspruchs-Formulierungen in natürlicher Sprache nicht. Es gibt keine KI-Crawler. Es gibt nur dumme Crawler, die Inhalte für Systeme liefern, die intelligent werden sollen oder es schon sind. Die robots.txt-Datei wäre eine gute Lösung gewesen. Leider hat Deutschland diese Lösung verpasst. Weiterhin müsse der Betreiber des Crawlers später nachweisen können, dass KEIN Widerspruch vorhanden war. Dies ist in der Praxis kaum bis gar nicht leistbar. Somit wäre das Crawling deutscher Webseite immer ein großes rechtliches Risiko und oft wohl auch verboten.
Zur Frage 1: Die Daten kommen aus dem Internet. Texte, Bilder und andere Werke sind per se urheberrechtlich geschützt. Der Urheberschutz entsteht bei der Schaffung eines Werkes automatisch, sofern das Werk die nötige Schöpfungshöhe besitzt. Somit dürfen diese Inhalte entweder gar nicht eingelesen werden (siehe Frage 3) oder nur solange, bis der Rechteinhaber dem eine Absage erteilt. Generative KI erzeugt Ergebnisse, die potentiell urheberrechtlich geschützt sind und somit unerlaubt wären. Denn nur das Einlesen mag erlaubt gewesen sein, nicht aber das Erzeugen von KI-Antworten.
Das Löschen von Daten in KI-Modellen ist nicht zuverlässig möglich. Ein KI-Modell muss also rechtswidrig weiterbetrieben werden, wenn jemand seine Daten im KI-Modell (oder spätestens in den Antworten der KI) nicht mehr sehen will. Ein KI-Modell wegzuwerfen und es neu zu trainieren, ist für riesige Modelle wie ChatGPT keine Option, da viel zu teuer und viel zu zeitaufwändig. Neue Löschanfragen würde den Vorgang ins Unendliche hinauszögern. Für Offline-KI hingegen besteht das Problem nicht derart.
Zu Frage 2: Siehe weiter oben für Belege, warum Microsoft und dessen Plattformen als unsicher anzusehen sind. Hinzu kommen die rechtlichen Dokumente, die Microsoft und OpenAI den Nutzern auferlegen. Es stellt sich die Frage, wer diese Dokumente ordentlich prüft und was passiert, wenn ein Mangel festgestellt wird. Das Wegdiskutieren von Problemen mag eine beliebte Taktik sein, die aber das eigentliche Problem nicht löst. Zudem möchte Microsoft, wie viele Praxisbeispiele zeigen (WIndows-Telemetriedaten, neues Outlook mit riesigem Datenhunger und Zugriff auf Kunden-Mails per Kunden-Zugangsdaten…), viele Daten sammeln und nichts anderes. Warum soll man diesen Unternehmen trauen? Es gibt keinen Grund dafür.
KI sei ein Algorithmus
"Ein Algorithmus ist […] eine eindeutige Handlungsvorschrift zur Lösung eines Problems oder einer Klasse von Problemen." (Quelle: Wikipedia, Fettdruck hier hinzugefügt).
Ein KI-System basiert auf einem neuronalen Netz. Ob dies als Algorithmus im engeren Sinne bezeichnet werden kann, ist mehr als fragwürdig. Eindeutig ist ein neuronales Netz für den menschlichen Betrachter jedenfalls nicht. Vor allem dann nicht, wenn es sich um tiefe Netze handelt (daher auch der Begriff des Deep Learning).
Immerhin wird auch der Mensch nicht als Algorithmus bezeichnet. Dessen Gehirn besteht auch aus einem neuronalen Netz.
Somit müsste man der Aussage, ein KI-System sei ein Algorithmus, bei strenger Betrachtung eine Absage erteilen. Auf Wikipedia wird ein KI-System Immerhin auch nicht mit einem Algorithmus gleichgesetzt. Vielmehr wird der Trainingsfortschritt einem Algorithmus zugeschrieben, was plausibel ist, weil diese Verbesserung des neuronales Netzes im Training über eindeutige Rechenvorschriften vonstatten geht.
Sofern Sie der Meinung sind, KI sei ein Algorithmus: Bitte teilen Sie einen Fall mit, in dem eine automatisierte Problemlösung Ihrer Meinung nach KEIN Algorithmus sei. Wir sind gespannt!
KI sei ein Tool
Das ist ungefähr genauso richtig wie zu sagen „Ein Auto ist ein Haufen Materie“ oder "Cookies sind Dateien". Dann wäre alles oder nichts ein Tool. Der Informationsgehalt wäre dann null. Somit ist die Aussage nicht zielführend.
Manche meinen KI-gestützte Tools, wenn Sie von KI als Tool sprechen. Sprachliche Ungenauigkeiten führen jedenfalls nicht zu einer besseren Verständigung.
Intelligenz ist jedenfalls nicht ein Tool (Werkzeug), sondern eine (herausragende) Eigenschaft eines Systems.
Sprachmodelle könnten nicht logisch folgern
Fakt ist: Sprachmodelle können hochkomplexe mathematische Fragen besser lösen als fast jeder Mensch der Erde. Angenommen, ein KI-System tut dies, indem es alle möglichen Problemstellungen einliest und daraus lernt. Dann hat man bereits das Wort "lernen" verwendet. Bleibt man bei "Einlesen", dann kann es sein, dass das KI-System alle möglichen, bisher unbekannten Probleme lösen kann, wenn sie nur halbwegs ähnlich den bekannten Problemen sind. Wo ist der Unterschied zu den allermeisten Menschen?

Bitte lesen Sie die Mathematikaufgabendurch, die bei der AI Math Olympiad (AIMO) an KI-Systeme gestellt wurden. Sofern Sie diese Aufgaben überhaupt verstehen, sind sie offenbar ein, prozentual gesehen, winziger Teil der Weltbevölkerung, die ein sehr tief gehendes mathematisches Verständnis ihr Eigen nennen können.
Übrigens konnte der Autor dieses Beitrags mit Hilfe des besten Mathematikmodells eine hochanspruchsvolle Mathematikaufgabe lösen, von der er nur wusste (von einem Mathematiker), dass sie sich mit Diophantischen Gleichungen lösen lässt. Keine Ahnung, was Diophantische Gleichungen sind. Das Rätsel handelt von Seeleuten und Kokosnüssen und dürfte von (prozentual gesehen) so gut wie keinem Menschen auf dem Erdball jemals eigenständig gelöst werden können. Dazu wurde der lange deutsche (!) Text der Aufgabe in das englischsprachige Mathematikmodell eingekippt. Die Antwort der KI war falsch, aber der versuchte Lösungsweg war so nah an der Lösung dran, dass es mit sehr wenig Aufwand gelang, die richtige Lösung von Hand zu finden.
Token seien keine Echtdaten
Genauer: Manche meinen, nur weil Texte in Sprachmodellen als Zahlen gespeichert werden, würden die Sprachmodelle keine Originaldaten speichern.
Token sind verlustfreie Komprimierer. Heißt: Die Umwandlung von Text in Token erhält alle Informationen. Aus Datenschutzsicht sind der Originaltext und der tokenisierte Text als gleichwertig anzusehen.
Siehe auch Forschungsarbeit Language Modeling Is Compression
Sprachmodelle speichern Text in Form von Zahlenreihen (Vektoren). Dazu werden Worte in Wotfetzen zerlegt. Diese Fetzen heißen Token. Jedes Token entspricht einer Zahl. Diese Zuordnung Wortfetzen zu Zahl ist pro Sprachmodell eindeutig in einem Wörterbuch (Vokabular) festgelegt. Dieses Wörterbuch ist bei jedem Sprachmodell als Textdatei angehängt. Man kann sich diese Textdatei jederzeit ansehen und sie auswerten.
Die Zahlenfolge 4711, 0815, 9933 könnte dabei den Buchstabefolgen Maxi, mi, lian entsprechen. Offenbar sind die Zahlen auf Worte rückführbar. Somit sind die Zahlenreihen personenbezogen, wenn die dadurch kodierten Buchstaben personenbezogen Daten darstellen. Auch indirekt auf eine Person herleitbare Daten sind personenbezogen (vgl. Art. 4 Nr. 1 DSGVO).
Weiterhin bilden Sprachmodelle ihre Ausgabe u.a. durch kumulative Wahrscheinlichkeitswerte von Token. Es werden also nicht nur zwei Token betrachtet, sondern eine ganze Kette von Token. Ein technischer Parameter, der dies steuert, heißt top_p.
Das Hamburger Thesenpapier (siehe folgend) liegt also in fundamentalen Aussagen falsch. Es scheint deswegen so geschrieben zu sein, um alle KI-Systeme zu legalisieren, von denen die meisten rechtswidrig sein dürften.
KI-Sprachmodelle würden keine personenbezogenen Daten speichern
Die Argumentation des Hamburgischen Datenschutzbeauftragten (HmbBfDI) geht so: Es sei unheimlich schwierig, personenbezogene Daten aus Sprachmodellen herauszuholen. Der EuGH sagte, dass die Rekonstruktion eines Personenbezugs nur dann als möglich angenommen werden kann, wenn die Mittel und Aufwände dafür im üblichen Rahmen liegen. Der HmbBfDI sagt, dass nur mit einer ausgeklügelten, rechtswidrigen Privacy Attacke die personenbezogen Daten aus Sprachmodelle herausgeholt werden könnten. Wegen des enormen Aufwands, der dafür nötig sei, seien es gemäß EuGH Rechtssprechung keine personenbezogene Daten.
Hier das einfache Gegenbeispiel, das den HmbBfDI leicht widerlegt:

Sprachmodelle speichern Daten aller Personen gleich. Auch Personen, die nicht öffentliche Personen sind, werden derart im Sprachmodell gespeichert, und zwar bei dessen Pre-Training über die Trainingsdaten. Die Trainingsdaten bestehen aus vielen Milliarden Dokumenten. Unwahrscheinlich, dass dort nur Angela Merkel oder andere völlig öffentliche Personen vorkommen, die anscheinend weniger Recht auf Privatsphäre haben als der Normalbürger.
Sprachmodelle sind verlustfreie Komprimierer bzw. können es sein. Sie sind es (quasi immer), wenn man sie entsprechend behandelt. Sie sind es sehr oft, wenn sie nicht speziell behandelt werden.
Siehe Forschungspapier Language Modeling Is Compression sowie die in diesem Beitrag genannten Experimente, die jeder selbst nachvollziehen kann.
Es ist sogar möglich, vollständige Zitate aus einem Sprachmodell herauszuholen. Der eben verlinkte Beitrag demonstriert auch, dass in LLMs sehr wohl personenbezogene Daten liegen. Im Gegensatz zur Annahme des HmbBfDI sind nämlich alle großen KI-Modelle Teil eines KI-Systems. Das bedeutet: Ein KI-System kann die Zahlen, aus denen ein KI-Modell besteht, interpretieren und in Text rückumwandeln. Nur ein KI-Modell alleine auf der Festplatte liegen zu haben, ohne die Fähigkeit der Interpretation, wäre unkritisch. Diesen unkritischen Fall gibt es aber offensichtlich bei ChatGPT oder GPT-4o nicht. Es gibt ihn höchstens bei Open Source Sprachmodellen, aber auch nur theoretisch. Denn es reicht, sich eine sehr weit verbreitete Progframmierbibliothek herunterzuladen, um den Inhalt des Modells interpretieren zu können. Leider hat der HmbBfDI einen technischen Unterschied zwischen ChatGPT und GPT-4o konstruiert, den es nicht gibt.
An sich ist es auch egal:
- Wird ein LLM benutzt, gibt es oft personenbezogene Daten. Werden diese in Umlauf gebracht, haftet der Mensch, der dies tut.
- Wird ein LLM nicht benutzt, spielt es praktisch meistens keine Rolle, welche Daten das LLM enthält. Niemand sieht es.
- Es geht also vorrangig gar nicht um die Speicherung.
Allgemeine Künstliche Intelligenz könne es nicht geben
Diese Art der Intelligenz wird auch als AGI bezeichnet. AGI steht für Artificial General Intelligence. Wir stehen erst am Anfang. Offensichtlich sind intelligente Roboter, die in der Weltgeschichte herumlaufen, noch nicht häufig zu beobachten.
Wahr ist: Wenige Unternehmen alleine werden bereits tausende Milliarden Dollar in den Bau intelligenter Roboter investieren. Dazu benötigt man:
- Einen Roboter (schon da, wird immer besser).
- Ein elektronisches Gehirn (schon da, wird immer besser).
- Jemanden, der den Gehirn-Kasten (Computer mit KI) auf den Roboter draufsetzt (dieser Jemand ist auch schon da).
Diese drei Komponenten gibt es also bereits. Selbstlernende Systeme gibt es offenbar bereits. Siehe ChatGPT oder NuminaMath (weiter unten). Es ist nur eine Frage der Zeit, bis Roboter lernen, unsere Welt besser zu beherrschen als wir selbst es jemand werden tun können.
Erst in vielen Jahren würde KI übermächtig sein
Beweisen lässt sich die Falschheit dieser Annahme nicht, ebenso wenig wie die Aussagen im vorigen Abschnitt zu AGI. Die Zeit wird es zeigen.
Richtig ist aber: Die KI-Entwicklung schreitet in Überlichtgeschwindigkeit voran. Was vor 2 Wochen noch nicht möglich war, ist es nun. Das gilt beispielsweise für die Fortschritte von Open-Source Sprachmodellen. Die oben genannte AIMO wurde von einem Open-Source Modell namens NuminaMath gewonnen. Es beantwortete 29 von 50 schwierigeren mathematischen Problemen korrekt, die in Textform gestellt wurden.
Google behauptet übrigens, ein Fortschritt in der Robotik sei mit Hilfe eines Sprachmodells erreicht worden.
Prognose von Dr. DSGVO: In 10 bis 15 Jahren werden Roboter in der Gegend herumlaufen, die eine ernsthafte Gefahr für die Menschheit darstellen. Es können auch 5 Jahre sein (um es genauer zu wissen, müsste man Robotikexperte sein). Ganz sicher wird es aber keine 35 Jahre mehr dauern, bis wir uns aufgrund der Überlegenheit von KI ernsthafte Sorgen um unsere Existenz machen müssen. Haben Sie Kindern, dann werden diese, so die Prognose dieses Beitrags, ihr Lebensende anders gestalten als es gutgefunden werden kann.
Zusammengefasst
Hier die wichtigsten Aussagen in richtig gestellter Form:
- ChatGPT ist ein intelligentes System, das für viele Aufgabenstellungen den Menschen weit übertrifft.
- Intelligenz ist unabhängig vom Menschen.
- Künstliche Intelligenz ist Intelligenz auf einem künstlichen System. Was künstlich ist, können Sie gerne selbst definieren (es spielt keine Rolle).
- Das Befragen von Sprachmodellen kostet nichts. Das gilt für Offline-KI, also selbst betriebene Sprachmodelle.
- Das Training von KI-Modellen kostet nichts. Das gilt für das Training auf eigener Hardware oder Miet-Hardware. Diese Hardware ist sowieso eingeschaltet. Ob ein KI-Training auf ihr läuft oder nicht, ist für die Kosten der Hardware egal.
- KI ist kein Algorithmus, sondern eine undurchschaubare Lösungsmöglichkeit für viele Probleme.
- Microsoft Copilot ist ein unbrauchbares System. Jedenfalls gilt das bereits für simpelste Standardaufgaben, die jede Offline-KI besser bewerkstelligen kann.
- Die Azure Cloud ist nicht sicher. Dies belegen zahlreiche Vorkommnisse, bei denen Microsoft nicht besonders glänzte.
- KI wird in wenigen Jahren zur Gefahr für die Menschheit werden. Oder wie es Sam Altmann von OpenAI sagte: "KI wird uns alle töten. Aber bis dahin wird sie unheimlich nützlich sein."
Wenn Sie eine optimierte KI (Offline-KI) in Ihr Unternehmen einführen möchten, ist folgendes wichtig zu wissen:
- Eine Offline-KI ist optimierbar. Sie liefert für viele Anwendungsfälle bessere Ergebnisse als ChatGPT. Das liegt auch daran, weil Ihr System nur für Sie arbeitet und nicht auch noch für Millionen anderer Nutzer arbeiten muss.
- Eine Offline-KI bietet volle Datenkontrolle. Jeder DSB freut sich über eine Offline-KI.
- Eine Offline-KI ist günstig im Betrieb, sei es durch den Kauf eines KI-Servers oder durch die Miete eines solchen Servers in einem deutschen Rechenzentrum von einem deutschen Anbieter.
- Eine Offline-KI kann Daten aus dem Internet abrufen oder mit anderen IT-Systemen kommunizieren.
Was sind Ihre Fragen oder Erkenntnisse?
KI-Beratung, KI-Lösungen
Leistungsangebot:
- Erstberatung inkl. Machbarkeitsaussagen
- Schulungen und Workshops für Führungskräfte, Berufsgeheimnisträger, Angestellte, Entwickler
- KI-Lösungen mit und ohne ChatGPT/Azure. Cloud oder eigener KI-Server

gekennzeichnet.



Mein Name ist Klaus Meffert. Ich bin promovierter Informatiker und beschäftige mich seit über 30 Jahren professionell und praxisbezogen mit Informationstechnologie. In IT & Datenschutz bin ich auch als Sachverständiger tätig. Ich stehe für pragmatische Lösungen mit Mehrwert. Meine Firma, die 
Hierbei laut gelacht: "Bei Microsoft seien die Daten sicher." 😉