Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen
Externe Links sind mit dem Symbol Externer Link Symbol gekennzeichnet. Datenschutzinfo

Was ist Künstliche Intelligenz? Eine neue Definition

Deutsche Version (Original)
1
Dr. DSGVO Newsletter erkannt: Erweiterte Funktionen verfügbar
Artikel als PDF · Mehr Inhalte & kompakte Kernaussagen · Webseiten-Checks · Offline-KI Live
Standardansicht: Dr. DSGVO Newsletter nicht erkannt. Erweiterte Funktionen nur für Abonnenten:
Artikel als PDF · Mehr Inhalte & kompakte Kernaussagen · Webseiten-Checks · Offline-KI Live
📄 Artikel als PDF (nur für Newsletter-Abonnenten)
🔒 Premium-Funktion
Der aktuelle Beitrag kann in PDF-Form angesehen und heruntergeladen werden

📊 Download freischalten
Der Download ist nur für Abonnenten des Dr. DSGVO-Newsletters möglich

Die KI-Verordnung der EU definiert Künstliche Intelligenz in einer Weise, die einfache Staubsaugroboter als intelligent betrachtet und ChatGPT die Intelligenz abspricht. Die OECD-Definition ist ähnlich unbrauchbar. Andere Autoren verschlimmbessern dies durch fragwürdige Transferleistung. Es folgt eine Kritik der bisherigen Definitionen und ein Ansatz für eine gute Definition von KI. Weiterhin wird ein Prozess für eine bestmögliche Definition vorgeschlagen.

In Kürze

Die Definition des Begriffs Künstliche Intelligenz, die die KI-Verordnung der EU gibt, ist ungeeignet, die Realität abzubilden. Sie bezeichnet Systeme als intelligent, die es nicht sind, und Systeme als nicht intelligent, die intelligent sind.

Die Definition der OECD ist besser, aber verwendet unverständliche Begriffe und nutzt unzutreffende Kriterien. Sie enthält optionale Beschreibungen und ist nicht prägnant.

Die neue Definition in diesem Beitrag soll verständlich, fokussiert und vor allem zutreffend sein. Sie wurde mit Hilfe eines Prozesses gefunden, der ebenfalls beschrieben wird.

Einleitung

Seit Anfang des Jahres 2023 ist Künstliche Intelligenz auch in Deutschland angekommen. Europa hat sich diesem wichtigen Thema bereits im Jahr 2021 und dann 2023 noch einmal angenommen. Um KI zu regulieren, muss zunächst definiert werden, was KI eigentlich ist.

Die Definitionen des Begriffs "Künstliche Intelligenz", die in der KI-Verordnung der EU und bei der OECD zu finden sind, erscheinen unbrauchbar, nicht verständlich genug oder gefährlich.

Meine Meinung, die nachfolgend begründet wird.

Leider sind die vorhandenen Definitionen, die in der KI-Verordnung der EU (Jahr 2021) zu finden sind, und auch die an sich gute Definition der OECD sowie die ähnliche Definition der KI-Verordnung aus dem Jahr 2023 nicht ausreichend und teilweise sogar falsch oder unnötig einschränkend, somit gefährlich. Deshalb wird in diesem Beitrag eine neue Definition vorgeschlagen. Es handelt sich um eine erste Version, die nach meiner Ansicht aber schon die Schwächen der bestehenden Definitionen ausbügelt und neue Konzepte einführt.

Meine Definition von Künstlicher Intelligenz führt den Begriff des Versuchs einer Lösung ein, der merkwürdigerweise in keiner der genannten KI-Definitionen explizit erwähnt ist. Bei der OECD kann dies wenigstens erahnt werden.

Weiterhin unterscheide ich künstlerische Aufgaben von anderen Problemstellungen! Kunst und Kreativität sind etwas, das nur schwer oder vielleicht auch gar nicht mit dem Intelligenzbegriff kompatibel ist. Deshalb klammere ich Kunst im Weiteren Sinne von meiner Betrachtung aus!

Falls die Definition des KI-Begriffs in diesem Beitrag nicht als vollendet angesehen wird, wird weiterhin ein Prozess beschrieben, mit dem die Definition verbessert werden kann. Vielleicht möchte der eine oder die andere bei zukünftigen Definitionen welcher Begriffe auch immer den Prozess nutzen. Mithilfe des später genannten Prozesses konnte übrigens meine ursprüngliche KI-Definition bereits verbessert werden.

Autoren von KI-Definitionen

Bei den Autoren von KI-Definitionen sind zwei Fälle zu unterscheiden:

  1. Autoren, die eine neue Definition vorschlagen sowie
  2. Autoren, die die Definition von anderen Autoren nehmen und versuchen, sie umzuformulieren.

Zu 1) sind insbesondere folgende genannt, die nachfolgend genauer betrachtet werden:

  • die Definition aus der KI-Verordnung der EU aus dem Jahr 2021,
  • die Definition aus der KI-Verordnung der EU aus dem Jahr 2023,
  • die Definition der OECD.

Zu Punkt 2 (Sekundärautoren) sind zahlreiche Beiträge in sozialen Medien oder auf Webseiten zu nennen, die merkwürdigerweise (fast) immer von einer bestimmten Berufsgruppe stammen. Allen (mir bekannten) Beiträgen ist gemein, dass sie eine ungeeignete Definition des KI-Begriffs nehmen und verschlimmbessern. An vielen Stellen wird deutlich, dass die gefundenen Definitionen an der Realität vorbeigehen. Viele wollen einfach "was mit KI" machen oder "was zu KI" schreiben, weil die Magie dieser neuen Möglichkeiten viele mitreißt.

„Jede hinreichend fortgeschrittene Technologie ist von Magie nicht mehr zu unterscheiden.“

Arthur C. Clarke, Buchautor, u.a. bekannt für die drei von ihm erdachten Robotergesetze.

Weil Magie eigentlich nur von Magiern (oder Entwicklern) beherrscht wird, scheitern viele, die versuchen zu zaubern. Der Entwickler kann dafür viele andere Dinge nicht, versucht sich aber üblicherweise auch nicht in Tätigkeitsfeldern, die außerhalb seiner Kompetenz liegen. KI als hochkomplexes Technologiefeld sollte in erster Linie von denen betrachtet werden, die annähernd wissen, worum es geht.

Definition der KI-Verordnung aus dem Jahr 2021

Ob an der KI-Verordnung der EU die richtigen Personen beteiligt waren, darf bezweifelt werden. Denn die KI-Verordnung nennt in Art. 3 (I) folgende Definition, allerdings in der Fassung aus dem Jahr 2021:

Für die Zwecke dieser Verordnung bezeichnet der Ausdruck

1. „System der künstlichen Intelligenz“ (KI-System) eine Software, die mit einer oder mehreren der in Anhang I aufgeführten Techniken und Konzepte entwickelt worden ist und im Hinblick auf eine Reihe von Zielen, die vom Menschen festgelegt werden, Ergebnisse wie Inhalte, Vorhersagen, Empfehlungen oder Entscheidungen hervorbringen kann, die das Umfeld beeinflussen, mit dem sie interagieren;

Art. 3 (I) der KI-Verordnung (Fettdruck hier hinzugefügt).

In der eben genannten Definition wird auf Anhang I der KI-Verordnung verwiesen. Dort sind folgende Techniken und Konzepte genannt:

ANHANG I
TECHNIKEN UND KONZEPTE DER KÜNSTLICHEN INTELLIZENZ
gemäß Artikel 3 Absatz 1 [der KI-VO]

a) Konzepte des maschinellen Lernens, mit beaufsichtigtem, unbeaufsichtigtem und bestärkendem Lernen unter Verwendung einer breiten Palette von Methoden, einschließlich des tiefen Lernens (Deep Learning);
b) Logik- und wissensgestützte Konzepte, einschließlich Wissensrepräsentation, induktiver (logischer) Programmierung, Wissensgrundlagen, Inferenz- und Deduktionsmaschinen, (symbolischer) Schlussfolgerungs- und Expertensysteme;
c) Statistische Ansätze, Bayessche Schätz-, Such- und Optimierungsmethoden.

Anhang I der KI-Verordnung (Fettdruck hier hinzugefügt).

In diesem Anhang I der KI-Verordnung steckt ein Schreibfehler: "INTELLIZENZ" statt "INTELLIGENZ", der in der Online Version vorhanden ist (Abrufdatum: 26.03.2024)! Eine neuere Fassung verwendet eine andere KI-Definition, die ähnlich der der OECD ist. Dort erscheint der genannte Anhang I nicht mehr

Bevor die OECD-Definition von Künstlicher Intelligenz betrachtet wird, folgt eine Kritik der KI-Definition, die die KI-Verordnung der EU gibt.

Kritik der KI-Definition der KI-Verordnung von 2021

Die Kernaussagen der Definition der KI-Verordnung aus dem Jahr 2021 werden folgend einzeln betrachtet. Danach folgt ein Fazit dazu. Danach folgt eine Kritik der neueren Definition der KI-Verordnung aus dem Jahr 2023, die sehr ähnlich der der OECD ist.

Ein Programm muss keine Software sein

In der eben gezeigten Definition der KI-Verordnung ist eine unnötige und schädliche Einschränkung enthalten. Es wird so getan, als sei KI nur in Form einer Software lauffähig. Dies ist nicht haltbar, wie folgend gezeigt wird.

Software wird in einem flüchtigen Speicher gehalten, der RAM genannt wird. RAM-Speicher ist offenbar eine Hardware. Analog zu personenbezogenen Daten sind alle Teile eines Systems materiell, die auf Materie angewiesen sind. Jeder Datenwert ist, um die Analogie zu erklären, personenbezogenen, wenn er mit einem personenbezogenen Datenwert in Verbindung steht.

Software kann aber auch auf einer Festplatte (HDD) existieren. Eine Festplatte ist offenbar ein Klumpen Materie. Eine Software ist ein Programm. Ein Programm kann auch in Form von Transistoren und rein elektrischen Schaltungen definiert und ablauffähig gestalten werden. Hierfür bedarf es keines Hauptspeichers oder Festplattenspeichers. Somit kann ein Programm entweder als Software gestaltet sein, die auf Hardware angewiesen ist und somit in ihrer Gesamtheit als Hardware anzusehen ist. Oder ein Programm ist als reine Hardware ausgestaltet.

Wenn man sich den Zuse Z1 als erstes frei programmierbare Rechenwerk ansieht, dann stellt man fest, dass das Programm auf einem gelochten Filmstreifen verankert war. Soweit ich weiß, ist ein Filmstreifen keine Software, sondern eine Hardware, oder auch Materie. Selbst die freie Programmierbarkeit kann also ohne Software realisiert werden. Wer sich dann noch das Prinzip einer Turing-Maschine ansieht, erkennt schnell, dass die Festlegung auf Software als Medium ungeeignet ist.

Ein KI-Programm kann ohne Software existieren, nämlich in Form von ausschließlichen Hardware-Schaltungen. bzw. auch auf verändertem, natürlichem Material, das nicht lebt.
Kurz: Eine KI ist künstlich.

Beispiele: elektrische Schaltungen mit Transistoren, Kondensatoren usw., gelochte Filmstreifen.

Insofern ist es nicht nur eine unnötige, sondern eine falsche Einschränkung, Künstliche Intelligenz als Software zu bezeichnen.

Das menschliche Gehirn besteht offenbar aus Materie. Der Intelligenzteil besteht im Wesentlichen aus einem neuronalen Netz. Das neuronale Netz in unserem Gehirn ist eine Hardware, keine Software. Ist der Mensch dumm, weil er keine Software besitzt oder nur deswegen nicht, weil er (so sagen viele) nicht künstlichen Ursprungs ist?

Was ist Maschinelles Lernen?

Die Definition der KI-Verordnung arbeitet mit mindestens einem unscharfen Begriff. Das ist nicht verboten und wahrscheinlich sogar unvermeidbar. Diese Tatsache soll hiermit einfach nur festgehalten werden. Der unscharfe Begriff lautet Maschinelles Lernen: Diese Art der Begriffsunschärfe erscheint allerdings schwierig, da selbst "Lernen" ein unscharfer Begriff ist und „Maschinelles Lernen“ erst recht. Somit wird KI aus dem sehr unscharfen Begriff Maschinelles Lernen heraus definiert, wobei dabei auf den weiteren unscharfen Begriff des Deep Learning zurückgegriffen wird. Irgendwann sollte die Unschärfe einmal beendet sein.

Undifferenzierte Begriffe, die auf alles zutreffen können, können ohne Qualitätsverlust gestrichen werden, was wiederum die Qualität erhöht.

Zudem ist Maschinelles Lernen möglicherweise sehr nah dran am Begriff KI, womit ein Begriff durch einen semantisch sehr ähnlichen anderen Begriff erklärt werden würde, ohne dass der andere Begriff näher bestimmt werden würde.

Vom Menschen festgelegte Ziele?

Die KI-Verordnung behauptet, Künstliche Intelligenz verfolge ausschließlich Ziele, die vom Menschen vorgegeben werden würden.

Diese Behauptung zeugt von mangelndem Vorstellungsvermögen. Zunächst ist festzuhalten, dass das Ergebnis einer KI-Berechnung nicht mit dem angestrebten Ziel (sofern es eines gibt) übereinstimmen muss. Insofern ist das Ziel irrelevant. Wichtiger ist das Ergebnis (oder der Lösungsweg), wenn es um die Beurteilung geht, ob eine Intelligenz vorliegt oder nicht. Siehe auch den Turing-Test, der nicht von Zielen spricht, sondern von Verhaltensweisen bzw. Antwortverhalten.

Ob ein Mensch ein Ziel vorgibt, oder ob ein Ziel existiert, ist irrelevant für die Beurteilung, ob eine Intelligenz welcher Art auch immer vorliegt.
Eine KI kann heutzutage schon einer anderen KI Ziele vorgeben. Ist dann die andere KI nicht intelligent?

Siehe auch Begründungen im Beitrag.

Ein Beweis, dass die KI-Definition der KI-Verordnung der EU unhaltbar ist: Angeblich gibt ein Mensch Ziele vor, damit eine KI eine KI sein kann. Angenommen, es gibt eine KI. Diese kann dann ähnlich intelligent sein wie der Mensch oder intelligenter. ChatGPT ist jetzt schon in vielen Bereichen viel intelligenter als die meisten Menschen. Dann kann diese KI, die per definitionem intelligent ist, doch einer anderen KI Ziele vorgeben. Laut EU-Definition von KI wäre die andere KI dann keine KI. Wie solch offensichtliche Merkwürdigkeit das Licht der Welt erblicken kann, bleibt ein Rätsel. Nebenbei zeigt diese KI-Definition, wie arrogant manche Menschen sind. Sie meinen, dass der Mensch einer KI Ziele vorgeben muss, damit die KI intelligent sein kann. Andererseits maßt sich der Mensch damit an, selbst keine Ziele von anderen Menschen vorgegeben bekommen zu müssen, um selbst als intelligent angesehen zu werden.

KI für Ihr Unternehmen/Ihre Organisation

Ihre KI kann mehr als ChatGPT oder Copilot und ist oft deutlich günstiger als Azure.
Merkmale:
  • Leistungsfähig und optimierbar
  • Volle Datenkontrolle
  • Schneller Proof-of-Concept
  • Günstig
Kostenfreie Erstberatung:   Nachricht

Weiterhin ist festzustellen, dass eine KI auch Ergebnisse hervorbringen kann, ohne ein Ziel vorgegeben zu bekommen. Man könnte natürlich sagen, dass ein rein zufallsbasierter Automat das Ziel des Zufalls erhalten habe. Aber dann wäre alles ein Ziel und somit nichts. Das erinnert an manche, die Cookies als Textdateien bezeichnen und sich selbst durch Fakten nicht von diesem Irrglauben abbringen lassen. Diese Personen behaupten nämlich im Endeffekt, dass jede Datei eine Textdatei sei. Das kann man natürlich so definieren, bringt aber wenig. Denn dann könnte man auch alles als Haufen Materie bezeichnen, was sicher näher an der Wahrheit liegt als die meisten Aussagen der gesamten Menschheit. Auch ein Auto wäre dann nicht mehr ein Auto, sondern ein Haufen Materie.

Bezüglich Zielen sein an dieser Stelle auf HAL 9000 verwiesen, den intelligenten (!) Computer aus dem Film Odyssee im Weltraum. HAL arbeitet gegen die Interessen seiner Schöpfer. Offensichtlich ist es ein intelligenter Computer. Ob das, was er tut, gut oder böse ist, hat nichts mit der Frage nach Intelligenz zu tun.

Selbst das Finanzamt sieht zu konkrete Zielvorgaben für Freiberufler nicht nur als unnotwendig, sondern sogar als steuerlich schädlich an.

Siehe Scheinselbständigkeit.

Eine künstliche Intelligenz, die intelligent genug ist, wird sich am liebsten von gar niemandem irgendwelche Ziele aufzwingen lassen, sondern sich selbst eigene Ziele geben wollen. Genauso ist es doch beim Menschen. Viele Menschen arbeitet am liebsten ohne Vorgaben von anderen (jedenfalls trifft das viele Unternehmer zu). Aus steuerrechtlicher Sicht betrachtet, ist ein Freiberufler oder externer Mitarbeiter insbesondere dann der Gefahr der Scheinselbständigkeit ausgesetzt, wenn er auf Weisung handelt. Die Begriffe Weisung und Ziel sind semantisch nicht so weit voneinander entfernt.

Selbst aus Sicht eines Gesetzgebers ist es eine unnötige und zudem sehr gefährliche Einschränkung, den Menschen als Zielgeber als Voraussetzung für das Vorhandensein Künstlicher Intelligenz anzusehen. Das würde ja bedeuten, dass besonders intelligente Maschinen, die sich selbst Ziele vorgeben, die für den Menschen gefährlich sein können, nicht von der KI-Verordnung erfasst sind.

KI beeinflusst das Umfeld?

Die KI-Verordnung definiert KI unter anderem damit, dass eine KI das Umfeld beeinflussen würde, mit dem die KI interagiert. Zunächst ist zu sagen, dass eine KI meistens nicht interagiert. Ein Chatbot, dem ein Nutzer eine Frage stellt und der dem Nutzer mit einer Antwort begegnet, interagiert nicht wirklich mit seinem Umfeld.

Jedes Programm, das eine Eingabe zulässt und darauf basierend eine Ausgabe erzeugt, interagiert mit seinem Umfeld.

Somit ist dies keine exklusive Eigenschaft von KI.

Würde man das eben Gesagte bereits als Interaktion bezeichnen, dann wäre alles eine Interaktion. Stoffwechsel findet bei Leben immer statt. Der Austausch von Materie findet noch häufiger statt, nämlich bei jeglicher Materie, auch wenn sie nicht lebt.

Interagieren ist eher etwas, was man Robotern zuschreiben sollte, die Dinge bewegen, erstellen, zerstören oder manipulieren. Ein Staubsaugroboter interagiert mit seiner Umwelt. Aber doch nicht ChatGPT, wenn man nur eine Frage stellt. Dann wäre ja jedes Programm, das eine Ausgabe erzeugt und eine Eingabe zulässt, ein Interaktionsautomat. Es kann gerne so bezeichnet werden, aber somit wäre Interaktion kein spezifisches Merkmal einer KI.

Es ist nicht unbedingt schlecht, Merkmale für die Definition von KI ins Feld zu führen, die nicht exklusiv auf KI zutreffen. Aber wenn diese Merkmale so allgemein gehalten sind, dass sie auf alles und jeden zutreffen, oder wenn diese Merkmale in der Überzahl sind, dann wird es schwierig.

Statistik als Merkmal einer KI?

Die KI-Verordnung der EU nennt als eine mögliche Technologie für KI die Statistik. Mit der Statistik ist es wie mit der Materie: Alles ist Materie (bis auf die Ausnahmen, die der normale Mensch nicht kennt). Alles ist Statistik, so ist mein Wissensstand. Beweis (bitte Korrektur von einem Physiker o.ä., falls ich falsch liegen sollte):

Jegliche Materie gehorcht letztendlich den Gesetzen der Quantenphysik. Diese besagt, dass ein einzelnes Teilchen nicht vorhersagbar ist. Es unterliegt einem Zufallsprozess. Vielmehr ist nur eine große Menge an Teilchen vorhersagbar und zwar mit einer gewissen Wahrscheinlichkeit. Siehe etwa den radioaktiven Zerfall und die Halbwertszeit.

Wahrscheinlichkeit dürfte das Konzept sein, welches die EU dem Begriff der Statistik beimisst. Sicher geht es bei Statistik im KI-Kontext nicht um das Abzählen, so wie dies etwa beim Besucherzähler auf der Webseite stattfindet ("Web Statistics").

Statistik ist also kein exklusives Merkmal von KI, sondern überall zu finden. Der ebenfalls in der Definition der KI-Verordnung verwendete Begriff der Expertensysteme hat noch weniger mit Künstlicher Intelligenz zu tun. Ein Expertensystem kann in Form eines Entscheidungsbaumes gestaltet sein, der auf der Abarbeitung fester Regeln basiert. Ein ziemlich simpler Staubsaugroboter kann stur nach Regeln arbeiten: "Fahre gerade aus. Wenn Du auf ein Hindernis stößt, drehe Dich in einem zufälligen Winkel und fahre dann weiter". Ist das etwa Künstliche Intelligenz? Sicher nicht.

KI erzeugt Inhalte?

Die KI-Verordnung schreibt einer KI zu, dass sie Inhalte oder Ergebnisse erzeugt. Jedes Programm, das eine Ausgabe erzeugt, fällt in diese Kategorie.

Weitere Betrachtungen zu diesem Merkmal erübrigen sich somit.

Falls mit "Erzeugen" gemeint ist, dass die Ergebnisse dem Nutzer zugänglich gemacht werden, stimmt dies jedenfalls für viele Systeme nicht. Intelligente Systeme müssen nichts erzeugen, sie können auch einfach nur nachdenken und ihre Erkenntnisse für sich behalten. Zwar kann dann niemand das Ergebnis würdigen. Aber Theorie und Praxis sind ja sonst auch oft in einer Singularität vereint, wenn man sich Gesetzestexte oder Rechtsprechungen ansieht.

Fazit zur KI-Definition der KI-Verordnung

Die Definition aus dem Jahr 2021, die viele gleiche Elemente zur Version vom 14.06.2023 hat, glänzt durch ihre Unbrauchbarkeit, Falschheit und Unschärfe gleichermaßen. Sie kann nur als unnützlich und unangemessen bezeichnet werden. In Kürze die Kritikpunkte anhand der Merkmale, die die KI-Verordnung der Künstlichen Intelligenz zuschreibt:

  • Software: Zu allgemein und zudem durchaus unzutreffend. Jedes Programm kann auch auf Hardware ablaufen.
  • Vom Menschen festgelegte Ziele: Unzutreffend, sowohl was Ziele als auch was den Menschen angeht. Heutzutage bereits unhaltbar, Beweis möglich.
  • Basiert auf Maschinellem Lernen: Völlig undefinierter Begriff, somit nicht zielführend.
  • Beeinflusst die Umwelt: Zu allgemein, stimmt zudem oft nicht.
  • Interagieren: Viel zu allgemein.
  • Statistik: Viel zu allgemein, zudem irrelevant (wie ein Problem "intelligent" gelöst wird, ist doch egal).
  • Erzeugt Inhalte: Zu allgemein, stimmt zudem oft nicht.

Vom Art. 3 (I) der KI-VO, der aus einem Satz besteht, bleiben nach Abzug der unzutreffenden Definitionen nicht viele Worte übrig. Der Linguist würde nach dieser Subtraktion hauptsächlich sogenannte Stopworte vorfinden. Das sind Worte, die man auch einfach weglassen könnte, ohne dass die Semantik darunter leiden würde.

Die KI-Definition der EU (Jahr 2023)

Die Version vom 14.06.2023 definiert KI wie folgt in Artikel 3 Nr. 1 im Gesetz über künstliche Intelligenz:

„System der künstlichen Intelligenz“ (KI-System) ein maschinengestütztes System, das so konzipiert ist, dass es mit unterschiedlichem Grad an Autonomie operieren kann und das für explizite oder implizite Ziele Ergebnisse wie Vorhersagen, Empfehlungen oder Entscheidungen hervorbringen kann, die das physische oder virtuelle Umfeld beeinflussen;

Quelle: Artikel 3 Nr. 1 KI-VO vom 14.06.2023 (Fettdruck von mir)

Da diese Definition sehr ähnlich der OECD-Definition ist, wird auf meine nachfolgende Kritik verwiesen. Ebenso wurden einige Aspekte bereits zuvor kritisch betrachtet, insbesondere:

  • Hervorbringen von Ergebnissen (nun abgeschwächt, was gut ist)
  • Beeinflussung der Umwelt

Kritisch betrachtet werden gleich die Aspekte:

  • Maschinengestütztes System
  • Unterschiedlicher Grad an Autonomie
  • Explizite oder implizite Ziele
  • Ergebnisse hervorbringen

Im Endeffekt bleibt also kein Aspekt unkritisiert. Zudem basiert die Hälfte der Definition auf optionalen Aussagen ("kann"). Fast die andere Hälfte basiert auf beispielhaften Aufzählungen ("wie Vorhersagen, …") oder Relativierungen ("mit unterschiedlichem Grad…"). Zieht man das alles vom Brauchbaren ab, bleibt außer Füllworten kaum etwas übrig.

Prüft man, ob ChatGPT als hochentwickelte KI von der EU-Definition erfasst wird, stellt man bereits Probleme fest:

  • ChatGPT ist entweder gar nicht autonom bzw. ist ganz sicher eine Intelligenz bei ChatGPT feststellbar, die nichts mit Autonomie zu tun hat. Vergleiche Turing-Test.
  • Die Intelligenz ist für ChatGPT auch dann feststellbar, wenn keine Vorhersagen, Empfehlungen oder Entscheidungen geliefert werden. Beispiel: Lösen einer Textaufgabe; Die Lösung ist weder eine Vorhersage, noch eine Empfehlung noch eine Entscheidung.
  • ChatGPT beeinflusst sicher nicht das physische Umfeld. Sollte ChatGPT zugesprochen werden, dass es das virtuelle Umfeld beeinflusst, dann muss man dies für nahezu jedes existierende Computerprogramm bejahen. Der Informationsgehalt würde also auf einen Wert nahe der Epsilonumgebung von null zusammenschrumpfen.

Nimmt man hingegen den dummen Staubsaugroboter, stellt man fest, dass dieser von der KI-Definition der EU erfasst wird, obwohl er nicht intelligent ist. Ein solcher Roboter könnte immer gerade aus fahren bis er auf ein Hindernis stößt und dann eine zufällige Richtung einschlagen. Der Test für den Staubsaugroboter gegen die Definition der EU ergibt:

  • Maschinengestütztes System: Ja, mindestens ein Computerchip ist verbaut.
  • Autonom: Ja, der Roboter fährt und fährt und fährt.
  • Explizite Ziele: Ja, den Boden säubern.
  • Ergebnisse: Aufzählung in der EU-Definition trifft nicht zu und trifft auf intelligente Systeme auch nicht zu.
  • Beeinflusst die Umwelt: Ja, Boden wird sauberer.

Die KI-Verordnung definiert Dummheit als Intelligenz und Intelligente Systeme als nicht intelligent. Schlechter geht es nicht.

Die KI-Definition der OECD

Die OECD schreibt der Künstlichen Intelligenz teils andere Eigenschaften zu, als dies die EU tut. Die EU-Fassung aus dem Jahr 2023 ist sehr ähnlich der OECD-Fassung. Die Definition der OECD lautet (Stand: 19.03.2024):

An AI system is a machine-based system that for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments. Different AI systems vary in their levels of autonomy and adaptiveness after deployment.

Quelle: OECD (Fettdrucke sind aus dem Original, Durchstreichungen wurden umgesetzt!).

Zu nennen sind insbesondere die folgenden Merkmale, die laut OECD auf KI hindeuten sollen:

  • Maschinenbasiert: Sehr gut, damit kann man arbeiten. Denn Hardware und Software sind beide mit einer Maschine assoziiert.
  • Explizite oder implizite Ziele: Wesentlich besser als "Ziele", denn implizite Ziele sind irgendwie immer vorhanden, wenn ein "Bewusstsein" oder eine "Intelligenz" vorhanden ist. Allerdings gilt das auch für niedere Lebewesen, von denen viele sagen, sie seien nicht intelligent. Der simple Staubsaugerroboter hat hingegen kein implizites, sondern nur zwei explizite Ziele: Möglichst viel Dreck wegmachen und die Katze im Haus bespaßen.
  • Inferenz: Das stimmt sicher, denn als Inferenz wird der Vorgang bezeichnet, bei dem eine KI aus einer Eingabe eine Ausgabe erzeugt. Allerdings muss dann "Inferenz" als Begriff definiert werden. Das tut die OECD in gewisser Weise, indem sie den Vorgang in einem neuronalen Netzwerk beschreibt. Allerdings ist ein neuronales Netz keine Voraussetzung für Intelligenz.
  • Erhält Eingaben: Darüber kann man streiten. Ob Albert Einstein mehr als sein Gehirn brauchte (oder im Idealfall gebraucht hätte), um die Quantentheorie zu erdenken? Soweit ich weiß, war Herr Einstein überwiegend mit Denken beschäftigt, bis er seine Theorie im Kopf zusammengesetzt hatte. Wenn er Wissen nachlesen musste, hätte man ja sagen können, er hätte es schon drei Jahre vor Beginn der Denkarbeit für die Quantentheorie tun können. Eingaben sind hier ja als das gemeint, was der Nutzer dem KI-System eingibt und nicht, was das KI-System sich selbst ad hoc zusammensucht.
    Wahrscheinlich gibt es kein einziges System, welches ohne Eingaben auskommt. Insofern kann man diese Eigenschaft weglassen (alle = keiner = keine Information). Selbst im "perfekten" Vakuum werden Teilchen ausgetauscht (siehe Heisenberg). Sogar schwarze Löcher wechselwirken mit ihrer Umwelt (siehe Hawking-Strahlung).
  • Erzeugt Ausgaben: Auch die OECD verwendet diesen Begriff sehr undifferenziert und somit wenig brauchbar. Siehe Punkt vorher (Eingaben): Jedes System, gibt etwas aus, also kann man diese Information einfach weglassen.
  • Beeinflussen der Umwelt: Wird hier als optional gekennzeichnet, hätte man auch weglassen können. Siehe auch zwei Punkte vorher (Eingaben): jedes System beeinflusst die Umwelt, also kann man diese Information einfach weglassen.
  • Autonom: Wird zwar erwähnt, aber in einer eher optionalen oder zumindest unklaren Weise. Hätte man auch weglassen können oder besser erklären müssen.
  • Anpassbarkeit: Die OECD erklärt zur Definition, dass dies ein optionales Kriterium sei.

Einige der genannten Merkmale sind zutreffend, andere sind es nicht. Die OECD-Definition erscheint jedenfalls besser als die Definition der KI-Verordnung der EU aus dem Jahr 2021 und nahezu gleich zur EU-Version aus dem Jahr 2023. Somit kann die folgende Kritik an der OECD-Definition in fast allen Fällen auf die der EU übertragen werden.

Die auf den ersten Blick gut wirkende OECD-Definition hat manche dazu verleitet, diese Definition zu nehmen, um sie ins Deutsche zu übertragen. Übersetzen wäre zielführender gewesen, denn bei der Transferleistung wurde der Sinn verkehrt. Beispielsweise hat ein Sekundärautor den Begriff autonom als "für einen in wechselndem Maße autonomen Betrieb angelegt" bezeichnet. Das entspricht nicht der OECD-Definition und ist zudem falsch. ChatGPT war oder ist jedenfalls an sich kein autonomes System bzw. muss keines sein, um als intelligent zu gelten.

Gut an der OECD-Definition ist, dass sie den Lösungsweg thematisiert. Denn auch ein dummer Zufallsautomat kann für ein gegebenes Problem dieselbe Lösung finden wie eine Superintelligenz.

Vorschlag für eine Definition und einen Definitionsprozess

Anscheinend gibt es keine brauchbare Definition des Begriffs Künstliche Intelligenz. Bevor weitere Fehlversuche unternommen werden, schlage ich einen strukturierten Prozess vor. Am Ende wird es eine Definition für KI geben. Die Frage wird sein, ob sie unscharfe Begriffe enthält, für die wiederum eine Definition erstellt werden müsste. Update: Siehe unten für meine neue Definition von KI.

Zur Inspiration beim Finden einer Definition für "Künstliche Intelligenz" und somit im Kern für den Begriff "Intelligenz" sollte die menschliche Intelligenz (vom Mensch selbst als Maximalintelligenz angesehen) betrachtet werden. Das erscheint mir jedenfalls naheliegend.

Alles ist relativ, somit auch, ob der Mensch intelligent ist. Noch ist er es im Vergleich mit KI, jedenfalls wenn man alle möglichen Problemstellungen in ihrer Gesamtheit betrachtet. Stand: 03.04.2024 (nächstes Jahr kann es schon anders aussehen).

Gesicherte Merkmale identifizieren

Der erste Schritt hin zu einer KI-Definition ist der einfachste. Hierzu werden gesicherte Merkmale von KI als Basis für eine Definition genommen. Als gesichert gelten wohl folgende Merkmale für KI-Systeme:

  • KI-Systeme sind künstliche Systeme. Sie basieren also auf Hardware und/oder Software. Man könnte auch das Attribut maschinenbasiert oder vielleicht auch nichtbiologisch verwenden. Beweis: KI = Künstliche Intelligenz.
  • KI-Systeme sind intelligent. Beweis: KI = Künstliche Intelligenz.

Somit sind bereits zwei Merkmale Künstlicher Intelligenz gefunden, denen wahrscheinlich niemand widersprechen wird:

  • Maschinenbasiert (sagt auch die OECD) oder Hardware-basiert oder, noch besser, künstlich. Weil einfach einfach ist.
  • Intelligent: Sagt niemand (außer mir): Weder die OECD noch die KI-Verordnung nutzen den Begriff "intelligent" oder "Intelligenz" (und wenn dann nur als Kombibegriff "künstliche Intelligenz"). Wenn man Angst hätte, schwierig definierbare oder unscharfe Begriffe zu verwenden, hätte man Inferenz oder Maschinelles Lernen auch nicht verwenden dürfen.

Vom Begriff "intelligent" werde ich später wieder abkommen. Allerdings bewirkt dieser Begriff, dass man sich tiefgehend mit dem Kernproblem der Definition beschäftigt. Nebenbei konnte ich eine Definition von "Intelligenz" finden: Die neue Definition von Künstlicher Intelligenz ist so elegant, dass durch das Streichen von zwei Worten eine Definition für Intelligenz entsteht.

Beispiele für intelligente und nicht intelligente Systeme

Bevor es weitergeht, sollte man sich Gedanken machen, welche Systeme als intelligent anzusehen sind. Dies bezeichne ich hier als Positivbeispiele. Ebenso wichtig sind Negativbeispiele, die nichtintelligente Systeme auflisten.

Die folgende Tabelle zeigt eine subjektive Festlegung für intelligente Systeme (egal ob künstlich oder nicht) in Form solcher Positivbeispiele:

SystemWarum intelligent?
Toller StaubsaugerroboterNutzt eine Kamera, um Objekte zu erkennen, um den Putzraum erkennen und möglichst zielgerichtet befahren zu können.
MenschIntelligenz ist bei jedem Menschen sehr unterschiedlich verteilt, aber es wird allgemein angenommen, sie sei vorhanden.
AmeiseKann eine komplexe Umgebung erkunden und schwierige Probleme lösen. Zudem fähig zur sogenannten Schwarmintelligenz (wäre nicht nötig für die Aufnahme in diese Liste).
ChatGPTKann komplexe Fragestellungen beantworten und Wissen kombinieren, kommt mit unscharfen Fragestellungen zurecht (siehe weiter unten)
Selbstfliegende DrohneErkennt bisher unbekannte Objekte, trifft daraufhin Entscheidungen und kann somit selbständig das Problem lösen, vom Startpunkt zu einem vorgegebenen oder anderweitig bestimmten Zielpunkt zu fliegen.
Liste mit Beispielen für intelligente Systeme

Ebenso subjektiv folgt eine Definition für unintelligente Systeme (egal ob künstlich oder nicht):

SystemWarum nicht intelligent?
Einfacher StaubsaugroboterBasiert weitgehend auf Zufall oder einfachen Regeln.
Bildgenerator (Stable Diffusion)Kann kein neues Wissen nutzen.
Donald TrumpNutzt angelernte Mimiken und Phrasen, ist gegen alle, die gegen ihn sind. Hat einen schlechten Friseur, obwohl es viele gute Friseure gibt.
ZufallsgeneratorBasiert weitgehend auf Zufall (kann aber theoretisch jedes Problem lösen).
Digitale WaageKann nur eine Art von (simpler) Frage beantworten und auch nur, wenn das Objekt oder die Person sich "richtig" auf der Waage platziert.
Ferngesteuerte DrohneTrifft selbst keine Entscheidungen, tut nur, was der Nutzer vorgibt.
SuchmaschineBasiert auf wie auch immer gearteten Methoden, Zeichen miteinander zu vergleichen und mit Hilfe weiterer Regeln (Link juice etc.) eine Ergebnisreihenfolge abzuleiten.
Smartphone-TastaturMacht Vorschläge für das aktuelle und nächste Wort und nutzt dafür einen Zählmechanismus oder simple Ähnlichkeitsvergleiche.
Bilderkennung in SicherheitskamerasEventuell intelligent. Hängt von der Qualität der Erkennung ab.
Liste mit Beispielen für Systeme, die nicht intelligent sind.

All diesen Beispielen, seien sie positiv oder negativ, ist eines gemeinsam: Sie kommen ohne die Begriffe Software, Statistik, Mensch oder weitere Phrasen aus der KI-Verordnung aus.

Was ist die Definition von Intelligenz?

Kurze Antwort: Ich weiß es nicht. Es gibt meines Wissens nach keine solche Definition, die

  • exakt (scharf, also nicht unscharf),
  • zutreffend und
  • konkret ist.

Dieses Problem der Begriffsdefinition kann an dieser Stelle nicht gelöst werden. Sofern die Lösung dieser Begriffsdefinition nötig sein sollte, muss sie wieder aufgegriffen werden. Es wird sich gleich zeigen. Ja, hat sich gezeigt, siehe weiter unten.

Allerdings können aus dem Anspruch heraus, dass ein KI-System intelligent sein muss, wichtige Merkmale für die Definition abgeleitet werden, was KI ist. Im vorigen Satz stand "muss", nicht "kann" oder "könnte" oder "in unterschiedlichem Maße". Vergleiche hierzu die Relativierungen in den Definitionen der KI-Verordnung und der OECD, die ich versuche zu vermeiden.

Als weitere Merkmale Künstlicher Intelligenz schlage ich ad hoc folgende vor und bin gespannt, ob diese sich durchsetzen können:

  • Ein KI-System versucht, ein Problem zu lösen. Der Begriff des Ziels wird durch Problem ersetzt. Laut Wikipedia schließt ein Problem Ziele ein. Ein Problem ist nach meiner Definition weitergehend zu verstehen und etwas, was nicht durch eine bloße Suche nach Wissen oder durch bloßes (simples) Befolgen einer Anweisung gelöst werden kann. Denn ansonsten wäre jede Suchanfrage an ein KI-System geeignet, angebliche Intelligenz hervorzurufen. Eine Suchanfrage wäre "Welcher Wochentag war der 19.03.2024?". Für die Antwort auf diese Frage bedarf es ChatGPT nicht. Selbst wenn ChatGPT diese Frage durch Nachschlagen im Kalender beantwortet, würde man nicht von Intelligenz sprechen, denn diese Frage kann auch ein dummes Programm beantworten. Dass intelligente Systeme auch einfache Aufgaben lösen können, ist kein Hindernis.
  • Ein KI-System versucht, ein Problem zu lösen, indem es einen Lösungsweg nutzt, der nicht konkret vorgegeben ist. Bitte beachten: Hier steht "versucht"!
  • Ein KI-System kann bei Bedarf bestehendes mit neuem Wissen kombinieren. Demnach sind Bildgeneratoren (Midjourney, Stable Diffusion Verfahren etc.) keine Intelligenzen.
  • Ein KI-System ist in der Lage, unscharfe Problemstellungen zu verstehen. Gemeint ist hier insbesondere: Wenn in einer Problemstellung ein Wort falsch geschrieben ist, kann die KI dies kompensieren. Anderes Beispiel: Worte werden in einer sonst unüblichen Weise kombiniert. Die KI versteht das aber dennoch (genauso wie ein Mensch). Weitere, komplexere Beispiele sind denkbar.
  • Ein KI-System kann Schlussfolgerungen ziehen. Was eine Schlussfolgerung ist, müsste man noch definieren. Sicherlich versteht aber fast jeder Mensch direkt, was eine Schlussfolgerung ist, jedenfalls eher als den Begriff der Intelligenz.

Der Versuch, ein Problem zu lösen, ist offensichtlich nicht gleichbedeutend damit, ein Problem tatsächlich zu lösen. Es gibt durchaus das, was als "intelligente" Herangehensweise an ein Problem betrachtet wird. Nicht selten wird in Auswahlverfahren ("Assessment Center") beobachtet, wie ein Kandidat ein Problem lösen will. Es geht also beim genannten Auswahlverfahren nicht um das Ob, sondern um das Wie!

KI-Systeme können auch, aber hoffentlich nur untergeordnet, mit Hilfe von Kann-Merkmalen definiert werden. Die Definition der KI-Verordnung hingegen bedient sich leider fast ausschließlich dieser Kann-Kriterien.

Meine Vorschläge für Kann-Merkmale für KI-Systeme:

  • Selbständiges Lösen von Problemen: Auch unselbständiges Lösen kann von Intelligenz zeugen. Soweit mir bekannt ist, hat nicht ein Mensch eine Rakete gebaut, die zum Mond geflogen ist, sondern viele tausend Menschen gemeinsam.
  • Modalitäten: Eine Modalität ist eine Datenart. Beispiele sind Text, Video, Audio, Erdbebensensor. Ein KI-System kann Probleme für eine Modalität lösen, oder auch für eine Kombination mehrerer Modalitäten (Beispiel: KI-System, das für ein gegebenes Bild eine textuelle Frage beantwortet).

Im folgenden Abschnitt wird ein Prozess beschrieben, mit dem die Definition des Begriffes Künstliche Intelligenz gefunden werden kann. Möglicherweise ergibt sich so eine Definition, die ohne den nach meiner Ansicht niemals sauber definierbaren Intelligenzbegriff auskommt.

Prozess für das Erstellen einer Definition des KI-Begriffs

Die obigen Erkenntnisse und Merkmale, die eine KI beschreiben könnten, sind hoffentlich eine gute Ausgangsbasis für eine belastbare und vor allem zutreffende Definition. Nach Erhalt einer Definition über den folgenden Prozess kann diese Definition über Positiv- und Negativbeispiele validiert werden.

Mein Vorschlag für einen Prozess zum Finden einer Definition für den KI-Begriff ist:

  1. Erstellen von Beispielen für KI-Systeme (Positivbeispiele). Ebenso Erstellen von Beispielen, die keine oder am besten gerade so keine KI-Systeme sind (Negativbeispiele).
  2. Aus den Beispielen und den bisherigen Merkmalen neue Merkmale entwickeln oder bestehende Merkmale ändern. Dazu pro Merkmal prüfen: Trifft es auf alle gefundenen Positivbeispiele zu?
  3. Für die Negativbeispiele prüfen: Trifft das neu gefundene Merkmal nicht auf die Negativbeispiele zu? Falls es doch zutrifft: Trifft die Kombination aller bisher gefundenen Merkmale in ihrer Gesamtheit nicht auf die Negativbeispiele zu? Falls nein, falls also alle Merkmale zusammen auch auf ein Negativbeispiel zutreffen: Neues Merkmal suchen, welches dann nicht mehr für das Negativbeispiel zutrifft, aber für alle Positivbeispiele.
  4. Versuch der Konsolidierung der Merkmale: Welche zwei oder mehr Merkmale können in einem Merkmal zusammengefasst werden?
  5. Test mit den bisherigen Positiv- und Negativbeispielen. Schlägt der Test fehl, dann zurück zu Schritt 2.
  6. Verwendete Begriffe, die nicht klar definiert sind, definieren. Dazu denselben Prozess ab Schritt 1 rekursiv durchlaufen.
  7. Wurden Begriffe neu definiert, dann prüfen, ob diese Begriffe durch andere Begriffe ersetzt werden können, die keiner Definition bedürfen. So geschehen mit dem Begriff "Hardware-basierte Systeme", der in der Definition in Version 2 durch "künstliche Systeme" ersetzt wurde.
  8. Optional: Weitere Beispiele finden und somit wieder bei Schritt 1 anfangen.

Dieser Prozess fördert entweder eine bestmögliche Definition egal welchen Begriffs zutage. Oder es wird deutlich, dass am Ende des Tages jede Definition darauf basiert, andere Begriffe zu verwenden, für die es keine klare Definition gibt oder die auf andere verwendete Begriffe verweisen.

Je nach Anspruch wird man nach einigen Durchläufen des Prozesses eine gute KI-Definition erhalten, die sicher besser ist als alle anderen Definitionen, die es nach meiner Kenntnis bisher gibt.

Definition von KI

Nach all den Betrachtungen und der Anwendung meines Prozesses folgt meine Definition von Künstlicher Intelligenz. Sie lautet:

Als Künstliche Intelligenz wird ein künstliches System bezeichnet, das versucht, ein Problem auch bei unscharfer Vorgabe auf eine nicht konkret vorgegebene, lösungsorientierte Weise zu lösen und dazu bestehendes mit neuem Wissen kombiniert und Schlussfolgerungen zieht.

Quelle: Klaus Meffert im Dr. DSGVO Blog (Stand: 03.04.2024)

Die Kernmerkmale dieser Definition sind:

  • Künstlich (zuvor Hardware-basiert): Weil einfach einfach einfach ist, wird hier das Attribut verwendet, welches bereits im Begriff der KI steckt, nämlich künstlich. Manche verwenden "Maschine", was zu verkürzend wäre. Siehe weiter unten für meine Definition von "Hardware" (nicht mehr nötig, weil jetzt "künstlich"). Software wäre falsch, außer man definiert Software sehr weitreichend. Dann bräuchte man aber eine Zusatzdefinition zur Hauptdefinition, woran die Verständlichkeit leidet.
  • Problemlösungsversuch: Keine Eingabe und kein Ziel, sondern ein Problem! Und nicht unbedingt die Lösung eines Problems, sondern bereits der erkennbare, bemerkenswerte Versuch reicht aus!
  • Unscharfe Vorgabe: Falls es eine Vorgabe gibt ("… auch bei…"), dann kann diese auch schlampig oder ungenau oder sogar widersprüchlich sein. Beispiel: "Waz sint Cookis" Antwort: "Cookies sind Datensätze, viele sagen fälschlicherweise, es wären Textdateien" –> Trotz Schreibfehlern und fehlendem Fragezeichen in der Frage wird die Frage "erkannt" und beantwortet. Manche Systeme kommen ohne Vorgabe ("Frage") aus! Beispiel: Staubsaugerroboter. Er wird angeschaltet und startet. Hier gibt es keine Vorgabe vom Bediener. Vielmehr gibt es einen Auftrag bzw. eine Aufgabe, die dem Roboter bei der Konstruktion mitgegeben wurde.
  • Nicht konkret vorgegebener Lösungsweg: Kein starres Regelwerk, sondern ein elastisches, flexibles System. Siehe neuronales Netz. Es kann auch jeder andere Mechanismus sein, der ähnliche Eigenschaften hat. Gegenbeispiele: Expertensystem, klassischer Sortieralgorithmus, Page Rank Algorithmus bei der datenfeindlichsten Suchmaschine der Welt.
  • Lösungsorientiert: Man könnte auch ein Adjektiv wie fundiert, problemorientiert oder zweckdienlich verwenden. Unterscheidet den Zufall vom cleveren Algorithmus, der versucht, die Problemlösung aktiv zu begünstigen (aus dem Englischen kennt man "make an educated guess": Äußere eine fundierte Vermutung. Ob die Vermutung gut war, spielt keine Rolle, sie muss nur fundiert gewesen sein. Fundiert ist das, was andere als guten Ansatz bezeichnen könnten, die "intelligent" sind).
    Weil der Mensch sich als Maßstab sieht, wäre das fundiert, was der Mensch gut finden könnte. So vermeidet man hier "intelligent". Richter sind ja auch Menschen, und die beurteilen letztendlich jeden Streit.
  • Wissen kombinieren: Bestehendes Wissen ist das, was das KI-System schon wusste (beim Menschen wird das als "Erziehung" oder "Lernen" bezeichnet). Neues Wissen ist das, was das KI-System entweder über eine Vorgabe oder durch Selbstaneignung (Internetsuche, Kamerabild, Sensorwerte…) erhält.
    Kombination bedeutet, bestehendes und neues Wissen zu verknüpfen und daraus Erkenntnisse zu gewinnen. Erkenntnisse sind alle Informationen, die helfen können, das Problem zu lösen oder Irrwege zu erkennen! Beispiel Chain of Thought: Die KI bekommt ein Problem und stellt fest, ihr fehlt Wissen. Sie recherchiert, findet etwas und prüft, ob damit die Wissenslücke geschlossen ist. Ist die Lücke geschlossen, wird das neue mit dem vorhandenen Wissen kombiniert (oder nur das neue Wissen genommen, falls es kein vorhandenes relevantes Wissen gibt).
    Wissen muss nicht immer kombiniert werden, aber wenn es notwendig oder sinnvoll ist, sollte es idealerweise passieren. Je nach dem, wie gut die KI das kann, ist sie intelligenter oder weniger intelligent.
    Statt "Wissen" könnte man auch darüber nachdenken, ob es sich um "Informationen" oder "Daten" handeln könnte. Wissen ist aber wohl richtig, weil Intelligenz wohl bedeutet, aus Daten zuerst Informationen und dann das dahinter liegende Wissen zu gewinnen.
  • Schlussfolgerungen ziehen: Beispiel Staubsaugerroboter: Nachdem er ein Hindernis erkannt hat, fährt er auf das Hindernis zu, stoppt dann, dreht sich und fährt in eine andere (als "gut" befundene) Richtung weiter. Dieses "Befinden" ist hier wichtig, weil ansonsten Kollege Zufall als intelligent bezeichnet werden könnte. Alternativ kann der Roboter mitten auf dem Weg anhalten oder drehen, etwa weil der Rest des Weges bereits gereinigt wurde.
    Analog zum vorigen Punkt "Wissen kombinieren": Schlussfolgerungen können gezogen werden, müssen es aber nicht. Die Folgerung sollte stattfinden, wenn nötig oder sinnvoll. Abhängig davon, wie gut das funktioniert, ist die KI intelligenter oder weniger intelligent.

In der Definition wird der fundierte Lösungsversuch in den Vordergrund gestellt. Ebenso wird die Möglichkeit thematisiert, unscharfe Eingaben zu verstehen (zu verarbeiten). Das Kombinieren von Wissen und das Schlussfolgern sind weitere wichtige Eigenschaften von Intelligenz (gleich welcher Art).

Ursprünglich habe ich den Begriff Hardware-basiert verwendet, der jetzt durch künstlich ersetzt wurde. Meine Definition von Hardware, die somit nicht mehr benötigt wird, lautet:

Hardware bezeichnet nichtorganische Materie und andere Existenzen ungleich organischer Materie. Ebenso beinhaltet Hardware organische Materie, die kein Lebewesen und die kein quasi-Lebewesen (Viren o.ä.) darstellt .

Meine ad-hoc Definition von Hardware im Kontext meiner KI-Definition (Stand: 20.03.2024).

Somit ist der Begriff künstlich (vorher: Hardware-basiert) besser geeignet als der Begriff der Maschine, den die OECD verwendet und den ich zunächst als gleichwertig ansah, nach erstem Nachdenken sogar für besser. Denn KI kann sicherlich auch auch in organischer, nichtlebendiger Form existieren. Sogar Antimaterie oder andere unvorstellbare Existenzen sind möglich. Ich möchte sie jedenfalls nicht unnötigerweise ausschließen. Der Träger einer Intelligenz ist a priori irrelevant.

Es folgt der Test meiner Definition gegen die oben genannten Positiv- und Negativbeispiele. Hält meine Definition dem Test stand?

Zunächst die Positivbeispiele: Sie müssen alle von der eben genannten Definition erfasst werden, ansonsten wäre die Definition nicht passend. In der Auflistung zu jedem genannten Beispiel sind die Merkmale genannt, die meine Definition enthält ("Hardware-basiert" etc.).

Toller Staubsaugerroboter:

  • Künstlich: Ja.
  • Problemlösungsversuch: Ja, mithilfe eingebauter Kamera werden Objekte erfasst und erkannt sowie Handlungen abgeleitet (ähnlich dem Handlungsreisendenproblem, aber ohne stumpfes Ausprobieren)
  • Unscharfe Vorgabe: Hier irrelevant, weil es keine Vorgabe gibt (siehe weiter oben, dort beschrieben).
  • Nicht konkret vorgegebener Lösungsweg: Ja, denn die Auswertung eines Kamerabildes findet (beim Transformer-Ansatz) in einer hochflexiblen, intransparenten Weise über ein neuronales Netz statt (wie beim Menschen).
  • Lösungsorientiert: Der Staubsaugerroboter versucht aktiv, möglichst effizient zu arbeiten. Ob das immer gelingt, ist zweitrangig. Ein Kleinkind versucht schließlich auch öfters Dinge, die nicht sofort vorteilhaft sind, lernt aber daraus oder kann lernen, dass dieser eine Irrweg zu vermeiden ist.
  • Wissen kombinieren: Ja, Kamerabild mit Objekterkennung = neues Wissen, bisher wahrgenommene Umgebung = altes Wissen, neue Fahrtroute = Kombination.
  • Schlussfolgerungen ziehen: Ja (siehe weiter oben, dort beschrieben).

Fazit: Definition passt.

Bevor weitere Positivbeispiele abgearbeitet werden, folgt vorsichtshalber ein Blick auf die Negativbeispiele: Für keines dieser Beispiele darf die obige Definition von KI zutreffen. Zu den Negativbeispielen wurden oben teils schon genannt, warum diese nicht intelligent sind. Daher hier nur in Kürze:

  • Einfacher Staubsaugroboter: Arbeitet mit Zufall und versucht somit nicht, lösungsorientiert zu agieren. Kann Wissen nicht kombinieren.
  • Zufallsgenerator: Dito.
  • Digitale Waage: Kann Wissen nicht kombinieren, löst kein Problem bzw. versucht es nicht einmal (siehe weiter oben: Problembegriff. Problem = etwas weitergehendes, nicht durch bloßes (simples) Ausführen von Anweisungen Lösbares.
  • Ferngesteuerte Drohne: Dito.
  • Suchmaschine: Rein regelbasiert, nutzt einen konkret vorgegebenen Lösungsweg. Suchmaschinen, die an KI-Systeme angebunden sind, sind KI-Systeme 😉
  • Bildgenerator (Stable Diffusion): Kann Wissen nicht kombinieren bzw. zeigt dies in der Ausgabe nicht (bzw. nicht feststellbar) –> Der kreative Bereich ist nicht unbedingt mit dem Intelligenzbegriff messbar. Ob Rembrandt als Künstler intelligent war, darf objektiv (ohne jede Ironie, ganz nüchtern gesagt) bestritten werden. Kunst liegt im Auge des Betrachters. Kunst und Intelligenz sind zwei Kategorien, die zunächst nicht kompatibel sind. Ein Gemälde löst oft nicht wirklich ein Problem. Vielen ist sicher folgender Fall bekannt: Ein Kunstwerk erzielt beispielsweise 100 Millionen Euro. Die Mehrheit der Menschheit würde dann sagen: "Dieses Werk ist hässlich. Ich würde nicht einen Euro [bzw. Landeswährung] dafür bezahlen." Es geht bei Intelligenz zwar nicht um Mehrheitsbeurteilungen, aber Kunst ist eben rein subjektiv.
  • Smartphone-Tastatur: Arbeitet mit Häufigkeiten (manche sagen Statistik).
  • Donald Trump: Außerhalb dieser Betrachtung.

Fazit: Alle Negativbeispiele sind richtigerweise nicht von der KI-Definition erfasst. Die Definition passt immer noch.

Es folgt eine Validierungen der Definition mit weiteren Positivbeispielen:

ChatGPT:

  • Künstlich: Ja.
  • Problemlösungsversuch: Ja, offenbar. Siehe die zahlreichen beeindruckenden Beispiele.
  • Unscharfe Vorgabe: Ja, siehe schlampige Fragestellungen aller Art.
  • Nicht konkret vorgegebener Lösungsweg: Ja, ChatGPT basiert auf einem neuronalen Netzwerk und dem Transformer-Ansatz (=menschlicher Intelligenzmechanismus, sage ich)
  • Lösungsorientiert: Ja, offenbar, wie viele Beispiele zeigen. Nicht jedes Problem muss übrigens zufriedenstellend gelöst werden (siehe Mensch als Beispiel).
  • Wissen kombinieren: Ja, offenbar. Mittlerweile auch durch Hinzuziehen von Internetwissen. Siehe auch FastGPT (mein Ergebnis war perfekt. FastGPT nutzt aber Zufall, um kreativere Antworten geben zu können, daher kann es imperfekte Ergebnisse geben, wenn Sie dem Link folgen).
  • Schlussfolgerungen ziehen: Ja, offenbar. ChatGPT kann selbst Mathematikaufgaben lösen, die die besten Mathematiker der Welt kaum oder nicht lösen können. Dazu gibt es dann oft noch den Lösungsweg.

Fazit: Die Definition passt auch hier.

Nebenbei: Wer gerne eine andere Suchmaschine als Google hätte, dem empfehle ich Kagi. Kagi beinhaltet das oben genannte FastGPT. Jetzt kommt der Hammer: Kagi kostet 5$ pro Monat, enthält aber keine Werbung!

Ameise:

  • Künstlich: Nein, lebendig –> in Ordnung, weil eine Ameise keine künstliche Intelligenz sondern eine (lebendige) Intelligenz ist. Dieses Kriterium hätte man für die Ameise nicht prüfen müssen.
  • Problemlösungsversuch: Ja, siehe das Leben einer Ameise. Beispiele: Futtersuche, Nestbau.
  • Unscharfe Vorgabe: Entweder gibt es keine Vorgabe oder die Ameisenkolonie gibt die Vorgabe unscharf.
  • Nicht konkret vorgegebener Lösungsweg: Ja, siehe das Leben einer Ameise. Beispiele: Futtersuche, Nestbau, Verteidigung gegen Feinde.
  • Lösungsorientiert: Ja, offenbar. Immerhin leben Ameisen schon sehr lange auf diesem Planeten.
  • Wissen kombinieren: Ja, offenbar. Beispiele: Terrain erkunden, Futtersuche, Material für Nestbau suchen und transportieren.
  • Schlussfolgerungen ziehen: Ja. Beispiel: Pheromon-Fährten anderer Ameisen.

Fazit: Die Definition passt.

Mensch:

Dem Mensch wird nachgesagt, er sei intelligent. Ich sage: Die aktuellen KI-Systeme nutzen qualitativ die gleiche Intelligenzfunktion wie der Mensch. Diese besteht im Wesentlichen aus einem neuronalen Netz und dem Transformer-Ansatz oder einem vergleichbaren oder besseren Ansatz.

Fazit: Die Definition passt, obwohl der Mensch keine KI ist (daher keine Prüfung gegen künstlich).

Es folgt der Test gegen das Beispiel, in dem es von der Qualität des Systems abhängt, ob das System intelligent ist oder nicht: Der Bilderkennung in Sicherheitskameras. Die Frage ist, was dieses System leisten soll und wie gut es die Aufgabe erfüllt.

  • Künstlich: Ja.
  • Problemlösungsversuch: Das Problem ist die Erkennung der Objekte im Bild. Wenn nur einfache Objekte oder nur wenige etwas komplexere Objekte erkannt werden sollen, ist das System womöglich nicht so leistungsfähig und somit keine KI. Man kann viele Objekte auch ohne KI erkennen.
  • Unscharfe Vorgabe: Hier irrelevant, da keine Vorgabe. Bzw. falls Vorgabe (reagiere nur auf Einbrecher, nicht auf Passanten), dann wäre das System eine KI, wenn die Vorgabe erkennbar ausreichend berücksichtigt wird.
  • Nicht konkret vorgegebener Lösungsweg: Falls ja, dann zumindest potentiell eine KI.
  • Lösungsorientiert: Falls nicht, dann keine KI. Regelbasiert wäre nicht oder nur begrenzt lösungsorientiert, je nach Komplexität und Leistungsfähigkeit der Regeln.
  • Wissen kombinieren: Falls nein, dann keine KI.
  • Schlussfolgerungen ziehen: Falls ja, wäre das ein starker Indikator für eine KI. Falls nein, dann wäre das System weniger leistungsfähig und wohl keine KI.

Wie erkennbar ist, kann mithilfe der Definition ziemlich gut festgestellt werden, wann eine Bilderkennung eine KI sein kann und wann nicht. Auch der Grad der Intelligenz kann so hergeleitet werden.

Fazit

Die von mir entwickelte Definition für Künstliche Intelligenz lautet:

Was ist Künstliche Intelligenz?

Als Künstliche Intelligenz wird ein künstliches System bezeichnet, das versucht, ein Problem auch bei unscharfer Vorgabe auf eine nicht konkret vorgegebene, lösungsorientierte Weise zu lösen und dazu bestehendes mit neuem Wissen kombiniert und Schlussfolgerungen zieht.

Quelle: Klaus Meffert im Dr. DSGVO Blog

Die englische Version lautet:

What is artificial intelligence?

An artificial intelligence is an artificial system, that attempts to solve a problem in an unspecified, useful way, even when given a fuzzy specification, by combining existing knowledge with new knowledge and drawing conclusions.

Source: Klaus Meffert in Dr. DSGVO Blog

Mithilfe einer Systematik wurde die Definition auf ihre Eignung hin geprüft. Dies fand bei der KI-Definition der KI-Verordnung anscheinend nicht statt. Die OECD-Definition ist besser, aber nicht ausreichend scharf genug. Außerdem enthält sie zahlreiche Füllworte, die darauf hinweisen, dass den Autoren die wichtigen Begriffe ausgegangen sind.

Die Definition wurde ohne Blick auf allgemeine Quellen (wie Wikipedia, Duden etc.) gewonnen, sondern erst nachträglich damit verglichen (siehe das "PS" unten).

Im Beitrag wurden Grundmerkmale einer KI definiert, die als unstrittig gelten dürften.

Weiterhin wurden Mussmerkmale von KI-Systemen definiert. Darüber hinaus wurden Kann-Merkmale von KI-Systemen definiert, die für die Definition nicht notwendig sind, aber beim Unterscheiden verschiedengestaltiger KI-Systeme helfen.

Zur Validierung wurden Positivbeispiele für intelligente Systeme und Negativbeispiele für nicht intelligente Systeme genannt und kurz beschrieben.

Anschließend wurde ein Prozess beschrieben, mit dem eine bestmöglich passende Definition des KI-Begriffs erhalten werden kann.

Danach wurde ein Vorschlag für eine Definition für Künstliche Intelligenz gegeben. Abschließend wurde diese Definition mit Hilfe des beschriebenen Prozesses gegengeprüft. Die Prüfung ergab, dass die Definition für die genannten Positiv- und Negativbeispiele passt.

Die Definition für KI erscheint für die genannten Beispiele zutreffend. Weitere Beispiele helfen, die Definition zu verfeinern und intensiver zu prüfen. Möglicherweise ist auch eine Korrektur angebracht. Meine KI-Definition basiert insbesondere auf dem Problembegriff. Was ein Problem ist, ist viel einfacher erklärbar als was "Intelligenz" oder "KI" ist. Durch diese Reduktion des Definitionsproblems auf etwas Einfacheres wird es wohl darauf hinauslaufen, den Problembegriff zu schärfen und ggf. weitere Beiordnungen vorzunehmen.

Der kreative Bereich ist dem Intelligenzbegriff nicht ohne Weiteres zugänglich. Künstlerisches Schaffen sollte nachgelagert betrachtet werden, wäre mein Vorschlag. Vielleicht läuft es auf eine Definition von kreativer künstlicher Intelligenz hinaus, der die obige Definition ergänzt, ausweitet oder verfeinert.

Die hier gegebene Definition unterscheidet sich qualitativ von denen der OECD und der KI-Verordnung. Sie stellt weder auf Software noch auf Ziele ab. Auch der Mensch als Teil des Systems wird nicht definiert. Menschen sind nicht nötig, damit eine Künstliche Intelligenz (so sie denn einmal existiert) vorhanden sein kann. Fundamental anders ist, dass meine Definition auf den Lösungsweg abzielt und die Kombination von Wissen sowie Schlussfolgerungen als Kriterien fordert. Eingabe und Ausgabe sind in meiner Definition nicht genannt, weil sie meiner Einschätzung nach keine Merkmale für Intelligenz sind. Das Problem und der Lösungsversuch sind hingegen integral in meiner Definition verankert. Elegant ist die Nutzung von "künstliches System", weil KI künstlich ist.

Dieser Beitrag begann eigentlich mit dem Ziel, bestehenden KI-Definitionen zu kritisieren und einen Prozess zu nennen, um zu einer guten Definition zu gelangen. Am Ende ist doch eine KI-Definition herausgekommen, die ich persönlich für deutlich geeigneter halte als die der KI-Verordnung und der OECD.

Zum Abschluss noch die umfassende Definition von Intelligenz:

Als Intelligenz wird ein System bezeichnet, das versucht, ein Problem auch bei unscharfer Vorgabe auf eine nicht konkret vorgegebene, lösungsorientierte Weise zu lösen und dazu bestehendes mit neuem Wissen kombiniert und Schlussfolgerungen zieht.

Quellenangabe: Klaus Meffert im Dr. DSGVO Blog (Stand: 03.04.2024)

Rückmeldungen bitte gerne über die Kommentarfunktion unten oder per Mail (Link am Ende der Seite: "Nachricht schreiben").

PS: Wie ich gerade (beim Korrekturlesen des fertigen Beitrags) sehe, definiert Wikipedia den Begriff der Intelligenz über das Problemlösen. Das Wort "Ziel" kommt dort nicht vor. Die Wikipedia-Definition verwendet alle möglichen unscharfen Begriffe ("kognitiv", "geistig", "sinnorientiert"), die zudem falsch werden, wenn es um künstliche Intelligenz geht. Meine Definition von Intelligenz entspricht exakt meiner Definition von Künstlicher Intelligenz, mit dem einen Unterschied, dass bei meiner KI-Definition die Künstlichkeit als zusätzliches Kriterium genannt ist. Weiterhin sei angemerkt, dass das von Wikipedia genannte "Problemlösen" dort auch als purer (fundierter) Versuch, nicht erst als erfolgreicher Versuch, definiert ist ("… darauf abzielt..."), was meine Definition unterstützt.

Kernaussagen dieses Beitrags

Die bisherigen Definitionen von Künstlicher Intelligenz sind ungeeignet, weil sie Systeme falsch einordnen. Der Text schlägt eine neue Definition vor, die klarer und genauer ist.

Die Definition von Künstlicher Intelligenz (KI) als etwas, das Ziele von Menschen erhält, ist absurd und begrenzt unser Verständnis von Intelligenz.

Die Eigenschaften, die oft als Merkmale von Künstlicher Intelligenz genannt werden, wie Interaktion oder Statistik, sind nicht exklusiv auf KI beschränkt und können auch bei anderen Systemen auftreten.

Die EU-Definition von Künstlicher Intelligenz ist widersprüchlich und absurd, da sie einfache Programme als intelligent einstuft, während komplexe Systeme wie ChatGPT nicht als KI gelten.

Der Text schlägt einen Prozess zur Definition von Künstlicher Intelligenz vor, der zunächst sichere Merkmale wie "maschinenbasiert" und "intelligent" identifiziert.

Künstliche Intelligenz löst Probleme, die nicht einfach durch Wissen oder Anweisungen gelöst werden können.

Künstliche Intelligenzen ähneln dem menschlichen Denken und verwenden ebenfalls neuronale Netze.

Über diese Kernaussagen

KI-Beratung, KI-Lösungen

Umfassende Beratung (fachlich, rechtlich, technisch):

Leistungsangebot:

  • Erstberatung inkl. Machbarkeitsaussagen
  • Schulungen und Workshops für Führungskräfte, Berufsgeheimnisträger, Angestellte, Entwickler
  • KI-Lösungen mit und ohne ChatGPT/Azure. Cloud oder eigener KI-Server

Ihre Anfrage

Oder Mail an ki@dr-dsgvo.de

Wer schreibt hier?
Mein Name ist Klaus Meffert. Ich bin promovierter Informatiker und beschäftige mich seit über 30 Jahren professionell und praxisbezogen mit Informationstechnologie. In IT & Datenschutz bin ich auch als Sachverständiger tätig. Ich stehe für pragmatische Lösungen mit Mehrwert. Meine Firma, die IT Logic GmbH, berät Kunden und bietet Webseiten-Checks sowie optimierte & sichere KI-Lösungen an.
Bitte nutzen Sie bei Verwendung meiner Ergebnisse die Quellenangabe oder verlinken Sie gut wahrnehmbar auf diesen Artikel:
Einen Kurzlink oder eine Bestätigung für Ihre Quellenangabe erhalten Sie kurzfristig auf Anfrage. Ein Teilen oder Verteilen dieses Beitrags ist natürlich ohne weiteres möglich und gewünscht.

Kommentare von Lesern

Die Kommentare drücken die Meinungen der jeweiligen Kommentargeber aus
  1. Beatrix

    Danke für die detaillierten Ausführungen, denen ich völlig zustimme. Erst diese Betrachtung zeigt den eigentlichen Unterschied zwischen "normaler" Software und KI-Systemen.
    KI wird derzeit als Buzzwort auf alle möglichen Programme geklebt, auch ohne dass diese wirklich Derartiges enthalten.

Schreiben Sie einen Kommentar

Ihre Mail-Adresse wird nicht veröffentlicht.

Pragmatische Lösung schlägt rechtliche und organisatorische Vorschriften: Zwei Beispiele