Eine Aufstellung häufiger Begriffe, die für Systeme der Künstlichen Intelligenz relevant sind.
Fett gedruckte Begriffe sind Querverweise auf andere Begriffe, die im KI-Glossar ebenfalls erklärt werden.
Weiterführend Informationen zur KI sind in Beiträgen auf Dr. DSGVO zu finden:
Glossar wichtiger KI-Begriffe
| Begriff | Erklärung |
|---|---|
| Künstliche Intelligenz | Auch mit KI abgekürzt. KI ist die Entwicklung von Computern und Software, die menschenähnliche Fähigkeiten besitzen, wie z.B. Lernen, Problemlösen, Sprachverständnis und -produktion, Sinneswahrnehmung, Handlungskontrolle und autonome Entscheidungsfindung. |
| Modell | Ein KI-Modell ist ein elektronisches Gehirn. Genau wie im biologischen Gehirn besteht es aus einem neuronalen Netz (siehe KNN). |
| LLM | Abkürzung für Large Language Model. Modell, welches mit einer großen Anzahl an Textdokumenten vortrainiert wurde, um die Grammatik einer oder mehrerer Sprachen sehr gut abbilden zu können. |
| Foundation Model | EIn vortrainiertes Grundlagenmodell, welches durch Fine-Tuning an spezifische Aufgaben oder Domänen angepasst werden kann. Oft werden derartige Modelle in einer anwendungsfreundlichen Lizenz bereitgestellt. |
| KNN | Abkürzung für Künstliches Neuronales Netz. Elektronisches Abbild des biologischen Vorbilds. Grundlage für KI-Modelle (siehe Modell). |
| Transformer | Wichtiger mathematischer Ansatz, der überhaupt erst leistungsfähige KI-Anwendungen wie ChatGPT ermöglicht hat und der für den Siegeszug aktueller KI verantwortlich ist. Existiert seit dem Jahr 2017. Die Vorstufe wurde von Jürgen Schmidhuber Anfang der 1990er Jahre entwickelt. Besteht aus einer Encoder-Decoder Struktur, bei der eine Eingabe in Features kodiert wird, die dann über einen Dekoder in eine Ausgabe umgewandelt werden. Siehe auch Embeddings. |
| Modellgröße | Die Größe eines KI-Modells (siehe Modell) wird in Kurzschreibweise in Form der Parameteranzahl angegeben (siehe Parameter). Kleine Modelle haben nur einige hundert Millionen Parameter. Ein 200M Modell hat 200 Millionen Parameter. Größere Modelle haben 13B oder 60B Parameter. Das "B" steht für Milliarde (englisch: "billion"). |
| Parameter | Als Parameter werden die Gewichte in einem künstlichen neuronalen Netz (siehe KNN) bezeichnet. Ein Gewicht definiert die Stärke der Verbindung zwischen zwei Neuronen. |
| ChatGPT | ChatBot auf Basis der GPT-Architektur (siehe GPT). Besitzt auch eine programmierbare Schnittstelle (API). Soll ca. 160B Parameter haben (vgl. Modellgröße). Problematisch hinsichtlich Datenschutz, Geschäftsgeheimnissen und vertraulichen Dokumenten. |
| GPT | Abkürzung für Generative Pretrained Transformer. Siehe Generativ, Vortrainiert und Transformer. |
| Generativ | Fähigkeit, etwas Neues hervorbringen oder erzeugen zu können. Teil der Abkürzung GPT, die auch in ChatGPT steckt. |
| Vortrainiert | Englisch: pretrained. Ein vortrainiertes Modell ist ein angelerntes Modell. Es ist trainiert. Statt trainiert wird aber von vortrainiert gesprochen. Hintergrund ist, dass ein bereits trainiertes Modell weiter trainiert werden kann, was als Fine-Tuning bezeichnet wird. |
| Fine-Tuning | Vortrainierte Modell (siehe Vortrainiert) können für spezifische Aufgaben (siehe Downstream) weiter "ausgebildet" werden. Diese Weiterbildung wird als Fine-Tuning bezeichnet. Fine-Tuning hat den großen Vorteil, dass viel weniger Eingabedaten und Ressourcen (Zeit, Rechenleistung, Hauptspeicher) benötigt werden, als zum Errichten eines vortrainierten KI-Modells. |
| Schichten | Bezieht sich auf künstliche neuronale Netze (siehe KNN): Die Schichten eines neuronalen Netzes sind die Eingabeschicht, die Ausgabeschicht sowie die versteckten Schichten zwischen diesen beiden Schichten. |
| Eingabeschicht | Erste Schicht eines künstlichen neuronalen Netzwerks (siehe KNN). Eingabedaten (Sensordaten oder Benutzereingaben) gelangen über die Eingabeschicht ins KNN. |
| Ausgabeschicht | Letzte Schicht eines künstlichen neuronalen Netzwerks (siehe KNN). Die Ausgabeschicht verkündet das Ergebnis einer KI. |
| Versteckte Schichten | Schichten eines KNN, die zwischen Eingabeschicht und Ausgabeschicht liegen. Hier findet die Magie statt, auch als Intelligenz bezeichnet. Siehe menschliche Intelligenz und Künstliche Intelligenz. |
| Hidden layers | Siehe Versteckte Schichten. |
| Upstream Task | Aufgabe, für die ein KI-Modell vortrainiert wurde. Siehe auch Downstream Task. |
| Downstream Task | Aufgabe, für die ein KI-Modell mit Hilfe von Fine-Tuning vorbereitet wird und die ungleich dem Upstream Task ist, für die das KI-Modell ursprünglich vortrainiert wurde. |
| PyTorch | Beliebtestes KI-Framework, basiert auf der Programmiersprache Python. |
| Tensorflow | Neben PyTorch ein bekanntes KI-Framework. Stammt von Google. Gilt als komplizierter als PyTorch. |
| Tensor | Mathematisches Konzept, um Daten abzubilden. Siehe auch Vektor. |
| Offloading | Auslagern von Teilen eines KI-Modells (sieh Modell) auf eine CPU (statt GPU) oder auf die Festplatte. Offloading löst das Speicherproblem (siehe VRAM) bei großen KI-Modellen, sorgt aber für wesentlich langsamere Berechnungen. |
| CUDA | Abkürzung für Compute Unified Device Architecture. Software-Architektur von Nivdia, um Grafikkarten (siehe GPU) für Berechnungen zu verwenden. |
| Nvidia | Ohne Werbung machen zu wollen: Weltweit führender Anbieter für Grafikkarten, die für KI-Berechnungen besonders gut geeignet sind. Siehe CUDA. Es gibt keinen anderen mir bekannten Hersteller, dessen Grafikkarten so gut in zahlreichen KI-Frameworks (siehe PyTorch) unterstützt werden. |
| Python | Beliebteste Programmiersprache für KI-Anwendungen. |
| GPU | Abkürzung für Graphics Processing Unit. Eine GPU einer leistungsfähigen Grafikkarte wie von Nvidia enthält mehrere tausend Kerne. Ein Kern kann eine Rechenaufgabe lösen. Mehrere Kerne können gleichzeitig arbeiten. Für KI-Anwendungen können Milliarden von Berechnungen auf einer GPU (Grafikkarte) um ein Vielfaches schneller ausgeführt werden als auf einer CPU (normaler Prozessor). Die Grafikkarte wird bei KI-Anwendungen als Rechenknecht missbraucht. Sie gibt keine Bilder oder Texte aus. |
| CPU | Abkürzung für Central Processing Unit. Der Prozessor eines Computers. Er besitzt typischerweise 8 bis 24 Kerne. Siehe auch GPU. |
| VRAM | Video RAM. Im Gegensatz zum RAM ist hier der Speicher einer Grafikkarte (siehe GPU) gemeint. Entscheidend für die Nutzung von KI-Modellen (siehe Modell). |
| KI-Server | So werden Server bezeichnet, die eine leistungsfähige Grafikkarte enthalten (siehe CUDA, GPU und VRAM). |
| Stable Diffusion | Wohl das bekannteste und beliebteste KI-Modell zur Bilderzeugung. |
| LAION | Abkürzung für Large Scale Artificial Intelligence Open Network. Ein in Deutschland eingetragener Verein. Hat einen Bilddatensatz aus knapp 6 Milliarden Bildern samt Bildbeschreibungen erstellt. Dient als Grundlage für Stable Diffusion Ansätze. |
| Bilderzeugung | Häufigster Anwendungsfall: Anhand eines Prompts wird durch eine KI ein Bild erzeugt, das den Prompt widerspiegelt. Bekanntestes Verfahren ist Stable Diffusion. Auch möglich ist die Kombination mehrerer Bilder oder die Veränderung von Eingabebildern. |
| Vektor | Ein Vektor ist die Repräsentation einer Eingabe (= Datenmenge), wie etwa eines Textes, Bildes oder einer Audiodatei. Siehe multimodal. Ein Vektor besteht aus Zahlenreihen und hat eine Dimension, die die Anzahl und Anordnung der Zahlen definiert. |
| Embedding | Repräsentation von Daten beliebiger Art (Text, Bild, Audio, Bewegungssensor, Tenperatursensor etc.) in Form eines Vektors. |
| Multimodal | Dank des Transformer-Ansatzes kann jede Art von Daten gleichartig behandelt werden. Vergleiche das menschliche Gehirn. Alle Sensordaten (Augen, Ohren, Nase, Hautreiz…) werden "wie selbstverständlich" im neuronalen Netz unseres Gehirns auf gleiche Art und Weise verarbeitet. |
| Menschliche Intelligenz | Funktioniert wie Künstliche Intelligenz, ist meine starke These. |
| Geist | Illusion, die das menschliche Gehirn erzeugt, ist meine Überzeugung. |
| AGI | Abkürzung für Artificial General Intelligence. Analog zum Menschen: Generelle Intelligenz, die alle möglichen Aufgaben lösen kann. |
| Prompt | Eingabemöglichkeit für Text, um einer KI eine Anweisung zu geben oder eine Frage zu stellen. |
| Token | Eine Dateneinheit, wie etwa ein Wort in einem Text. Gebräuchliche Einheit für die Berechnung von Kosten der Nutzung von KI-Systemen wie ChatGPT oder für die Konfiguration der maximalen Ausgabelänge von Text. |
| LSTM | Abkürzung für Long Short Term Memory. Zu deutsch: Langes Kurzzeitgedächtnis. Vom deutschen Informatiker Jürgen Schmidhuber erdachte Ansatz. LSTM ist eine Art Episodengedächtnis. |
| Statistik | In KI-Modellen genauso viel oder wenig vertreten wie beim Menschen (siehe menschliche Intelligenz) |
| Deep Learning | Bezieht sich darauf, dass ein KNN viele versteckte Schichten hat, also tief ist. |
| Autarkes System | Datenfreundliches System, das auf einer lokalen Infrastruktur und ohne Internetverbindung lauffähig ist. |
| Datenfreundlich | System, das keine hausgemachten Probleme mit dem Datenschutz, mit vertraulichen Daten oder mit Geschäftsgeheimnissen verursacht. Das Gegenteil sind Systeme, die von Anbietern aus dem USA stammen oder Daten auf Servern in den USA halten (vgl. Privacy Shield – Schrems II). |
| Eliza | Psychiater-Programm, das bereits im Jahr 1966 von Joseph Weizenbaum erdacht wurde. Gaukelte vor, intelligent zu sein. Stattdessen wurde dem menschlichen Gesprächspartner nur das Gefühl von Intelligenz vermittelt, indem Floskeln verwendet und Prompt-Eingaben des Menschen geschickt zurückgespielt wurden. |
Gerne verweise ich auch auf das Datenschutz-Wörterbuch Deutsch-Englisch, das die wichtigsten Begriffe zur DSGVO und zum digitalen Datenschutz enthält.
Einige Kernaussagen
Künstliche Intelligenz (KI) nutzt Computer, die menschenähnliche Fähigkeiten wie Lernen und Problemlösung haben, um Aufgaben zu erledigen.
Vortrainierte KI-Modelle können durch Fine-Tuning für spezielle Aufgaben angepasst werden, was weniger Daten und Ressourcen benötigt als das Training eines neuen Modells von Grund auf.
Der Text erklärt grundlegende Begriffe der Künstlichen Intelligenz (KI), insbesondere im Bereich der Bilderzeugung mit Modellen wie Stable Diffusion.
Das Psychiater-Programm namens Eliza gab Menschen das Gefühl, mit einer intelligenten Maschine zu sprechen, obwohl es eigentlich nur vorgefertigte Antworten verwendete.
KI-Beratung, KI-Lösungen
Leistungsangebot:
- Erstberatung inkl. Machbarkeitsaussagen
- Schulungen und Workshops für Führungskräfte, Berufsgeheimnisträger, Angestellte, Entwickler
- KI-Lösungen mit und ohne ChatGPT/Azure. Cloud oder eigener KI-Server

gekennzeichnet.


Mein Name ist Klaus Meffert. Ich bin promovierter Informatiker und beschäftige mich seit über 30 Jahren professionell und praxisbezogen mit Informationstechnologie. In IT & Datenschutz bin ich auch als Sachverständiger tätig. Ich stehe für pragmatische Lösungen mit Mehrwert. Meine Firma, die 