En opstilling af hyppige begreber, som er relevante for systemer af kunstig intelligens.
Fedt trykte begreber er henvisninger til andre begreber, der også forklaret bliver i det kognitivitet-glossar.
Yderligere informationer om AI kan findes i artikler på Dr. GDPR:
Ordbog over vigtige AI-begreber
| Betegnelse | Erklæring |
|---|---|
| Kunstig intelligens | Med AI forkortet. AI er udviklingen af computere og software, der besidder menneskelignende evner som f.eks. læring, problemløsning, sprogforståelse og -produktion, sansning, handlingskontrol og selvstændig beslutningstagelse. |
| Model | Et AI-modul er et elektrisk hoved. Præcis som i det biologiske hjerne består det af et neuralt netværk (se KNN). |
| Intelligensbaseret maskinelement | forkortelse for Large Language Model. Modellen er blevet trænet på en stor mængde tekstdokumenter, så den kan godt imitere grammatikken i én eller flere sprog. |
| Foundation Model | Et trænet grundmodel, som kan tilpasses specifikke opgaver eller domæner ved hjælp af Fine-Tuning. Sådanne modeller bliver ofte udgivet under en brugervenlig licens. |
| Nærmeste naboer algoritme | forkortelse for kunstigt neuronalt netværk. Elektronisk repræsentation af det biologiske forbillede. Grundlag for AI-modeller (se model). |
| Transformator | Vigtig matematisk tilgang, der har gjort det muligt at oprette effektive AI-anvendelser som ChatGPT og er ansvarlig for den nuværende sejr i AI-verden. Har eksisteret siden 2017. Den tidlige udvikling af en forløber skete af Jürgen Schmidhuber i begyndelsen af 1990'erne. Består af en Encoder-Decoder struktur, hvor en indgang bliver kodificeret til features, der så bliver omformuleret til en udgang ved hjælp af en decoder. Se også Embeddings. |
| Modelstørrelse | Størrelsen på et AI-model (se model) angives i forkortet skrivemåde ved antallet af parametre (se parameter). Lille modeller har kun nogle hundrede millioner parametre. Et 200M model har 200 millioner parametre. Større modeller har 13B eller 60B parametre. Det "B" står for milliard (engelsk: "billion"). |
| Parametere | Som parameter betegnes vægtene i et kunstigt neuralt netværk (se KNN). En vægt definerer styrken af forbindelsen mellem to neuroner. |
| ChatGPT | ChatBot på basis af GPT-arkitekturen (se GPT). Har også en programmerbare interface (API). Skal have ca. 160 milliarder parametre (se modelstørrelse). Problematisk med hensyn til privatliv, forretningshemmeligheder og fortrolige dokumenter. |
| GPT | forkortelse for Generative Pretrænet Transformer. Se Generativ, Vortrænet og Transformer. |
| Kreativ | Færdighed for at skabe eller frembringe noget nyt. En del af forkortelsen GPT, der også er inde i ChatGPT. |
| Trænet | Forudtrænet. Et forudtrænet model er et trænet model. Det er trænet. I stedet for at sige "trænet" siger man dog "forudtrænet". Baggrunden er, at et allerede trænet model kan blive videre trænet, hvilket kaldes Fine-Tuning. |
| Finjustering | Trænet model (se trænet) kan tilpasses til specifikke opgaver (se downstream). Dette kaldes fine-tuning. Fine-tuning har den store fordel, at meget færre indgangsdata og ressourcer (tid, processekraft, RAM) er nødvendige, end hvad der kræves til opbygning af et trænet AI-model. |
| Lag | Bezieht sich på kunstige neurale net (se KNN): Lagene i et neuronalt net er de indgangslag, den udgangslag samt de skjulte lag mellem disse to lag. |
| Indgangsskicht | Den første lag af et kunstigt neuralt netværk (se KNN). Indgangsdata (sensor data eller brugerindgange) kommer ind i KNN via den indgangslag. |
| Udskiftningsskikt | Sidste lag i et kunstigt neuralt netværk (se KNN). Udgangslaget afgør resultatet af en AI. |
| Skjulte lag | Schichten af en KNN, der ligger mellem Eingabeschicht og Ausgabeschicht. Her finder magien sted, også kaldet intelligens. Se menneskelig intelligens og kunstig intelligens. |
| Skjulte lag | Se Skjulte lag. |
| Opstrømsopgave | Opgaven, hvor et AI-modul er blevet trænet på. Se også Downstream Task. |
| Downstream Task | Opgaven, der et kognitivt nettet med hjælp af fine-tuning forberedes til og er forskellig fra den upstream-opgave, som det kognitive nettet oprindeligt blev trænet på. |
| PyTorch | Det mest populære AI-framework, baseret på programmeringssproget Python. |
| Tensorflow | Blandt andre kendte AI-frameworks. Stammer fra Google. Er anset for at være mere kompleks end PyTorch. |
| Tensortegn | Matematisk koncept til at afbilde data. Se også vektor. |
| Offloading | Udlagning af dele af et kognitivt netværk (se model) til en CPU (i stedet for GPU) eller til harddisken. Udlagningen løser opslagsproblemet (se VRAM) ved store kognitivt netværk, men resulterer i betydeligt langsomme beregninger. |
| CUDA | forkortelse for Compute Unified Device Architecture. Software-arkitektur fra Nvidia, til at bruge Grafikkort (se GPU) til beregninger. |
| Nvidia | Uden at ønske at være reklame: Verdens førende leverandør af grafikkort, der er særligt egnet til AI-beregninger. Se CUDA. Der findes ingen anden producent, hvis grafikkort er så godt understøttet i mange AI-rammer (se PyTorch). |
| Grafikprocesorens enhed | forkortelse for Graphics Processing Unit. En GPU fra en kraftfuld grafikkort som fx fra Nvidia indeholder flere tusinde kerne. Et kerner kan løse en beregningsopgave. Flere kerne kan arbejde samtidigt. For AI-anvendelser kan milliarder af beregninger på en GPU (grafikkort) udføres mange gange hurtigere end på en CPU (normal processor). Grafikkortet bliver ved AI-anvendelser brugt som et rechenknekt. Det giver ikke billeder eller tekst ud. |
| CPU | Centralprocessoreenheid (CPU). Den computerens processor. Han har typiskvis 8 til 24 kerner. Se også GPU. |
| Minnebånd | Video-RAM. I modsætning til RAM er her tale om hukommelse på en grafik-kort (se GPU). Afgørende for brug af AI-modeller (se model). |
| AI-server | Så bliver servere kaldet, der indeholder en kapacitetsstærk grafik-kort (se CUDA, GPU og VRAM). |
| Stable Diffusion | Det mest kendte og elskede AI-model til billedgenerering. |
| LAION | forkortelse for Large Scale Artificial Intelligence Open Network. En i Tyskland registreret forening. Har oprettet en billedsamling på omkring 6 milliarder billeder med beskrivelser. Bruges som grundlag for Stable Diffusion-ansatser. |
| Billedskabning | Hæufigst brugte tilfælde: Gennem et Prompts skaber en AI et billede, der afspejler prompten. Det mest kendte fremgangsmåde er Stable Diffusion. Der kan også være muligt at kombinere flere billeder eller ændre inputbillederne. |
| Vektor | En vektor er repræsentationen af en input (dvs. en datamængde), såsom et tekst, et billede eller en lydfil. Se multimodal. En vektor består af talrekker og har en dimension, der definerer antallet og dispositionen af talene. |
| Indlægning | Repræsentation af data af enhver art (tekst, billede, lyd, bevægelsessensor, temperatursensor etc.) i form af en vektor. |
| Flertydsteds | Takken til den Transformer-måde kan enhver slags data behandles på samme måde. Først og fremmest menneskets hjerne. Alle sensorer (øjne, ører, næse, hudreager…) bliver "som det selvfølgelige" i hjernens neurale net behandlet på samme måde. |
| Menneskelig intelligens | Fungerer som kunstig intelligens, er min stærke påstand. |
| Åndedræber | Tilværelsen, som menneskehovedet skaber, er min overbevisning. |
| Artificiel General Intelligence | Kort for Artificiel General Intelligence. Analog til mennesket: Almengelig intelligens, der kan løse alle mulige opgaver. |
| Prompt | Indgangsmulighed for tekst, til at give en AI en instruktion eller stille en spørgsmål. |
| Tegn | En dataeenhet, som f.eks. et ord i en tekst. Almindelig enhed til beregning af omkostninger ved brug af AI-systemer såsom ChatGPT eller til konfiguration af den maksimale udgivelselængde af tekst. |
| Langsomt modnet neuralt net | forkortelse for Long Short Term Memory. På dansk: Længere korttidshukommelse. Fra den tyske datalog Jürgen Schmidhuber udviklet tilgang. LSTM er en slags episodhukommelse. |
| Statistik | I AI-modellerne er der tilsvarende eller mindre repræsenteret som hos mennesker (se menneskelig intelligens) |
| Dybt læringsbaseret | Der henviser til, at en KNN har mange skjulte lag, altså er den dyb. |
| Selvforsyningssystem | Et datavenlig system, der fungerer på en lokal infrastruktur og uden internettet. |
| Datavenlig | Systemer, der ikke selv forårsager problemer med persondataskikkeri, med fortrolige oplysninger eller med erhvervssekretesse. Det modsatte er systemer, som kommer fra leverandører i USA eller holder data på servere i USA (se Privacy Shield – Schrems II). |
| Eliza | Psykiaterprogrammet, der allerede i 1966 blev skabt af Joseph Weizenbaum. Gav den menneskelige samtalepartner indtryk af at være intelligent. I stedet for blev følelsen af intelligens overført til mennesket ved hjælp af floskler og Prompt-indgaver, der sendtes tilbage og spillede igen. |
Jeg kan også gerne henvises til det Databeskyttelsesordbog tysk-engelsk, der indeholder de vigtigste begreber til GDPR og digital privatlivssikkerhed.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
