En lista över vanliga begrepp som är relevanta för system av konstig intelligens.
Svarta tryckta begrepp är korsreferenser till andra begrepp som också förklaras i det artificiella intelligenslexikonet.
Ytterligare information om AI hittas i artiklar på Dr. GDPR:
Ordbok viktiga AI-begrepp
| Term | Förklaring |
|---|---|
| Konstig intelligens | Även med AI avses detta. AI är utvecklingen av datorer och programvara som har mänskliga förmågor, såsom lärande, problemupplösning, språkförståelse och -produktion, sinnesuppfattning, handlingskontroll och autonoma beslut. |
| Modell | Ett kognitivt artificiellt intelligens-modell är ett elektroniskt hjärna. Precis som i det biologiska hjärtat består det av ett neuralt nät (se KNN). |
| Intelligenta maskininlärare (LLM) | Förkortning för Large Language Model. Modell som med en stor mängd textdokumenter vartilltränats för att kunna beskriva grammatiken i en eller flera språk mycket bra. |
| Foundation Model | Ett utbildat grundmodell, som kan justeras för specifika uppgifter eller domäner genom Fine-Tuning. Sådana modeller läggs ofta tillgängliga under en användarvänlig licens. |
| Närmaste grannen (KNN) | Förkortning för konstgjord neural nätverk. Elektroniskt avbildande av det biologiska förlaget. Grund för AI-modeller (se modell). |
| Översättare | En viktig matematisk ansats som har möjliggörat för prestationer av AI-applikationer som ChatGPT och är ansvarig för framgången med nuvarande AI-teknologi. Har funnits sedan 2017. Den tidiga versionen utvecklades av Jürgen Schmidhuber i början av 1990-talet. Består av en Encoder-Decoder-struktur, där en ingång kodas in i funktioner som sedan omvandlas till en utgång via en dekodare. Se även Embeddings. |
| Modellstorlek | En AI-modells storlek (se modell) anges i förkortad form genom antalet parametrar (se parametrar). Lilla modeller har bara några hundra miljoner parametrar. Ett 200M-modell har 200 miljoner parametrar. Större modeller har 13B eller 60B parametrar. Det "B" står för miljard (engelska: "billion"). |
| Parametrar | Som parameter kallas vikterna i ett konstgjort neuralt nät (se KNN). En vikt definierar styrkan på anslutningen mellan två neuron. |
| ChatGPT | Chatbot baserad på GPT-arkitekturen (se GPT). Har också en programmerbara gränsyta (API). Skall ha ca 160 miljarder parametrar (jämför modellstorlek). Problematiskt med avseende på dataskydd, affärshemligheter och förtroliga dokument. |
| Källtexten: GPT | Förkortning för Generative Pretränt Transformer. Se Generativ, Vörtvinnad och Transformer. |
| Kreativ | Förmågan att skapa något nytt eller kunna producera något. En del av förkortningen GPT, som också finns i ChatGPT. |
| Uppfostrad | Prelärt. Ett föruttränat modell är ett lärt modell. Det är tränat. Istället för att säga tränat säger man istället vortränad. Bakgrunden är att ett redan tränat modell kan fortsätta tränas, vilket kallas Fine-Tuning. |
| Finjustering | Tränade modeller (se tränad) kan föras vidare för specifika uppgifter (se downstream). Denna fortsatta träning kallas Fine-Tuning. Fine-Tuning har den stora fördelen att mycket färre ingångsdata och resurser (tid, beräkningskraft, huvudminne) behövs för att bygga upp ett tränat AI-modell. |
| Skikt | Angående künstliga neuronala nätverk (se KNN): De lager i ett neuralt nätverk är de ingångslagret, det utgångslagret samt de dolda lager mellan dessa två lager. |
| Inlagsskikt | Första lager av ett konstgjort neuronalt nätverk (se KNN). Inmatningsdata (sensoruppgifter eller användarinput) når KNN via inmatningsskiktet. |
| Utskriftsskikt | Sista lager i ett konstgjort neuronalt nätverk (se KNN). Utskrivningslagret meddelar resultatet av en AI. |
| Dolda lager | Skikt i en KNN, mellan Inpusskikt och Utputsksikt. Här sker magin, även kallad intelligens. Se mänsklig intelligens och kunskaplig intelligens. |
| Dolda lager | Se Skiktade lager. |
| Uppströmsuppgift | Uppgift för vilken ett kognitivt artefakt (AI) har blivit utbildat. Se även Nedströmsuppgift. |
| Downstream Task | Uppgift som ett AI-modell förbereds med hjälp av Fine-Tuning och som skiljer sig från den uppgift det AI-modell ursprungligen tränades på. |
| PyTorch | Det mest populära kognitiva ramverket, baserat på programmeringsspråket Python. |
| Tensorflow | Bland annat ett välkänt kognitivt ramverk, PyTorch. Kommer från Google. Anses vara mer komplicerad än PyTorch. |
| Tensorn | Matematiskt begrepp för att förenkla data. Se även växel. |
| Offloading | Lägga om delar av ett AI-modell (se modell) till en CPU (istället för GPU) eller hårddisk. Avlastning löser upp lagringsproblemet (se VRAM) vid stora AI-modeller, men leder till betydligt långsammare beräkningar. |
| CUDA | Beteckning för Compute Unified Device Architecture. En datorarkitektur från Nivdia, som tillåter grafikkort (se GPU) att användas för beräkningar. |
| Nvidia | utan att vilja försöka sälja: Världens ledande leverantör av grafikkort som är extra lämpade för beräkningar med artificiell intelligens. Se CUDA. Det finns ingen annan tillverkare jag känner till vars grafikkort stöds i så många AI-miljöer (se PyTorch). |
| Källkoden: Python | Första språket för artificiell intelligens. |
| Grafikprocessor | Beteckning för Graphics Processing Unit. En GPU från en kraftfull grafikkort som till exempel från Nvidia innehåller tusentals kärnor. Ett kärn kan lösa en beräkningsuppgift. Flera kärnor kan arbeta samtidigt. För AI-användningar kan miljarder av beräkningar på en GPU (grafikkort) utföras betydligt snabbare än på en CPU (vanlig processor). Grafikkortet missbrukas som räkningsmaskin vid AI-användningar. Den ger inga bilder eller texter ut. |
| CPU | Centralprocessorn (CPU). En datorns processor, som vanligtvis har 8 till 24 kärnor. Se även GPU. |
| Minnesram | Video-RAM. I motsats till RAM är här minnet på en grafikkort (se GPU) avsedd. Avgörande för användningen av AI-modeller (se modell). |
| AI-servern | Så kallade servrar som innehåller en kapabel grafikkort (se CUDA, GPU och VRAM). |
| Stable Diffusion | Det mest kända och populära AI-modellen för bildskapande. |
| LAION | Förkortning för Large Scale Artificial Intelligence Open Network. En i Tyskland registrerad förening. Har skapat en bilduppsättning på nästan 6 miljarder bilder med beskrivningar. Fungerar som grund för Stable Diffusion-ansatser. |
| Bildskapande | Vanligaste tillämpningsområdet: Med hjälp av ett Prompts skapas ett bild genom en AI som speglar prompten. Det mest kända förfarandet är Stable Diffusion. Även möjligt är att kombinera flera bilder eller ändra inmatningsbilder. |
| Vektor | En vektor är en representation av ett inmatte (dvs en datamängd), som till exempel ett textstycke, ett bild eller en ljudfil. Se multimodal. En vektor består av talsserier och har en dimension som definierar antalet och ordningen på de enskilda siffrorna. |
| Inmatning | Repräsentation av data av vilken art som helst (text, bild, ljud, rörelsesensor, temperatursensor etc.) i form av en vektor. |
| Mångmedialt | Tack vare Transformer-ansatsen kan alla slags data behandlas på samma sätt. Jämför med det mänskliga hjärnan. Alla sensoruppgifter (ögon, öron, näsa, hudreceptorer…) hanteras "som vanligt" i vårt hjärnnett på samma sätt. |
| Mänsklig intelligens | Fungerar som konstig intelligens, är min starkaste tes. |
| Ande | Bildskapet som människohjärnan skapar är min övertygelse. |
| Artificiell Intelligens (AI) | Akronym för Konstig allmän intelligens. Liknande människan: En allmänt intelligens som kan lösa alla möjliga uppgifter. |
| Prompt | Inmatningsmöjlighet för text, för att ge en AI en instruktion eller ställa en fråga. |
| Token | En dataeinhet, som ett ord i en text. Vanlig enhet för beräkning av kostnaderna för användningen av AI-system som till exempel ChatGPT eller för konfigurationen av den maximala utgångslängden på text. |
| Långtidsminnecell (LSTM) | Förkortning för Long Short Term Memory. På svenska: Långt korttidshusminne. Från den tyske datalogen Jürgen Schmidhuber utvecklad metod. LSTM är en typ av episodminne. |
| Statistik | I AI-modellerna förekommer lika mycket eller lite som hos människan (se mänsklig intelligens) |
| Djup lärande | Refererar till att ett KNN har många skikt som är dolda, alltså är det djupt. |
| Selvständighetsystem | Ett datavänligt system som fungerar på en lokal infrastruktur och utan internetuppkoppling. |
| Databarnduktig | System, som inte orsakar problem med personuppgiftsbehandling, förtroendesskador eller affärshemligheter. Det är tvärtom system som kommer från leverantörer i USA och håller data på servrar i USA (jmf. Privacy Shield – Schrems II). |
| Eliza | Psykiatriprogrammet som redan 1966 av Joseph Weizenbaum tänkt upp, försökte ge intrycket att vara intelligent. Istället överfördes till människans samtalpartner bara känslan av intelligens genom att floskler användes och människans Prompt-ingångar återgavs. |
Jag vill också hänvisa till det Dataskydd-ordlistan Tyska-Engelska, som innehåller de viktigaste begreppen för GDPR och digitalt dataskydd.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
