Många skriver att artificiell intelligens bara är statistik och att det genom sannolikhet bestäms vilket ord i en textrespons som ska ges ut nästa gång. Det är nonsens. Men vad är artificiell intelligens i förhållande till statistik?
En vanlig påstående om nuvarande AI-system är att de får sina resultat genom statistiska beräkningar. Med det vill några, såsom min uppfattning, avmystifiera förmågorna hos AI . Min åsikt och tidigare kunskap eftersträvar detta obehagligt.
Senast igår bekräftades min åsikt av uttalanden från den tyska AI-pionjären Prof. Jürgen Schmidhuber. Han anses vara fadern till ett antal matematiska modeller som är ansvariga för dagens framgångar inom AI. Särskilt kan nämnas Transformer-ansatsen och Långtidsminnecell (LSTM) (långt korttidshusminne). Utan dessa ansatser, särskilt utan Transformer, skulle det inte finnas ChatGPT (och om det vore så, då som ChatGP, eftersom "T" står för "Transformer").
Den tyske AI-pionjären som nyligen nämnts sa på Markus Lanz att det är precis vad jag skrev några veckor tidigare och precis vad jag vill säga igen. Han sa nämligen att funktionssättet för AI är mycket likt hur ett mänskligt hjärna fungerar.
Det finns inga väsentliga skillnader mellan ett elektront och ett mänskligt hjärna.
Angående funktionssättet.
Liksom professor Schmidhuber är jag övertygad om att AI-robotar snart (inom 10 till 20 år skulle jag gissa) kommer att ha bättre allmänna färdigheter än människan. För denna uttalande behöver man inte vara en seer. Den här slutsatsen följer redan av de nuvarande möjligheterna och den enkla antagandet att beräkningskraft alltid kommer att bli billigare, precis som under de senaste 50 åren.
Vad har det med statistik att göra?
Det är säkert rätt att AI-algoritmer bygger på statistiska beräkningar. Men denna uttalande är mycket oprecis och inte särskilt informativt. Här till tre exempel:
Ett automobil är uppenbarligen en mängd materia. Denna uttalande är lika rätt, som opreciserat.
Kakor är inte textfiler. Jag har försökt förklara detta länge nu. Trots det säger vissa att kakor lagras i filer. Då säger jag: Ja, men det är (idag och över alla webbläsare betraktat allmänt) inte textfiler. Då kommer någon och säger: Ja, men man kan ändå öppna dessa (binär-)filer med en texteditor. Rätt, man kan öppna vilken fil som helst med en texteditor, även om då binärdatorna visas på ett oväntat och inte vanligtvis felaktigt sätt. Att kalla allt för en fil betyder att informationens innehåll är exakt noll (= entropi = mått på den medelsta informationsinnehållet i en meddelande).
Quantenteorin är enligt min kännedom den mest tillförlitiga och bäst bevisade teorin i mänsklighetens historia. Den handlar om de minsta partiklarna. Varje materia på jorden (och sannolikt även överallt annars i universum) består av partiklar som följer Quantenteorin. Tyvärr bygger Quantenteorin på slump. Quantenteorin baserar sig alltså på statistiska processer. I och med det är vår hela existens beroende av slump. Vår vardag bestäms således av statistiska processer. Trots detta har jag aldrig hört någon säga att vår vardag följer statistiska processer.
Varför säger då vissa att de resultat som genereras av en AI bygger på statistiska algoritmer? För att ni inte förstår AI och vill nedvärdera den, är min tes. När någon inte kan eller vill förstå något, gör man så som om det inte var relevant eller inte vore så viktigt osv.
Varför bygger AI inte på statistik i själva verket?
Som ovan beskrivs, spelar statistik överallt en roll. Man behöver inte särskilt nämna detta om statistik inte är den dominerande faktorn. I AI är andra begrepp dominerande. Att nämna är:
- Neuronala nätverk (KNN) –>> som hos människan
- Transformatorer och inmatningar -> Såsom hos människor
- Identifiera strukturer -> Som hos människan
Till sista punkten, att upptäcka strukturer, ett exempel. Tyskan känner många uttryck som har blivit etablerade. När en utlänning talar tyska kommer det ofta att hända att han inte använder ett uttryck på samma sätt som vi anser vara rätt. Detsamma kan man säga om den tyska grammatiken i allmänhet. Tydligt är att det finns språkregler. Dessa har med att göra, vilket ord i vår förväntan skulle följa på det tidigare ordet respektive flera tidigare ord. Det har med statistik att göra.
Kärnan är dock att vi som modersmålstalare förstår sammanhanget i den tyska språket och en text. Precis detta gör också moderna AI-algoritmer.
Påverkan på dataskydd
Dataskydd hänför sig här till personuppgifter, alltså dataskydd, till affärshemligheter och till upphovsrättsaspekter.
Precis som hos människor lagras information inte exakt i en artificiell hjärna, som kallas Kognitivt informationsmodell, utan istället lagras den i form av viktuppsättningar som neuronala nätverk tar hänsyn till. Trots detta är AI-system som ChatGPT välkända för att kunna återge fakta korrekt. Hur hallucinationer uppstår, beskrivs jag mer i detalj i en annan artikel.
Därför uppmanas anställda i stora företag som själva är ledande inom AI att inte lämna känsliga data till AI-systemet. För en tredje part, som inte har rätt att få vissa uppgifter, skulle det vara möjligt att få dessa genom att fråga chatboten på ett snyggt sätt.
Det är bara en fråga om tid (hårddiskutveckling), innan en konstig intelligens överträffar människor ännu mer än vad som redan är fallet (se utvecklade chattbotar, som ofta ger betydligt bättre svar än vanligtvis intelligenta människor).
Min tes. Jag vill gärna satsa på det med dig.
Sinnliga informationer är både vid det ursprungliga träningen (kallat "pre-training") relevant, som också vid ytterligare lärande (kallat "fine-tuning"). Användarinmatning kan däremot kontrolleras så länge den inte sparas och heller inte används för att förbättra AI-modellerna.
Jag rekommenderar stark att företag endast tar itu med egna AI-system, så länge som företagsdata finns inom dessa system. Dessa lokala system är genomförbara och betalningsbara. Kom till mig om ni behöver en uttalande angående Förutsättningviskapet. Vad som fungerar är särskilt:
- Sök i dokument
- Svara på frågor från egna dokument
- Ljudtranskription
- Bildigenkänning (forskare har nyligen med hjälp av AI upptäckt nya hieroglyfer)
- Bildskapande
- USA.
För att skapa bilder använder du ett ord: Det är en enorm skillnad om du
a) i DALL-E eller Midjourney måste man manuellt skriva en instruktion in ett promptfönster, betala beroende på användning (eller hålla koll på sitt frikonto), göra flera försök när resultaten inte är tillfredsställande och dessutom inte veta vad som händer med dina ingångsdata och det bild du får Ordning
b) ha en egen server, på vilken en egen AI-användning körs, med vilken du kan skapa 20, 50 eller även 1000 eller 5000 bilder "gratis". Dessutom kan de genererade bilderna granskas för relevans med hjälp av en AI. För detta kan till exempel dina tidigare beslut om vilka bilder du tyckte var bra för dina marknadskanaler beaktas. Så utvecklas från 1000 genererade AI-bilder en lista med de 20 bästa. Från dessa väljer du så många som du behöver.
Automatik mot manuell, fasta kostnader mot oväntade kostnader, datakvalitet mot slump, individuella designmöjligheter mot enkla lösningar, dataskydd mot spel med öde. Det är er val.
Viktigt att veta: Om du vill ha lokal AI-lösningar för ditt företag måste du veta vad du vill använda dem till. Det finns inte en enda AI-lösning som passar till allt. Du kan inte få ChatGPT i en dataanpassad version! Se ovan nämnda exempel på möjliga tillämpningar för att lösa problem med hjälp av system som kör på en lokal server.
Sammandrag
Prestandan från AI-algoritmer baserade på Transformer-ansatsen har med statistik precis så mycket eller så lite att göra som människans hjärnas funktion.
Huvudmärkerna för moderna AI ligger snarare i arkitekturen av konstgjorda neuronala nätverk, Transformer-ansatsen och en enhetlighet av alla slags data.
Precis som människan är en AI otyglig och producerar ständigt felaktiga resultat (jag upprepar: precis som människan). Även om AI-systemen kan prestera fantastiska saker. Man måste veta att genererade svar i textform inte utgör ett tillförlitligt resultat. Dokumenthämtningen, eller bildskapandet, är dock mäktiga verktyg som öppnar upp många möjligheter.
Ytterligare bidrag till artificiell intelligens:
Try Offline-AI now
Optimizable and with full data control. Economical even in continuous operation.
Fully-controlled data center, no third-parties.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
