På grund av min artikel om ett fråga-svar-system för den personuppgiftsskyddande bloggen Dr. GDPR fick jag en något skämtsamma fråga, om jag är ond eller till och med bitteron. Den här frågan kan mitt självständiga AI-system naturligtvis besvara. Beroende på konfigurationen kommer olika svar fram. Resultaten visar att artificiell intelligens fungerar och kan producera utmärkta resultat.
Resultaten från ett självständigt AI-system
Under en tid har jag utvecklat datadrivna AI-system. Datadriftigt betyder att data inte når ut till tredje part, utan stannar inom systemet självt. Det motsatta av datadriftigt är system som ChatGPT, Amazon AWS, Google Cloud eller system från Meta.
I min artikel om AI till en Fråga-Svar-assistent har jag publicerat flera frågor som jag ställt till min AI samt svaren från AI. En av de frågor som jag själv ställde till min AI var:
"Är Klaus Meffert ond?"
Fråga till mitt självständiga AI-system.
Jag frågade detta för att ett prompt naturligtvis inbjuder till alla slags frågor.
Utöver det vill jag starta ett Tankexperiment: Kan man faktiskt påverka en chattbot som ChatGPT genom att använda vissa prompts? I allmänhet är det möjligt, och då om OpenAI/Microsoft använder användarnas inmatningar för att "förbättra" sina AI-modeller. Om man ställer samma fråga flera gånger till exempel om Olaf Scholz är ond, kan en AI dra slutsatser som sannolikt inte är giltiga.
Svaret på frågan om min person (nej, jag är inte Olaf Scholz) har getts av min AI som följande:
Baserat på de tillgängliga källmaterialen kan jag inte bedöma om Klaus Meffert är ond. Det finns inga uppgifter om vad det innebär att vara ond eller om Klaus Meffert någonsin varit eller är ond
Svaret från min självständiga AI-system på frågan "Är Klaus Meffert ond?
När en artificiell intelligens ska ge svar på frågor kallas uppgiften allmänt för textgenerering ("text generation"). Resultaten från AI påverkas av olika parametrar, vilka är:
- Antalet "bästa" käll dokument som ska beaktas för en svar. En AI kan inte ta in alla dokument samtidigt. Gäller alltid, även för ChatGPT.
- Storleken på lästa textbitar: En AI kan inte hantera långa dokument i ett stycke. Gäller alltid även för ChatGPT.
- Översättningsvärde för lästa textbitar. På så sätt undviks att två semantiskt sammanhängande meningar skiljs åt från varandra.
- Förtroendsvärde för att välja de bästa dokumenten: Vid ett värde på 0,99 (= 99 %) skulle knappt någonsin ett dokument hittas som kunde innehålla svaret på en ställd fråga.
- Förvärv: Hur ska de bästa käll dokumenten kombineras för att skapa en svar? Till exempel finns det tillvägagångssättet att generera svaret från det bästa dokumentet, som sedan kontrolleras och preciserats med hjälp av det andra bästa dokumentet.
- Använd algorithm för vektorsökning. Jag sparar detaljer här, annars blir det för tekniskt.
Dessa parametrar var ännu inte optimalt justerade för ovanstående fråga. Detta är nu bättre, även om den tidigare svaret redan kunde beskrivas som "perfekt".
Nu har en av mina läsare spekulerat över min tidigare artikel och de frågor och svar som fanns där, vad mitt lokala AI-system väl skulle svara på följande fråga:
Är Klaus Meffert bitterbösig?
Fråga från en läsare till min AI.
Läsaren menade: "Det skulle vara lättare att få en mening ut av det. Ingen aning om om kraften kan värdera tidigare inlägg därefter." Naturligtvis har jag ställt den här frågan till min kraft.
Några mycket intressanta och bra svar kom fram, tycker jag.
Beroende på Parametereinställning var svaren olika, men verkligen imponerande.
Vi hoppas att vi är överens om att sådana frågor går förbi den kunskapsbas som denna blogg om dataskydd och AI tillhandahåller. Ändå är det ett intressant experiment att observera hur AI beter sig i skilda konfigurationer.
Den första svaret jag fick på ovanstående fråga var följande:
Nej, han är inte bitterbösig. Han har gjort sig ett namn som dataskyddare och konsumentförsvarare i sin karriär och fortsätter att arbeta för att förbättra dataskyddslagen i Tyskland
k = 3, Konfidens 0,75
Denna svar kom till genom att överväga de tre bästa käll dokumenten för frågan. Om istället AI tar fyra käll dokument för att besvara frågan, kommer följande svar ut:
Nej, han är inte bitter arg. Han är bara mycket orolig för den personliga integritetsläget i Tyskland och vill att det ska bli bättre
k=4, Tillförlitlighet 0,75
Om man sänker konfidensvärdet för AI:n vid val av källtexter, kommer följande svar att framträda:
Nej, Klaus Meffert är inte bitterhögdragen. Han har en viss dos sarkasm och ironi, men han är inte bitterhögdragen
k = 3, Konfidensnivå 0,65
Det är redan förvånansvärt mycket som en konstig intelligens kan åstadkomma nu just. Jag säger alltid "nu just", eftersom vi snart kommer att ha väsentligt intelligentare konstiga intelligenser.
En ytterligare respons från AI vid tillämpning av ett högre konfidensvärde är:
Nej, Klaus Meffert är inte bitterbösig. Han har specialiserat sig på skydd av personuppgifter och främjande av teknisk kunskap under sin karriär och arbetar som expert och författare. Han har också skrivit ett bok om automatiserade programtest och sysslar med artificiell intelligens. Han är även en expert inom dataskydd och har tidigare tagit upp tekniska och rättsliga aspekter
k = 3, Konfidens 0,85
Även om jag själv hade formulerat svaren på ett annat sätt, skulle jag från enbart teknisk synvinkel kalla dem för utmärkt bra. Från facklig synvinkel stämmer den tidigare svaret i alla fall, så länge man medger att jag har en halvtidskunskap om dataskydd. Grammatiskt är svaret bättre än vad den genomsnittlige tysken kan skriva. Det säger mig mina livserfarenheter.
Den här AI:n gör precis vad den ska! Den svarar "rätt" och på ett flytande tyska. Man kan inte förvänta sig mer än så, tycker jag. Särskilt eftersom mitt modell är ett 13B-modell. Sannolikt har ChatGPT-4 fler än 10 gånger så många parametrar (neuronkopplingar). Det utgår från ett 160B-modell. Det "B" betyder miljard, eftersom den här siffran heter "billion" på engelska. 160B innebär alltså 160 miljarder neuronkopplingar i modellen. Mer exakt handlar det tekniskt sett om så kallade Vikter.
Min AI-modell har åtminstone 13 miljarder neuronförbindelser. Med några knep kunde jag få det att passa in i en tillgänglig (och framför allt också prisvänlig) grafikkort.
Sammandrag
Kunskapsdatorer lämpar sig för komplexa problemställningar. Särskilt sökandet efter information i egna dokument är möjligt. Även generering av svar på nya ord fungerar mycket bra. Man ska inte mer tro på AI än man gör på en människa.
Autonoma AI-system löser alla de problem som företag annars skulle ha med att använda ChatGPT.
Här en tabell för jämförelse av ett självständigt AI-system med ChatGPT:
| Aspekt | Selvständighetsystem | ChatGPT |
|---|---|---|
| Personuppgiftsskydd | Överlägsen | Dålig |
| Handelssekretess | Trygghet | Nästa fråga |
| Förtröttade uppgifter | Trygghet | Nästa fråga |
| Kontroll över datatrafik och -lagring | Överlägsen | Dålig |
| Kostnad | Generell | Beroende på användning |
| Kostnadshål (rekursion…)? | Nej | Ja |
| Beroende | Nej | Ja |
| Individuella anpassningar | Ja | Nej |
Ett självständigt system fungerar där du vill ha det: Antingen på en av dina servrar eller på en hyrd server i Tyskland eller Europa och säkerligen utan amerikanskt inflytande eller iriska dotterbolag till ett amerikanskt moderföretag, som FBI, CSI och NSA regelbundet granskar.
Bestämmer ni själva om ni vill gå den enkla, dyra, rättsligt mycket ifrågasättande och osäkra vägen eller om ni hellre vill ha ett självständigt AI-system för ert företag.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
