När ChatGPT först visade människorna otroliga resultat tycker många att man måste använda denna chattbot till allt och alla. Vad som i det privata liv verkar vara ofarligt, leder i affärsverksamheten till problem som snabbt kan bli juridiska.
Inledning
Senast har en tysk firma annonserat att de erbjuder en AI-lösning för tolkning av juridiska texter. Orsaken var ett inlägg på Dr. GDPR till Künstliche Intelligenz för analys av juridiska texter.
Den AI-användningen från den nämnda företaget är fortfarande i beta-stadiet. Misstanken är att en prototyp snabbt har byggts för att kunna undersöka marknaden för sådana tillämpningar. Vid inga tillfällen nämndes vilket språkmodell som används bakom kulisserna. Utredningar tyder på att det rör sig om ChatGPT.
Denna artikel skapades tillsammans med föredraget den 5 september 2023 vid IT-klubben i Mainz & Rheinhessen på Gutenberg Digital Hub i Mainz.
Se nedan för intryck.
Svar från AI-systemet var bra, men inte uppmärksammade. På juridiska frågor gavs halvvägs plausibla svar med källhänvisningar. Svarna hade dock inte räckt för att avgöra en juridisk diskussion i sin favör. Resultaten skulle troligen ha lett till direkt nederlag.
Att ChatGPT-3 använts av en AI-användning från ett tyskt företag kunde konstateras genom att man frågade chatboten om detta. Svaret från AI var: "Yes, jag baserar mig på ett modell som heter GPT-3, utvecklat av OpenAI. […]
Vad är så problematiskt med ChatGPT? Frågan kunde också ställas till Microsoft Copilot. En enkel test visar, att Copilot själv överväldras av enkla uppgifter.
Motivation
Chatbotar brukar vanligtvis dra tillbaka på en ingående kunskapsbas. Här ett exempel på en användning av ovanstående tyska företag, som tydligen använder ChatGPT i bakgrunden:

Chatboten känner inte till ett domstolsutslag som finns och kan identifieras med en tydlig identifikator och därmed (för en jurist) tydligt identifierad. Chatboten borde hellre ha informerat användaren om gränserna för chatboten istället för att ge intrycket att det sökta domstolsutslaget inte finns.
För att kunna använda ChatGPT behöver man bara använda OpenAIs gränssnitt (API). Eftersom det är så enkelt att använda denna API tycks många känna sig berättigade att göra detta. Detta leder till problem, som exempelvis syns i exemplet ovan.
Det går så här att använda ChatGPT från ett eget program (Varning: Alla data flyter till OpenAI/ChatGPT, endast följande kod ligger lokal hos programmeraren):
import openai
openai.api\_key = "XYZ" #Ihr kostenpflichtiger OpenAI API-Schlüssel
completion = openai.ChatCompletion()
def frage\_chatgpt(frage):
chat\_log = \[{
'role': 'system',
'content': 'Du bist ein hilfreicher Assistent',
}\]
chat\_log.append({'role': 'user', 'content': frage})
response = completion.create(model='gpt-3.5-turbo', messages=chat\_log)
antwort= response.choices\[0\]\['message'\]\['content'\]
return antwort
print(frage\_chatgpt("Was ist die Antwort auf alle Fragen?"))
Aufruf der OpenAI API für ChatGPT, um für eine Frage eine Antwort von ChatGPT zu erhalten.
Det här kan verkligen vem som helst göra. I alla fall lyckas så många icke-programmerare att skapa och köra denna kod, som det finns människor som inte är bilmeister och som kan byta en däck på sin bil. Som i koden antydas kostar nöjet minst sagt pengar när man överskrider ett testantal per anrop. Svarstiden kunde också vara snabbare (det är att meka på hög nivå för att sätta stopp för illusionen hos vissa att ChatGPT kan allt).
Ett ytterligare exempel på en falsk uppgift som skapas av ChatGPT:

Här är min slutsats, som också kan inflyta i min egen AI men inte i ChatGPT: Kakor är ingen textfil, utan en datamängd. ChatGPT kommer därför att svara fel tillfälligt.
Som minne: ChatGPT är ett extremt välutvecklat språkmodell som sin art saknar.
Tyvärr bygger ChatGPT på så många miljoner eller miljarder dokument att alltför mycket felaktigt allmänt kunnande och för lite exakt specialkunnande har trängt in i det artificiella hjärnan.
Bing-sökningen från Microsoft är också AI-driven. Microsoft har nyligen delat i pengar till OpenAI för att dra nytta av ChatGPT-hysterin. Särskilt när man ställer enkel formulerade sökfrågor kommer Bing-AIsnabbt med felaktiga eller skrattretande resultat. Tvärtom ligger resultaten ofta inom det positiva förväntningsfältet, om Bing söker på konventionell sätt. När man söker på konventionellt sätt lyckas man oftast bäst med bra träffar. Skillnaden är att svaren från sökresultaten "bara" citeras, men inte abstraheras, alltså ges i AI:s egna ord.

Bättre en riktig, citerad svar än ett falskt svar i eget ordval.
Bättre lösning
En bättre lösning ger ofta riktiga svar och ger användaren möjlighet att känna igen eventuellt otydliga eller felaktiga svar, så att de kan granskas kritiskt. Om en svarsalternativ är otydligt eller felaktigt kan det med hjälp av företagets egen AI upptäckas på ett annat sätt än när man använder den svarta lådan som heter ChatGPT.
Användningsfallet för företagsägda AI-system är alltid då exakta svar behövs eller när man ofta vill söka igenom egna dokument. ChatGPT misslyckas här eller är i bästa fall för dyrt, eftersom OpenAI fakturerar efter användningsvolym.
Automatisering, validering och optimering är egenskaper som främst tillhandahålls av företagsägda AI-system, inte black boxar som ChatGPT.
Att vara beroende av tredje part tycks inte heller vara den bästa strategin. Vi vet det från de senaste åren. Som exempel kan nämnas system och plattformar från Google, Microsoft, Meta eller Apple.
Till Datenriktighet, som nämns i artikeln: Den skyldighet att ha korrekta personuppgifter och behandla dem, följer bland annat av Artikel 18 §1 GDPR. Om giltigheten av sådana uppgifter är omdiskuterad eller deras behandling inte längre är legitim kan en berörd person begära begränsning av behandlingen.
Även för data som inte har något samband med personer är deras riktighet ofta grundläggande. Om en advokat till exempel tar in ett svar från en chattbot i sin skrift, vore det bättre om det som står där är korrekt och kan hålla en prövning.
Även vid forskningsprojekt eller i patentbeskrivningar skulle det vara katastrofalt om felaktiga instruktioner eller felaktiga slutsatser trängde in i arbetet. Rättsligt riskabelt är dessutom överföringen av känsliga data till tredje part. Data kan vara känsliga när de exempelvis
- Hemligt
- Upphovsrätt skyddat
- Personbunden eller
- Förtröttligt
Sjunga.
Sanningskunskap inta
Tillförlitligheten hos en textbearbetande AI kan markant förbättras genom att viktiga fakta explicit införs i det elektroniska hjärnans "minne". Detta kallas ofta Grounding. Microsoft påstår sig använda detta för sin sökmotor Bing, men misslyckas med det, som många exempel visar. Rätt utfört kan Grounding hjälpa till att eliminera spridda falska uppgifter.
Efter att företagets egen AI hade blivit åtgången, levererar den också bättre svar än ChatGPT, och det gäller för kunskapen som är relevant. Vem Goethe var, behöver inte vår egen AI-system veta. Detta onödiga tilläggskunskap belastar bara ett kI-modell och leder till falska påståenden, åtminstone till mindre prestanda (”AI:n ser inte skogen för alla träd”) eller långsammare svar.
Här ett exempel på en svar som har genererats från Dr. GDPR Wissensbestand och är kvalitativt mycket bättre (och framför allt riktigt) än resultaten från Microsoft Bing och ChatGPT:

Förhandsinformation om ett företags kunskap är karakteriserad av att den oftast är relativt lätt att överblicka, finns i form av dokument och deras påståenden anses a priori vara riktiga (eller mer riktiga än externa källor). En egen AI-sökning för företagskunskap har flera fördelar.
Först och främsta är den egna företags- AI självständig och inte beroende av andra. Frågan om en dataskyddskonsekvensbedömning (DSFA) uppstår knappt eller överhuvudtaget. Hemliga eller konfidentiella data är bra skyddade i egna system.
För det andra kan en självständig företags-AIanpassas till egna behov. När du tittar på programmet exempel ovan, kanske du märker att:
- Med Python kan artificiella intelligenssystem skapas på bara några rader kod.
- Komplexiteten ligger inte i programmet utan i det artificiella intelligensmodellen som bara behöver byggas en gång.
- En liten steg räcker för att göra mycket.
Ekonomiska tillämpningar med betydande värde är sådana möjliga. Egna AI-system är faktiskt ofta kostnadseffektivare än att använda ChatGPT-gränssnittet, förutom de nämnda nackdelarna vid användning av ett tredje system.
Sammandrag
Kunskapsdatorer överdrivas eller felaktigt bedöms av många, säkert på grund av den berättigade entusiasmen för de nya möjligheterna. Allmänt intelligenta system som ChatGPT är precis vad man behöver: För att besvara allmänna frågor utan krav på tillförlitlighet eller ens riktighet. Detta syns enbart i användarhandledningen för sådana system, som inte innehåller några indikationer på att resultaten borde granskas noggrant eller att det kan finnas felaktiga svar ibland.
Få rader kod är tillräckliga för att med hjälp av 100 miljarder artificiella neuroner skapa en felaktig utgång. Ett par rader till kod hjälper därvid att få riktiga svar med ett eget system.
Företag som vill använda sig av en kognitiv artificiell intelligens måste först klara en fråga: För vad ska denna AI användas? Om man inte kan besvara den här frågan, så är det nog ett faktum att detta företag behöver inget AI-system eller vet ännu inte varför.
Den privata användningen av ChatGPT och liknande system är säkert spännande, men någonting helt annat än användningen av chattrobotar eller kognitiva system allmänt i företaget.
Om ett företag har ett problem som kan lösas med hjälp av en AI, så är det värt att undersöka om detta problem kan lösas med ett eget AI-system inom företaget.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
