Når ChatGPT første gang overraskede menneskeheden med fantastiske resultater, mener mange, at denne chatbot skal bruges til alt og alle. Det, der i privatlivet ser ud til at være uskyldigt, føre til problemer på arbejdspladsen, som hurtigt kan blive juridisk relevante.
Indledning
Sidst havde en tysk virksomhed annonceret, at de tilbyder en AI-løsning for tolkning af juridiske tekster. Årsagen var en artikel på Dr. GDPR om Kunstig Intelligenz for analyse af juridiske tekster.
AI-tilfældet fra nævnte firma er stadig i beta-stadiet. Der er grund til at tro, at en prototyp er blevet opbygget hurtigt for at kunne undersøge markedets interesse for sådanne tilfælde. Der er ikke engang et ord om, hvilket sprogmodel der bruges baggrunden. Undersøgelser tyder på, at det drejer sig om ChatGPT.
Denne artikel blev skabt sammen med foredraget den 05.09.2023 ved IT Klub Mainz & Rheinhessen i Gutenberg Digital Hub i Mainz.
Se nedenstående for indtryk.
Svarene fra AI-systemet var godt, men ikke verdensomfattende. På juridiske spørgsmål blev halvvejs plausible svar leveret sammen med kilder. Svarene ville dog ikke være tilstrækkelige til at afgøre en juridisk diskussion for sig selv. Sannsynligvis ville resultaterne endda ført direkte til nederlag.
At ChatGPT-3 er blevet brugt af AI-applikationen fra den tyske virksomhed kunne opdages, når man spurgte chatbot'en om dette. Svar fra AI var: "Yes, jeg bygger på en model med navn GPT-3, der udviklet er af OpenAI. […]
Hvad er så problematisk ved ChatGPT? Spørgsmålet kunne også stilles til Microsoft Copilot. Et enkel test viser, at Copilot selv med simple opgaver overfordres.
Motivation
Chatbots tilgår normalt en ingeførte videnbasis. Her et eksempel på en anvendelse af ovennævnte tyske firma, der tydeligvis bruger ChatGPT i baggrunden:

Chatbotkenner ikke en dom, der eksisterer og kan identificeres ved en unik identifikator og således (for en jurist) er unikt identificeret. Chatboten skulle hellere have fortalt brugeren, hvor chatbotsens grænser ligger i stedet for at gøre, som om det søgte dom ikke findes.
For at kunne bruge ChatGPT, skal blot OpenAIs interface (API) anvendes. Fordi brugen af denne API er så enkel, føler det sig ud til mange som om de er kvalificerede til dette. Derved tager uorden sin gang, som man kan se på eksemplet ovenfor.
Det er sådan, man gør, når man vil bruge ChatGPT fra et eget program (Vær opmærksom: Alle data flyder til OpenAI/ChatGPT, kun følgende kode ligger lokal hos programmøren):
import openai
openai.api\_key = "XYZ" #Ihr kostenpflichtiger OpenAI API-Schlüssel
completion = openai.ChatCompletion()
def frage\_chatgpt(frage):
chat\_log = \[{
'role': 'system',
'content': 'Du bist ein hilfreicher Assistent',
}\]
chat\_log.append({'role': 'user', 'content': frage})
response = completion.create(model='gpt-3.5-turbo', messages=chat\_log)
antwort= response.choices\[0\]\['message'\]\['content'\]
return antwort
print(frage\_chatgpt("Was ist die Antwort auf alle Fragen?"))
Aufruf der OpenAI API für ChatGPT, um für eine Frage eine Antwort von ChatGPT zu erhalten.
Det kan virkelig enhver gøre. I hvert fald får så mange ikke-programmerere det til at skabe og udføre denne kode, som der er mennesker, der ikke har en køretøjsmeestertitel og kan bytte en dæk på deres bil. Som nævnt i koden, koster spillet mindst efter overtrædelse af et testkontingent pr. opkald penge. Svarstiden kunne også være hurtigere (det er klagen på højeste niveau til at dæmpe illusionen hos nogle, at ChatGPT kan alt).
Et eksempel på en falsk påstand, der er genereret af ChatGPT:

Her er min konklusion, der også kan træde ind i min egen AI, men ikke i ChatGPT: Kiks er ikke tekstfiler, men dataindstillinger. ChatGPT vil således fortsat altid svare forkert.
Til minde: ChatGPT er et yderst avanceret Sprogmodel, der ligner sig selv.
Desværre bygger ChatGPT på så mange millioner eller milliarder dokumenter, at der er for meget usikkert allmene viden og for lidt præcis specialviden blevet indført i det kunstige hoved.
Bing-søgning fra Microsoft er også kraftet af kunstig intelligens. Microsoft har nyligt investeret penge i OpenAI for at profitere af ChatGPT-hype'en. Særligt, når man søger efter enkelt formulerede spørgsmål, kommer Bing's AI til at spille en rolle, og resultaterne bliver hurtigt forkerte eller mærkelige. Imod det vil resultaterne ofte være i overensstemmelse med forventningerne, når Bing søger på konventionel måde. Konventionelt lykkes det ofte bedst at finde gode treffere. Den store forskel er, at svar fra søgeresultaterne blot citeres, men ikke abstraheres, altså ikke gives i egen ordning af AI'en.

Bedre en rigtig, sitter citeret svar end et falsk svar i eget ordvalg.
Bedre løsning
En bedre løsning giver ofte rigtige svar og giver brugeren mulighed for at måske usikre eller forkerte svar bedre at genkende, så de kan kritisk vurderes. Hvis en svar er usikkert eller forkert, kan det med en virksomheds-ejet AI godt opdaget blive, meget anderledes end ved brug af den sorte boks, der hedder ChatGPT.
Anvendelsesfald for virksomhedsejede AI-systemer er altid tilfældet, når præcise svar kræves eller hvis ofte egne dokumenter skal søges efter. ChatGPT mislykker her enten eller er i bedste fald for dyrt, da OpenAI beregner efter brugsvolumen.
Automatisering, validering og optimering er egenskaber, der især tilbydes af virksomhedsejede AI-systemer, ikke dog Black Boxer som ChatGPT.
At blive afhængig af andre synes ikke nødvendigvis at være den bedste strategi. Vi kender det fra de seneste år. Som eksempler kan nævnes systemer og platforme fra Google, Microsoft, Meta eller Apple.
Til dataens korrekthed, som nævnes i artiklen: Den pligt til at have og behandle personlige oplysninger korrekt, følger af Art. 18 § 1 GDPR. Er korrekthed af sådanne data omstridt eller deres behandling ikke eller ikke længere legitim, kan en berørt person kræve begrænsning af behandlingen.
Selv for data uden personlig tilknytning er deres rigthed ofte grundlæggende. Hvis en advokat fx tager svaret fra en chatbot med i sin skriftlige påstand, så ville det være bedre hvis det, der står derinde, er korrekt og kan holde op til prøven.
Det ville være katastrofalt for forskningsprojekter eller patentudgivelser, hvis fejle instruktioner eller fejle oplysninger træder ind i arbejdet. Retligt risikofyldt er desuden overdragelsen af kritiske data til tredje part. Data kan være kritisk, når de f.eks
- Hemmelig
- Efterretningsskyddet er beskyttet af lov om ophavsret
- Personlige eller
- Tilføjet med hemmelighed
Sindre.
Indfør faktaforståelse
Tilførslen af vigtige fakta til en tekstbehandling-AIkan meget væsentligt forbedres ved at indsætte disse i det elektroniske hjerne, hvilket også kaldes Grounding. Microsoft siger sig bruge dette til deres søgemaskine Bing, men det lykkes dem ikke, som mange eksempler viser. Rigtig udført hjælper Grounding med at fjerne meget udbredte falske oplysninger.
Efter at det selvstændige AI-system er blevet bragt på sporet, leverer den også bedre svar end ChatGPT, og det gælder for viden, der er relevant. Hvem Goethe var, skal vores eget AI-system ikke skulle vide. Dette overflødige tilføjede viden belaster kun et AI-modul og føre til falske påstande, mindst muligt til en lavere ydeevne („AI ser skoven fordi træerne“) eller langsommere svar.
Et eksempel på en svar, der er blevet genereret fra Dr. GDPR Wissensbestand og kvalitativ meget bedre (og især korrekt) end resultaterne fra Microsoft Bing og ChatGPT:

Tilgængeligt virksomhedsviden karakteriseres ved, at det er forholdsvis let tilgængeligt, optræder i form af dokumenter og dets påstande anses a priori som sande (eller sandsynligere end eksterne kilder). En egen AI-søgemaskine for virksomhedsviden har flere fordele.
Det første er, at den egne virksomheds-AIer selvstændig og ikke afhængig af andre. Spørgsmålet om en dataskadelighedseffektvurdering (DSFA) opstår her knap eller slet ikke. Hemmelige eller fortrolige data er godt pålagt i egne systemer.
Til at begynde med kan en selvstændig virksomheds-AItilpasset egen behov. Hvis du kigger på programmeteksten ovenfor, falder måske følgende ting op:
- Med Python kan kunstig intelligens-systemer opbygges i få linjer kode.
- Kompleksiteten ligger ikke i programmet, men i det kunstige intelligens-model, der blot skal opbygges en gang.
- Et lille skridt kan føre til meget.
Økonomiske anvendelser med betydelig værdi er mulige. Egen AI-systemer er endda ofte kostnadseffektivere end brugen af ChatGPT-interfaces, bortset fra de nævnte ulemper ved brug af et tredjesystem.
Konklusion
Kunstig intelligens bliver, sandsynligvis på grund af den rette begejstring for de nye muligheder, overvurderet eller fejlbedømt af mange. Almindelige intelligenser som ChatGPT er præcist tilfældet: Til at besvare almindelige spørgsmål uden påstand om tillid eller garanti for korrekthed. Det bliver kun alene ved brugerledningen af sådanne systemer synlig, der ikke indeholder nogen anvisninger om, at resultaterne skal være sorgfaldigt overprøvet eller også en forkert respons kunne være med.
Få linjer kode er tilstrækkeligt til at med hjælp af 100 milliarder kunstige neuroner oprette en fejlagtig udgang. Et par rækker mere kode hjælper med at få rigtige svar ved hjælp af et eget system.
Virksomheder, der ønsker at bruge en AI, skal først klare sig med følgende spørgsmål: For hvad skal denne AI nøjagtig bruges til? Hvis dette spørgsmål ikke kan besvares, så er det sandsynligvis et fast faktum. Dette virksomhed har enten ikke brug for et AI-system eller ved ikke, hvad de ønsker at bruge det til.
Den private brug af ChatGPT og lignende systemer er sikkert spændende, men noget helt anderledes end brugen af chatbots eller AI-systemer i almindelighed i virksomheden.
Hvis et firma har et problem, der kan løses ved hjælp af en kognitiv it-system (AI), så er det værd at undersøge, om dette problem også kan løses med et eget AI-system i firmaet.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
