Wanneer ChatGPT de mensheid voor het eerst verbaasde met zijn ongelofelijke resultaten, denken velen dat deze chatbot moet worden gebruikt voor alles en iedereen. Wat in het privéleven onschuldig lijkt, leidt in het bedrijfsleven tot problemen die snel juridisch kunnen worden aangepakt.
Inleiding
Onlangs deed een Duitse onderneming aankondigingen dat ze een AI-oplossing voor het interpreteren van juridische teksten aanbiedt. De aanleiding what een artikel op Dr. GDPR over Kunstmatige Intelligentie voor de analyse van juridische teksten.
De AI-toepassing van de bedrijf genoemde is nog in het beta-stadium. De vermoedening is dat snel een prototype is gemaakt om de markt voor dergelijke toepassingen te verkennen. Op geen enkel moment werd er melding gemaakt van welk taalmodel in de achtergrond wordt gebruikt. Onderzoeken geven aan dat het om ChatGPT gaat.
Dit artikel is geschreven samen met een presentatie op 05.09.2023 bij de IT Club Mainz & Rheinhessen in het Gutenberg Digital Hub in Mainz.
Zie verder omlaag voor impressies.
De antwoorden van het AI-systeem waren goed, maar niet wereldschokkend. Op juridische vragen werden halfweg plausibele antwoorden met bronnen geleverd. De antwoorden zouden echter niet voldoende zijn geweest om een juridische discussie voor zichzelf te kunnen beslissen. Waarschijnlijk zouden de resultaten zelfs rechtstreeks naar een nederlaag geleid hebben.
Dat ChatGPT-3 door de AI-toepassing van het Duitse bedrijf is gebruikt, kon worden vastgesteld door aan de chatbot om uitleg te vragen. De antwoord van de AI what: „Yes, ik baseer me op een model dat GPT-3 heet en dat door OpenAI is ontwikkeld. […]
Wat is zo problematisch aan ChatGPT? De vraag kan ook gesteld worden over Microsoft Copilot. Een eenvoudig test bewijst, dat Copilot zelfs met eenvoudige taken overweldigd wordt.
Motivatie
Chatbots maken doorgaans gebruik van een ingevoerde kennisbasis. Hier een voorbeeld van een toepassing van de bovengenoemde Duitse onderneming, die kennelijk ChatGPT in de achtergrond gebruikt:

De chatbot kent dus geen uitspraak niet dat bestaat en door een duidelijke identificator uniek is geïdentificeerd. De chatbot had het gebruiker liever laten weten waar de grenzen van de chatbot liggen in plaats van alsof er geen gevraagde uitspraak zou zijn.
Om ChatGPT te kunnen gebruiken, hoeft alleen de OpenAI-schrijfinterface (API) te worden gebruikt. Omdat het gebruik van deze API zo eenvoudig is, lijken zich kennelijk veel mensen te voelen bevoegd dit te doen. Daarmee neemt het ongemak zijn loop, zoals blijkt uit het voorbeeld hierboven.
Zo simpel is het om ChatGPT uit een eigen programma te gebruiken (Aanwijzing: Alle data gaat naar OpenAI/ChatGPT, alleen de volgende code ligt lokaal bij de programmeur):
import openai
openai.api\_key = "XYZ" #Ihr kostenpflichtiger OpenAI API-Schlüssel
completion = openai.ChatCompletion()
def frage\_chatgpt(frage):
chat\_log = \[{
'role': 'system',
'content': 'Du bist ein hilfreicher Assistent',
}\]
chat\_log.append({'role': 'user', 'content': frage})
response = completion.create(model='gpt-3.5-turbo', messages=chat\_log)
antwort= response.choices\[0\]\['message'\]\['content'\]
return antwort
print(frage\_chatgpt("Was ist die Antwort auf alle Fragen?"))
Aufruf der OpenAI API für ChatGPT, um für eine Frage eine Antwort von ChatGPT zu erhalten.
Dat kan iedereen echt. In elk geval krijgen zoveel niet-programmeerders het voor elkaar om deze code te schrijven en uit te voeren, net zo goed als mensen die geen automechanicus zijn en een bandenspatslapje kunnen doen. Zoals in de code wordt aangeduid, kost de pret na overschrijding van een testlimiet per aanroep geld. De respons tijd zou ook sneller kunnen zijn (dat is klagen op hoog niveau om de illusie van sommigen te dopen dat ChatGPT alles kan).
Een ander voorbeeld van een vals verhaal dat door ChatGPT wordt gegenereerd:

Hier mijn vaststelling, die ook in mijn eigen AI kan worden opgenomen, niet echter in ChatGPT: Cookies zijn geen tekstbestanden, maar datasets. ChatGPT zal dus tot nader order altijd verkeerd antwoorden.
Herinnering: ChatGPT is een extreem geavanceerd taalmodel dat zijn gelijkenis zoekt.
Helaas is ChatGPT gebaseerd op zo veel miljoenen of miljarden documenten dat te veel onjuist algemeen kennis en te weinig nauwkeurig speciaal kennis in het kunstmatige brein heeft gekregen.
De Bing-zoekopdracht van Microsoft is ook geïnspireerd door kunstmatige intelligentie. Microsoft had zich onlangs financieel aangesloten bij OpenAI om te profiteren van de hype rond ChatGPT. Vooral als op recht eenvoudig gestelde zoekvragen de Bing-AIwordt ingeschakeld, worden de resultaten snel fout of vreemd. Omgekeerd liggen de resultaten vaak in het positieve verwachtingsvlak wanneer Bing conventioneel zoekt. Conventioneel lukt het vaak het beste om goede treffers te behalen. De verschillen zijn dat antwoorden uit zoekresultaten "alleen" worden geciteerd, maar niet worden geabstraheerd, dus in eigen woorden worden weergegeven door de AI.

Een juiste, geciteerde antwoord is beter dan een fout antwoord in eigen woorden.
De betere oplossing
Viele Artikel in PDF-Form · Kompakte Kernaussagen für Beiträge · Offline-KI · Freikontingent+ für Website-Checks



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
