Molti credono di dover utilizzare questo chatbot per tutto e tutti dopo che ha sorpreso l'umanità con risultati incredibili, ma ciò che sembra innocuo nel privato può portare a problemi gravi nel mondo degli affari.
Introduzione
Ultimamente una società tedesca ha dichiarato di offrire una soluzione AI per l'interpretazione dei testi giuridici. L'ispiratore è stato un contributo su Dr. GDPR a AI per l'analisi dei testi giuridici.
L'applicazione di intelligenza artificiale della società in questione è ancora al beta. È probabile che un prototipo sia stato realizzato velocemente per poter esplorare il mercato per applicazioni simili. In nessun punto si fa menzione del modello linguistico utilizzato. Le indagini suggeriscono che si tratti di ChatGPT.
Questo articolo è stato scritto insieme al discorso del 05.09.2023 presso l'IT Club di Mainz & Rheinhessen nel Gutenberg Digital Hub a Mainz.
Vedi più in basso per le impressioni.
Le risposte del sistema di intelligenza artificiale erano buone, ma non eclatanti. Le domande giuridiche sono state affrontate con risposte plausibili insieme alle fonti. Tuttavia le risposte sarebbero state insufficienti per poter decidere una discussione giuridica a proprio favore. Probabilmente i risultati avrebbero portato addirittura alla sconfitta.
È stato possibile stabilire che ChatGPT-3 è stata utilizzata dall'applicazione di intelligenza artificiale della società tedesca chiedendo al chatbot informazioni in merito. La risposta dell'intelligenza artificiale era: "Sì, mi baso su un modello chiamato GPT-3, sviluppato da OpenAI. […]."
Cosa c'è di così problematico in ChatGPT? La stessa domanda potrebbe essere rivolta a Microsoft Copilot. Un semplice test dimostra, che Copilot stesso si trova in difficoltà anche con compiti semplici.
Motivazione
I chatbot solitamente si avvalgono di una base di conoscenza introdotta. Ecco un esempio di applicazione della suddetta azienda tedesca, che sembra utilizzare ChatGPT in background:

Il chatbot non conosce quindi un giudizio che esiste e può essere identificato in modo univoco tramite un identificatore, e quindi (per un giurista) è identificabile in modo univoco. Il chatbot avrebbe dovuto informare il utente meglio sui limiti del chatbot piuttosto che fingere di non esistere il giudizio cercato.
Per utilizzare ChatGPT è sufficiente utilizzare l'interfaccia di OpenAI (API). Poiché l'utilizzo di questa API è così semplice, sembra che molti si sentano autorizzati a farlo. Ecco il risultato negativo, come si può vedere dall'esempio.
Ecco come funziona, utilizzare ChatGPT da un proprio programma (Attenzione: tutti i dati vanno a OpenAI/ChatGPT, solo il seguente codice del programma si trova localmente nel programmista):
import openai
openai.api\_key = "XYZ" #Ihr kostenpflichtiger OpenAI API-Schlüssel
completion = openai.ChatCompletion()
def frage\_chatgpt(frage):
chat\_log = \[{
'role': 'system',
'content': 'Du bist ein hilfreicher Assistent',
}\]
chat\_log.append({'role': 'user', 'content': frage})
response = completion.create(model='gpt-3.5-turbo', messages=chat\_log)
antwort= response.choices\[0\]\['message'\]\['content'\]
return antwort
print(frage\_chatgpt("Was ist die Antwort auf alle Fragen?"))
Aufruf der OpenAI API für ChatGPT, um für eine Frage eine Antwort von ChatGPT zu erhalten.
Questo può fare veramente chiunque. Comunque, tanti non programmatori riescono a creare e eseguire questo codice quanto ci sono persone che non sono meccanici e possono cambiare un pneumatico al proprio auto. Come suggerisce il codice, divertirsi costa denaro dopo aver superato un certo numero di richieste per chiamata. La risposta potrebbe anche essere più veloce (questo è lamentarsi a livello alto per sfumare l'illusione che alcuni hanno su ChatGPT).
Un altro esempio di una dichiarazione falsa generata da ChatGPT:

Ecco la traduzione: "Ecco la mia constatazione, che può anche entrare nella mia stessa IA, ma non in ChatGPT: I cookie non sono file di testo, ma insiemi di dati. Quindi ChatGPT risponderà sempre falsamente fino a nuovo ordine.
A ricordo: ChatGPT è un modello linguistico estremamente avanzato, che non ha eguali *.
Purtroppo ChatGPT si basa su milioni o miliardi di documenti, quindi troppa conoscenza generale imprecisa e troppo poco sapere specialistico preciso è stato introdotto nel cervello artificiale.
La ricerca di Bing di Microsoft è anche guidata dall'intelligenza artificiale. Microsoft si è finanziariamente impegnato recentemente in OpenAI per trarre vantaggio dal hype di ChatGPT. Soprattutto quando le ricerche vengono formulate in modo semplice, i risultati della AI di Bing sono spesso falsi o strani. Al contrario, i risultati sono spesso positivi se Bing cerca in modo convenzionale. Convenzionalmente si riesce spesso a ottenere buoni risultati. La differenza è che le risposte dai risultati della ricerca vengono citate, ma non astratte, quindi riportate nelle parole stesse della AI.

Preferisci una risposta vera e citata piuttosto che una falsa risposta in proprie parole.
La soluzione migliore
Una soluzione migliore fornisce spesso risposte corrette e dà all'utente la possibilità di riconoscere eventuali risposte imprecise o false, in modo da poterle valutare criticamente. Se una risposta può essere imprecisa o falsa, ciò può essere determinato con facilità grazie a un'intelligenza artificiale aziendale, altrimenti non come con la "cassetta nera" denominata ChatGPT.
Il caso d'uso per sistemi di intelligenza artificiale aziendali è dato sempre che si richiedono risposte precise o quando si vogliono spesso cercare documenti propri. ChatGPT fallisce in questo caso oppure è troppo costoso, poiché OpenAI addebita a seconda del volume di utilizzo.
L'automatizzazione, la validazione e l'ottimizzazione sono caratteristiche che soprattutto i sistemi di intelligenza artificiale aziendali offrono, non però le Black Box come ChatGPT.
Farsi dipendere da terzi non appare neanche come la miglior strategia. Lo sappiamo dai ultimi anni. Esempi sono i sistemi e le piattaforme di Google, Microsoft, Meta o Apple.
Precisione dei dati, citata nel titolo del contributo: L'obbligo di mantenere e trattare correttamente i dati personali deriva dall'Art. 18, comma 1 GDPR. Se la precisione di tali dati è controversa o se il loro trattamento non è più legittimo, una persona interessata può richiedere un limite al trattamento.
Anche per i dati che non hanno alcun riferimento a persone la loro correttezza è spesso fondamentale. Se un avvocato ad esempio inserisce nella sua scrittura una risposta di un chatbot, sarebbe meglio se ciò che si trova lì fosse corretto e superasse eventuali controlli.
Anche in progetti di ricerca o in brevetti sarebbe fatale se istruzioni o conoscenze false entrassero nel lavoro. Rischiare giuridicamente è altresì il trasferimento di dati critici a terzi. I dati possono essere critici, ad esempio
- Segreto
- Protetto da diritti d'autore
- di natura personale o
- Confidenziale
Sono stanco.
Acquisire conoscenza di fatto
La affidabilità di un'intelligenza artificiale per il trattamento del testo può essere notevolmente migliorata inserendo fatti importanti esplicitamente nel cervello elettronico. Ciò viene spesso chiamato Grounding. Microsoft utilizza questo metodo per la sua motore di ricerca Bing, ma fallisce in ciò, come mostrano numerosi esempi. Eseguendo correttamente, il Grounding aiuta a eliminare le informazioni false diffuse.
Dopo aver portato a termine il proprio sistema di intelligenza artificiale, fornisce anche risposte migliori di ChatGPT, e precisamente per quanto riguarda la conoscenza rilevante. Chi era Goethe, non dovrebbe essere qualcosa che il nostro sistema di IA debba sapere. Questo inutile supplemento di informazioni pesa solo sul modello di IA e porta a dichiarazioni false, almeno a prestazioni inferiori ( "la IA non riesce più a vedere la foresta per le tante piante" ) o risposte più lente.
Ecco un esempio di risposta generata dal Dr. GDPR Wissensbestand e qualitativamente molto migliore (e soprattutto giusta) rispetto ai risultati di Microsoft Bing e ChatGPT:

Il sapere aziendale fruibile si distingue per essere in genere abbastanza comprensibile, presentato sotto forma di documenti e considerati a priori come veri (o più veritieri delle fonti esterne). Una propria macchina di ricerca basata su intelligenza artificiale per il sapere aziendale ha diversi vantaggi.
In primo luogo, la propria AI aziendale è autonoma e non dipende da terzi. La domanda circa una valutazione delle conseguenze per il trattamento dei dati (DSFA) si pone qui a malapena o affatto. I dati riservati o confidenziali sono ben protetti all'interno dei propri sistemi.
In secondo luogo, una AI aziendale autonoma può essere adattata alle proprie esigenze. Se si guarda l'esempio di programma sopra, potrebbero saltare in mente le seguenti cose:
- Con il Python si possono costruire sistemi di intelligenza artificiale in poche righe di codice.
- La complessità si trova non nel programma, ma nel modello di intelligenza artificiale che deve essere costruito una volta sola.
- Un piccolo passo basta per muovere molto.
Sono possibili applicazioni economiche con un notevole valore aggiunto. I propri sistemi di intelligenza artificiale sono spesso più economici rispetto all'utilizzo dell'interfaccia ChatGPT, a prescindere dai menzionati svantaggi nell'utilizzo di un sistema terzo.
Conclusione
L'intelligenza artificiale viene spesso sopravvalutata o valutata in modo errato a causa della giusta entusiasmo per le nuove possibilità. Le intelligenze generali come ChatGPT sono proprio adatte a questo scopo: rispondere a domande generali, senza pretesa di affidabilità o correttezza. Ciò si può riconoscere solo nella guida dell'utente di tali sistemi, che non contiene alcun indizio del fatto che i risultati dovrebbero essere attentamente verificati o potrebbe anche contenere una risposta falsa.
Poche righe di codice sono sufficienti per generare un'uscita falsa con l'aiuto di 100 miliardi di neuroni artificiali. Un po' più di codice aiuta a ottenere risposte corrette con il proprio sistema.
Imprenditori che vogliono utilizzare l'intelligenza artificiale devono prima chiarire una domanda: per cosa esattamente si vuole utilizzare questa intelligenza artificiale? Se non riescono a rispondere a questa domanda, allora è probabile che questo imprenditore non abbia bisogno di un sistema di IA o semplicemente non sappia ancora per cosa.
L'uso privato di ChatGPT e simili è sicuramente affascinante, ma qualcosa di completamente diverso dall'uso di chatbot o sistemi AI in generale nell'azienda.
Se un'azienda ha un problema che può essere risolto con l'aiuto di una IA, vale la pena verificare se questo problema possa essere risolto con un sistema di intelligenza artificiale aziendale.
Messaggi chiave
ChatGPT e simili possono dare risposte sbagliate e non sono affidabili per compiti importanti come l'interpretazione legale.
ChatGPT può dare risposte sbagliate perché è basato su una grande quantità di informazioni imprecise. È importante valutare criticamente le risposte di ChatGPT e preferire fonti affidabili e citate.
Creare un sistema di intelligenza artificiale interno per l'azienda è più affidabile e preciso rispetto all'utilizzo di modelli esterni come ChatGPT.
Prima di usare l'intelligenza artificiale, è importante capire cosa si vuole ottenere con essa.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
