Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen

ChatGPT e Bing AI come garanti per risultati falsi. Amichevolezza dei dati e correttezza dei dati?

0
Dr. DSGVO Newsletter detected: Extended functionality available
More articles · Website-Checks · Live Offline-AI
📄 Articolo in formato PDF (solo per gli abbonati alla newsletter)
🔒 Premium-Funktion
Der aktuelle Beitrag kann in PDF-Form angesehen und heruntergeladen werden

📊 Download freischalten
Der Download ist nur für Abonnenten des Dr. DSGVO-Newsletters möglich

Molti credono di dover utilizzare questo chatbot per tutto e tutti dopo che ha sorpreso l'umanità con risultati incredibili, ma ciò che sembra innocuo nel privato può portare a problemi gravi nel mondo degli affari.

Introduzione

Ultimamente una società tedesca ha dichiarato di offrire una soluzione AI per l'interpretazione dei testi giuridici. L'ispiratore è stato un contributo su Dr. GDPR a AI per l'analisi dei testi giuridici.

L'applicazione di intelligenza artificiale della società in questione è ancora al beta. È probabile che un prototipo sia stato realizzato velocemente per poter esplorare il mercato per applicazioni simili. In nessun punto si fa menzione del modello linguistico utilizzato. Le indagini suggeriscono che si tratti di ChatGPT.

Questo articolo è stato scritto insieme al discorso del 05.09.2023 presso l'IT Club di Mainz & Rheinhessen nel Gutenberg Digital Hub a Mainz.

Vedi più in basso per le impressioni.

Le risposte del sistema di intelligenza artificiale erano buone, ma non eclatanti. Le domande giuridiche sono state affrontate con risposte plausibili insieme alle fonti. Tuttavia le risposte sarebbero state insufficienti per poter decidere una discussione giuridica a proprio favore. Probabilmente i risultati avrebbero portato addirittura alla sconfitta.

È stato possibile stabilire che ChatGPT-3 è stata utilizzata dall'applicazione di intelligenza artificiale della società tedesca chiedendo al chatbot informazioni in merito. La risposta dell'intelligenza artificiale era: "Sì, mi baso su un modello chiamato GPT-3, sviluppato da OpenAI. […]."

Cosa c'è di così problematico in ChatGPT? La stessa domanda potrebbe essere rivolta a Microsoft Copilot. Un semplice test dimostra, che Copilot stesso si trova in difficoltà anche con compiti semplici.

Motivazione

I chatbot solitamente si avvalgono di una base di conoscenza introdotta. Ecco un esempio di applicazione della suddetta azienda tedesca, che sembra utilizzare ChatGPT in background:

Risposta sbagliata di un chatbot basato su ChatGPT. (l'immagine è stata tradotta automaticamente).

Il chatbot non conosce quindi un giudizio che esiste e può essere identificato in modo univoco tramite un identificatore, e quindi (per un giurista) è identificabile in modo univoco. Il chatbot avrebbe dovuto informare il utente meglio sui limiti del chatbot piuttosto che fingere di non esistere il giudizio cercato.

Per utilizzare ChatGPT è sufficiente utilizzare l'interfaccia di OpenAI (API). Poiché l'utilizzo di questa API è così semplice, sembra che molti si sentano autorizzati a farlo. Ecco il risultato negativo, come si può vedere dall'esempio.

Ecco come funziona, utilizzare ChatGPT da un proprio programma (Attenzione: tutti i dati vanno a OpenAI/ChatGPT, solo il seguente codice del programma si trova localmente nel programmista):

import openai
openai.api\_key = "XYZ" #Ihr kostenpflichtiger OpenAI API-Schlüssel
completion = openai.ChatCompletion()
def frage\_chatgpt(frage):
chat\_log = \[{
'role': 'system',
'content': 'Du bist ein hilfreicher Assistent',
}\]
chat\_log.append({'role': 'user', 'content': frage})
response = completion.create(model='gpt-3.5-turbo', messages=chat\_log)
antwort= response.choices\[0\]\['message'\]\['content'\]
return antwort
print(frage\_chatgpt("Was ist die Antwort auf alle Fragen?"))
Aufruf der OpenAI API für ChatGPT, um für eine Frage eine Antwort von ChatGPT zu erhalten.

Questo può fare veramente chiunque. Comunque, tanti non programmatori riescono a creare e eseguire questo codice quanto ci sono persone che non sono meccanici e possono cambiare un pneumatico al proprio auto. Come suggerisce il codice, divertirsi costa denaro dopo aver superato un certo numero di richieste per chiamata. La risposta potrebbe anche essere più veloce (questo è lamentarsi a livello alto per sfumare l'illusione che alcuni hanno su ChatGPT).

Un altro esempio di una dichiarazione falsa generata da ChatGPT:

Risposta errata da un chatbot basato su ChatGPT. (l'immagine è stata tradotta automaticamente).

Ecco la traduzione: "Ecco la mia constatazione, che può anche entrare nella mia stessa IA, ma non in ChatGPT: I cookie non sono file di testo, ma insiemi di dati. Quindi ChatGPT risponderà sempre falsamente fino a nuovo ordine.

A ricordo: ChatGPT è un modello linguistico estremamente avanzato, che non ha eguali *.

Purtroppo ChatGPT si basa su milioni o miliardi di documenti, quindi troppa conoscenza generale imprecisa e troppo poco sapere specialistico preciso è stato introdotto nel cervello artificiale.

La ricerca di Bing di Microsoft è anche guidata dall'intelligenza artificiale. Microsoft si è finanziariamente impegnato recentemente in OpenAI per trarre vantaggio dal hype di ChatGPT. Soprattutto quando le ricerche vengono formulate in modo semplice, i risultati della AI di Bing sono spesso falsi o strani. Al contrario, i risultati sono spesso positivi se Bing cerca in modo convenzionale. Convenzionalmente si riesce spesso a ottenere buoni risultati. La differenza è che le risposte dai risultati della ricerca vengono citate, ma non astratte, quindi riportate nelle parole stesse della AI.

Intervento di apertura al Club IT di Mainz 6 Rheinhessen il 05.09.2023 nel Gutenberg Digital Hub a Magonza. (l'immagine è stata tradotta automaticamente).

Preferisci una risposta vera e citata piuttosto che una falsa risposta in proprie parole.

La soluzione migliore

Una soluzione migliore fornisce spesso risposte corrette e dà all'utente la possibilità di riconoscere eventuali risposte imprecise o false, in modo da poterle valutare criticamente. Se una risposta può essere imprecisa o falsa, ciò può essere determinato con facilità grazie a un'intelligenza artificiale aziendale, altrimenti non come con la "cassetta nera" denominata ChatGPT.

Il caso d'uso per sistemi di intelligenza artificiale aziendali è dato sempre che si richiedono risposte precise o quando si vogliono spesso cercare documenti propri. ChatGPT fallisce in questo caso oppure è troppo costoso, poiché OpenAI addebita a seconda del volume di utilizzo.

L'automatizzazione, la validazione e l'ottimizzazione sono caratteristiche che soprattutto i sistemi di intelligenza artificiale aziendali offrono, non però le Black Box come ChatGPT.

Farsi dipendere da terzi non appare neanche come la miglior strategia. Lo sappiamo dai ultimi anni. Esempi sono i sistemi e le piattaforme di Google, Microsoft, Meta o Apple.

Precisione dei dati, citata nel titolo del contributo: L'obbligo di mantenere e trattare correttamente i dati personali deriva dall'Art. 18, comma 1 GDPR. Se la precisione di tali dati è controversa o se il loro trattamento non è più legittimo, una persona interessata può richiedere un limite al trattamento.

Anche per i dati che non hanno alcun riferimento a persone la loro correttezza è spesso fondamentale. Se un avvocato ad esempio inserisce nella sua scrittura una risposta di un chatbot, sarebbe meglio se ciò che si trova lì fosse corretto e superasse eventuali controlli.

Anche in progetti di ricerca o in brevetti sarebbe fatale se istruzioni o conoscenze false entrassero nel lavoro. Rischiare giuridicamente è altresì il trasferimento di dati critici a terzi. I dati possono essere critici, ad esempio

  • Segreto
  • Protetto da diritti d'autore
  • di natura personale o
  • Confidenziale

Sono stanco.

Acquisire conoscenza di fatto

La affidabilità di un'intelligenza artificiale per il trattamento del testo può essere notevolmente migliorata inserendo fatti importanti esplicitamente nel cervello elettronico. Ciò viene spesso chiamato Grounding. Microsoft utilizza questo metodo per la sua motore di ricerca Bing, ma fallisce in ciò, come mostrano numerosi esempi. Eseguendo correttamente, il Grounding aiuta a eliminare le informazioni false diffuse.

Dopo aver portato a termine il proprio sistema di intelligenza artificiale, fornisce anche risposte migliori di ChatGPT, e precisamente per quanto riguarda la conoscenza rilevante. Chi era Goethe, non dovrebbe essere qualcosa che il nostro sistema di IA debba sapere. Questo inutile supplemento di informazioni pesa solo sul modello di IA e porta a dichiarazioni false, almeno a prestazioni inferiori ( "la IA non riesce più a vedere la foresta per le tante piante" ) o risposte più lente.

Ecco un esempio di risposta generata dal Dr. GDPR Wissensbestand e qualitativamente molto migliore (e soprattutto giusta) rispetto ai risultati di Microsoft Bing e ChatGPT:

Risposta del sistema di intelligenza artificiale autonomo Dr. GDPR su domanda "Cosa sono i cookie?. (l'immagine è stata tradotta automaticamente).

Il sapere aziendale fruibile si distingue per essere in genere abbastanza comprensibile, presentato sotto forma di documenti e considerati a priori come veri (o più veritieri delle fonti esterne). Una propria macchina di ricerca basata su intelligenza artificiale per il sapere aziendale ha diversi vantaggi.

In primo luogo, la propria AI aziendale è autonoma e non dipende da terzi. La domanda circa una valutazione delle conseguenze per il trattamento dei dati (DSFA) si pone qui a malapena o affatto. I dati riservati o confidenziali sono ben protetti all'interno dei propri sistemi.

In secondo luogo, una AI aziendale autonoma può essere adattata alle proprie esigenze. Se si guarda l'esempio di programma sopra, potrebbero saltare in mente le seguenti cose:

  1. Con il Python si possono costruire sistemi di intelligenza artificiale in poche righe di codice.
  2. La complessità si trova non nel programma, ma nel modello di intelligenza artificiale che deve essere costruito una volta sola.
  3. Un piccolo passo basta per muovere molto.

Sono possibili applicazioni economiche con un notevole valore aggiunto. I propri sistemi di intelligenza artificiale sono spesso più economici rispetto all'utilizzo dell'interfaccia ChatGPT, a prescindere dai menzionati svantaggi nell'utilizzo di un sistema terzo.

Conclusione

L'intelligenza artificiale viene spesso sopravvalutata o valutata in modo errato a causa della giusta entusiasmo per le nuove possibilità. Le intelligenze generali come ChatGPT sono proprio adatte a questo scopo: rispondere a domande generali, senza pretesa di affidabilità o correttezza. Ciò si può riconoscere solo nella guida dell'utente di tali sistemi, che non contiene alcun indizio del fatto che i risultati dovrebbero essere attentamente verificati o potrebbe anche contenere una risposta falsa.

Poche righe di codice sono sufficienti per generare un'uscita falsa con l'aiuto di 100 miliardi di neuroni artificiali. Un po' più di codice aiuta a ottenere risposte corrette con il proprio sistema.

Imprenditori che vogliono utilizzare l'intelligenza artificiale devono prima chiarire una domanda: per cosa esattamente si vuole utilizzare questa intelligenza artificiale? Se non riescono a rispondere a questa domanda, allora è probabile che questo imprenditore non abbia bisogno di un sistema di IA o semplicemente non sappia ancora per cosa.

L'uso privato di ChatGPT e simili è sicuramente affascinante, ma qualcosa di completamente diverso dall'uso di chatbot o sistemi AI in generale nell'azienda.

Se un'azienda ha un problema che può essere risolto con l'aiuto di una IA, vale la pena verificare se questo problema possa essere risolto con un sistema di intelligenza artificiale aziendale.

Messaggi chiave

ChatGPT e simili possono dare risposte sbagliate e non sono affidabili per compiti importanti come l'interpretazione legale.

ChatGPT può dare risposte sbagliate perché è basato su una grande quantità di informazioni imprecise. È importante valutare criticamente le risposte di ChatGPT e preferire fonti affidabili e citate.

Creare un sistema di intelligenza artificiale interno per l'azienda è più affidabile e preciso rispetto all'utilizzo di modelli esterni come ChatGPT.

Prima di usare l'intelligenza artificiale, è importante capire cosa si vuole ottenere con essa.

Ulteriori informazioni

About the author on dr-dsgvo.de
My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.

Intelligenza artificiale: come salvano i modelli di linguaggio delle IA i dati? I modelli contengono anche dati personali?