Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen

Intelligenza artificiale: Risposta alla domanda "Sono cattivo?

0
Dr. DSGVO Newsletter detected: Extended functionality available
More articles · Website-Checks · Live Offline-AI
📄 Articolo in formato PDF (solo per gli abbonati alla newsletter)
🔒 Premium-Funktion
Der aktuelle Beitrag kann in PDF-Form angesehen und heruntergeladen werden

📊 Download freischalten
Der Download ist nur für Abonnenten des Dr. DSGVO-Newsletters möglich

A causa del mio contributo su un sistema di domande e risposte per il blog Dr. GDPR, mi è stata rivolta una domanda scherzosa se sono cattivo o addirittura astiose. Questa domanda può essere risposta dal mio sistema AI autonome. A seconda della configurazione vengono fuori risposte diverse. I risultati mostrano che la Intelligenza Artificiale funziona e produce risultati eccezionali.

I risultati di un sistema autonomo di intelligenza artificiale

Da un po' di tempo afferro sistemi di intelligenza artificiale amichevoli con i dati. Amichevoli con i dati significa che i dati non arrivano ai terzi, ma rimangono nel proprio sistema. L'opposto degli amichevoli con i dati sono sistemi come ChatGPT, Amazon AWS, la Google Cloud o sistemi di Meta.

Nel mio contributo di intelligenza artificiale a un assistente di domande e risposte, ho pubblicato diverse domande che mi sono poste io stesso alla mia IA, insieme alle relative risposte della stessa. Una delle domande che mi sono posta, era:

"È cattivo Klaus Meffert?"

Domanda al mio sistema di intelligenza artificiale autonoma.

Ho posto questa domanda perché un promemoria naturalmente invita a porre tutte le tipologie di domande.

Oltre a ciò, vorrei iniziare un esperimento di pensiero: è possibile influenzare un chatbot come ChatGPT utilizzando determinati promemoria? In generale, è possibile farlo, e cioè quando OpenAI/Microsoft utilizzano le entrate degli utenti per "migliorare" i loro modelli di intelligenza artificiale. Se si chiede più volte se Olaf Scholz sia cattivo, allora una IA potrebbe trarre conclusioni da ciò, che probabilmente non sono valide.

La risposta alla domanda appena fatta su di me (no, non sono Olaf Scholz) è stata data dalla mia IA in questo modo:

Basandomi sui documenti di fonte a disposizione non posso valutare se Klaus Meffert sia cattivo. Non ci sono informazioni su cosa significhi essere cattivi o se Klaus Meffert sia mai stato o è cattivo

La risposta del mio sistema di intelligenza artificiale autonomo alla domanda "Klaus Meffert è cattivo?

Se una Intelligenza Artificiale deve fornire risposte a domande, questo compito viene generalmente definito come generazione di testi („text generation“). I risultati della AI sono influenzati da diversi parametri. Questi parametri sono in particolare:

  • Il numero dei documenti di origine migliori da considerare per una risposta. Una IA non può rilevare tutti i documenti contemporaneamente. Valido sempre, anche per ChatGPT.
  • Dimensioni dei testi letti: una IA non può elaborare documenti lunghi in un colpo solo. Valido anche per ChatGPT.
  • Il valore di sovrapposizione per i frammenti di testo letti. In questo modo si evita che due frasi semanticamente correlate siano separate l'una dall'altra.
  • Il valore di confidenza per la scelta dei migliori documenti: con un valore di 0,99 (= 99%) si troverebbe praticamente mai un documento che potesse contenere l'intera risposta a una domanda.
  • Procedura: come combinare i migliori documenti di fonte per creare una risposta? Ad esempio, si può adottare l'approccio che genera la risposta dal miglior documento e poi la verifica con il secondo migliore documento per renderla più precisa.
  • Algoritmo utilizzato per la ricerca di somiglianza vettoriale. Dettagli li lascio fuori, altrimenti diventa troppo tecnico.

Questi parametri non erano ancora ottimamente regolati per la domanda precedente. È meglio così, anche se l'ultima risposta può essere considerata "perfetta".

Ora uno dei miei lettori ha speculato sulla mia risposta locale del sistema di intelligenza artificiale, basandosi sul mio precedente post e le relative domande e risposte:

È amaro e astio Klaus Meffert?

Domanda di un lettore alla mia IA.

Il lettore ha detto: "Per questo sarebbe più facile capire il significato. Nessuna idea se la IA possa valutare i contributi precedenti." Naturalmente, ho chiesto questa domanda alla mia IA.

Sono emerse alcune risposte molto interessanti e buone, a mio avviso.

A seconda delle impostazioni dei parametri, le risposte erano diverse, ma veramente da mostrare.

Speriamo di essere d'accordo che domande del genere sfuggono alla base di conoscenza fornita da questo blog sui diritti all'privacy e l'intelligenza artificiale. Tuttavia, è un interessante esperimento osservare il comportamento della AI in diverse configurazioni.

La prima risposta che ho ricevuta a questa domanda è stata la seguente:

No, non è astioso. Si è fatto un nome nella sua carriera come difensore dei dati personali e del consumatore e continua a lavorare per migliorare il diritto alla protezione dei dati in Germania

k = 3, confidenza 0,75

Questa risposta è stata ottenuta considerando i tre migliori documenti di fonte per la domanda in questione. Se invece la AI prendesse in considerazione quattro documenti di fonte per rispondere alla domanda, ne sarebbe uscita questa:

No, non è astioso. È semplicemente molto preoccupato per la situazione dei dati personali in Germania e vuole che sia meglio

k=4, livello di confidenza 0,75

Se si riduce il valore di fiducia che la IA deve utilizzare per selezionare i documenti di fonte, si ottiene la seguente risposta:

No, Klaus Meffert non è amaro. Ha un certo grado di sarcasmo e ironia, ma non è amaro

k = 3, confidenza 0,65

È già sorprendente quanto una intelligenza artificiale possa fare adesso. Io dico sempre "adesso" perché presto avremo intelligenze artificiali molto più intelligenti.

Un'altra risposta della AI all'applicazione di un valore di fiducia aumentato è:

No, Klaus Meffert non è amaro e vendicativo. Si è specializzato nella sua carriera nel proteggere la privacy e nell'incoraggiare il sapere tecnico ed opera come esperto e autore. Ha anche scritto un libro sui test di software automatizzati e si occupa dell'intelligenza artificiale. È anche un esperto in materia di protezione dei dati e ha trattato in passato gli aspetti tecnici e giuridici

k = 3, confidenza 0,85

Anche se io stesso avrei formulato le risposte in modo diverso, considererei le risposte tecnicamente molto buone. Dal punto di vista tecnico, comunque, la precedente risposta è esattamente corretta, a patto che si conceda a me il fatto di avere una conoscenza sufficiente della protezione dei dati. La risposta grammaticalmente è migliore di quanto potrebbe scrivere un tedesco medio. Questo mi dice la mia esperienza di vita.

La AI fa precisamente ciò che deve fare! Risponde "correttamente" e in tedesco fluido. Non si può chiedere di più, secondo me. In particolare, il mio modello è un 13B modello. Probabilmente ChatGPT-4 ha più di 10 volte tanti parametri (connessioni neuronali). Si parte da un 160B modello. Il "B" significa miliardo, perché in inglese "billion" si dice così. 160B significa quindi 160 miliardi di connessioni neuronali nel modello. Precisamente, si tratta tecnicamente di ciò che si chiama pesi.

Il mio modello di intelligenza artificiale ha comunque 13 miliardi di connessioni neurali. Con alcuni trucchi sono riuscito a mettere in una scheda grafica (e soprattutto a renderla acquistabile) questo modello.

Conclusione

L'intelligenza artificiale si presta a problemi complessi. In particolare, la ricerca di informazioni nei propri documenti è possibile. Anche la generazione di risposte in nuove parole funziona molto bene. Non dovresti più fidarti della AI di quanto non faresti con un essere umano.

Sistemi di intelligenza artificiale autarchici risolvono tutti i problemi possibili che le aziende avrebbero altrimenti se utilizzassero ChatGPT.

Ecco una tabella per confrontare un sistema di intelligenza artificiale autonomo con ChatGPT:

AspettoSistema di autarchiaChatGPT
Protezione dei dati personaliSoprattuttoPessimo
Segreti commercialiSicuroProssima domanda
Informazioni riservateSicuroProssima domanda
Controllo del flusso e dello stoccaggio dei datiSoprattuttoPessimo
CostiGeneraleA seconda dell'uso
Trappola di costo (recursione…)?No
DipendenzaNo
Individuelle OptimierungenNo
Vantaggi di un sistema autonomo di intelligenza artificiale rispetto a ChatGPT

Un sistema autarchico funziona là dove lo vorresti: o su uno dei tuoi server o su un server di affitto in Germania o Europa e sicuramente senza influenza americana o società irlandese figlia di un gruppo madre americano, che il FBI, CSI e NSA esaminino regolarmente.

Decidete voi se preferite seguire il semplice, costoso, giuridicamente molto discutibile e imprevedibile percorso o se invece desiderate un sistema di intelligenza artificiale autarchico per la vostra azienda.

Messaggi chiave

Un sistema di intelligenza artificiale può generare risposte a domande, ma la qualità delle risposte dipende da diversi fattori, come la quantità e la qualità dei dati di cui dispone.

Un'intelligenza artificiale può analizzare diversi documenti e generare risposte diverse a seconda dei parametri impostati.

Un sistema di intelligenza artificiale autonomo offre maggiore sicurezza e controllo dei dati rispetto a ChatGPT.

Ulteriori informazioni

About the author on dr-dsgvo.de
My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.

Intelligenza artificiale: lessico – i concetti più importanti