A causa del mio contributo su un sistema di domande e risposte per il blog Dr. GDPR, mi è stata rivolta una domanda scherzosa se sono cattivo o addirittura astiose. Questa domanda può essere risposta dal mio sistema AI autonome. A seconda della configurazione vengono fuori risposte diverse. I risultati mostrano che la Intelligenza Artificiale funziona e produce risultati eccezionali.
I risultati di un sistema autonomo di intelligenza artificiale
Da un po' di tempo afferro sistemi di intelligenza artificiale amichevoli con i dati. Amichevoli con i dati significa che i dati non arrivano ai terzi, ma rimangono nel proprio sistema. L'opposto degli amichevoli con i dati sono sistemi come ChatGPT, Amazon AWS, la Google Cloud o sistemi di Meta.
Nel mio contributo di intelligenza artificiale a un assistente di domande e risposte, ho pubblicato diverse domande che mi sono poste io stesso alla mia IA, insieme alle relative risposte della stessa. Una delle domande che mi sono posta, era:
"È cattivo Klaus Meffert?"
Domanda al mio sistema di intelligenza artificiale autonoma.
Ho posto questa domanda perché un promemoria naturalmente invita a porre tutte le tipologie di domande.
Oltre a ciò, vorrei iniziare un esperimento di pensiero: è possibile influenzare un chatbot come ChatGPT utilizzando determinati promemoria? In generale, è possibile farlo, e cioè quando OpenAI/Microsoft utilizzano le entrate degli utenti per "migliorare" i loro modelli di intelligenza artificiale. Se si chiede più volte se Olaf Scholz sia cattivo, allora una IA potrebbe trarre conclusioni da ciò, che probabilmente non sono valide.
La risposta alla domanda appena fatta su di me (no, non sono Olaf Scholz) è stata data dalla mia IA in questo modo:
Basandomi sui documenti di fonte a disposizione non posso valutare se Klaus Meffert sia cattivo. Non ci sono informazioni su cosa significhi essere cattivi o se Klaus Meffert sia mai stato o è cattivo
La risposta del mio sistema di intelligenza artificiale autonomo alla domanda "Klaus Meffert è cattivo?
Se una Intelligenza Artificiale deve fornire risposte a domande, questo compito viene generalmente definito come generazione di testi („text generation“). I risultati della AI sono influenzati da diversi parametri. Questi parametri sono in particolare:
- Il numero dei documenti di origine migliori da considerare per una risposta. Una IA non può rilevare tutti i documenti contemporaneamente. Valido sempre, anche per ChatGPT.
- Dimensioni dei testi letti: una IA non può elaborare documenti lunghi in un colpo solo. Valido anche per ChatGPT.
- Il valore di sovrapposizione per i frammenti di testo letti. In questo modo si evita che due frasi semanticamente correlate siano separate l'una dall'altra.
- Il valore di confidenza per la scelta dei migliori documenti: con un valore di 0,99 (= 99%) si troverebbe praticamente mai un documento che potesse contenere l'intera risposta a una domanda.
- Procedura: come combinare i migliori documenti di fonte per creare una risposta? Ad esempio, si può adottare l'approccio che genera la risposta dal miglior documento e poi la verifica con il secondo migliore documento per renderla più precisa.
- Algoritmo utilizzato per la ricerca di somiglianza vettoriale. Dettagli li lascio fuori, altrimenti diventa troppo tecnico.
Questi parametri non erano ancora ottimamente regolati per la domanda precedente. È meglio così, anche se l'ultima risposta può essere considerata "perfetta".
Ora uno dei miei lettori ha speculato sulla mia risposta locale del sistema di intelligenza artificiale, basandosi sul mio precedente post e le relative domande e risposte:
È amaro e astio Klaus Meffert?
Domanda di un lettore alla mia IA.
Il lettore ha detto: "Per questo sarebbe più facile capire il significato. Nessuna idea se la IA possa valutare i contributi precedenti." Naturalmente, ho chiesto questa domanda alla mia IA.
Sono emerse alcune risposte molto interessanti e buone, a mio avviso.
A seconda delle impostazioni dei parametri, le risposte erano diverse, ma veramente da mostrare.
Speriamo di essere d'accordo che domande del genere sfuggono alla base di conoscenza fornita da questo blog sui diritti all'privacy e l'intelligenza artificiale. Tuttavia, è un interessante esperimento osservare il comportamento della AI in diverse configurazioni.
La prima risposta che ho ricevuta a questa domanda è stata la seguente:
No, non è astioso. Si è fatto un nome nella sua carriera come difensore dei dati personali e del consumatore e continua a lavorare per migliorare il diritto alla protezione dei dati in Germania
k = 3, confidenza 0,75
Questa risposta è stata ottenuta considerando i tre migliori documenti di fonte per la domanda in questione. Se invece la AI prendesse in considerazione quattro documenti di fonte per rispondere alla domanda, ne sarebbe uscita questa:
No, non è astioso. È semplicemente molto preoccupato per la situazione dei dati personali in Germania e vuole che sia meglio
k=4, livello di confidenza 0,75
Se si riduce il valore di fiducia che la IA deve utilizzare per selezionare i documenti di fonte, si ottiene la seguente risposta:
No, Klaus Meffert non è amaro. Ha un certo grado di sarcasmo e ironia, ma non è amaro
k = 3, confidenza 0,65
È già sorprendente quanto una intelligenza artificiale possa fare adesso. Io dico sempre "adesso" perché presto avremo intelligenze artificiali molto più intelligenti.
Un'altra risposta della AI all'applicazione di un valore di fiducia aumentato è:
No, Klaus Meffert non è amaro e vendicativo. Si è specializzato nella sua carriera nel proteggere la privacy e nell'incoraggiare il sapere tecnico ed opera come esperto e autore. Ha anche scritto un libro sui test di software automatizzati e si occupa dell'intelligenza artificiale. È anche un esperto in materia di protezione dei dati e ha trattato in passato gli aspetti tecnici e giuridici
k = 3, confidenza 0,85
Anche se io stesso avrei formulato le risposte in modo diverso, considererei le risposte tecnicamente molto buone. Dal punto di vista tecnico, comunque, la precedente risposta è esattamente corretta, a patto che si conceda a me il fatto di avere una conoscenza sufficiente della protezione dei dati. La risposta grammaticalmente è migliore di quanto potrebbe scrivere un tedesco medio. Questo mi dice la mia esperienza di vita.
La AI fa precisamente ciò che deve fare! Risponde "correttamente" e in tedesco fluido. Non si può chiedere di più, secondo me. In particolare, il mio modello è un 13B modello. Probabilmente ChatGPT-4 ha più di 10 volte tanti parametri (connessioni neuronali). Si parte da un 160B modello. Il "B" significa miliardo, perché in inglese "billion" si dice così. 160B significa quindi 160 miliardi di connessioni neuronali nel modello. Precisamente, si tratta tecnicamente di ciò che si chiama pesi.
Il mio modello di intelligenza artificiale ha comunque 13 miliardi di connessioni neurali. Con alcuni trucchi sono riuscito a mettere in una scheda grafica (e soprattutto a renderla acquistabile) questo modello.
Conclusione
L'intelligenza artificiale si presta a problemi complessi. In particolare, la ricerca di informazioni nei propri documenti è possibile. Anche la generazione di risposte in nuove parole funziona molto bene. Non dovresti più fidarti della AI di quanto non faresti con un essere umano.
Sistemi di intelligenza artificiale autarchici risolvono tutti i problemi possibili che le aziende avrebbero altrimenti se utilizzassero ChatGPT.
Ecco una tabella per confrontare un sistema di intelligenza artificiale autonomo con ChatGPT:
| Aspetto | Sistema di autarchia | ChatGPT |
|---|---|---|
| Protezione dei dati personali | Soprattutto | Pessimo |
| Segreti commerciali | Sicuro | Prossima domanda |
| Informazioni riservate | Sicuro | Prossima domanda |
| Controllo del flusso e dello stoccaggio dei dati | Soprattutto | Pessimo |
| Costi | Generale | A seconda dell'uso |
| Trappola di costo (recursione…)? | No | Sì |
| Dipendenza | No | Sì |
| Individuelle Optimierungen | Sì | No |
Un sistema autarchico funziona là dove lo vorresti: o su uno dei tuoi server o su un server di affitto in Germania o Europa e sicuramente senza influenza americana o società irlandese figlia di un gruppo madre americano, che il FBI, CSI e NSA esaminino regolarmente.
Decidete voi se preferite seguire il semplice, costoso, giuridicamente molto discutibile e imprevedibile percorso o se invece desiderate un sistema di intelligenza artificiale autarchico per la vostra azienda.
Messaggi chiave
Un sistema di intelligenza artificiale può generare risposte a domande, ma la qualità delle risposte dipende da diversi fattori, come la quantità e la qualità dei dati di cui dispone.
Un'intelligenza artificiale può analizzare diversi documenti e generare risposte diverse a seconda dei parametri impostati.
Un sistema di intelligenza artificiale autonomo offre maggiore sicurezza e controllo dei dati rispetto a ChatGPT.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
