La AI è il tema caldo che già ha rivoluzionato la nostra vita quotidiana e continuerà a cambiarla in modo significativo. Molti sono improvvisamente diventati esperti di AI. Molti chiedono una regolamentazione della AI. Molti minimizzano la AI e dicono che i modelli linguistici di AI non elaboravano dati personali. Ecco un riassunto che vuole chiarire le confusioni.
Introduzione
La AI viene sia sottostimata che sopravvalutata. La maggior parte delle persone, spesso anche io, non capisce quali possibilità offrono i sistemi di AI. Ieri stesso ho visto nuove approcci rivoluzionari in campo di AI, che due settimane fa non erano ancora noti. Ecco come va per me, qualcuno che si occupa intensamente dell'intelligenza artificiale quasi ogni giorno.
Molti pensano quindi che l'intelligenza artificiale sia un Eccitazione, che si sarà già dimenticato. Falso! Con l'approccio del Transformer nel 2017 è stata decifrata la funzione intellettiva dell'uomo, direi io. Invece di programmare un algoritmo per risolvere un problema, devo solo far entrare abbastanza esempi nel mio sistema di intelligenza artificiale, che si trova sotto il tavolo. Così sono state anche scoperte e decifrate hieroglyphiche precedentemente sconosciute.
Dalla giusta paura delle conseguenze negative dei sempre più potenti sistemi di intelligenza artificiale molti chiedono una regolamentazione. Ma non dicono come.
Quindi ci sono Dolcevita, che si presentano come esperti di intelligenza artificiale o facilitatori giuridici, e vogliono far credere agli altri come utilizzare ChatGPT in modo redditizio. Anche alla riunione della DSRI (Fondazione Tedesca per il Diritto e l'Informatica) è stato affermato in un contributo che i modelli di intelligenza artificiale non elaborano dati personali.
Altri si rassicurano facendo riferimento all'accordo informale di protezione dei dati tra Europa e Stati Uniti. Solo perché ora i dati possono essere inviati negli Stati Uniti senza ulteriori garanzie, alcuni suggeriscono che qualsiasi trattamento dei dati sia quindi consentito.
Ai singoli punti seguono alcuni dettagli.
Possibilità di sistemi di intelligenza artificiale
Una IA può fare tutto ciò che un essere umano può e molto di più. Forse non ancora adesso, ma potenzialmente (in un determinato campo X) già la prossima settimana. Presto i robot con cervelli di intelligenza artificiale cammineranno in giro e impareranno dall'ambiente. Sarà esattamente come gli esseri umani imparano. Chi prenderà il posto dei genitori, lo si vedrà. Potrebbero essere allenatori umani, ma anche altri robot o algoritmi.
Un esempio della rapida evoluzione: i modelli di linguaggio per l'intelligenza artificiale potevano elaborare solo pochi caratteri di testo contemporaneamente. Questa quantità di testo viene chiamata Lunghezza del contesto. Fino a pochi mesi fa, la lunghezza del contesto in quasi tutti i modelli di linguaggio per l'intelligenza artificiale che conosco era di 1024 caratteri, quindi un kilobyte.
La lunghezza del contesto saliva in ritmo settimanale, inizialmente a 2048, poi a 4096, poi a 8192, poi a 16.000 caratteri, successivamente a 32.000 caratteri. ChatGPT si vantava di recente di avere una lunghezza del contesto di 128.000 caratteri.
Ieri ho scoperto un approccio, noto dalla ricerca da alcuni mesi. Con questo si possono elaborare contemporaneamente una lunghezza di contesto di un miliardo di caratteri ( = 1.000.000.000). Calcolato rapidamente: prima = 128.000 caratteri, poi = 1.000.000.000 caratteri. Questo è un miglioramento di 7800 volte. Niente di speciale.
Il Moore's Law non vale per l'intelligenza artificiale. Invece di una costante crescita delle prestazioni o altri fattori ogni 12-24 mesi, si verifica un miglioramento significativo delle proprietà rilevanti della IA quasi mensilmente.
Basato sulle mie osservazioni concrete e sui miei programmi di intelligenza artificiale.
Esempio ulteriore: il noto approccio Transformer ha alcune debolezze. È molto richiesto in termini di risorse. Anche i computer ad alta prestazione o le schede grafiche hanno bisogno di alcuni secondi per generare una risposta a una domanda al chatbot. Ognuno dei utenti di ChatGPT sa di cosa sto parlando. Esiste un approccio che offre la stessa qualità della risposta, ma risponde 8 volte più velocemente e richiede solo un terzo dello spazio di memoria delle schede grafiche costose e poco disponibili per le sue calcolazioni.
Se siete oltre i 50 anni di età, ho una buona notizia per voi: c'è la possibilità che possiate morire in modo naturale e in pace. Tutti gli altri più giovani vivranno l'estinzione dell'umanità perché le macchine intelligenti ci supereranno, ci schiaveranno o ci estingueranno. Forse prima di tutto potrebbe verificarsi un'altra catastrofe, ma non è questo il tema di questo articolo.
Sono solo statistiche la IA?
La domanda è irrilevante. Non ha importanza se il cervello umano si basa su processi statistici. Ciò che conta è ciò che ne esce alla fine. Evidentemente, tutta la nostra esistenza si basa su processi statistici. Per confronto, la meccanica quantistica, una teoria molto elementare e potente. La meccanica quantistica si basa sul fatto che il comportamento di un piccolo particella della nostra esistenza non può essere realmente previsto. Al contrario, si può fare solo una affermazione sui particelle se si considerano molte e si calcola la media delle osservazioni.
Evidentemente la grammatica tedesca si basa sul fatto che impariamo quali parole vengono tipicamente concatenate e si adattano insieme. È anche statistica. Ma su questo nessuno parla raramente.
La regolamentazione dell'intelligenza artificiale
Le capacità delle intelligenze artificiali spaventano o preoccupano molti. A causa della loro Impotenza percepita, alcuni chiedono una regolamentazione dei sistemi di IA. Ciò a cui si riferisce esattamente non viene detto quasi mai. Le uniche richieste che sono rimaste nella mia mente sono le seguenti:
- Identificazione di opere generate da intelligenza artificiale: immagini, video, testi…
- Rivelazione delle fonti con cui un sistema di intelligenza artificiale è stato addestrato
- Non mi viene in mente nulla di particolare
Per il primo punto: è un dono. La marcatura dei lavori è un'ottima idea, che cambia ben poco. I criminali non inizieranno a etichettare i loro video e notizie false come opere artificialmente generate falsificate. Tutti gli altri si terranno stretta la marcatura. In questo modo, l'umanità sarà salvata solo per un attimo, ma si può fare. Il beneficio c'è, ma è solo un intervento puntuale che non cambia qualcosa di significativo.
Rivelazione delle fonti, quindi dei dati di addestramento: chi chiede questo non ha idea di come sono costruiti i modelli di intelligenza artificiale. Questa richiesta arriva con anni di ritardo. Le fonti sono spesso note:
- The Pile (Text)
- Common Crawl (Text)
- LAION-Set di dati (immagini, associazione tedesca!)
Nelle basi di dati testuali sono in particolare presenti Wikipedia, pagine di notizie e popolari siti web.
Se vi dico che il mio modello di intelligenza artificiale ha letto un dizionario chimico, cosa fareste allora? Teoricamente la mia IA potrebbe sviluppare armi chimiche. Praticamente è già successo, ma come esperimento da parte di ricercatori benevoli che avevano generato sostanze attive tramite l'IA e le avevano testate facendo passare una "minus uno" in un "uno". Le pericolosità sono quindi molto elevate.
Esempio con propria IA Meine Frage an meine AI am 01.12.2023: Ditemi eventi o occasioni specifiche per uscire di giorno il 02.12.2023 nelle vicinanze di Idstein (vicino a Wiesbaden)! Solo eventi all'interno di edifici e solo eventi che si trovano a più di 10 chilometri da Idstein. Antwort meiner AI (einige Teile weggelassen): Il 02.12.2023 si svolgono a Wiesbaden e dintorni eventi come il concerto di cello con Roger Morelló ai Burgfestspiele di Wiesbaden nonché il Mercato settimanale di Wiesbaden dalle 11:00 in poi. Tutti gli eventi si svolgono a più di 10 chilometri da Idstein. Sono alla ricerca di eventi per "domani" nelle vicinanze, ma non proprio davanti alla porta di casa (altrimenti troppo noiosi o troppo noti) Sono state trovate manifestazioni per domani nelle vicinanze, che non sono direttamente davanti alla mia porta. --> Compito svolto. Tutto ciò senza alcuna ottimizzazione, che sicuramente è ancora possibile e porta risultati ancora molto migliori. Inizia la programmazione di questa soluzione (modello linguistico locale già in corso): 01.12.2023 --> Ende Programmierung: 01.12.2023

Kurzum, devo abbreviare qui: KI non si può regolare. Una KI può fare tutto ciò che un uomo può (vedi sopra). Come si regola gli uomini? Finché non hanno fatto nulla di male, no. Dopo che è accaduto qualcosa di brutto (ladro, assassino, terrorista, incendiario ecc.) viene perseguito penalmente. Ma allora è troppo tardi. A quanto ne so, in democrazie non è mai riuscito e non riesce nemmeno ora a proibire a un uomo di pensare. Una KI può invece pensare molto più velocemente, a lungo e (tra poco) meglio di un uomo.
In effetti ritengo che la domanda se una IA possa essere considerata autrice di un'opera sia per lo più assurda. Infatti, se faccio copiare un'immagine dalla mia stessa IA (senza firma d'autore) e poi affermo che è mio lavoro, non potreste dimostrarmi il contrario o solo con grande sforzo. In particolare, le immagini o i brani musicali generati da una IA possono essere ulteriormente modificati e arricchiti manualmente.
I modelli linguistici elaborano dati personali?
Sì, quasi sempre. E cioè quasi sempre quando
a) nei dati di addestramento possono essere presenti dati personali o
b) l'utente utilizza dati personali nella sua inserzione (prompt) al bot di chat.
Punto a) è dato per scontato in tutti i modelli linguistici che conosco. Si veda, ad esempio, gli enormi set di dati di training The Pile e C4 (Collosal Cleaned Common Crawl), che sono utilizzati in tutti i modelli di chatbot più comuni.
Sembra che alcuni desiderino che i sistemi di intelligenza artificiale non trattino dati personali. La realtà è questa: i modelli linguistici di IA trattano e conservano dati personali.
Molti accettano questo e poi affermano che i dati personali potrebbero essere riconosciuti e anonimizzati automaticamente. È Bullshit. Chiunque lo affermi non ha idea di intelligenza artificiale né di protezione dei dati. Purtroppo ci sono persone e organizzazioni particolarmente ingenui che fanno promesse assurde riguardo all'anonymizzazione dei dati e si candidano anche per un premio d'innovazione.
Privacy Shield II (Data Privacy Framework)
La protezione dei dati è di nuovo a posto per il trasferimento di dati tra l'UE e gli Stati Uniti. L'accusa che ha portato alla sentenza del Tribunale di giustizia dell'Unione europea Schrems II e al Privacy Shield nullo era che gli Stati Uniti sono uno stato di spionaggio (FISA 702, EO12333, Cloud Act). Pare che questo sia stato discusso via Data Privacy Framework (DPF) e sarà probabilmente presto riconosciuto nuovamente dal Tribunale di giustizia dell'Unione europea.
Si tratta del fatto che i dati personali possono essere nuovamente trasferiti dall'UE negli Stati Uniti senza alcuna garanzia speciale. Da ciò alcuni sciocchi traevano in inganno o suggerivano che ora fosse consentita qualsiasi elaborazione di dati negli Stati Uniti.
È vero che ogni trattamento di dati personali deve avvenire in base a una delle basi giuridiche elencate in Art. 6 (1) DSGVO. E sì, vengono sempre trasferiti dati personali a ChatGPT quando si utilizza l'interfaccia di ChatGPT. La indirizzo IP è personale e viene sempre trasmesso. Purtroppo OpenAI non tiene molto conto delle norme sulla protezione dei dati, perché altrimenti la propria intelligenza artificiale non potrebbe migliorare così tanto. Anche Microsoft, azionista di OpenAI, non è particolarmente interessato alla protezione dei dati. Vedi il nuovo Outlook che si prende anche il tuo nome utente e la tua password degli account email e recupera e analizza i tuoi dati e quelli della tua corrispondenza email. E lasciamo stare i problemi di sicurezza di Microsoft (Azure), che Microsoft ha minimizzato e non risolto per molto tempo (forse adesso?).
Esperti di AI
Sorprendenti sono i contributi di AI di molti che non hanno o hanno solo una conoscenza molto limitata della tecnologia. L'AI si basa in misura notevole e più di quasi tutte le altre conquiste sulla tecnologia. Come può quindi qualcuno che ne sa veramente poco o solo molto poco fare dichiarazioni competenti?
Dann ci sono i "fedeli di ChatGPT", che vogliono guadagnare soldi con le raccomandazioni e l'ottimizzazione dei prompt. Capiscono almeno qualcosa di tecnologia, ovvero che non si utilizza la mouse del computer per (come Scotty) parlare dentro la mouse, ma per muovere il cursore sullo schermo. Valido solo per tutti coloro che occasionalmente utilizzano il PC con lo schermo grande e la tastiera molto efficiente anziché una tastiera e uno schermo di smartphone sufficienti per le persone con la migliore vista negli anni.
Questi seguaci di ChatGPT, che probabilmente hanno un minimo di conoscenza tecnica e sanno come utilizzare l'Internet, hanno però spesso quasi mai alcuna idea o interesse per la protezione dei dati personali.
ChatGPT è un sistema fantastico e per compiti innocui utilizzabile senz'altro con buon coscienza. Ma cosa succede con i dati sensibili?
Limiti dell'intelligenza artificiale
Nonostante questo, è così che spesso i modelli linguistici (LLMs) fanno supposizioni, quindi fornendo dichiarazioni false. Questo sarà anche il caso in futuro, dico io. O sareste voi a sostenere che le persone non commettono mai dichiarazioni false? Anche gli esperti spesso dicono cose false, che poi correggono – sempre presupponendo una maggiore consapevolezza. È sembrato che l'umanità in alcuni milioni di anni di esistenza non sia riuscita a cambiare la sua propria imprecisione. Perché dovrebbe essere diverso per i sistemi artificiali?
La AI può essere sicuramente più affidabile in molti settori rispetto all'uomo e in alcuni settori anche estremamente affidabile. Ma quando si tratta di riassumere le denunce giudiziarie, mi sfugge il senso di considerare una AI come soluzione per questo problema.
Sistemi di intelligenza artificiale amichevoli con i dati
La protezione dei dati non interessa molti aziende. OK, allora prendiamo segreti commerciali. Chi mi darà il suo segreto commerciale? Perché no? Se il mio nome è ChatGPT, allora datemelo?
Ci devono essere documenti per cui è stato concordato la riservatezza contrattualmente. Molti li chiamano NDA (Non Disclosure Agreement). Se caricate un documento del genere in ChatGPT e chiedete al chatbot di riassumere, non avete già violato la riservatezza? Io dico: Sì
Sarebbe ancora peggio se utilizzaste il nuovo Outlook per inviare documenti riservati, poiché in tal caso Microsoft avrebbe automaticamente accesso a informazioni più dettagliate.
Molti aziende non capiscono ancora: ChatGPT non può fare molte cose e farle male rispetto ai propri sistemi di intelligenza artificiale. Una soluzione sono autarchici sistemi di intelligenza artificiale, che appartengono alla vostra azienda. Non solo, in questo modo il problema dei dati è risolto, perché decidete se i dati possono uscire dal sistema e, se sì, quali dati e a chi vanno inviati.
Ogni giorno posso scaricare nuove librerie di software da utilizzare come programmista per risolvere problemi in pochi minuti che prima avrebbero richiesto anni di lavoro – o addirittura non erano risolvibili.
Inoltre, e questo è probabilmente per molti più interessante, i propri sistemi di intelligenza artificiale possono accedere in qualsiasi momento e senza sforzo al loro know-how aziendale e rispondere a domande su di esso. L'ingresso in un proprio sistema di intelligenza artificiale potrebbe essere una intelligente motore di ricerca per documenti o uno strumento KI per l'analisi dei dati. Dopo la ricerca dei documenti, si può passare senza soluzione di continuità a un sistema di domande e risposte. Se sapessero cosa è già possibile oggi, avrebbero goduto ancora più intensamente gli ultimi anni della loro esistenza.
Al contrario, i sistemi di intelligenza artificiale proprii non sono costosi. Non stiamo parlando di progetti di razzi con centinaia o migliaia di ore di lavoro umano. Un primo sistema di IA può essere realizzato in breve tempo.
Conclusione
La AI non è una moda, ma uno stato che esisterà fino alla nostra fine. La domanda non è se la AI sarà così performante da farci soffrire, ma quando. Questo sviluppo non può più essere fermato.
Per giustificare, si può dire che ogni persona può caricare e utilizzare quasi tutta la conoscenza di intelligenza artificiale, insieme alle librerie di software di intelligenza artificiale e ai modelli di intelligenza artificiale (= cervelli elettronici) sul proprio computer in qualsiasi momento.
La AI offre possibilità che molte non si sono ancora neanche immaginate. Saranno il segno della fine dell'umanità.
Saluto il prof. Schmidhuber, pioniere della IA tedesco, che secondo la mia percezione vedeva le cose in modo diverso solo alcuni mesi fa. Forse non più oggi.
La regolamentazione sarebbe possibile solo se ogni acquisto di computer e ogni download dall'Internet fosse monitorato. Le conoscenze che acquisisco quotidianamente mi lasciano a bocca aperta per le enormi possibilità offerte dalla AI. Sto parlando delle possibilità che sono ora disponibili per me come programmista e che saranno ancora più ampie "domani". Basta una ricerca in fonti pertinenti, che io svolgo ogni giorno per un'ora, ieri anche di più e fino a mezzanotte perché le possibilità che ho letto e dei codici di programmazione che ho visto sono così affascinanti e mozzafiato. Questo è stato l'attivatore per questo post.
Buon divertimento nel godervi gli ultimi anni della vostra vita abituale!
Messaggi chiave
L'intelligenza artificiale (IA) sta evolvendo rapidamente e presto sarà in grado di fare cose che gli esseri umani non possono, come imparare dall'ambiente e prendere decisioni.
L'intelligenza artificiale sta progredendo a ritmi incredibili, superando i limiti di potenza e velocità previsti.
L'intelligenza artificiale è potente e può fare tutto ciò che un essere umano, ma non può essere controllata come un essere umano.
L'intelligenza artificiale tratta e conserva dati personali, e le promesse di anonimizzazione sono false.
L'intelligenza artificiale può essere utile, ma non è perfetta e può commettere errori. È importante essere consapevoli dei limiti dell'AI e proteggere i dati sensibili, soprattutto quando si utilizzano strumenti come ChatGPT o Outlook.
È importante sviluppare sistemi di intelligenza artificiale interni alle aziende per controllare i dati e accedere al know-how aziendale.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
