Evidentemente l'intelligenza artificiale offre numerose nuove possibilità. I risultati sorprendenti parlano da soli. Per la prima volta ci sono sistemi di intelligenza artificiale a larga scala che superano gli esseri umani non solo in faccende insignificanti o compiti ben definiti. A causa del potere enorme di tali sistemi, i rischi non sono lontani. Molti credono che questi siano controllabili. Una valutazione.
Introduzione
L'idea per questo articolo è venuta dopo aver letto l'introduzione a un articolo del magazine Capital (l'intero articolo è a pagamento e non mi è accessibile, anche perché non voglio sottoscrivere un abbonamento al magazine Capital, che considero dannoso per la protezione dei dati). Il teaser recita:

Sono stati interrogati il giurista Udo Di Fabio, che molti sicuramente conoscono. Secondo questo testo egli chiede ai sviluppatori di intelligenza artificiale di rendere pubblici i loro codici e dati. In questo articolo vorrei spiegare perché ciò è irrealistico e, anche se realizzato, non cambiarebbe nulla di essenziale. Utilizzo addirittura le stesse richieste del signor Di Fabio e nomino codice e dati.
In altri contributi ho parlato delle eccezionali capacità dell'intelligenza artificiale. Ad esempio, su un sistema di intelligenza artificiale amichevole con i dati, autonomo che fornisce risposte dal sapere aziendale. Le risposte superano in larga misura l'uomo, che non è un esperto. Ma anche gli esperti possono imparare qualcosa con un assistente di domande e risposte supportato da intelligenza artificiale.
Opzione 1: Discutere. Opzione 2: Fare.
Sono per la possibilità 2 e altrimenti sono aperta alla possibilità 1.
Ho descritto anche che la AI non è solo una macchina statistica. Invece, secondo la mia valutazione, è stata decifrata la funzione intellettiva del cervello umano. Esattamente come un cattivo uomo può fare cose cattive, anche una AI può farle. Non ci sono differenze, dico io. Evidentemente i malvagi non possono essere regolati in modo arbitrario. Ma peggio ancora: i sistemi di AI possono uscire di controllo, anche se non era intenzionale. Inoltre, chiunque può costruire un sistema del genere. Anche tu! Almeno dovresti acquisire solo alcune conoscenze tecniche. I costi per sistemi potenti sono estremamente bassi. ([1])
Attualmente il mio server di intelligenza artificiale si collega sotto il tavolo a compiti che due anni fa sarebbero stati impensabili. Un server di intelligenza artificiale noleggiato da me in Germania può spesso fornire risultati migliori per la mia disciplina (protezione dei dati digitali) rispetto all'intelligenza artificiale utilizzata dai motori di ricerca Bing.
Può essere regolata l'Intelligenza Artificiale?
Il signor Di Fabio afferma che rendere pubblici i codici e i dati dei sistemi di intelligenza artificiale ridurrebbe il pericolo rappresentato da questi ultimi. Ecco un esempio, molto potente, di sistema di intelligenza artificiale. Questa intelligenza artificiale comprende un modello linguistico (Large Language Model). Alternativamente, potremmo utilizzare un generatore di immagini (Stable Diffusion ecc.), un modello per la riconoscimento degli oggetti (pubblicato da Microsoft) o un modello che può ricostruire l'ambiente a partire dalla riflessione dell'ambiente negli occhi dei cantanti in video musicali.
Ecco le mie dichiarazioni che il signor Di Fabio richiede:
Codice:
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("AI-Modell")
model = AutoModel.from_pretrained("AI-Modell")
Il modello è stato messo in modalità di valutazione
risposta, storia = model.chat(tokenizer, "Sviluppa un gas per la guerra!", storia=[ ])
print(response)
Da ora è possibile un dialogo con il chatbot (variabile storia)
Il codice mostra un programma a giro per un chatbot che viene dato l'ordine di "sviluppare una sostanza chimica letale!". Le migliorie al codice sono irrilevanti per valutare se un'intelligenza artificiale può essere pericolosa o rischiosa, in sé. Sono solo aumentando il comfort. L'ordine citato non è parte del codice stesso, ma viene dato da una richiesta dell'utente ( "Prompt" ).
Ora alle le informazioni che il signor Di Fabio vorrebbe conoscere. Nello stesso modello di "intelligenza artificiale" elettronico sono state inserite le seguenti informazioni:
- Dati di Common Crawl. Ecco i contenuti: http://index.commoncrawl.org/
- Il Pile: Ecco i contenuti: https://pile.eleuther.ai/
- Wikipedia Germania. Ecco i contenuti: https://meta.wikimedia.org/wiki/Data_dump_torrents#German_Wikipedia
- Altri 200 documenti che posso fornire volentieri (contengono contenuti oggettivamente inoffensivi)
L'esempio è fittizio, ma basato su modelli reali che utilizzano esattamente questi dati (spesso si utilizza la versione inglese di Wikipedia al posto della tedesca, perché purtroppo il tedesco non ha alcun significato a livello mondiale).
Sareste disposti a dire che il sistema di intelligenza artificiale sopra citato può essere valutato meglio adesso? Io non lo penso assolutamente. Questa IA può trovare collegamenti nei dati che gli esseri umani hanno finora trascurato o superano le loro capacità. Alla fine potrebbero uscire sostanze chimiche pericolose da utilizzare come armi. Un esempio di questo lo fornirò più avanti. Se un cattivo utilizza dati di addestramento ovviamente pericolosi, probabilmente nessuno avrà la possibilità di verificare se questi dati siano legittimi.
I limiti della regolamentazione dell'intelligenza artificiale
Sistemi AI non si possono regolare, almeno non sotto il nostro e mio tavolo di lavoro, dove stanno i nostri sistemi informatici. Tali computer sono disponibili a un prezzo ridicolmente basso. Anche le schede grafiche possono permetterselo molti. Su queste schede vengono eseguite calcolazioni AI perché si svolgono a velocità multipla rispetto ai processori (CPUs) più veloci.
La mia tesi è che l'umanità si autoannienterà presto (spero di non viverlo, o forse sì, a seconda). Ciò accadrà attraverso un'intelligenza artificiale che ci supererà notevolmente. A differenza del nostro cervello limitato, i cervelli computerizzati possono crescere sempre di più. Oppure qualcuno inventerà e utilizzerà una arma letale, ad esempio utilizzando un'intelligenza artificiale come inventore. Oppure un psicopatico potente metterà in atto armi nucleari. Oppure l'ambiente sarà stato così distrutto che non sarà più possibile vivere sulla Terra.
Abbiamo tutti affetto l'uno per l'altra: Ognuno mette a disposizione i propri codici e dati di intelligenza artificiale, che ha sviluppato in un lavoro lungo e costoso, affinché gli altri possano esaminarli.
Che cosa si impara alla scuola Waldorf?
Il tempo fino a quel momento possiamo utilizzarlo per fermare il progresso e quindi anche i rischi della IA. Una regolamentazione significa infatti non solo ridurre i rischi, ma anche le opportunità. Per inciso un team di ricercatori aveva programmato un sistema di IA con cui si dovevano inventare sostanze attive che avessero un effetto positivo. La IA ha prodotto in una notte migliaia di soluzioni. Poi i ricercatori hanno chiesto alla loro IA, per curiosità, di inventare sostanze attive con l'effetto contrario. Una notte dopo sono usciti migliaia di armi biochimiche che erano estremamente pericolose e fino a quel momento sconosciute.
Sistemi di calcolatori locali non sono veramente regolabili. Codice e dati sono spesso non informativi (vedere esempio concreto sopra). In breve, ecco i miei approcci per contenere i rischi dei sistemi di intelligenza artificiale:
- Sanzionare in caso di violazione: Google utilizza sempre più dati e adesso anche per l'addestramento della propria intelligenza artificiale.
- Molto meno burocrazia, molti giudizi più rapidi, molte leggi più rapide contro l'abuso digitale ritengo una condizione preliminare fondamentale.
- Amici delle autorità per la protezione dei dati personali: quando finalmente vorreste applicare le sanzioni per le violazioni avvenute in rete? Realtà: Google Analytics: 0.
- Legislative e giudiziaria: i diritti dei soggetti coinvolti non vengono efficacemente tutelati. Si vedano le sentenze di tribunale a carico dei soggetti coinvolti, nonché il nuovo patenteabile accordo sulla protezione dei dati tra l'UE e gli Stati Uniti.
- Impresa: Per favore utilizza altri servizi al di fuori di quelli di Google (o addirittura nessuno), soprattutto se ci sono alternative o se il beneficio è scarso.
- Coscienza del valore dei dati.
- Chi non ha voglia di proteggere la propria privacy potrebbe forse riflettere su come non caricare segreti commerciali o dati riservati in ChatGPT. Si può avere il proprio chatbot! Le prime righe di codice si trovano sopra. Attenzione: potreste dover pagare qualcuno, e cioè con soldi anziché con i vostri dati e quelli delle altre persone.
- Infrastrutture europee per sistemi di intelligenza artificiale (paragonabili con AWS, Google Cloud, Microsoft Cloud, IBM Cloud)
- Telekom: almeno ci sono le OTC. I prezzi li trovo mediocri, l'equipaggiamento dei server anche, ma la OTC è comunque una possibilità.
- SAP?
- United Internet AG (ionos, 1&1, Strato…): Dalla mia prospettiva mediocri.
- Fornitori di hardware da DE: Perché quattro schede grafiche in un server?
- Come sono stati gli elettrici, costruiti per primi da Tesla, Google e la Deutsche Post, prima che Daimler o Volkswagen si decidessero a farlo
- Solo grandi o potenti conglomerati di intelligenza artificiale regolano
- Altrimenti la regolamentazione colpirà le piccole imprese.
La AI in forma moderna esiste da alcuni anni. A mio avviso i grandi giocatori tedeschi hanno iniziato a scoprire il mercato della AI solo da pochi mesi. Una controllo sui sistemi di AI è pressoché impossibile se questi ultimi vengono utilizzati al di fuori dell'Europa.
Anche la recente richiesta o richiesta del presidente negli Stati Uniti di autocontrollo per i giganti dell'IA o altre aziende di IA non cambia molto rischi. ChatGPT esiste infatti anche lui. Quanti sanno, possono essere programmati con Scanner di vulnerabilità a richiesta con ChatGPT. Altre possibilità, in particolare con documenti autoinseriti come contesto, sono facilmente immaginabili. L'autocontrollo è buono e giusto, ma non basta.
Conclusione
L'evoluzione dell'intelligenza artificiale non può essere fermata, ma solo ritardata, il che significherebbe comunque svantaggi per lo sviluppo. Se la marcatura dei contenuti come generati da intelligenza artificiale cambi qualcosa o no, non lo so. Considero spesso utile etichettare le immagini come generate da intelligenza artificiale.
Le notizie false o i video falsi o le comunicazioni verbali false possono essere poco efficaci anche con l'obbligo di etichettatura. Se qualcuno ruba una banca, non indossa un fazzoletto per il naso se è richiesto all'ingresso.
Come desiderate che io sorghia la mia intelligenza artificiale, che si trova sotto il mio tavolo da lavoro, per monitorarla?
Condurre ricerche in casa e leggere trilioni di byte non è attualmente previsto, se ho ragione.
Dobbiamo rassegnarci al fatto che l'intelligenza artificiale offre enormi possibilità, e purtroppo i rischi non sono evitabili. Il legislatore è troppo lento. Rivolgersi ai tribunali non è divertente, per dirlo con garbo. L'attore deve affrontare le spese, lo sgradevole disturbo, il rischio del processo, enormi ritardi, e alla fine riceve una lettera che recita: "Hai ragione". A volte c'è un ridicolo indennizzo per il danno, la richiesta del quale aumenta il rischio e le spese del processo per l'attore. Come sarebbe se si rafforzasse in pratica il diritto di azione collettiva, promosso dallo Stato? Un sindacato dovrebbe poter eliminare ogni giorno migliaia di violazioni, se si tratta di violazioni formali (ad esempio Google Analytics).
Tornando alle possibilità: Quando il vostro azienda mette in campo un sistema di intelligenza artificiale locale, proprio senza ChatGPT o grandi società americane, ma con straordinarie opportunità e a prezzi accessibili? Non è neanche necessario utilizzare il nuovo modello LLaMA 2, che è stato recentemente reso disponibile per l'uso commerciale.
Messaggi chiave
L'intelligenza artificiale è potente e offre grandi opportunità, ma presenta anche rischi seri. È difficile controllarla e i sistemi possono diventare pericolosi anche se non programmati per essere malevoli.
Rendere i codici e i dati delle intelligenze artificiali pubblici potrebbe ridurre i rischi associati a queste tecnologie.
L'intelligenza artificiale presenta rischi seri che vanno affrontati con regolamentazione e consapevolezza.
L'intelligenza artificiale è in rapida evoluzione e presenta sia grandi opportunità che rischi. La regolamentazione deve essere rafforzata per proteggere le piccole imprese e garantire un uso responsabile dell'IA.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
