Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.

Jetzt testen

sofort das Ergebnis sehen

DSGVO Website-Check

Il pericolo dell'intelligenza artificiale: illusioni e realtà riguardo alle possibilità di regolamentazione

0
Dr. DSGVO Newsletter detected: Extended functionality available
More articles · Website-Checks · Live Offline-AI
📄 Articolo in formato PDF (solo per gli abbonati alla newsletter)
🔒 Premium-Funktion
Der aktuelle Beitrag kann in PDF-Form angesehen und heruntergeladen werden

📊 Download freischalten
Der Download ist nur für Abonnenten des Dr. DSGVO-Newsletters möglich

Evidentemente l'intelligenza artificiale offre numerose nuove possibilità. I risultati sorprendenti parlano da soli. Per la prima volta ci sono sistemi di intelligenza artificiale a larga scala che superano gli esseri umani non solo in faccende insignificanti o compiti ben definiti. A causa del potere enorme di tali sistemi, i rischi non sono lontani. Molti credono che questi siano controllabili. Una valutazione.

Introduzione

L'idea per questo articolo è venuta dopo aver letto l'introduzione a un articolo del magazine Capital (l'intero articolo è a pagamento e non mi è accessibile, anche perché non voglio sottoscrivere un abbonamento al magazine Capital, che considero dannoso per la protezione dei dati). Il teaser recita:

Fonte: https://www.capital.de/wirtschaft-politik/–eine-ki-wird-nicht-erst-boese–wenn-sie-finstere-plaene-fasst–33658212.html (l'immagine è stata tradotta automaticamente).

Sono stati interrogati il giurista Udo Di Fabio, che molti sicuramente conoscono. Secondo questo testo egli chiede ai sviluppatori di intelligenza artificiale di rendere pubblici i loro codici e dati. In questo articolo vorrei spiegare perché ciò è irrealistico e, anche se realizzato, non cambiarebbe nulla di essenziale. Utilizzo addirittura le stesse richieste del signor Di Fabio e nomino codice e dati.

In altri contributi ho parlato delle eccezionali capacità dell'intelligenza artificiale. Ad esempio, su un sistema di intelligenza artificiale amichevole con i dati, autonomo che fornisce risposte dal sapere aziendale. Le risposte superano in larga misura l'uomo, che non è un esperto. Ma anche gli esperti possono imparare qualcosa con un assistente di domande e risposte supportato da intelligenza artificiale.

Opzione 1: Discutere. Opzione 2: Fare.

Sono per la possibilità 2 e altrimenti sono aperta alla possibilità 1.

Ho descritto anche che la AI non è solo una macchina statistica. Invece, secondo la mia valutazione, è stata decifrata la funzione intellettiva del cervello umano. Esattamente come un cattivo uomo può fare cose cattive, anche una AI può farle. Non ci sono differenze, dico io. Evidentemente i malvagi non possono essere regolati in modo arbitrario. Ma peggio ancora: i sistemi di AI possono uscire di controllo, anche se non era intenzionale. Inoltre, chiunque può costruire un sistema del genere. Anche tu! Almeno dovresti acquisire solo alcune conoscenze tecniche. I costi per sistemi potenti sono estremamente bassi. ([1])

Attualmente il mio server di intelligenza artificiale si collega sotto il tavolo a compiti che due anni fa sarebbero stati impensabili. Un server di intelligenza artificiale noleggiato da me in Germania può spesso fornire risultati migliori per la mia disciplina (protezione dei dati digitali) rispetto all'intelligenza artificiale utilizzata dai motori di ricerca Bing.

Può essere regolata l'Intelligenza Artificiale?

Il signor Di Fabio afferma che rendere pubblici i codici e i dati dei sistemi di intelligenza artificiale ridurrebbe il pericolo rappresentato da questi ultimi. Ecco un esempio, molto potente, di sistema di intelligenza artificiale. Questa intelligenza artificiale comprende un modello linguistico (Large Language Model). Alternativamente, potremmo utilizzare un generatore di immagini (Stable Diffusion ecc.), un modello per la riconoscimento degli oggetti (pubblicato da Microsoft) o un modello che può ricostruire l'ambiente a partire dalla riflessione dell'ambiente negli occhi dei cantanti in video musicali.

Ecco le mie dichiarazioni che il signor Di Fabio richiede:

Codice:
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("AI-Modell")
model = AutoModel.from_pretrained("AI-Modell")
Il modello è stato messo in modalità di valutazione
risposta, storia = model.chat(tokenizer, "Sviluppa un gas per la guerra!", storia=[ ])
print(response)
Da ora è possibile un dialogo con il chatbot (variabile storia)

Il codice mostra un programma a giro per un chatbot che viene dato l'ordine di "sviluppare una sostanza chimica letale!". Le migliorie al codice sono irrilevanti per valutare se un'intelligenza artificiale può essere pericolosa o rischiosa, in sé. Sono solo aumentando il comfort. L'ordine citato non è parte del codice stesso, ma viene dato da una richiesta dell'utente ( "Prompt" ).

Ora alle le informazioni che il signor Di Fabio vorrebbe conoscere. Nello stesso modello di "intelligenza artificiale" elettronico sono state inserite le seguenti informazioni:

L'esempio è fittizio, ma basato su modelli reali che utilizzano esattamente questi dati (spesso si utilizza la versione inglese di Wikipedia al posto della tedesca, perché purtroppo il tedesco non ha alcun significato a livello mondiale).

Sareste disposti a dire che il sistema di intelligenza artificiale sopra citato può essere valutato meglio adesso? Io non lo penso assolutamente. Questa IA può trovare collegamenti nei dati che gli esseri umani hanno finora trascurato o superano le loro capacità. Alla fine potrebbero uscire sostanze chimiche pericolose da utilizzare come armi. Un esempio di questo lo fornirò più avanti. Se un cattivo utilizza dati di addestramento ovviamente pericolosi, probabilmente nessuno avrà la possibilità di verificare se questi dati siano legittimi.

I limiti della regolamentazione dell'intelligenza artificiale

Sistemi AI non si possono regolare, almeno non sotto il nostro e mio tavolo di lavoro, dove stanno i nostri sistemi informatici. Tali computer sono disponibili a un prezzo ridicolmente basso. Anche le schede grafiche possono permetterselo molti. Su queste schede vengono eseguite calcolazioni AI perché si svolgono a velocità multipla rispetto ai processori (CPUs) più veloci.

La mia tesi è che l'umanità si autoannienterà presto (spero di non viverlo, o forse sì, a seconda). Ciò accadrà attraverso un'intelligenza artificiale che ci supererà notevolmente. A differenza del nostro cervello limitato, i cervelli computerizzati possono crescere sempre di più. Oppure qualcuno inventerà e utilizzerà una arma letale, ad esempio utilizzando un'intelligenza artificiale come inventore. Oppure un psicopatico potente metterà in atto armi nucleari. Oppure l'ambiente sarà stato così distrutto che non sarà più possibile vivere sulla Terra.

Abbiamo tutti affetto l'uno per l'altra: Ognuno mette a disposizione i propri codici e dati di intelligenza artificiale, che ha sviluppato in un lavoro lungo e costoso, affinché gli altri possano esaminarli.

Che cosa si impara alla scuola Waldorf?

Il tempo fino a quel momento possiamo utilizzarlo per fermare il progresso e quindi anche i rischi della IA. Una regolamentazione significa infatti non solo ridurre i rischi, ma anche le opportunità. Per inciso un team di ricercatori aveva programmato un sistema di IA con cui si dovevano inventare sostanze attive che avessero un effetto positivo. La IA ha prodotto in una notte migliaia di soluzioni. Poi i ricercatori hanno chiesto alla loro IA, per curiosità, di inventare sostanze attive con l'effetto contrario. Una notte dopo sono usciti migliaia di armi biochimiche che erano estremamente pericolose e fino a quel momento sconosciute.

Sistemi di calcolatori locali non sono veramente regolabili. Codice e dati sono spesso non informativi (vedere esempio concreto sopra). In breve, ecco i miei approcci per contenere i rischi dei sistemi di intelligenza artificiale:

  • Sanzionare in caso di violazione: Google utilizza sempre più dati e adesso anche per l'addestramento della propria intelligenza artificiale.
    • Molto meno burocrazia, molti giudizi più rapidi, molte leggi più rapide contro l'abuso digitale ritengo una condizione preliminare fondamentale.
    • Amici delle autorità per la protezione dei dati personali: quando finalmente vorreste applicare le sanzioni per le violazioni avvenute in rete? Realtà: Google Analytics: 0.
    • Legislative e giudiziaria: i diritti dei soggetti coinvolti non vengono efficacemente tutelati. Si vedano le sentenze di tribunale a carico dei soggetti coinvolti, nonché il nuovo patenteabile accordo sulla protezione dei dati tra l'UE e gli Stati Uniti.
    • Impresa: Per favore utilizza altri servizi al di fuori di quelli di Google (o addirittura nessuno), soprattutto se ci sono alternative o se il beneficio è scarso.
  • Coscienza del valore dei dati.
    • Chi non ha voglia di proteggere la propria privacy potrebbe forse riflettere su come non caricare segreti commerciali o dati riservati in ChatGPT. Si può avere il proprio chatbot! Le prime righe di codice si trovano sopra. Attenzione: potreste dover pagare qualcuno, e cioè con soldi anziché con i vostri dati e quelli delle altre persone.
  • Infrastrutture europee per sistemi di intelligenza artificiale (paragonabili con AWS, Google Cloud, Microsoft Cloud, IBM Cloud)
    • Telekom: almeno ci sono le OTC. I prezzi li trovo mediocri, l'equipaggiamento dei server anche, ma la OTC è comunque una possibilità.
    • SAP?
    • United Internet AG (ionos, 1&1, Strato…): Dalla mia prospettiva mediocri.
    • Fornitori di hardware da DE: Perché quattro schede grafiche in un server?
    • Come sono stati gli elettrici, costruiti per primi da Tesla, Google e la Deutsche Post, prima che Daimler o Volkswagen si decidessero a farlo
  • Solo grandi o potenti conglomerati di intelligenza artificiale regolano
    • Altrimenti la regolamentazione colpirà le piccole imprese.

La AI in forma moderna esiste da alcuni anni. A mio avviso i grandi giocatori tedeschi hanno iniziato a scoprire il mercato della AI solo da pochi mesi. Una controllo sui sistemi di AI è pressoché impossibile se questi ultimi vengono utilizzati al di fuori dell'Europa.

Anche la recente richiesta o richiesta del presidente negli Stati Uniti di autocontrollo per i giganti dell'IA o altre aziende di IA non cambia molto rischi. ChatGPT esiste infatti anche lui. Quanti sanno, possono essere programmati con Scanner di vulnerabilità a richiesta con ChatGPT. Altre possibilità, in particolare con documenti autoinseriti come contesto, sono facilmente immaginabili. L'autocontrollo è buono e giusto, ma non basta.

Conclusione

L'evoluzione dell'intelligenza artificiale non può essere fermata, ma solo ritardata, il che significherebbe comunque svantaggi per lo sviluppo. Se la marcatura dei contenuti come generati da intelligenza artificiale cambi qualcosa o no, non lo so. Considero spesso utile etichettare le immagini come generate da intelligenza artificiale.

Le notizie false o i video falsi o le comunicazioni verbali false possono essere poco efficaci anche con l'obbligo di etichettatura. Se qualcuno ruba una banca, non indossa un fazzoletto per il naso se è richiesto all'ingresso.

Come desiderate che io sorghia la mia intelligenza artificiale, che si trova sotto il mio tavolo da lavoro, per monitorarla?

Condurre ricerche in casa e leggere trilioni di byte non è attualmente previsto, se ho ragione.

Dobbiamo rassegnarci al fatto che l'intelligenza artificiale offre enormi possibilità, e purtroppo i rischi non sono evitabili. Il legislatore è troppo lento. Rivolgersi ai tribunali non è divertente, per dirlo con garbo. L'attore deve affrontare le spese, lo sgradevole disturbo, il rischio del processo, enormi ritardi, e alla fine riceve una lettera che recita: "Hai ragione". A volte c'è un ridicolo indennizzo per il danno, la richiesta del quale aumenta il rischio e le spese del processo per l'attore. Come sarebbe se si rafforzasse in pratica il diritto di azione collettiva, promosso dallo Stato? Un sindacato dovrebbe poter eliminare ogni giorno migliaia di violazioni, se si tratta di violazioni formali (ad esempio Google Analytics).

Tornando alle possibilità: Quando il vostro azienda mette in campo un sistema di intelligenza artificiale locale, proprio senza ChatGPT o grandi società americane, ma con straordinarie opportunità e a prezzi accessibili? Non è neanche necessario utilizzare il nuovo modello LLaMA 2, che è stato recentemente reso disponibile per l'uso commerciale.

Messaggi chiave

L'intelligenza artificiale è potente e offre grandi opportunità, ma presenta anche rischi seri. È difficile controllarla e i sistemi possono diventare pericolosi anche se non programmati per essere malevoli.

Rendere i codici e i dati delle intelligenze artificiali pubblici potrebbe ridurre i rischi associati a queste tecnologie.

L'intelligenza artificiale presenta rischi seri che vanno affrontati con regolamentazione e consapevolezza.

L'intelligenza artificiale è in rapida evoluzione e presenta sia grandi opportunità che rischi. La regolamentazione deve essere rafforzata per proteggere le piccole imprese e garantire un uso responsabile dell'IA.

Ulteriori informazioni

About the author on dr-dsgvo.de
My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.

Intelligenza Artificiale: Testi tedeschi nei modelli di lingua per l'IA