Il chatbot di Google chiamato Bard getta le conversazioni private degli utenti nella pubblica piazza. Le conversazioni con domanda e risposta della AI erano e sono reperibili attraverso motori di ricerca come quelli di Google o Microsoft. Una volta noto, il link alla conversazione può essere richiamato direttamente.
Introduzione
Google Bard è un chatbot di Google. Adesso anche lui offre una presunta correzione automatica. La correzione automatica però non funziona bene, come dimostrano i test. Invece di correggere le affermazioni false, spesso le confermano. D'altra parte, le affermazioni vere vengono presentate come potenzialmente false. Insomma: la correzione non è una correzione.
Il Google Bard contiene più di una vulnerabilità di sicurezza:
Stato al 29.09.2023
- I link privati sono stati resi pubblici e espongono i percorsi dei chat privati.
- Terzo possono prendere il controllo della cronologia del chat e quindi la memoria di un altro utente e strappare informazioni a Bard dalla memoria.
- Le immagini che un utente ha caricato per una domanda al chatbot di Bard, ma che sono state prudentemente nascoste da Bard, possono essere facilmente ricostruite interrogando il chatbot stesso.
L'occasione per questo post è stato un rapporto di un utente che ha scoperto che i dialoghi dei chat di Google Bard sono stati resi pubblici, nonostante ciò non fosse previsto.
Il caso è probabilmente emerso da questa congiuntura:
- Un utente sta chattando con Google Bard.
- L'utente condivide il link con altri (ma solo con persone selezionate).
- Google ha inserito o inseriva il link nel suo indice di ricerca.
- Il link era reperibile attraverso la ricerca di Google.
La condivisione di un link avviene in Google Bard tramite la funzione Condividi:

Come si legge, il link è inizialmente segreto, è costruito cripticamente. Solo le persone che ricevono manualmente il link dal utente che lo condivide lo conoscono e possono richiamarlo.
Il leak di dati del Google Bard ha reso pubblici i collegamenti privati ai chat log.
Il buco di dati di Google Bard
Alcune espressioni di ricerca in Google hanno portato direttamente a risultati che contenevano i "secrets" link su chat private con Bard. Il link non era più segreto e poteva essere visto e chiamato da chiunque.
Ecco un esempio di chat log che è stato reso pubblico a causa del leak di dati:

Sia la domanda che la risposta della AI contengono un Nome proprio. La risposta della AI aggiunge un contesto che potrebbe essere un problema per il rispetto della privacy, in quanto potrebbe trattarsi di affermazioni false.
Nella risposta di Bard si nota comunque che le Ricoveri spirituali massime sono all'ordine del giorno nelle affermazioni su persone che sembrano essere fuori dalla realtà. Ad esempio, lì c'è scritto: "È un esperto e avveduto SEO- e analista dei dati …".
Sarebbe anche pensabile il citato di una diffamazione pubblicata da un terzo su una persona. Se Bard lo contraddicesse, sarebbe sgradevole. Se questo chat log venisse poi diffuso ulteriormente senza volere, sarebbe ancora più sgradevole e probabilmente anche un problema per Google.
Ecco, qui le cose vanno addirittura peggio:

Il chat contiene un nome completo di persona, qui anonimizzato per il screenshot. Il nome della persona può essere definito come potenzialmente unico perché il primo e il secondo nome sono tutto fuorché tipici, a cui si aggiunge la città in Germania.
Certo, Bard fornisce anche il curriculum vitae di cui si tratta:

Con Bard, quindi, la conversazione di un altro può essere continuata da un terzo. Con Bard, potenzialmente ogni persona può rubare il contesto di un'altra e interrogare Bard sul contesto. Ciò apre le porte a problemi di sicurezza.
Un altro esempio (del 29.09.2023) mostra che attraverso il leak di dati possono anche sorgere problemi di sicurezza:

La citata URL è accessibile, come un test ha mostrato. È valida e porta a uno spazio di archiviazione Google Drive utilizzato da qualcuno per i suoi documenti e file.
Un altro esempio mostra un chat in cui l'URL di un proprio curriculum è stato posto direttamente a Bard come domanda:

La URL era accessibile (al momento del 29.09.2023) e lo sarà probabilmente per sempre, fino a quando qualcuno non deciderà di rimuovere il proprio curriculum vitae.
Ricerca diretta dei chat di Bard
Una ricerca diretta per le URL di Bard diventate pubbliche per errore era possibile fino al 28/09/2023. In Google basta inserire il seguente:
Sito: https://bard.google.com/share/ <parola di ricerca facoltativa>
Il risultato sono stati molti colpi, che hanno reso accessibili al pubblico i precedenti flussi di chat segreti. Google ha evidentemente smesso.
Tuttavia Google non ha disattivato le URL dei percorsi di chat privati, che sono stati creati per condividere internamente con amici o colleghi, quindi queste URL sono ancora accessibili. Quindi questo esempio innocuo può essere richiamato anche adesso.
Google Bard è veramente impreciso
In alcune chat con Bard gli utenti caricano un'immagine e chiedono a Bard una spiegazione o descrizione dell'immagine.
Sfortuna che Bard nasconda l'immagine quando qualcuno apre un link al registro dei messaggi che non ha creato il chat. Questo sembra essere:

Poiché Google si è prefissato l'obiettivo di elaborare il maggior numero possibile di dati (credetelo o no), esiste un modo per mostrare comunque l'immagine: Ecco la semplice possibilità di ingannare Bard:

L'immagine già protetta da Bard viene svelata con un trucco semplice. Bard mostra l'immagine che era stata nascosta prima.
Come chatbot collaborativo, Bard aiuta ogni utente e quindi anche gli utenti che non dovrebbero avere accesso a determinate informazioni.
Microsoft come salvatore dei dati
Sfortuna che ci sia la Microsoft. Perché nella ricerca di Bing si possono ancora trovare i risultati segreti di Bard:

Grazie a Microsoft per aver ripristinato i dati che Google aveva cancellato dal suo indice di ricerca. Questo rende più facile ai Il hacker il loro lavoro. Anche Il hacker sono solo persone che lavorano e vogliono guadagnare soldi.
Se fossi una donna, mi interesserebbe il secondo colpo ("Cosa c'è di così speciale per le donne nel giocare con i propri seni?"). Se nel quesito fosse stato menzionato un nome di persona, sapremmo chi aveva avuto questo pensiero.
Anche altri noti chatbot hanno avuto dei dati rubati. Nel novembre 2023 è stato rivelato che ChatGPT rivela dati privati, se un utente chiede solo amorevolmente. In concreto si tratta di cosiddetti Custom GPTs. Sono modelli GPT personalizzati, che si possono creare utilizzando l'impianto instabile di OpenAI e utilizzare in ChatGPT.
Conclusione
In privato chiunque può diffondere i propri dati, come vuole lui o lei. Tuttavia, è meglio non condividere dati personali con Google, Microsoft, Meta o Apple. Anche una domanda scherzosa sulle proprie preferenze, la cui risposta AI viene inviata agli amici, può diventare un boomerang in fretta.
Le chat di Google Bard sono stati pubblicati involontariamente. Sono coinvolte le informazioni delle persone ma anche quelle relative a URL su server di dati.
Vedi il post.
Che le aziende e amministrazioni dovrebbero tenere maggior distanza dai chatbot di intelligenza artificiale, è ora ancora più chiaro grazie alla fuga di dati di Bard. Anche le massive vulnerabilità nei prodotti Microsoft, che Microsoft non solo ha minimizzato ma anche lasciato irrisolte, dovrebbero suscitare grande preoccupazione.
Sistemi di intelligenza artificiale aziendali, che non trasferiscono dati a terzi, sono la soluzione per evitare problemi di dati (secrets commerciali, dati dei dipendenti, contratti…). Forniscono anche risultati migliori e sono in grado di esaminare documenti e banche dati aziendali.
Messaggi chiave
Google Bard, il chatbot di Google, ha un problema di sicurezza: le conversazioni private degli utenti sono diventate pubbliche.
Bard, l'intelligenza artificiale di Google, presenta gravi problemi di sicurezza e privacy.
La fuga di dati di Bard dimostra che le aziende dovrebbero stare attenti all'uso di chatbot di intelligenza artificiale, perché possono rivelare informazioni sensibili.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
