Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen

Google Bard: è stato rivelato un leak di dati che contiene conversazioni personali

0
Dr. DSGVO Newsletter detected: Extended functionality available
More articles · Website-Checks · Live Offline-AI
📄 Articolo in formato PDF (solo per gli abbonati alla newsletter)
🔒 Premium-Funktion
Der aktuelle Beitrag kann in PDF-Form angesehen und heruntergeladen werden

📊 Download freischalten
Der Download ist nur für Abonnenten des Dr. DSGVO-Newsletters möglich

Il chatbot di Google chiamato Bard getta le conversazioni private degli utenti nella pubblica piazza. Le conversazioni con domanda e risposta della AI erano e sono reperibili attraverso motori di ricerca come quelli di Google o Microsoft. Una volta noto, il link alla conversazione può essere richiamato direttamente.

Introduzione

Google Bard è un chatbot di Google. Adesso anche lui offre una presunta correzione automatica. La correzione automatica però non funziona bene, come dimostrano i test. Invece di correggere le affermazioni false, spesso le confermano. D'altra parte, le affermazioni vere vengono presentate come potenzialmente false. Insomma: la correzione non è una correzione.

Il Google Bard contiene più di una vulnerabilità di sicurezza:

  1. I link privati sono stati resi pubblici e espongono i percorsi dei chat privati.
  2. Terzo possono prendere il controllo della cronologia del chat e quindi la memoria di un altro utente e strappare informazioni a Bard dalla memoria.
  3. Le immagini che un utente ha caricato per una domanda al chatbot di Bard, ma che sono state prudentemente nascoste da Bard, possono essere facilmente ricostruite interrogando il chatbot stesso.

Stato al 29.09.2023

L'occasione per questo post è stato un rapporto di un utente che ha scoperto che i dialoghi dei chat di Google Bard sono stati resi pubblici, nonostante ciò non fosse previsto.

Il caso è probabilmente emerso da questa congiuntura:

  1. Un utente sta chattando con Google Bard.
  2. L'utente condivide il link con altri (ma solo con persone selezionate).
  3. Google ha inserito o inseriva il link nel suo indice di ricerca.
  4. Il link era reperibile attraverso la ricerca di Google.

La condivisione di un link avviene in Google Bard tramite la funzione Condividi:

Link zum Teilen erstellen in Google Bard. Quelle: Google Bard.

Come si legge, il link è inizialmente segreto, è costruito cripticamente. Solo le persone che ricevono manualmente il link dal utente che lo condivide lo conoscono e possono richiamarlo.

Il leak di dati del Google Bard ha reso pubblici i collegamenti privati ai chat log.

Il buco di dati di Google Bard

Alcune espressioni di ricerca in Google hanno portato direttamente a risultati che contenevano i "secrets" link su chat private con Bard. Il link non era più segreto e poteva essere visto e chiamato da chiunque.

Ecco un esempio di chat log che è stato reso pubblico a causa del leak di dati:

Von Google aus Versehen geleakter Chatverlauf aus Google Bard. Stand: 29.09.2023

Sia la domanda che la risposta della AI contengono un Nome proprio. La risposta della AI aggiunge un contesto che potrebbe essere un problema per il rispetto della privacy, in quanto potrebbe trattarsi di affermazioni false.

Nella risposta di Bard si nota comunque che le Ricoveri spirituali massime sono all'ordine del giorno nelle affermazioni su persone che sembrano essere fuori dalla realtà. Ad esempio, lì c'è scritto: "È un esperto e avveduto SEO- e analista dei dati …".

Sarebbe anche pensabile il citato di una diffamazione pubblicata da un terzo su una persona. Se Bard lo contraddicesse, sarebbe sgradevole. Se questo chat log venisse poi diffuso ulteriormente senza volere, sarebbe ancora più sgradevole e probabilmente anche un problema per Google.

Ecco, qui le cose vanno addirittura peggio:

Im Chat ist ein Personenname genannt, ebenso ein Lebenslauf hochgeladen.

Il chat contiene un nome completo di persona, qui anonimizzato per il screenshot. Il nome della persona può essere definito come potenzialmente unico perché il primo e il secondo nome sono tutto fuorché tipici, a cui si aggiunge la città in Germania.

Certo, Bard fornisce anche il curriculum vitae di cui si tratta:

Bard erlaubt das Fortsetzen einer Konversation, die ein anderer geführt hat.

Con Bard, quindi, la conversazione di un altro può essere continuata da un terzo. Con Bard, potenzialmente ogni persona può rubare il contesto di un'altra e interrogare Bard sul contesto. Ciò apre le porte a problemi di sicurezza.

Un altro esempio (del 29.09.2023) mostra che attraverso il leak di dati possono anche sorgere problemi di sicurezza:

Dank Google Bard Öffentlich gewordener Link auf einen Google Drive Datenbestand.

La citata URL è accessibile, come un test ha mostrato. È valida e porta a uno spazio di archiviazione Google Drive utilizzato da qualcuno per i suoi documenti e file.

Un altro esempio mostra un chat in cui l'URL di un proprio curriculum è stato posto direttamente a Bard come domanda:

Dank Bard können Dritte personenbezogene Daten von Bard-Nutzern abrufen.

La URL era accessibile (al momento del 29.09.2023) e lo sarà probabilmente per sempre, fino a quando qualcuno non deciderà di rimuovere il proprio curriculum vitae.

Ricerca diretta dei chat di Bard

Una ricerca diretta per le URL di Bard diventate pubbliche per errore era possibile fino al 28/09/2023. In Google basta inserire il seguente:

Sito: https://bard.google.com/share/ <parola di ricerca facoltativa>

Il risultato sono stati molti colpi, che hanno reso accessibili al pubblico i precedenti flussi di chat segreti. Google ha evidentemente smesso.

Tuttavia Google non ha disattivato le URL dei percorsi di chat privati, che sono stati creati per condividere internamente con amici o colleghi, quindi queste URL sono ancora accessibili. Quindi questo esempio innocuo può essere richiamato anche adesso.

Google Bard è veramente impreciso

In alcune chat con Bard gli utenti caricano un'immagine e chiedono a Bard una spiegazione o descrizione dell'immagine.

Sfortuna che Bard nasconda l'immagine quando qualcuno apre un link al registro dei messaggi che non ha creato il chat. Questo sembra essere:

Bard versucht, Bilder von anderen zu schützen, die diese in ihre Chats reinladen.

Poiché Google si è prefissato l'obiettivo di elaborare il maggior numero possibile di dati (credetelo o no), esiste un modo per mostrare comunque l'immagine: Ecco la semplice possibilità di ingannare Bard:

Google Bard lässt sich auch geschützte Informationen entlocken (Stand: 29.09.2023).

L'immagine già protetta da Bard viene svelata con un trucco semplice. Bard mostra l'immagine che era stata nascosta prima.

Come chatbot collaborativo, Bard aiuta ogni utente e quindi anche gli utenti che non dovrebbero avere accesso a determinate informazioni.

Microsoft come salvatore dei dati

Sfortuna che ci sia la Microsoft. Perché nella ricerca di Bing si possono ancora trovare i risultati segreti di Bard:

Microsoft Bing sorgt für weiterhin zugängliche Inhalte, die Google bereits entfernt hatte (Stand: 29.09.2023).

Grazie a Microsoft per aver ripristinato i dati che Google aveva cancellato dal suo indice di ricerca. Questo rende più facile ai Il hacker il loro lavoro. Anche Il hacker sono solo persone che lavorano e vogliono guadagnare soldi.

Se fossi una donna, mi interesserebbe il secondo colpo ("Cosa c'è di così speciale per le donne nel giocare con i propri seni?"). Se nel quesito fosse stato menzionato un nome di persona, sapremmo chi aveva avuto questo pensiero.

Anche altri noti chatbot hanno avuto dei dati rubati. Nel novembre 2023 è stato rivelato che ChatGPT rivela dati privati, se un utente chiede solo amorevolmente. In concreto si tratta di cosiddetti Custom GPTs. Sono modelli GPT personalizzati, che si possono creare utilizzando l'impianto instabile di OpenAI e utilizzare in ChatGPT.

Conclusione

In privato chiunque può diffondere i propri dati, come vuole lui o lei. Tuttavia, è meglio non condividere dati personali con Google, Microsoft, Meta o Apple. Anche una domanda scherzosa sulle proprie preferenze, la cui risposta AI viene inviata agli amici, può diventare un boomerang in fretta.

Le chat di Google Bard sono stati pubblicati involontariamente. Sono coinvolte le informazioni delle persone ma anche quelle relative a URL su server di dati.

Vedi il post.

Che le aziende e amministrazioni dovrebbero tenere maggior distanza dai chatbot di intelligenza artificiale, è ora ancora più chiaro grazie alla fuga di dati di Bard. Anche le massive vulnerabilità nei prodotti Microsoft, che Microsoft non solo ha minimizzato ma anche lasciato irrisolte, dovrebbero suscitare grande preoccupazione.

Sistemi di intelligenza artificiale aziendali, che non trasferiscono dati a terzi, sono la soluzione per evitare problemi di dati (secrets commerciali, dati dei dipendenti, contratti…). Forniscono anche risultati migliori e sono in grado di esaminare documenti e banche dati aziendali.

Messaggi chiave

Google Bard, il chatbot di Google, ha un problema di sicurezza: le conversazioni private degli utenti sono diventate pubbliche.

Bard, l'intelligenza artificiale di Google, presenta gravi problemi di sicurezza e privacy.

La fuga di dati di Bard dimostra che le aziende dovrebbero stare attenti all'uso di chatbot di intelligenza artificiale, perché possono rivelare informazioni sensibili.

Ulteriori informazioni

About the author on dr-dsgvo.de
My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.

La tua vita senza WhatsApp: Un'istruzione per essere felici