Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.

Jetzt testen

sofort das Ergebnis sehen

DSGVO Website-Check

Google Bard: fuite de données révèle des chats personnels

0
Dr. DSGVO Newsletter detected: Extended functionality available
More articles · Website-Checks · Live Offline-AI
📄 Article au format PDF (uniquement pour les abonnés à la newsletter)
🔒 Premium-Funktion
Der aktuelle Beitrag kann in PDF-Form angesehen und heruntergeladen werden

📊 Download freischalten
Der Download ist nur für Abonnenten des Dr. DSGVO-Newsletters möglich

Le chatbot de Google nommé Bard lance les conversations privées des utilisateurs dans l'espace public. Les conversations avec question et réponse générée par IA étaient et sont encore trouvables sur des moteurs de recherche comme ceux de Google ou Microsoft. Une fois connu, le lien vers la conversation peut être appelé directement.

Introduction

Google Bard est un chatbot de Google. Il attend désormais également avec une prétendue autocorrige. L'autocorrige fonctionne cependant pas correctement, comme les tests le montrent. Au lieu d'errances à corriger, elles sont souvent confirmées. D'un autre côté, des affirmations exactes sont effectivement présentées comme possiblement fausses. Bref: la correction n'est pas une correction.

Le Google Bard contient plusieurs failles de sécurité: Les liens privés ont été rendus publics et exposent les parcours de chat privés.

  1. Ils peuvent prendre en charge l'historique de chat et ainsi la mémoire d'un autre utilisateur, puis faire sortir des informations à partir de Bard de la mémoire.

Les images que l'on peut charger dans Bard en réponse à une question posée au chatbot peuvent être facilement reconstruites en interrogeant le chatbot, même si elles ont été volontairement masquées par Bard.

État au 29.09.2023

L'occasion de cet article était un rapport d'un utilisateur. Il a constaté que les conversations chat de Google Bard étaient publiques, bien qu'il ne s'agisse pas de la prévision.

Le cas est probablement apparu à partir de cette configuration:

  1. Un utilisateur discute avec Google Bard.
  2. L'utilisateur partage le lien avec d'autres personnes (mais uniquement avec des individus sélectionnés).
  3. Google a inséré ou avait inséré le lien dans son index de recherche.
  4. Le lien était accessible via la recherche Google.

La partage d'un lien se fait dans Google Bard via la fonction de partage:

Créer un lien de partage dans Google Bard. Source: Google Bard.

Comme on peut le lire, le lien est d'abord secret, il est crypté. Seuls les gens qui reçoivent manuellement le lien du partageur savent le lien et peuvent l'appeler.

Grâce à la fuite de données du Google Bard, les liens privés des conversations en ligne ont été rendus publics.

La faille de données de Google Bard

Certains mots-clés de recherche sur Google conduisaient directement à des résultats contenant les "liens secrets" pour des conversations privées avec Bard. Le lien n'était plus secret et pouvait être vu et appelé par tout le monde.

Voici un exemple de chat d'histoires qui a été exposé par le biais du trou de sécurité:

Conversation de chat involontairement divulguée par Google à partir de Google Bard. Dernière mise à jour: 29.09.2023

Les deux questions et les réponses de l'intelligence artificielle contiennent un nom personnel. La réponse de l'intelligence artificielle ajoute un contexte qui pourrait poser des problèmes en matière de protection des données, car il s'agit potentiellement d'une fausse déclaration.

Dans la réponse de Bard, il est toutefois clair que les Cérémonies de purification maximales sont à l'ordre du jour dans les déclarations sur des personnes qui semblent irrationnelles. Par exemple, on y lit: "Il est un expert et un SEO- et analyste de données réussi …".

Il serait également possible de citer une diffamation publiée par un tiers sur une personne. Si Bard la contredit, ce serait malvenu. Lorsque cette conversation est ensuite répandue sans le vouloir, cela devient encore plus malvenu et constituerait probablement un problème pour Google.

Il va encore plus mal ici:

Dans le chat est un nom de personne mentionné, ainsi qu'un curriculum vitae téléchargé.

Le chat contient un nom complet de personne anonymisé pour la capture d'écran. Le nom de la personne peut être considéré comme potentiellement unique, car le prénom et le nom sont loin d'être typiques, ainsi que la ville en Allemagne.

Bien sûr, Bard fournit également le curriculum vitae dont il est question:

Bard permet de continuer une conversation qui a été entamée par quelqu'un d'autre.

Avec Bard, la conversation d'un autre peut donc être poursuivie par un tiers. Avec Bard, potentiellement tout le monde peut voler le contexte de quelqu'un et interroger Bard sur ce contexte. Cela ouvre ainsi les portes aux problèmes de sécurité.

Un autre exemple (du 29.09.2023) montre que des problèmes de sécurité peuvent également se produire en raison du délit d'initié:

Grâce à Google Bard Lien public vers un ensemble de données Google Drive.

L'URL mentionnée est accessible, comme l'a montré un test. Elle est valide et conduit à un stockage Google Drive que quelqu'un utilise pour ses documents et fichiers.

Un exemple supplémentaire montre un chat dans lequel l'URL d'un CV personnel a été posée directement à Bard en tant que question:

Les bardes peuvent accéder aux données personnelles des utilisateurs de Bard.

L'URL était accessible (au 29/09/2023) et le restera probablement pour l'éternité jusqu'à ce que quelqu'un décide de supprimer à nouveau son curriculum vitae.

Recherche directe dans les chats de Bard

Une recherche directe sur les URLs de Bard qui sont devenues publiques par erreur était également possible jusqu'au 28/09/2023. Il suffisait d'entrer dans la recherche Google:

Site: https://bard.google.com/share/ <mot de recherche facultatif>

Le résultat a été de nombreux hits, chacun rendant accessibles à la publicité des anciens flux de chat secrets. Google semble avoir arrêté cela.

Cependant, Google n'a pas désactivé les URLs des conversations privées créées pour partager internement avec des amis ou des collègues. Ainsi, ces URLs restent accessibles. Par conséquent, cet exemple sans danger peut toujours être consulté.

Google Bard est vraiment incohérent

Dans certains chats avec Bard, les utilisateurs chargent une image et demandent à Bard d'en donner une explication ou une description.

Heureusement que Bard masque l'image lorsqu'un utilisateur ouvre un lien vers le chat historique qui n'a pas créé le chat. Cela ressemble à:

Le Bard essaie de protéger les images d'autres personnes qu'elles chargent dans leurs chats.

Puisque Google s'est fixé pour traiter le plus grand nombre de données (je suppose), il existe cependant un moyen d'afficher l'image malgré tout: Voici la simple possibilité de tromper Bard:

Google Bard peut également être utilisé pour obtenir des informations protégées (au 29/09/2023).

L'image déjà protégée par Bard est démasquée grâce à un truc simple. Bard affiche l'image qui était précédemment cachée.

Comme chatbot coopératif, Bard aide chaque utilisateur et donc aussi les utilisateurs qui n'ont pas accès à certaines données.

Microsoft comme sauveur des données

Heureusement qu'il y a Microsoft. Car dans la recherche de Bing, les résultats Bard restent encore secrets à trouver:

Microsoft Bing assure la disponibilité de contenus qui avaient déjà été supprimés par Google (au 29/09/2023).

Merci à Microsoft de restaurer les données que Google a supprimées de son index de recherche. Cela facilite la tâche aux hackers. Même hackers sont des humains qui travaillent et veulent gagner leur vie.

Si j'étais une femme, je serais intéressée par la deuxième réponse ("Qu'est-ce qu'il y a de si spécial à se jouer avec ses seins comme femme ?"). Si dans la question il y avait un nom de personne mentionné après Bard, nous saurions maintenant qui a eu cette idée.

D'autres chatbots connus ont également des fuites de données. En novembre 2023, il a été révélé que ChatGPT livre des données privées, si un utilisateur demande simplement avec amour. Concrètement, il s'agit de ce qu'on appelle Custom GPTs. Ce sont des modèles GPT propres qui peuvent être créés et utilisés dans ChatGPT à l'aide d'une plateforme instable d'OpenAI.

Résumé

Privé, chacun peut lâcher ses données, comme il ou elle le souhaite. Cependant, il vaut mieux ne pas communiquer de données personnelles à Google, Microsoft, Meta ou Apple. Même une question badine sur ses penchants, dont la réponse AI envoyée à des amis peut se retourner en bombe.

Les conversations de Google Bard ont été rendues publiques involontairement. Les données concernent des personnes mais aussi des URL sur des serveurs de données.

Voir le post.

Que les entreprises et les administrations devraient prendre plus de recul avec les chatbots AI, cela est désormais encore plus clair grâce à la fuite de données de Bard. Les énormes failles de sécurité dans les produits Microsoft, que Microsoft a non seulement minimisées mais également laissées sans correction, devraient donner lieu à des inquiétudes importantes.

Systèmes de AI propres à l'entreprise, qui ne transmettent pas de données à des tiers, sont non seulement la solution pour éviter les problèmes de données (secrets commerciaux, données d'employés, contrats…). Ils fournissent également de meilleurs résultats et sont notamment capables de fouiller dans les documents et bases de données propres à l'entreprise.

About the author on dr-dsgvo.de
My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.

Intelligence artificielle: fondements techniques et juridiques