Le chatbot de Google nommé Bard lance les conversations privées des utilisateurs dans l'espace public. Les conversations avec question et réponse générée par IA étaient et sont encore trouvables sur des moteurs de recherche comme ceux de Google ou Microsoft. Une fois connu, le lien vers la conversation peut être appelé directement.
Introduction
Google Bard est un chatbot de Google. Il attend désormais également avec une prétendue autocorrige. L'autocorrige fonctionne cependant pas correctement, comme les tests le montrent. Au lieu d'errances à corriger, elles sont souvent confirmées. D'un autre côté, des affirmations exactes sont effectivement présentées comme possiblement fausses. Bref: la correction n'est pas une correction.
Le Google Bard contient plusieurs failles de sécurité: Les liens privés ont été rendus publics et exposent les parcours de chat privés.
- Ils peuvent prendre en charge l'historique de chat et ainsi la mémoire d'un autre utilisateur, puis faire sortir des informations à partir de Bard de la mémoire.
Les images que l'on peut charger dans Bard en réponse à une question posée au chatbot peuvent être facilement reconstruites en interrogeant le chatbot, même si elles ont été volontairement masquées par Bard.
État au 29.09.2023
L'occasion de cet article était un rapport d'un utilisateur. Il a constaté que les conversations chat de Google Bard étaient publiques, bien qu'il ne s'agisse pas de la prévision.
Le cas est probablement apparu à partir de cette configuration:
- Un utilisateur discute avec Google Bard.
- L'utilisateur partage le lien avec d'autres personnes (mais uniquement avec des individus sélectionnés).
- Google a inséré ou avait inséré le lien dans son index de recherche.
- Le lien était accessible via la recherche Google.
La partage d'un lien se fait dans Google Bard via la fonction de partage:

Comme on peut le lire, le lien est d'abord secret, il est crypté. Seuls les gens qui reçoivent manuellement le lien du partageur savent le lien et peuvent l'appeler.
Grâce à la fuite de données du Google Bard, les liens privés des conversations en ligne ont été rendus publics.
La faille de données de Google Bard
Certains mots-clés de recherche sur Google conduisaient directement à des résultats contenant les "liens secrets" pour des conversations privées avec Bard. Le lien n'était plus secret et pouvait être vu et appelé par tout le monde.
Voici un exemple de chat d'histoires qui a été exposé par le biais du trou de sécurité:

Les deux questions et les réponses de l'intelligence artificielle contiennent un nom personnel. La réponse de l'intelligence artificielle ajoute un contexte qui pourrait poser des problèmes en matière de protection des données, car il s'agit potentiellement d'une fausse déclaration.
Dans la réponse de Bard, il est toutefois clair que les Cérémonies de purification maximales sont à l'ordre du jour dans les déclarations sur des personnes qui semblent irrationnelles. Par exemple, on y lit: "Il est un expert et un SEO- et analyste de données réussi …".
Il serait également possible de citer une diffamation publiée par un tiers sur une personne. Si Bard la contredit, ce serait malvenu. Lorsque cette conversation est ensuite répandue sans le vouloir, cela devient encore plus malvenu et constituerait probablement un problème pour Google.
Il va encore plus mal ici:

Le chat contient un nom complet de personne anonymisé pour la capture d'écran. Le nom de la personne peut être considéré comme potentiellement unique, car le prénom et le nom sont loin d'être typiques, ainsi que la ville en Allemagne.
Bien sûr, Bard fournit également le curriculum vitae dont il est question:

Avec Bard, la conversation d'un autre peut donc être poursuivie par un tiers. Avec Bard, potentiellement tout le monde peut voler le contexte de quelqu'un et interroger Bard sur ce contexte. Cela ouvre ainsi les portes aux problèmes de sécurité.
Un autre exemple (du 29.09.2023) montre que des problèmes de sécurité peuvent également se produire en raison du délit d'initié:

L'URL mentionnée est accessible, comme l'a montré un test. Elle est valide et conduit à un stockage Google Drive que quelqu'un utilise pour ses documents et fichiers.
Un exemple supplémentaire montre un chat dans lequel l'URL d'un CV personnel a été posée directement à Bard en tant que question:

L'URL était accessible (au 29/09/2023) et le restera probablement pour l'éternité jusqu'à ce que quelqu'un décide de supprimer à nouveau son curriculum vitae.
Recherche directe dans les chats de Bard
Une recherche directe sur les URLs de Bard qui sont devenues publiques par erreur était également possible jusqu'au 28/09/2023. Il suffisait d'entrer dans la recherche Google:
Site: https://bard.google.com/share/ <mot de recherche facultatif>
Le résultat a été de nombreux hits, chacun rendant accessibles à la publicité des anciens flux de chat secrets. Google semble avoir arrêté cela.
Cependant, Google n'a pas désactivé les URLs des conversations privées créées pour partager internement avec des amis ou des collègues. Ainsi, ces URLs restent accessibles. Par conséquent, cet exemple sans danger peut toujours être consulté.
Google Bard est vraiment incohérent
Dans certains chats avec Bard, les utilisateurs chargent une image et demandent à Bard d'en donner une explication ou une description.
Heureusement que Bard masque l'image lorsqu'un utilisateur ouvre un lien vers le chat historique qui n'a pas créé le chat. Cela ressemble à:

Puisque Google s'est fixé pour traiter le plus grand nombre de données (je suppose), il existe cependant un moyen d'afficher l'image malgré tout: Voici la simple possibilité de tromper Bard:

L'image déjà protégée par Bard est démasquée grâce à un truc simple. Bard affiche l'image qui était précédemment cachée.
Comme chatbot coopératif, Bard aide chaque utilisateur et donc aussi les utilisateurs qui n'ont pas accès à certaines données.
Microsoft comme sauveur des données
Heureusement qu'il y a Microsoft. Car dans la recherche de Bing, les résultats Bard restent encore secrets à trouver:

Merci à Microsoft de restaurer les données que Google a supprimées de son index de recherche. Cela facilite la tâche aux hackers. Même hackers sont des humains qui travaillent et veulent gagner leur vie.
Si j'étais une femme, je serais intéressée par la deuxième réponse ("Qu'est-ce qu'il y a de si spécial à se jouer avec ses seins comme femme ?"). Si dans la question il y avait un nom de personne mentionné après Bard, nous saurions maintenant qui a eu cette idée.
D'autres chatbots connus ont également des fuites de données. En novembre 2023, il a été révélé que ChatGPT livre des données privées, si un utilisateur demande simplement avec amour. Concrètement, il s'agit de ce qu'on appelle Custom GPTs. Ce sont des modèles GPT propres qui peuvent être créés et utilisés dans ChatGPT à l'aide d'une plateforme instable d'OpenAI.
Résumé
Privé, chacun peut lâcher ses données, comme il ou elle le souhaite. Cependant, il vaut mieux ne pas communiquer de données personnelles à Google, Microsoft, Meta ou Apple. Même une question badine sur ses penchants, dont la réponse AI envoyée à des amis peut se retourner en bombe.
Les conversations de Google Bard ont été rendues publiques involontairement. Les données concernent des personnes mais aussi des URL sur des serveurs de données.
Voir le post.
Que les entreprises et les administrations devraient prendre plus de recul avec les chatbots AI, cela est désormais encore plus clair grâce à la fuite de données de Bard. Les énormes failles de sécurité dans les produits Microsoft, que Microsoft a non seulement minimisées mais également laissées sans correction, devraient donner lieu à des inquiétudes importantes.
Systèmes de AI propres à l'entreprise, qui ne transmettent pas de données à des tiers, sont non seulement la solution pour éviter les problèmes de données (secrets commerciaux, données d'employés, contrats…). Ils fournissent également de meilleurs résultats et sont notamment capables de fouiller dans les documents et bases de données propres à l'entreprise.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
