El chatbot de Google llamado Bard lanza conversaciones privadas de usuarios a la pública. Las conversaciones con pregunta y respuesta generada por IA están y estaban disponibles en motores de búsqueda como los de Google o Microsoft. Una vez conocido, el enlace a la conversación también puede ser accedido directamente.
Introducción
Google Bard es un chatbot de Google. Ya cuenta con una supuesta corrección automática. La corrección automática no funciona correctamente, según pruebas realizadas. En lugar de corregir afirmaciones falsas, a menudo se las confirma. Por otro lado, las afirmaciones correctas pueden presentarse como posiblemente falsas. En resumen: la corrección no es una corrección.
El Google Bard contiene varias vulnerabilidades de seguridad:
Estado a fecha de 29.09.2023
- Enlaces privados se han vuelto públicos y exponen conversaciones de chat privadas.
- Pueden tomar el historial de chat y con ello la memoria de IA de otro usuario y sacarle información a Bard del recuerdo.
- Las imágenes que un usuario ha subido a Bard previendo la respuesta del chatbot pueden ser fácilmente reconstruidas preguntando al chatbot.
La razón para este artículo fue un informe de un usuario. Él descubrió que los historiales de chat de Google Bard se habían vuelto públicos, aunque eso no estaba previsto.
El caso surgió probablemente de esta Conjunción:
- Un usuario está chateando con Google Bard.
- El usuario comparte el enlace con otros (pero solo con personas seleccionadas).
- Google coloca o colocaba el enlace en su índice de búsqueda.
- El enlace era accesible mediante la búsqueda de Google.
Compartir un enlace se hace en Google Bard a través de la función Compartir:

Como se puede leer, el enlace es secreto al principio y está construido de manera criptográfica. Solo las personas que reciben manualmente el enlace del usuario que lo comparte conocen el enlace y pueden acceder a él.
A través del filtrón de datos de Google Bard, se hicieron públicas las en sí mismas secretas enlaces a conversaciones privadas pero públicamente.
El filtrón de datos de Google Bard
Algunas expresiones de búsqueda en Google llevaron directamente a resultados que contenían los "enlaces secretos" para chat privados con Bard. El enlace ya no era secreto y cualquier persona podía verlo y acceder a él.
Aquí un ejemplo de un chat de conversación que fue expuesto debido a la fuga de datos:

La pregunta y la respuesta de la IA contienen un nombre propio. La respuesta de la IA agrega un contexto que podría convertirse en un problema desde el punto de vista del derecho a la privacidad. Al menos podría tratarse de afirmaciones falsas.
En la respuesta de Bard, sin embargo, se hace evidente que las Ritos de purificación máximas en declaraciones sobre personas que parecen ser irrealistas son algo normal. Por ejemplo, allí se dice: "Él es un experto y exitoso SEO- y analista de datos…".
Sería posible también citar una difamación que un tercero haya publicado sobre una persona. Si Bard lo contradice, eso sería desagradable. Si luego este registro de chat se difunde aún más sin querer, es aún menos agradable y probablemente sería un problema para Google.
Aquí las cosas empeoran aún más:

El chat contiene un nombre completo de persona que aquí se ha anonimizado para la captura de pantalla. El nombre de la persona puede considerarse potencialmente único porque el primer y segundo apellido no son típicos en absoluto. Además, está la ciudad en Alemania.
Por supuesto, Bard también proporciona el currículum vitae que se busca:

Con Bard, la conversación de otro puede ser continuada por un tercero. Con Bard, potencialmente cualquier persona puede robar el contexto de otra y preguntar a Bard sobre el contexto. Esto abre las puertas a problemas de seguridad.
Un ejemplo adicional (del 29.09.2023) muestra que a través de la filtración de datos también pueden surgir problemas de seguridad:

La URL mencionada es accesible, como se demostró en un test. Es válida y conduce a un almacenamiento de Google Drive que alguien utiliza para sus documentos y archivos.
Un ejemplo más muestra un chat en el que se le ha preguntado a Bard directamente la URL de su propio currículum vitae:

La URL era accesible (hasta el 29.09.2023) y seguramente lo será hasta la eternidad, hasta que alguien se decida a eliminar su currículum nuevamente.
Búsqueda directa de chats de Bard
Una búsqueda directa de URLs de Bard que se habían vuelto públicas por error también era posible hasta el 28.09.2023. Se podía introducir lo siguiente en la búsqueda de Google:
sitio:https://bard.google.com/share/ <palabra de búsqueda opcional>
El resultado fueron muchos aciertos, que cada uno de ellos hacía accesibles a la pública lo que antes eran conversaciones en chat secretas. Google parece haberlo desactivado.
Sin embargo, Google no ha desactivado las URLs de los chats privados creados para compartir internamente con amigos o colegas. Por lo tanto, estas URL todavía son accesibles. De esta manera, este ejemplo inofensivo también puede ser accedido en la actualidad.
Google Bard es realmente inseguro
En algunas charlas con Bard, los usuarios suben una imagen y le preguntan a Bard una explicación o descripción de la imagen.
Bien que Bard bloquee la imagen cuando alguien abre un enlace al historial de chat que no creó el chat, esto parece ser así:

Si Google se ha propuesto procesar la mayor cantidad de datos posible (supongo), hay una forma de superarlo para mostrar la imagen de todos modos. Aquí está la sencilla manera de engañar a Bard:

La imagen que ya estaba protegida por Bard se desprotege con un truco simple. Bard muestra la imagen con valentía, que antes había sido oculta.
Como chatbot cooperativo, ayuda a Bard cada usuario y por lo tanto también a los usuarios que no deberían tener acceso a ciertas datos.
Microsoft como salvador de los datos
Bien que exista Microsoft. Pues en la búsqueda de Bing se pueden seguir encontrando los secretos de Bard:

Gracias Microsoft por recuperar los datos que Google eliminó de su índice de búsqueda. Eso facilita el trabajo a los hackers. También son solo personas que trabajan y quieren ganar dinero.
Si fuera una mujer, me interesaría el segundo golpe ("¿Qué es tan genial como mujer en jugar con sus propios senos?"). Si en la pregunta hubiera aparecido un nombre de persona junto a Bard, ahora sabríamos quién tuvo este pensamiento.
También otros chatbots conocidos han tenido fugas de datos. En noviembre de 2023 se hizo pública la noticia, de que ChatGPT revela datos privados, si un usuario solo pregunta con cariño. Concretamente se trata de lo que se llaman Custom GPTs. Son modelos GPT propios que se pueden generar con la plataforma insegura de OpenAI y utilizar en ChatGPT.
Conclusión
Privado cada uno puede deshacerse con sus datos como le venga en gana. Sin embargo, es mejor no compartir datos personales con Google, Microsoft, Meta o Apple. Incluso una pregunta juguetona sobre gustos que se envía a amigos como respuesta de la inteligencia artificial puede convertirse rápidamente en un bumerán.
Las conversaciones de Google Bard se volvieron públicas de manera no deseada. Se ven afectadas tanto los datos de personas como las URL de almacenamiento de datos.
Ver el artículo.
Que las empresas y administraciones deberían mantener una mayor distancia de los chatbots de Inteligencia Artificial, se vuelve aún más evidente gracias al filtrón de datos de Bard. También debería preocuparnos la falta masiva de seguridad en productos de Microsoft, que Microsoft no solo minimizó sino que también dejó sin corregir.
Sistemas de Inteligencia Artificial propios del negocio, que no transmiten datos a terceros, son la solución para evitar problemas de datos (secretos comerciales, datos de empleados, contratos…). Además, proporcionan mejores resultados y están especialmente capacitadas para buscar en documentos y bases de datos propias del negocio.
Mensajes clave
El chatbot de Google Bard ha filtrado conversaciones privadas de usuarios, exponiéndolas públicamente a través de enlaces que se volvieron accesibles en los motores de búsqueda.
Google Bard tiene graves problemas de seguridad que permiten a los usuarios acceder a información personal, como currículums y conversaciones privadas, de otras personas.
Los chatbots de inteligencia artificial como Bard de Google pueden revelar información confidencial, incluso protegida, debido a vulnerabilidades de seguridad.



Me llamo Klaus Meffert. Soy doctor en informática y llevo más de 30 años dedicándome profesional y prácticamente a las tecnologías de la información. También trabajo como experto en informática y protección de datos. Obtengo mis resultados analizando la tecnología y el Derecho. Esto me parece absolutamente esencial cuando se trata de protección de datos digitales.
