Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen

Google Bard: filtró datos que revelaron conversaciones personales

0
Dr. DSGVO Newsletter detected: Extended functionality available
More articles · Website-Checks · Live Offline-AI

El chatbot de Google llamado Bard lanza conversaciones privadas de usuarios a la pública. Las conversaciones con pregunta y respuesta generada por IA están y estaban disponibles en motores de búsqueda como los de Google o Microsoft. Una vez conocido, el enlace a la conversación también puede ser accedido directamente.

Introducción

Google Bard es un chatbot de Google. Ya cuenta con una supuesta corrección automática. La corrección automática no funciona correctamente, según pruebas realizadas. En lugar de corregir afirmaciones falsas, a menudo se las confirma. Por otro lado, las afirmaciones correctas pueden presentarse como posiblemente falsas. En resumen: la corrección no es una corrección.

El Google Bard contiene varias vulnerabilidades de seguridad:

  1. Enlaces privados se han vuelto públicos y exponen conversaciones de chat privadas.
  2. Pueden tomar el historial de chat y con ello la memoria de IA de otro usuario y sacarle información a Bard del recuerdo.
  3. Las imágenes que un usuario ha subido a Bard previendo la respuesta del chatbot pueden ser fácilmente reconstruidas preguntando al chatbot.

Estado a fecha de 29.09.2023

La razón para este artículo fue un informe de un usuario. Él descubrió que los historiales de chat de Google Bard se habían vuelto públicos, aunque eso no estaba previsto.

El caso surgió probablemente de esta Conjunción:

  1. Un usuario está chateando con Google Bard.
  2. El usuario comparte el enlace con otros (pero solo con personas seleccionadas).
  3. Google coloca o colocaba el enlace en su índice de búsqueda.
  4. El enlace era accesible mediante la búsqueda de Google.

Compartir un enlace se hace en Google Bard a través de la función Compartir:

Link zum Teilen erstellen in Google Bard. Quelle: Google Bard.

Como se puede leer, el enlace es secreto al principio y está construido de manera criptográfica. Solo las personas que reciben manualmente el enlace del usuario que lo comparte conocen el enlace y pueden acceder a él.

A través del filtrón de datos de Google Bard, se hicieron públicas las en sí mismas secretas enlaces a conversaciones privadas pero públicamente.

El filtrón de datos de Google Bard

Algunas expresiones de búsqueda en Google llevaron directamente a resultados que contenían los "enlaces secretos" para chat privados con Bard. El enlace ya no era secreto y cualquier persona podía verlo y acceder a él.

Aquí un ejemplo de un chat de conversación que fue expuesto debido a la fuga de datos:

Von Google aus Versehen geleakter Chatverlauf aus Google Bard. Stand: 29.09.2023

La pregunta y la respuesta de la IA contienen un nombre propio. La respuesta de la IA agrega un contexto que podría convertirse en un problema desde el punto de vista del derecho a la privacidad. Al menos podría tratarse de afirmaciones falsas.

En la respuesta de Bard, sin embargo, se hace evidente que las Ritos de purificación máximas en declaraciones sobre personas que parecen ser irrealistas son algo normal. Por ejemplo, allí se dice: "Él es un experto y exitoso SEO- y analista de datos…".

Sería posible también citar una difamación que un tercero haya publicado sobre una persona. Si Bard lo contradice, eso sería desagradable. Si luego este registro de chat se difunde aún más sin querer, es aún menos agradable y probablemente sería un problema para Google.

Aquí las cosas empeoran aún más:

Im Chat ist ein Personenname genannt, ebenso ein Lebenslauf hochgeladen.

El chat contiene un nombre completo de persona que aquí se ha anonimizado para la captura de pantalla. El nombre de la persona puede considerarse potencialmente único porque el primer y segundo apellido no son típicos en absoluto. Además, está la ciudad en Alemania.

Por supuesto, Bard también proporciona el currículum vitae que se busca:

Bard erlaubt das Fortsetzen einer Konversation, die ein anderer geführt hat.

Con Bard, la conversación de otro puede ser continuada por un tercero. Con Bard, potencialmente cualquier persona puede robar el contexto de otra y preguntar a Bard sobre el contexto. Esto abre las puertas a problemas de seguridad.

Un ejemplo adicional (del 29.09.2023) muestra que a través de la filtración de datos también pueden surgir problemas de seguridad:

Dank Google Bard Öffentlich gewordener Link auf einen Google Drive Datenbestand.

La URL mencionada es accesible, como se demostró en un test. Es válida y conduce a un almacenamiento de Google Drive que alguien utiliza para sus documentos y archivos.

Un ejemplo más muestra un chat en el que se le ha preguntado a Bard directamente la URL de su propio currículum vitae:

Dank Bard können Dritte personenbezogene Daten von Bard-Nutzern abrufen.

La URL era accesible (hasta el 29.09.2023) y seguramente lo será hasta la eternidad, hasta que alguien se decida a eliminar su currículum nuevamente.

Búsqueda directa de chats de Bard

Una búsqueda directa de URLs de Bard que se habían vuelto públicas por error también era posible hasta el 28.09.2023. Se podía introducir lo siguiente en la búsqueda de Google:

sitio:https://bard.google.com/share/ <palabra de búsqueda opcional>

El resultado fueron muchos aciertos, que cada uno de ellos hacía accesibles a la pública lo que antes eran conversaciones en chat secretas. Google parece haberlo desactivado.

Sin embargo, Google no ha desactivado las URLs de los chats privados creados para compartir internamente con amigos o colegas. Por lo tanto, estas URL todavía son accesibles. De esta manera, este ejemplo inofensivo también puede ser accedido en la actualidad.

Google Bard es realmente inseguro

En algunas charlas con Bard, los usuarios suben una imagen y le preguntan a Bard una explicación o descripción de la imagen.

Bien que Bard bloquee la imagen cuando alguien abre un enlace al historial de chat que no creó el chat, esto parece ser así:

Bard versucht, Bilder von anderen zu schützen, die diese in ihre Chats reinladen.

Si Google se ha propuesto procesar la mayor cantidad de datos posible (supongo), hay una forma de superarlo para mostrar la imagen de todos modos. Aquí está la sencilla manera de engañar a Bard:

Google Bard lässt sich auch geschützte Informationen entlocken (Stand: 29.09.2023).

La imagen que ya estaba protegida por Bard se desprotege con un truco simple. Bard muestra la imagen con valentía, que antes había sido oculta.

Como chatbot cooperativo, ayuda a Bard cada usuario y por lo tanto también a los usuarios que no deberían tener acceso a ciertas datos.

Microsoft como salvador de los datos

Bien que exista Microsoft. Pues en la búsqueda de Bing se pueden seguir encontrando los secretos de Bard:

Microsoft Bing sorgt für weiterhin zugängliche Inhalte, die Google bereits entfernt hatte (Stand: 29.09.2023).

Gracias Microsoft por recuperar los datos que Google eliminó de su índice de búsqueda. Eso facilita el trabajo a los hackers. También son solo personas que trabajan y quieren ganar dinero.

Si fuera una mujer, me interesaría el segundo golpe ("¿Qué es tan genial como mujer en jugar con sus propios senos?"). Si en la pregunta hubiera aparecido un nombre de persona junto a Bard, ahora sabríamos quién tuvo este pensamiento.

También otros chatbots conocidos han tenido fugas de datos. En noviembre de 2023 se hizo pública la noticia, de que ChatGPT revela datos privados, si un usuario solo pregunta con cariño. Concretamente se trata de lo que se llaman Custom GPTs. Son modelos GPT propios que se pueden generar con la plataforma insegura de OpenAI y utilizar en ChatGPT.

Conclusión

Privado cada uno puede deshacerse con sus datos como le venga en gana. Sin embargo, es mejor no compartir datos personales con Google, Microsoft, Meta o Apple. Incluso una pregunta juguetona sobre gustos que se envía a amigos como respuesta de la inteligencia artificial puede convertirse rápidamente en un bumerán.

Las conversaciones de Google Bard se volvieron públicas de manera no deseada. Se ven afectadas tanto los datos de personas como las URL de almacenamiento de datos.

Ver el artículo.

Que las empresas y administraciones deberían mantener una mayor distancia de los chatbots de Inteligencia Artificial, se vuelve aún más evidente gracias al filtrón de datos de Bard. También debería preocuparnos la falta masiva de seguridad en productos de Microsoft, que Microsoft no solo minimizó sino que también dejó sin corregir.

Sistemas de Inteligencia Artificial propios del negocio, que no transmiten datos a terceros, son la solución para evitar problemas de datos (secretos comerciales, datos de empleados, contratos…). Además, proporcionan mejores resultados y están especialmente capacitadas para buscar en documentos y bases de datos propias del negocio.

Mensajes clave

El chatbot de Google Bard ha filtrado conversaciones privadas de usuarios, exponiéndolas públicamente a través de enlaces que se volvieron accesibles en los motores de búsqueda.

Google Bard tiene graves problemas de seguridad que permiten a los usuarios acceder a información personal, como currículums y conversaciones privadas, de otras personas.

Los chatbots de inteligencia artificial como Bard de Google pueden revelar información confidencial, incluso protegida, debido a vulnerabilidades de seguridad.

Acerca de

Sobre el autor
Me llamo Klaus Meffert. Soy doctor en informática y llevo más de 30 años dedicándome profesional y prácticamente a las tecnologías de la información. También trabajo como experto en informática y protección de datos. Obtengo mis resultados analizando la tecnología y el Derecho. Esto me parece absolutamente esencial cuando se trata de protección de datos digitales.

Tu vida sin WhatsApp: Una guía para ser feliz