La evaluación de las consecuencias para la protección de datos (DSFA) es obligatoria en la DS-GVO para ciertas formas de tratamiento de datos y pretende ayudar a identificar y minimizar los riesgos. ¿Aplica también a sistemas que utilizan Inteligencia Artificial? Un resumen con recomendaciones.
Episodio de podcast sobre el tema
La evaluación de riesgos para el aprendizaje automático y la inteligencia artificial en consecuencia del episodio 29 del podcast "privacy Deluxe":
Introducción
El Artículo 35 de la DSGVO introduce el concepto de evaluación de consecuencias en materia de protección de datos y describe cuándo debe realizarse una tal evaluación. En el párrafo 1 se menciona que la normativa es especialmente relevante para nuevas tecnologías. La inteligencia artificial es una de esas tecnologías.
Una evaluación de riesgos como parte de una DSFA debe ser siempre rápida de crear. Dado que la evaluación de riesgos es a la vez una condición necesaria para determinar si se requiere un plan de seguridad de datos (DSFA) y también parte de cualquier DSFA, por lo tanto siempre hay que crear un parte de la DSFA.
Equilibrio de riesgos = Multiplicación de tres valores, véase el artículo.
Muss nun para cada sistema de aprendizaje automático una DSFA ser establecida? El aprendizaje automático también puede verse como una nueva tecnología. Pues los enfoques revolucionarios como Transformer o modelos de inteligencia artificial capacitada con alta capacidad, pero también el renacimiento de LSTM (Long Short-Term Memory, invención de Alemania) son seguros en combinación o incluso por sí solos nuevos.
La normativa jurídica mencionada se basa en el tipo, alcance, circunstancias y propósito de la tratamiento de datos personales. En servicios digitales, probablemente se considerará cumplido el criterio en cuanto al alcance del tratamiento de datos.
Dado que una evaluación de impacto en la protección de datos no es necesaria para todas las procesiones de datos, el esfuerzo por realizar los trabajos que también deben realizarse fuera de un FIA (Fichero de Impacto en la Protección de Datos) no debe atribuirse al FIA.
Ejemplos de tales trabajos: Informaciones obligatorias, protección de los sistemas, capacitación.
Una DSFA completa es necesaria según el artículo 35, apartado 1 de la GDPR, siempre que la tratamiento de datos tenga un alto riesgo para los derechos y libertades de las personas naturales. Los tratamientos de datos que se llevan a cabo deben ser conocidos en el marco de las obligaciones de información según artículo 13 de la GDPR o artículo 14 de la GDPR.
La letra Artículo 35 apartado 2 de la DSGVO hace que el responsable tome consejo del Defensor de Privacidad en la realización de una evaluación de impacto sobre la protección de datos. Este punto es, sin embargo, irrelevante para la pregunta de la DSFA, como se puede ver por sí mismo al observar que en el apartado 2 mencionado también se establece que los DSBs solo deben ser agregados si se ha nombrado a uno (vgl. aquí como caso especial el § 38 BDSG).
Según lo establecido en el artículo 35, apartado 4, las autoridades de control elaboran una lista de actividades de procesamiento que son relevantes para una DSFA. La lista de DSK proporciona ejemplos y menciona, por ejemplo, el soporte al cliente mediante inteligencia artificial.
La evaluación de impacto en protección de datos
En primer lugar, la DSGVO solo aplica a datos personales. Los accesos a dispositivos finales, como los regulados en el lex specialis (§ 25 TDDDG, hasta el 14.05.2024 se llamaba TTDSG), suelen no ser objeto central de aplicaciones de Inteligencia Artificial y pueden dejarse fuera de consideración aquí.
Todos los demás datos que no sean potencialmente de carácter personal son, por lo tanto, irrelevantes para una DSFA. En este contexto, se debe mencionar que un dato no relacionado con personas también es considerado como de carácter personal si se encuentra junto a otro dato de carácter personal y la información sobre ambos datos está disponible al mismo responsable en el mismo momento. Ver ejemplo de Cookies, que debido a su contacto con la dirección IP son considerados como de carácter personal.
Como ya se ha mencionado, los sistemas de Inteligencia Artificial son nuevas tecnologías. Por lo tanto, según la normativa jurídica, hay que examinarlo con más detalle. Esto también tiene sentido, porque cuando se introduce algo nuevo, anteriormente no había consideración sobre si es necesario establecer un DSFA o no.
En Artículo 35 Abs. 3 DSGVO se mencionan casos en los que debe establecerse una DSFA. Estos casos son, en resumen:
- Evaluación sistemática y exhaustiva de aspectos personales de personas naturales incluyendo perfiles.
- Procesamiento extensivo de categorías especiales de datos personales (opiniones políticas, datos de salud, etc.), véase Artículo 9, apartado 1 del RGPD.
- Monitoreo sistemático y exhaustivo de áreas públicas accesibles.
Para sistemas de cualquier tipo es necesario realizar una DSFA siempre que se dé alguno de estos casos y cumplan las otras condiciones, a las que pertenece el riesgo para las personas afectadas… Tomemos como ejemplo la aplicación de videollamada Zoom. Zoom escribe en sus términos de uso (vigentes desde 07.08.2023, actualizado: 10.08.2023):
Se comprometen a que Zoom acceda, utilice, recopile, cree, modifique, distribuya, procese, transmita, mantenga y almacene los datos generados por el servicio para cualquier propósito, siempre y cuando sea legalmente permitido, incluyendo con fines de desarrollo del producto y del servicio, marketing, análisis, control de calidad, aprendizaje automático o inteligencia artificial (incluyendo con fines de capacitación y ajuste de algoritmos y modelos)…
Extracto de los términos y condiciones de uso de Zoom, en negrita por mí.
Como se puede leer, todos los datos de las conferencias de video que se llevan a cabo con Zoom pueden ser utilizados por Zoom para fines casi cualesquiera y en casi cualquier forma. Las imágenes de video de los participantes de la conferencia están incluidas, así como las palabras habladas o transcripciones de estas palabras. También está permitida la transmisión o reutilización de las transcripciones y otros datos según estos términos. Zoom había agregado posteriormente una enmienda pública que prometía utilizar los datos del cliente solo después de obtener su consentimiento para el entrenamiento de Inteligencia Artificial. Sin embargo, Zoom se reserva el derecho a utilizar los datos del cliente sin su consentimiento para numerosos otros fines, incluyendo la publicidad y el aprendizaje automático. Ver también comentarios al final del artículo.
Zoom menciona en las condiciones aplicaciones de Inteligencia Artificial. Si estas están incluidas o no, aquí bien puede no importar para la pregunta sobre una DSFA.
Aquí se abarcan los casos 1 y 2 de los tres mencionados en el artículo 35, apartado 3 de la RGPD. Obviamente también pueden revelarse o discutirse aspectos personales en conferencias de video. Piense solo en la planificación horaria y posibles vacaciones, la atención a los hijos o problemas de salud. Con eso se abre también el caso 2.
Obviamente Zoom procesa datos muy ampliamente y también de manera sistemática. La sistematización del tratamiento puede ser asumida en primer lugar para todas las digitalizaciones, hasta que se demuestre lo contrario de una manera plausible. Para hacerlo plausible probablemente necesitaría una DSFA.
Cuando Zoom es un proveedor de fuera de Europa, deben determinarse todos los receptores de datos y sus países. Esto debe suceder en cualquier caso y no es un tema especial de una DSFA. Para cada país se debe verificar si los derechos y libertades de las personas allí están garantizados según la RGPD. También esto no es un tema especial de la DSFA. Si ya existen estas informaciones y los países no son solo Alemania o aquellos que provienen de Europa, entonces estos países también deben ser tenidos en cuenta. Parece que el esfuerzo para establecer una DSFA para cada país es muy bajo o muy alto. Un esfuerzo bajo ahorra la discusión sobre una DSFA, ya que la discusión dura más tiempo que escribirlo. Un gran esfuerzo justifica directamente una DSFA, porque donde hay muchas preguntas abiertas, debe considerarse una evaluación de las consecuencias para la protección de datos como adecuada.
El sistema de Inteligencia Artificial puede afectar especialmente los derechos y libertades de las personas. Esto es relevante por el Artículo 35, apartado 1 de la RGPD. Como muestra ChatGPT, las inversiones en AI pueden llevar a una alta credibilidad cuando se responden preguntas de usuarios. El usuario ve el resultado y está a menudo entusiasmado con la calidad lingüística y las conclusiones de la AI. Esto también lleva a que los resultados falsos o incorrectos sean vistos como moneda corriente.
Sistemas de Inteligencia Artificial generativos, que procesan datos personales y no minimizan al menos la pseudonimización, son especialmente sensibles a manejar. Aquí me parece adecuado aplicar siempre una DSFA. Incluso para los fines de investigación considerados razonables es preciso realizar una DSFA. ¿Qué pasaría si del resultado saliera que ciertas personas tenían o tienen una enfermedad determinada? Si el grupo de personas que reciben los resultados es muy pequeño y muy confiable, debería constar por escrito, lo cual nuevamente sería un lugar adecuado para una DSFA.
Sistemas que apoyen en la decisión sobre la idoneidad de una persona también deben ser considerados con especial atención. Este proceso de perfilado afecta, después de todo, perfiles vitales. No puede llevarse a cabo sin mayor garantía. Parte de esta garantía es un DSFA. Si bien el sistema en cuestión sea o no una inteligencia artificial, esto no juega ningún papel relevante.
Recomendaciones
Mejor es una DSFA si no es necesaria. Para evitar una DSFA, se deben utilizar solo sistemas amigables con el derecho a la protección de datos. Para estos últimos, entonces también puede establecerse rápidamente una DSFA. En lugar de discutir largamente sobre la necesidad de algo, ese algo también puede escribirse simplemente rápido.
Los sistemas AI en particular no deberían ser utilizados por terceros poco creíbles si se trata de datos personales o otros datos sensibles como patentes propias, secretos comerciales u otros datos confidenciales. Para mí resulta poco creíble OpenAI con ChatGPT. Nadie sabe exactamente qué pasa con los datos allí. Tampoco Microsoft y Google son para mí terceros creíbles. Utilizan todos tipos de datos para sus propios fines.
Una evaluación de riesgos también ayuda a evaluar si un sistema es amigable con los datos o no.
Amistad con los datos abarca todos tipos de datos que se procesan automáticamente.
Cómo pueden ser creadas sistemas de Inteligencia Artificial propios de la empresa, lo he descrito por ejemplo aquí:
- Búsqueda de documentos con IA
- Sistemas de Inteligencia Artificial propios del negocio
- Aplicaciones típicas para sistemas de inteligencia artificial locales
Si se debe establecer un DSFA para un proveedor de varios servicios en funcionamiento, podría utilizarse una jerarquía de documentos. Esto también sugiere el artículo 35, apartado 1, último párrafo de la RGPD.
- Master-Documents: Evaluaciones generales sobre el proveedor y sus subcontratistas de procesamiento.
- Documento de detalle para servicio: Se refiere al documento principal y evalúa detalles específicos del servicio.
Una DSFA puede establecerse inicialmente en una forma muy grosera que puede significar poco esfuerzo. Un ejemplo se menciona más abajo. Si esta DSFA corto da lugar a una investigación más profunda, sería necesario realizar un mayor esfuerzo.
Para un sistema de inteligencia artificial como ChatGPT, una DSFA podría desarrollarse de la siguiente manera. En resumen, el esquema de evaluación basado en números se conoce como tal. Los números no se explican aquí y solo se presentan a título de ejemplo.
Beispiel: Risikoabwägung für ChatGPT für die Dokumentensuche
La suposición para el ejemplo es que de una empresa se introducen datos de empleados en ChatGPT. Esto se realiza a través de un documento, contra el cual se formulan preguntas que ChatGPT deberá responder. Esto también se conoce como Question Answering Task o más específicamente como Ask You Document Task. El documento se pseudonymiza previamente de manera automática. Por supuesto pueden surgir errores, que en este ejemplo son valorados.
La siguiente evaluación de riesgos es parte de una DSFA completa. Una DSFA completa es necesaria cuando el riesgo para las personas afectadas no es bajo o no es lo suficientemente alto. En Wikipedia se establece el contenido necesario de una DSFA como sigue (aquí ligeramente abreviado y con notas al final de cada punto):
- Descripción sistemática de los procesos de tratamiento previstos y de las finalidades del tratamiento. → Debería ya ser conocido a través del artículo 12 DSGVO.
- Evaluación de la necesidad y proporcionalidad de los procesos de tratamiento en relación con el fin. → En parte dada a través de la consideración del riesgo aquí mencionado como ejemplo, en parte también (de manera obligatoria) conocida de Artículo 12 DSGVO.
- Evaluación de los riesgos para los derechos y libertades de las personas afectadas. → Ver la mencionada valoración de riesgos como parte de una DSFA completa.
- Medidas de auxilio en un mayor riesgo. → Si el riesgo determinado no es bajo, se debería seguir adelante con esto.
Comencemos con la Probabilidad de descubrimiento. Es la probabilidad de que alguien advierta que se produjo un incidente de protección de datos. Elijo una escala de números del 1 al 10, donde el 1 es la más alta (o mayor) probabilidad de descubrimiento. Si los empleados están adecuadamente capacitados, reconocerán rápidamente y probablemente informarán un incidente (a menos que alguien encuentre a ChatGPT muy atractivo y no quiera denunciarlo). Elijo el valor 4. Por lo menos, no todos los resultados de un chatbot pueden verse si contienen datos personales. En particular, los datos personales no siempre son fáciles de reconocer. Además, las grandes emisiones de texto pueden llevar a que no todo se lea, sino que se copie y pegue ciegamente en un informe público.
La probabilidad de ingreso es la probabilidad con que ocurre un incidente de protección de datos. El valor 1 representa el caso más favorable, es decir, incidentes muy raros o quizás nunca ocurridos. Que un incidente ocurra parece muy probable en el escenario de ejemplo. Después de todo, podrían ser revisados diariamente cientos de documentos. La función de pseudonimización automática no puede funcionar perfectamente. Por lo tanto, elijo el valor 8.
La gravedad del evento indica en qué medida un incidente de protección de datos afecta los derechos y libertades de las personas. Depende del tipo de información sobre empleados que se trate. Si se trata de pérdidas de tiempo laboral, cuyo conocimiento a menudo podría equipararse con datos de salud, entonces la gravedad sería difícilmente demasiado baja si se le asigna el valor 8. Pero también la evaluación del rendimiento de los empleados justificaría un valor así. Mucho peor, desde la perspectiva de los empleados, es poco probable que sea así.
Al multiplicar Probabilidad de descubrimiento, Probabilidad de ingreso y Gravedad del evento, se obtiene un valor entre 1 y 1000. El valor 1 sería el resultado de haber evaluado cada uno de los tres criterios con el valor más favorable, que es 1. El valor 1000 es el resultado de 10 x 10 x 10, lo que representa el escenario más desastroso imaginable.
Una evaluación de riesgos como parte de una evaluación de impacto en protección de datos es siempre una buena idea. Ya sea que se cree rápidamente o que plantea nuevas preguntas, en cualquier caso queda claro si el uso de un sistema digital desde la perspectiva de la protección de datos o en general parece sensato o no.
En el ejemplo se obtiene un valor de 4 x 8 x 8 = 256 en el marco de una valoración de riesgos. Ahora cada responsable debe reflexionar sobre cuál es el umbral a partir del cual deben describirse medidas especiales para poder manejar adecuadamente y rápidamente el evento. Una tal medida podría ser, al menos temporalmente, prohibir o utilizar ChatGPT sin restricciones.
Veo el valor 200 o quizás también 250 como umbral, a partir del cual debería pensarse en la formulación de planes de emergencia o medidas de auxilio.
El establecimiento de una valoración de riesgos conduce inevitablemente a que ChatGPT se considere no apta para este caso de uso, "Revisión de documentos corporativos que pueden contener datos de empleados". Los receptores de los datos son personas dentro del empresa o eventualmente en la pública, pero también OpenAI, Microsoft y todos los subcontratistas.
Una DSFA debería realizarse por lo menos en el nivel de la multiplicación de tres números como evaluación de riesgo. Si se supera un umbral, debería pensarse en investigaciones adicionales. Un valor bajo suele hablar también en contra del uso de un sistema. Esto hace que la DSFA sea entonces obsoleta, que ha hecho un buen servicio para la toma de decisiones.
Una evaluación de riesgos puede llevarse a cabo de manera esquemática. Para muchos servicios, gran parte de la evaluación puede ser similar o idéntica, con posiblemente otros valores para los criterios de riesgo. El esfuerzo necesario parece no ser especialmente alto o incluso muy bajo en mi opinión.
Conclusión
La extensión de una DSFA depende del nivel de riesgo que un sistema supone para las personas afectadas. Para sistemas de inteligencia artificial de terceros, considero la evaluación de riesgos como parte de una DSFA siempre necesaria. Para los propios sistemas de IA, se puede determinar rápidamente si es necesario ampliar la consideración multiplicando tres números. En general, la mayoría de los sistemas de IA internos son inocuos a menos que se utilicen para evaluar empleados, datos de salud, etc. Las consideraciones legales adicionales fuera de una DSFA no son siempre necesarias. Por lo tanto, debe estar claro el origen y tipo de datos de entrada y la base legal para el procesamiento de datos.
Si una DSFA es realizada por el delegado de protección de datos o por el responsable, es secundaria, aunque en la práctica es sobre todo relevante para los DSBs.
Una DSFA completa requiere como tarea adicional "solo" la creación de medidas de mitigación y planes de emergencia. Todos los demás contenidos necesarios están dados por el artículo 12 de la DSGVO y una evaluación de riesgos siempre sensata, a menudo rápida, en cualquier caso
La pregunta sobre una evaluación de impacto en la protección de datos se plantea menos cuando se utilizan sistemas propios o amigables con los datos de terceros y el riesgo puede ser calificado rápidamente como bajo. En sistemas propios, especialmente en sistemas AI de la empresa propia, no se plantea la pregunta sobre los flujos de datos y receptores de datos. Son conocidos y pueden limitarse libremente.
En servicios de terceros de sospechosos habituales como Microsoft, Google o Zoom, podría utilizarse un DSFA por proveedor en total, que se amplía eventualmente "solo" con detalles por servicio o plugin específico utilizado.
Una DSFA reduce el riesgo pero no elimina la posibilidad de recibir una queja, amonestación o demanda por el uso ilegal de servicios o plugins. Con sistemas amigables con la protección de datos se puede ahorrar un montón de trabajo y aumentar significativamente la seguridad jurídica. A menudo solo hay que quererlo. Hay alternativas para muchos casos de aplicación.
Al final, algunos aspectos importantes resumidos:
- Una evaluación de riesgos es siempre razonable y a menudo necesaria.
- Las informaciones obligatorias de Art. 12 DSGVO deben estar disponibles en cualquier caso. Si se crean para la DSFA o debido a los derechos de los afectados, es secundario. El esfuerzo necesario para las informaciones obligatorias no puede atribuirse por lo tanto a la DSFA.
- Garantías generales que los responsables deben establecer de Art. 5 DSGVO, son independientes de una DSFA. Deben realizarse en cualquier caso para todas las posibles tratamientos de datos. Ejemplo: Una contraseña segura para un acceso a ChatGPT. Una política general de contraseñas debería estar presente en la empresa en cualquier caso.
- Las garantías específicas por servicio también deben ser generalmente proporcionadas y no tienen nada que ver con una DSFA. Razón: Los servicios menos riesgosos no requieren una DSFA. Sin embargo, debe haber una garantía para estos, como la seguridad de los datos procesados.
Mensajes clave
Las evaluaciones de impacto en protección de datos (DSFA) son importantes para nuevas tecnologías como la inteligencia artificial, ya que ayudan a identificar y minimizar los riesgos para la privacidad de las personas.
Si una aplicación de inteligencia artificial procesa datos personales de forma extensa, especialmente categorías sensibles como opiniones políticas o datos de salud, se necesita una evaluación de impacto en protección de datos (DSFA).
Zoom puede usar tus datos de videoconferencias, como imágenes y transcripciones, para muchos fines, incluso sin tu permiso.
Es importante realizar una evaluación de riesgos (DSFA) antes de usar sistemas de inteligencia artificial que procesen datos personales, incluso para fines de investigación.
El texto analiza los riesgos de usar ChatGPT para buscar información en documentos de empleados, especialmente en lo que respecta a la protección de datos personales.
Es importante evaluar los riesgos que conlleva usar sistemas de inteligencia artificial como ChatGPT, especialmente cuando se trata de datos sensibles.
Para usar sistemas de IA de forma segura y legal, es importante entender de dónde vienen los datos, cómo se usan y qué medidas se toman para protegerlos.



Me llamo Klaus Meffert. Soy doctor en informática y llevo más de 30 años dedicándome profesional y prácticamente a las tecnologías de la información. También trabajo como experto en informática y protección de datos. Obtengo mis resultados analizando la tecnología y el Derecho. Esto me parece absolutamente esencial cuando se trata de protección de datos digitales.
