Cuando ChatGPT sorprendió a la humanidad con resultados increíbles, muchos creen que hay que utilizar este chatbot para todo y todos. Lo que parece inocuo en el ámbito privado, lleva a problemas en el mundo empresarial que pueden volverse rápidamente judiciales.
Introducción
Recientemente, una empresa alemana anunció que ofrece una solución de Inteligencia Artificial para la interpretación de textos jurídicos. El detonante fue un artículo en Dr. DSGVO sobre Künstliche Intelligenz para el análisis de textos jurídicos.
La aplicación de IA de la empresa mencionada todavía está en el estado beta. El recelo es que se haya construido un prototipo rápidamente para explorar el mercado de aplicaciones semejantes. En ningún momento se ha mencionado qué modelo de lenguaje se utiliza detrás de escena. Las investigaciones sugieren que se trata de ChatGPT.
Este artículo se creó junto con la conferencia del 05.09.2023 en el Club de TI de Mainz y Hesse en el Hub digital Gutenberg en Mainz.
Mira más abajo para impresión.
Las respuestas del sistema de inteligencia artificial fueron buenas, pero no impactantes. En cuestiones jurídicas se proporcionaron respuestas más o menos plausibles junto con las fuentes. Las respuestas no habrían sido suficientes para decidir una discusión jurídica a su favor. Probablemente los resultados incluso habrían llevado directamente a la derrota.
Se pudo determinar que ChatGPT-3 fue utilizada por la aplicación de inteligencia artificial de la empresa alemana haciendo una pregunta al chatbot sobre el tema, y la respuesta de la AI fue: "Sí, me baso en un modelo llamado GPT-3, desarrollado por OpenAI. […]
¿Qué es lo que tan problemático hay en ChatGPT? La pregunta podría también hacerse para Microsoft Copilot. Un simple test demuestra, que Copilot mismo se siente superado con simples tareas.
Motivación
Los chatbots suelen recurrir a una base de conocimientos incorporada. Aquí un ejemplo de aplicación de la empresa alemana mencionada anteriormente, que parece utilizar ChatGPT en segundo plano:

El chatbot no conoce un fallo que exista y esté identificado de manera inequívoca por un identificador único, y por lo tanto (para un abogado) es identificable de manera inequívoca. El chatbot debería haber informado al usuario sobre las limitaciones del chatbot en lugar de fingir que el fallo solicitado no existe.
Para utilizar ChatGPT solo es necesario utilizar la interfaz de OpenAI (API). Debido a que el uso de esta API es tan sencillo, parece que muchos se creen con derecho para hacerlo. Con lo cual comienza el desaguisado, como se puede ver en el ejemplo mismo.
Así es fácilmente, utilizar ChatGPT desde un propio programa (Atención: Los datos fluyen todos a OpenAI/ChatGPT, únicamente el siguiente código del programa se encuentra localizado en el programador):
import openai
openai.api\_key = "XYZ" #You OpenAI API-key
completion = openai.ChatCompletion()
def frage\_chatgpt(frage):
chat\_log = \[{
'role': 'system',
'content': 'You are a helpful assistant',
}\]
chat\_log.append({'role': 'user', 'content': frage})
response = completion.create(model='gpt-3.5-turbo', messages=chat\_log)
antwort= response.choices\[0\]\['message'\]\['content'\]
return antwort
print(frage\_chatgpt("What is the answer to all questions?"))
Puede hacerlo cualquier persona. Por lo menos, tantos no programadores logran crear y ejecutar este código como hay personas que no son mecánicos de automóviles y pueden cambiar un neumático en su coche. Como se sugiere en el código, la diversión cuesta dinero después de superar un límite de pruebas por llamada. La respuesta podría ser más rápida (es quejarse a un nivel alto para disminuir la ilusión de algunos sobre ChatGPT).
Un ejemplo más de una afirmación falsa generada por ChatGPT:

Mi conclusión, que también puede influir en mi propia inteligencia artificial, pero no en ChatGPT: Los cookies no son archivos de texto, sino conjuntos de datos. Por lo tanto, ChatGPT seguirá respondiendo incorrectamente hasta nuevo aviso.
Recuerde: ChatGPT es un modelo de lenguaje extremadamente avanzado, que no tiene igual.
Desafortunadamente, ChatGPT se basa en tantos millones o billones de documentos que ha ingresado demasiada información general incorrecta y demasiado poco conocimiento especializado exacto en el cerebro artificial.
La búsqueda de Bing de Microsoft también está impulsada por Inteligencia Artificial. Microsoft se ha involucrado financieramente recientemente en OpenAI para aprovechar el auge del ChatGPT. Sobre todo cuando las preguntas de búsqueda son formuladas de manera muy simple, los resultados de la AI de Bing llegan rápidamente a ser falsos o absurdos. Por el contrario, los resultados suelen estar dentro del rango esperado positivamente si Bing realiza una búsqueda convencional. De manera convencional se logra con frecuencia llegar a buenos aciertos. La diferencia es que las respuestas de los resultados de búsqueda son citadas, pero no abstraídas, es decir, no se les da forma propia en palabras de la AI.

Preferiría una respuesta correcta y citada a una respuesta incorrecta en mis propias palabras.
La solución mejor
Una mejor solución proporciona respuestas correctas con frecuencia y le da al usuario la oportunidad de reconocer posibles respuestas inexactas o falsas para que pueda revisarlas críticamente. Si una respuesta puede ser inexacta o falsa, se puede determinar mediante una inteligencia artificial propia del negocio, muy diferente a cuando se utiliza el "caja negra" llamado ChatGPT.
El caso de uso para sistemas de inteligencia artificial propios de la empresa es siempre cuando se necesitan respuestas precisas o también cuando se buscan a menudo documentos propios. ChatGPT falla aquí o, en el mejor de los casos, es demasiado caro, ya que OpenAI cobra según el volumen de uso.
La automatización, la validación y la optimización son características que sobre todo ofrecen los sistemas de inteligencia artificial propios de las empresas, no las cajas negras como ChatGPT.
Depender de terceros no parece tampoco la mejor estrategia. Lo sabemos desde los últimos años. Como ejemplos se pueden citar sistemas y plataformas de Google, Microsoft, Meta o Apple.
Precisión de los datos, que se menciona en el título del artículo: La obligación de mantener y procesar correctamente los datos personales surge aproximadamente de Artículo 18, apartado 1 DSGVO. Si la precisión de dichos datos es controvertida o su tratamiento no está legitimado o ya no lo está, una persona afectada puede solicitar la limitación del tratamiento.
También para los datos que no tienen relación con personas, su exactitud es a menudo fundamental. Si un abogado incorpora la respuesta de un chatbot en su escrito notarial, sería mejor si lo que allí se escribió es correcto y resiste una revisión.
También en proyectos de investigación o en patentes sería fatal si se introdujeran instrucciones o conclusiones falsas en el trabajo. Además, es riesgoso jurídicamente transferir datos críticos a terceros. Los datos pueden ser críticos cuando, por ejemplo
- Secreto
- Protegido por derechos de autor
- Personales o
- Confidencial
Pérdida.
Conocimiento de hechos aportar
La confiabilidad de una inteligencia artificial procesadora de texto se puede mejorar significativamente introduciendo hechos importantes en el cerebro electrónico explícitamente. Esto a menudo también se conoce como Grounding. Microsoft supuestamente utiliza esto para su motor de búsqueda Bing, pero fracasa al hacerlo, como muestran numerosos ejemplos. Realizado correctamente, ayuda Grounding a eliminar información falsa muy extendida.
Después de que se puso al día el sistema de inteligencia artificial propio, también proporciona mejores respuestas que ChatGPT, y es para el conocimiento relevante. Quién fue Goethe, nuestro propio sistema de IA no necesita saberlo. Este conocimiento innecesario carga un modelo de IA solo y conduce a declaraciones falsas, al menos a una menor capacidad de rendimiento ( "la IA ya no ve la selva por entre los árboles" ) o respuestas más lentas.
Aquí un ejemplo de respuesta que se ha generado a partir del Dr. RGPD Wissensbestand y es cualitativamente mucho mejor (y sobre todo correcta) que los resultados de Microsoft Bing y ChatGPT:

El conocimiento empresarial accesible se caracteriza por ser en general bastante manejable, estar disponible en forma de documentos y tener declaraciones a priori consideradas como verdaderas (o más verdaderas que fuentes externas). Una búsqueda de inteligencia artificial propia para el conocimiento empresarial tiene varias ventajas.
La primera es que la propia KI de la empresa es autárquica y no depende de terceros. La pregunta sobre una evaluación de las consecuencias del tratamiento de datos (DSFA) apenas o nada se plantea aquí. Los datos secretos o confidenciales están bien guardados en nuestros sistemas.
En segundo lugar, una inteligencia artificial autárquica de la empresa puede adaptarse a sus propias necesidades. Si mira el ejemplo de programa arriba, tal vez le llamen la atención las siguientes cosas:
- Con Python se pueden construir sistemas de inteligencia artificial en pocas líneas de código.
- La complejidad se encuentra no en el programa, sino en el modelo de IA que solo debe construirse una vez.
- Un pequeño paso puede dar mucho.
Aplicaciones económicas con un valor añadido significativo son posibles. Los propios sistemas de Inteligencia Artificial son incluso a menudo más económicos que la utilización de la interfaz ChatGPT, aparte de los inconvenientes mencionados al utilizar un sistema externo.
Conclusión
La inteligencia artificial es, probablemente debido a la justificada emoción por las nuevas posibilidades, sobrevalorada o mal evaluada por muchos. Las inteligencias generales como ChatGPT son precisamente adecuadas para esto: Para responder preguntas generales, sin reivindicar confiabilidad ni tampoco corrección. Esto se puede reconocer solo en la guía del usuario de tales sistemas, que no contiene ninguna indicación de que los resultados deberían ser revisados cuidadosamente o incluso podría haber una respuesta falsa entre ellos.
Pocas líneas de código son suficientes para generar una salida falsa con la ayuda de 100 mil millones de neuronas artificiales. Unos pocos renglones más de código ayudan a obtener respuestas correctas con un sistema propio.
Las empresas que desean utilizar una IA deben resolver primero una pregunta: ¿Para qué exactamente se utilizará esta IA? Si no puede responderse a esa pregunta, entonces parece claro que este negocio no necesita un sistema de IA o aún no sabe para qué.
El uso privado de ChatGPT y sistemas similares es seguro emocionante, pero algo completamente diferente a la utilización de chatbots o sistemas de inteligencia artificial en general dentro de la empresa.
Si una empresa tiene un problema que puede ser resuelto con la ayuda de una inteligencia artificial, entonces merece la pena investigar si ese problema puede ser resuelto con un sistema de IA propio del negocio.
Mensajes clave
ChatGPT y otras IA pueden generar respuestas falsas y engañosas, lo que puede ser peligroso en ámbitos como el derecho, donde se necesitan respuestas precisas y confiables.
ChatGPT puede generar respuestas incorrectas porque se basa en una gran cantidad de información general, pero no siempre tiene conocimiento especializado preciso.
Las empresas deberían usar sistemas de inteligencia artificial propios en lugar de depender de herramientas externas como ChatGPT, ya que así controlan mejor la precisión de la información y evitan riesgos legales.
Las empresas deberían considerar si realmente necesitan una IA antes de implementarla, ya que a veces es más efectivo y económico crear un sistema propio para sus necesidades específicas.



Me llamo Klaus Meffert. Soy doctor en informática y llevo más de 30 años dedicándome profesional y prácticamente a las tecnologías de la información. También trabajo como experto en informática y protección de datos. Obtengo mis resultados analizando la tecnología y el Derecho. Esto me parece absolutamente esencial cuando se trata de protección de datos digitales.
