Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen

ChatGPT y la inteligencia artificial de Bing como garantía para resultados falsos. Amistad con los datos y precisión de los datos?

0
Dr. DSGVO Newsletter detected: Extended functionality available
More articles · Website-Checks · Live Offline-AI

Cuando ChatGPT sorprendió a la humanidad con resultados increíbles, muchos creen que hay que utilizar este chatbot para todo y todos. Lo que parece inocuo en el ámbito privado, lleva a problemas en el mundo empresarial que pueden volverse rápidamente judiciales.

Introducción

Recientemente, una empresa alemana anunció que ofrece una solución de Inteligencia Artificial para la interpretación de textos jurídicos. El detonante fue un artículo en Dr. DSGVO sobre Künstliche Intelligenz para el análisis de textos jurídicos.

La aplicación de IA de la empresa mencionada todavía está en el estado beta. El recelo es que se haya construido un prototipo rápidamente para explorar el mercado de aplicaciones semejantes. En ningún momento se ha mencionado qué modelo de lenguaje se utiliza detrás de escena. Las investigaciones sugieren que se trata de ChatGPT.

Este artículo se creó junto con la conferencia del 05.09.2023 en el Club de TI de Mainz y Hesse en el Hub digital Gutenberg en Mainz.

Mira más abajo para impresión.

Las respuestas del sistema de inteligencia artificial fueron buenas, pero no impactantes. En cuestiones jurídicas se proporcionaron respuestas más o menos plausibles junto con las fuentes. Las respuestas no habrían sido suficientes para decidir una discusión jurídica a su favor. Probablemente los resultados incluso habrían llevado directamente a la derrota.

Se pudo determinar que ChatGPT-3 fue utilizada por la aplicación de inteligencia artificial de la empresa alemana haciendo una pregunta al chatbot sobre el tema, y la respuesta de la AI fue: "Sí, me baso en un modelo llamado GPT-3, desarrollado por OpenAI. […]

¿Qué es lo que tan problemático hay en ChatGPT? La pregunta podría también hacerse para Microsoft Copilot. Un simple test demuestra, que Copilot mismo se siente superado con simples tareas.

Motivación

Los chatbots suelen recurrir a una base de conocimientos incorporada. Aquí un ejemplo de aplicación de la empresa alemana mencionada anteriormente, que parece utilizar ChatGPT en segundo plano:

Falsche Antwort eines auf ChatGPT basierenden Chatbots.

El chatbot no conoce un fallo que exista y esté identificado de manera inequívoca por un identificador único, y por lo tanto (para un abogado) es identificable de manera inequívoca. El chatbot debería haber informado al usuario sobre las limitaciones del chatbot en lugar de fingir que el fallo solicitado no existe.

Para utilizar ChatGPT solo es necesario utilizar la interfaz de OpenAI (API). Debido a que el uso de esta API es tan sencillo, parece que muchos se creen con derecho para hacerlo. Con lo cual comienza el desaguisado, como se puede ver en el ejemplo mismo.

Así es fácilmente, utilizar ChatGPT desde un propio programa (Atención: Los datos fluyen todos a OpenAI/ChatGPT, únicamente el siguiente código del programa se encuentra localizado en el programador):

import openai
openai.api\_key = "XYZ" #You OpenAI API-key
completion = openai.ChatCompletion()
def frage\_chatgpt(frage):
chat\_log = \[{
'role': 'system',
'content': 'You are a helpful assistant',
}\]
chat\_log.append({'role': 'user', 'content': frage})
response = completion.create(model='gpt-3.5-turbo', messages=chat\_log)
antwort= response.choices\[0\]\['message'\]\['content'\]
return antwort
print(frage\_chatgpt("What is the answer to all questions?"))


Puede hacerlo cualquier persona. Por lo menos, tantos no programadores logran crear y ejecutar este código como hay personas que no son mecánicos de automóviles y pueden cambiar un neumático en su coche. Como se sugiere en el código, la diversión cuesta dinero después de superar un límite de pruebas por llamada. La respuesta podría ser más rápida (es quejarse a un nivel alto para disminuir la ilusión de algunos sobre ChatGPT).

Un ejemplo más de una afirmación falsa generada por ChatGPT:

Falsche Antwort von einem Chatbot, der auf ChatGPT basiert.

Mi conclusión, que también puede influir en mi propia inteligencia artificial, pero no en ChatGPT: Los cookies no son archivos de texto, sino conjuntos de datos. Por lo tanto, ChatGPT seguirá respondiendo incorrectamente hasta nuevo aviso.

Recuerde: ChatGPT es un modelo de lenguaje extremadamente avanzado, que no tiene igual.

Desafortunadamente, ChatGPT se basa en tantos millones o billones de documentos que ha ingresado demasiada información general incorrecta y demasiado poco conocimiento especializado exacto en el cerebro artificial.

La búsqueda de Bing de Microsoft también está impulsada por Inteligencia Artificial. Microsoft se ha involucrado financieramente recientemente en OpenAI para aprovechar el auge del ChatGPT. Sobre todo cuando las preguntas de búsqueda son formuladas de manera muy simple, los resultados de la AI de Bing llegan rápidamente a ser falsos o absurdos. Por el contrario, los resultados suelen estar dentro del rango esperado positivamente si Bing realiza una búsqueda convencional. De manera convencional se logra con frecuencia llegar a buenos aciertos. La diferencia es que las respuestas de los resultados de búsqueda son citadas, pero no abstraídas, es decir, no se les da forma propia en palabras de la AI.

Impulsvortrag beim IT Klub Mainz 6 Rheinhessen am 05.09.2023 im Gutenberg Digital Hub in Mainz.

Preferiría una respuesta correcta y citada a una respuesta incorrecta en mis propias palabras.

La solución mejor

Una mejor solución proporciona respuestas correctas con frecuencia y le da al usuario la oportunidad de reconocer posibles respuestas inexactas o falsas para que pueda revisarlas críticamente. Si una respuesta puede ser inexacta o falsa, se puede determinar mediante una inteligencia artificial propia del negocio, muy diferente a cuando se utiliza el "caja negra" llamado ChatGPT.

El caso de uso para sistemas de inteligencia artificial propios de la empresa es siempre cuando se necesitan respuestas precisas o también cuando se buscan a menudo documentos propios. ChatGPT falla aquí o, en el mejor de los casos, es demasiado caro, ya que OpenAI cobra según el volumen de uso.

La automatización, la validación y la optimización son características que sobre todo ofrecen los sistemas de inteligencia artificial propios de las empresas, no las cajas negras como ChatGPT.

Depender de terceros no parece tampoco la mejor estrategia. Lo sabemos desde los últimos años. Como ejemplos se pueden citar sistemas y plataformas de Google, Microsoft, Meta o Apple.

Precisión de los datos, que se menciona en el título del artículo: La obligación de mantener y procesar correctamente los datos personales surge aproximadamente de Artículo 18, apartado 1 DSGVO. Si la precisión de dichos datos es controvertida o su tratamiento no está legitimado o ya no lo está, una persona afectada puede solicitar la limitación del tratamiento.

También para los datos que no tienen relación con personas, su exactitud es a menudo fundamental. Si un abogado incorpora la respuesta de un chatbot en su escrito notarial, sería mejor si lo que allí se escribió es correcto y resiste una revisión.

También en proyectos de investigación o en patentes sería fatal si se introdujeran instrucciones o conclusiones falsas en el trabajo. Además, es riesgoso jurídicamente transferir datos críticos a terceros. Los datos pueden ser críticos cuando, por ejemplo

  • Secreto
  • Protegido por derechos de autor
  • Personales o
  • Confidencial

Pérdida.

Conocimiento de hechos aportar

La confiabilidad de una inteligencia artificial procesadora de texto se puede mejorar significativamente introduciendo hechos importantes en el cerebro electrónico explícitamente. Esto a menudo también se conoce como Grounding. Microsoft supuestamente utiliza esto para su motor de búsqueda Bing, pero fracasa al hacerlo, como muestran numerosos ejemplos. Realizado correctamente, ayuda Grounding a eliminar información falsa muy extendida.

Después de que se puso al día el sistema de inteligencia artificial propio, también proporciona mejores respuestas que ChatGPT, y es para el conocimiento relevante. Quién fue Goethe, nuestro propio sistema de IA no necesita saberlo. Este conocimiento innecesario carga un modelo de IA solo y conduce a declaraciones falsas, al menos a una menor capacidad de rendimiento ( "la IA ya no ve la selva por entre los árboles" ) o respuestas más lentas.

Aquí un ejemplo de respuesta que se ha generado a partir del Dr. RGPD Wissensbestand y es cualitativamente mucho mejor (y sobre todo correcta) que los resultados de Microsoft Bing y ChatGPT:

Antwort des autarken Dr. DSGVO KI-Systems auf die Frage "Was sind Cookies?".

El conocimiento empresarial accesible se caracteriza por ser en general bastante manejable, estar disponible en forma de documentos y tener declaraciones a priori consideradas como verdaderas (o más verdaderas que fuentes externas). Una búsqueda de inteligencia artificial propia para el conocimiento empresarial tiene varias ventajas.

La primera es que la propia KI de la empresa es autárquica y no depende de terceros. La pregunta sobre una evaluación de las consecuencias del tratamiento de datos (DSFA) apenas o nada se plantea aquí. Los datos secretos o confidenciales están bien guardados en nuestros sistemas.

En segundo lugar, una inteligencia artificial autárquica de la empresa puede adaptarse a sus propias necesidades. Si mira el ejemplo de programa arriba, tal vez le llamen la atención las siguientes cosas:

  1. Con Python se pueden construir sistemas de inteligencia artificial en pocas líneas de código.
  2. La complejidad se encuentra no en el programa, sino en el modelo de IA que solo debe construirse una vez.
  3. Un pequeño paso puede dar mucho.

Aplicaciones económicas con un valor añadido significativo son posibles. Los propios sistemas de Inteligencia Artificial son incluso a menudo más económicos que la utilización de la interfaz ChatGPT, aparte de los inconvenientes mencionados al utilizar un sistema externo.

Conclusión

La inteligencia artificial es, probablemente debido a la justificada emoción por las nuevas posibilidades, sobrevalorada o mal evaluada por muchos. Las inteligencias generales como ChatGPT son precisamente adecuadas para esto: Para responder preguntas generales, sin reivindicar confiabilidad ni tampoco corrección. Esto se puede reconocer solo en la guía del usuario de tales sistemas, que no contiene ninguna indicación de que los resultados deberían ser revisados cuidadosamente o incluso podría haber una respuesta falsa entre ellos.

Pocas líneas de código son suficientes para generar una salida falsa con la ayuda de 100 mil millones de neuronas artificiales. Unos pocos renglones más de código ayudan a obtener respuestas correctas con un sistema propio.

Las empresas que desean utilizar una IA deben resolver primero una pregunta: ¿Para qué exactamente se utilizará esta IA? Si no puede responderse a esa pregunta, entonces parece claro que este negocio no necesita un sistema de IA o aún no sabe para qué.

El uso privado de ChatGPT y sistemas similares es seguro emocionante, pero algo completamente diferente a la utilización de chatbots o sistemas de inteligencia artificial en general dentro de la empresa.

Si una empresa tiene un problema que puede ser resuelto con la ayuda de una inteligencia artificial, entonces merece la pena investigar si ese problema puede ser resuelto con un sistema de IA propio del negocio.

Mensajes clave

ChatGPT y otras IA pueden generar respuestas falsas y engañosas, lo que puede ser peligroso en ámbitos como el derecho, donde se necesitan respuestas precisas y confiables.

ChatGPT puede generar respuestas incorrectas porque se basa en una gran cantidad de información general, pero no siempre tiene conocimiento especializado preciso.

Las empresas deberían usar sistemas de inteligencia artificial propios en lugar de depender de herramientas externas como ChatGPT, ya que así controlan mejor la precisión de la información y evitan riesgos legales.

Las empresas deberían considerar si realmente necesitan una IA antes de implementarla, ya que a veces es más efectivo y económico crear un sistema propio para sus necesidades específicas.

Acerca de

Sobre el autor
Me llamo Klaus Meffert. Soy doctor en informática y llevo más de 30 años dedicándome profesional y prácticamente a las tecnologías de la información. También trabajo como experto en informática y protección de datos. Obtengo mis resultados analizando la tecnología y el Derecho. Esto me parece absolutamente esencial cuando se trata de protección de datos digitales.

Evaluación de las consecuencias en materia de protección de datos para la Inteligencia Artificial y otros servicios digitales