Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen

Comprender las alucinaciones de la IA: Causas y ejemplos de ficción artificial

0
Dr. DSGVO Newsletter detected: Extended functionality available
More articles · Website-Checks · Live Offline-AI

Las alucinaciones de la IA son afirmaciones falsas hechas por una IA basándose en información correcta. El resultado es una afirmación plausible que podría ser correcta, pero no lo es. Una explicación de las alucinaciones es posible si se observa cómo los modelos lingüísticos de IA codifican la información y su significado, por ejemplo.

Introducción

Probablemente todo el mundo haya oído hablar de las alucinaciones en el contexto de la inteligencia artificial.

Las alucinaciones son tan emocionantes porque se trata de afirmaciones falsas que tienen el potencial de sonar plausible. Lo que suena plausible a menudo es interpretado como verdadero o correcto. Exactamente ahí está la peligro de las alucinaciones.

Alucinaciones son afirmaciones falsas que se basan en un conocimiento de fondo correcto. Las afirmaciones falsas que surgen de un conocimiento falso o de malentendidos debido a una pregunta formulada de manera descuidada, no son alucinaciones.

La base para las alucinaciones son vectores semánticos. Lo que es eso, lo veremos con más detalle.

Cómo se desarrollan las alucinaciones

Un vector semántico es el portador de un significado. ¿Qué es un significado? Un significado es una afirmación definida subjetivamente. También podría decirse que cada cual define su propia verdad.

Hago el mundo para mí,

widewide como a mí me gusta.

Pippi Calzaslargas

La verdad es (¿siempre?) algo subjetivo. Incluso las teorías físicas como la teoría de la relatividad y la mecánica cuántica, que se cuentan probablemente entre nuestras mejores teorías, se interpretan de forma puramente subjetiva.

La persona encuentra el significado de objetos y situaciones a través de la formación cultural, educación y propia observación. El computador ("la Inteligencia Artificial") busca significado en función de datos de entrenamiento, lo que en sí mismo es nada más.

Se encuentra significado a través de optimización de una función matemática. Así lo hará también el hombre, sólo que la optimización en el hombre puede contener intencionalmente elementos contraproducentes objetivos (!?).

La siguiente imagen muestra una representación simplificada de cómo se codifica el significado de la frase "El perro está corriendo en el parque" en un modelo de IA.

Los modelos de IA (en este caso, los modelos lingüísticos) almacenan el significado de la información en forma de vectores (semánticos).

La frase que acabamos de mencionar tiene numerosas facetas de significado. Por ejemplo, dice algo sobre un ser vivo ("perro"), tematiza una actividad ("correr"), contiene una tonalidad (aquí: emoción neutra) y describe un lugar ("parque"). Por cierto: el término "parque" puede tener varios significados. Aquí se refiere a la zona verde de una ciudad. Otro significado que no se da aquí, pero que sería posible, es el imperativo de "parken".

La imagen muestra solo dos dimensiones (2D) por sencillez. En realidad, los modelos de Inteligencia Artificial trabajan con más de cien dimensiones, por ejemplo, 512. Este número elevado de dimensiones tiene como objetivo capturar y representar las diferentes facetas semánticas de una afirmación.

La afirmación "El perro está corriendo en el parque" es verdadera. ¿Cómo puede resultar un enunciado falso?

Muchos sistemas de IA generan resultados representando el significado de la entrada como un vector (o vectores) y hacen lo mismo con los conocimientos previos almacenados. Ahora se puede calcular con vectores: cualquiera que sea apto en matemáticas o recuerde tiempos mejores lo sabrá.

La siguiente figura muestra esquemáticamente la suma de dos vectores semánticos.

Creación de alucinaciones mediante la adición de dos vectores como portadores de significado.

Puedes ver dos afirmaciones que son ambas verdaderas:

  • Albert Einstein recibió el Premio Nobel de Física -> Afirmación verdadera
  • Albert Einstein desarrolló la teoría de la relatividad -> Afirmación verdadera

Si ahora se suman los vectores de estas dos afirmaciones, se crea el vector mostrado en rojo en la imagen, que representa una afirmación falsa. La suma de las dos flechas, verde y azul, se ilustra en la parte superior derecha de la figura en miniatura. Las líneas discontinuas también indican cómo se crea la flecha roja a partir de las flechas verde y azul.

En el modelo de AI se genera a través de Búsqueda de semejanza con el vector de resultado rojo, luego la afirmación que mejor se ajusta al vector de resultado es la siguiente: "Einstein recibió el Premio Nobel por la teoría de la relatividad".

Cuesta creer que uno de los genios más destacados de la historia de la humanidad NO haya recibido el Premio Nobel por una de las teorías más destacadas de la historia de la humanidad. Esto podría considerarse una impertinencia o un signo de la estupidez global de la humanidad. Después de todo, los siguientes logros se basan en la teoría de la relatividad de Einstein:

  • GPS y sistemas de navegación: Sin considerar los efectos relativistas, los satélites GPS ya habrían perdido exactitud en pocas horas. Los relojes en los satélites funcionan más rápidamente debido a la menor gravedad que en la Tierra.
  • Aceleradores de partículas como el Gran Colisionador de Hadrones en CERN funcionan solo porque se tienen en cuenta los efectos relativistas durante la aceleración de las partículas a velocidades casi de la luz. Estas instalaciones han llevado al descubrimiento del bosón de Higgs y muchos otros partículas elementales.
  • Imaginología médica utiliza la teoría de la relatividad en la tomografía por emisión de positrones (PET). En ella se utilizan partículas de antimateria cuyo comportamiento había predicho Einstein.
  • Astronomía y cosmología fueron revolucionadas. La teoría permitió la predicción y posterior observación de agujeros negros, ondas gravitacionales y ayudó a entender la expansión del universo.
  • Computación cuántica se beneficia de conceptos relativistas, especialmente en el desarrollo de relojes atómicos altamente precisos y sensores cuánticos.
  • Sincronización de redes de computadoras y sistemas de comercio financiero consideran hoy efectos relativistas del tiempo para medir el tiempo con precisión a grandes distancias.

En el mejor de los casos, los jurados del Nobel estaban intelectualmente abrumados en ese momento y no se atrevieron a dar su bendición a una teoría que posiblemente era errónea a sus ojos.

De vuelta a las alucinaciones:

Por tanto, la afirmación falsa mencionada anteriormente surgió de la combinación de dos afirmaciones correctas. Ésta es otra de las razones por las que suena tan plausible y puede distraer de la realidad (tal y como la hemos definido).

Así surgen las alucinaciones.

Además, las respuestas de los modelos lingüísticos de IA suelen ser tan atractivas y estructuradas que parecen profesionales. Esto refuerza la impresión de que la afirmación falsa (alucinación) es correcta.

Los vectores, por cierto, pueden ser nuevamente convertidos en texto (o otras formas de datos que también se llaman modalidades) mediante lo que se conoce como inmersiones. Esto son representaciones vectoriales matemáticamente determinadas de afirmaciones.

Causas de las alucinaciones

Hay muchas causas posibles de las alucinaciones. He aquí un extracto de algunas posibilidades de declaraciones falsas.

Interpolación estadística en lugar de conocimiento de los hechos

Los modelos lingüísticos no almacenan la información como hechos discretos, sino como ponderaciones estadísticas entre distintos conceptos. Cuando el sistema responde a una consulta, combina estas ponderaciones para generar la respuesta más probable. Al hacerlo, el modelo puede establecer conexiones entre conceptos que no estaban explícitamente presentes en los datos de entrenamiento.

Cabe señalar que la existencia humana se basa enteramente en estadísticas. Algunas personas se escandalizan por esta afirmación. Deberían echar un vistazo a la física cuántica (a nivel general).

Estas: La estadística es la base para la inteligencia, no el motivo por el que no hubiera inteligencia.

Datos de formación incompletos o contradictorios

La calidad de los datos de entrenamiento influye significativamente en la tendencia a las alucinaciones. Si un modelo se entrena con datos que contienen imprecisiones, contradicciones o lagunas de conocimiento, estos problemas pueden aparecer con más frecuencia en la aplicación posterior. Además, distintas fuentes pueden proporcionar información contradictoria sobre el mismo tema.

Con los humanos no es diferente.

Confianza sin comprensión

Los sistemas de IA no son conscientes de sus propios límites de conocimiento. No pueden distinguir entre conocimientos ciertos y suposiciones y no expresan explícitamente las incertidumbres. En su lugar, generan respuestas con una certeza aparente que no se corresponde con la fiabilidad real de la información.

Los robots pronto cerrarán estas fronteras del conocimiento. Al igual que los humanos, explorarán el entorno y acumularán sus propias experiencias ambientales.

Zonas especiales de riesgo

Algunos temas son especialmente propensos a las alucinaciones. Por ejemplo, acontecimientos de actualidad ocurridos después de la fecha de la formación, temas muy especializados con escasa información pública disponible y ámbitos en los que la precisión es fundamental, como los temas médicos o jurídicos.

En lo que respecta al Derecho, casi ninguna persona "normal" entiende lo que está escrito en artículos jurídicos especializados, sentencias o en algunas leyes y reglamentos. Por cierto, esto es intencionado: los abogados quieren mantenerse al margen en algunos ámbitos y por eso utilizan un "lenguaje de poder". Esta información no procede del autor de este artículo, sino de un abogado.

Visión general de las alucinaciones AI: Causas, reconocimiento, riesgo, opciones de evitación.

Conclusión

Las alucinaciones surgen por una combinación de conocimiento verdadero. Eluden la verdad. Las alucinaciones pueden entenderse considerando los vectores semánticos como portadores de significado.

Pero esas alucinaciones también pueden tener lugar de forma analógica en las redes neuronales, la base de muchos modelos actuales de IA. Al fin y al cabo, una red neuronal puede representar un vector porque es tan plástica que puede transportar y representar cualquier tipo de información.

En lo que respecta a la Ley de AI, es mejor intentar minimizar el riesgo de alucinaciones. Es incluso mejor evitar las alucinaciones.

Más sobre las alucinaciones se puede leer en el próximo antología "Análisis de riesgo-IA", que será editado por Prof. Wanderwitz, donde se publicará este artículo en forma completa y sin cortes.

Las alucinaciones se pueden evitar, si uno se esfuerza un poco. Con ChatGPT no lo lograrás, pero sí con una inteligencia artificial optimizada para empresas y otras organizaciones. En un proyecto de cliente pudimos construir así un chatbot confiable para un campo de conocimiento complejo. El chatbot respondía correctamente en muchos casos. También sabía cuándo responder correctamente. En los pocos casos dudosos, el humano frente al monitor recibió la información de que la respuesta debía ser verificada. En cualquier caso, se indicaban las fuentes de la respuesta. Al igual que con las respuestas conocidas como correctas, el chatbot emitió un sello de calidad ("nosotros estamos detrás de esta respuesta").

Sobre el autor
Me llamo Klaus Meffert. Soy doctor en informática y llevo más de 30 años dedicándome profesional y prácticamente a las tecnologías de la información. También trabajo como experto en informática y protección de datos. Obtengo mis resultados analizando la tecnología y el Derecho. Esto me parece absolutamente esencial cuando se trata de protección de datos digitales.

Programación con IA: desarrollo de software más fácil, rápido y eficaz