Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen

Mitos y conceptos erróneos sobre la inteligencia artificial

0
Dr. DSGVO Newsletter detected: Extended functionality available
More articles · Website-Checks · Live Offline-AI

Todo el mundo piensa que la IA es genial de alguna manera. Por eso todo el mundo habla de IA. Como la IA es un campo técnico muy complejo, hay muchas verdades a medias o afirmaciones falsas. Todo ello alimentado por las promesas de marketing de Microsoft y otros. Este artículo aclara lo que es correcto y lo que debería clasificarse como hechos alternativos.

Errores comunes sobre la IA

Debido a la información a menudo unilateral, que siempre gira en torno a ChatGPT o a los productos de IA de Microsoft, parecen surgir numerosos conceptos erróneos. Algunas de ellas son:

  • Los modelos lingüísticos se basan en estadísticas y, por tanto, no son inteligentes.
  • Un sistema de IA es un algoritmo.
  • La IA es una herramienta.
  • Un sistema de IA puede trabajar con precisión.
  • ChatGPT no es inteligente.
  • ChatGPT es la mejor solución.
  • La IA puede equipararse a ChatGPT (OpenAI), Claude (Anthropic), Mixtral (Mistral) o Command R+ (Cohere). No hay nada más.
  • Los datos están seguros en Microsoft.
  • La IA puede funcionar de conformidad con la ley.
  • Los tokens no son datos reales.
  • Los modelos de IA no almacenan datos personales.

A partir de estos supuestos erróneos surgen a menudo false dichiarazioni. Algunas de ellas se clarificarán a continuación. A título de ejemplo, y en representación de otros servicios de nube, solo se hablará de ChatGPT a continuación.

Falsas afirmaciones sobre la IA

Las siguientes declaraciones pudieron leerse de una forma u otra en las redes sociales. Las afirmaciones estaban formuladas en términos generales en los lugares donde se encontraron, o eran específicas pero, sin embargo, incorrectas.

ChatGPT no es inteligente

Después de la definición de IA según el Dr. RGPD, ChatGPT es inteligente. Esta definición de IA dice:

ChatGPT también es inteligente según Alan Turing, brillante matemático durante la Segunda Guerra Mundial y codificador de la máquina codificadora Enigma: ChatGPT supera la prueba de Turing. Esta prueba comprueba si las respuestas de una máquina son indistinguibles de las de un ser humano. Al contrario: ChatGPT proporciona a menudo (casi siempre, podría decirse) respuestas significativamente mejores que las de un ser humano inteligente medio.

La nueva definición de la regulación de inteligencia artificial define a ChatGPT (esperemos) también como inteligente. Ver Artículo 3 del Acto AI del 12.07.2024.

¿Qué es la inteligencia? Acabamos de dar la definición de inteligencia artificial. Basta con suprimir dos veces el atributo "artificial" de la definición. Ya tenemos la definición de inteligencia. El ser humano no tiene el monopolio de la inteligencia, aunque a muchos les gustaría que así fuera.

La inteligencia se basa en criterios humanos

Mucha gente piensa que la inteligencia es algo que determinan los humanos. En una definición ahora revisada de lo que es la inteligencia artificial, el Reglamento sobre IA de la UE afirmaba que la inteligencia artificial debe alcanzar objetivos "fijados por los humanos…".

No hay una sola razón para este concepto erróneo. Los seres humanos son irrelevantes a la hora de determinar qué es la inteligencia. Hasta ahora, a lo sumo podían servir de vara de medir. Probablemente esto ya no será así en el futuro.

Por cierto, el comportamiento inteligente también se atribuye a algunas especies animales. Evidentemente, los animales no son seres humanos.

ChatGPT es la mejor solución

Depende de para qué sirva. ChatGPT suele ser un gran motor de respuestas para tareas cotidianas. Esto es especialmente cierto para el conocimiento del mundo o tareas comunes, que también se reflejan en los datos de entrenamiento de ChatGPT.

ChatGPT parece inadecuado para todas las tareas concretas que deben procesarse de forma razonablemente profesional. Un ejemplo: resumir un texto sin alucinaciones. Otro ejemplo: encontrar conocimientos.

ChatGPT ciertamente no puede y no quiere raspar una gran parte de Internet o un sitio web para usted. Al fin y al cabo, o "sólo" pagas con tus datos y los de los demás. O pagas 20 dólares al mes o una mísera cantidad por llamada a la API.

Por tanto, ChatGPT sólo puede acceder a contenidos ya conocidos o desconocidos y de pequeño volumen. El término "pequeño volumen" se refiere al número de documentos o sitios web.

ChatGPT no es una buena solución para tareas como la digitalización de documentos, ya que en este caso hay que tener en cuenta muchas características especiales.

ChatGPT es malo

Depende de para qué. ChatGPT no es un motor de búsqueda. Si utilizas el sistema de forma contraria a su propósito, no deberías sorprenderte de las respuestas mediocres. Un sistema de IA tampoco está diseñado para contar las letras de una palabra.

Una IA es buena resolviendo tareas complejas de forma creativa. La misma IA es mala realizando trabajos precisos. Igual que los humanos!

La formación en IA es cara

Es cierto que el entrenamiento de grandes modelos lingüísticos como ChatGPT es muy caro y lleva mucho tiempo.

Sin embargo, también es cierto que es posible entrenar tus propios modelos lingüísticos de IA de forma muy barata. La razón es que estos modelos personalizados están especializados para casos de uso específicos. En muchos casos, es posible entrenar estos modelos en un portátil o en tu propio servidor de IA en tan solo unas horas.

Como sus propios ordenadores de IA suelen estar encendidos y funcionando de todos modos, los costes de formación de la IA son nulos.

Por lo tanto, la formación en IA es posible de forma gratuita en la mayoría de los casos.

La inferencia es cara

La inferencia es el cuestionamiento de un modelo de IA, como chatear con un modelo lingüístico como ChatGPT.

Es cierto que los grandes modelos lingüísticos como ChatGPT requieren docenas o incluso cientos de servidores al mismo tiempo para generar una respuesta a su pregunta. Eso es caro.

Sin embargo, también es cierto que consultar un modelo lingüístico de inteligencia artificial no cuesta nada.

Esto significa que los costes de inferencia son cero en la mayoría de los casos. No nos importa lo que OpenAI paga por sus servidores, igual que a OpenAI no le importa lo que nosotros pagamos por nuestros ordenadores.

Microsoft Azure y ChatGPT son seguros

Muchas venden su "solución" como innovadora. Una banca incluso ha hablado de la introducción de una propia (privada) Inteligencia Artificial, pero se refiere a Microsoft Azure. Azure es lo contrario de seguro. Microsoft mismo es objeto de numerosos ataques de hackers. Además, hay que constatar que Microsoft no le otorga a la seguridad la prioridad más alta.

Luego está la enorme avidez de datos de Microsoft. El nuevo Outlook quiere recuperar los correos electrónicos de los clientes para sus propios fines; Windows envía constantemente datos de los usuarios a Microsoft, etc.

Microsoft Copilot sei gut

Las primeras pruebas demuestran lo contrario. Copilot debe resumir un texto. La instrucción (prompt) para ello era muy sencilla y sin ambigüedades. El texto se dio directamente. La longitud del texto era bastante corta porque el campo de entrada de la interfaz web de Copilot no permitía más.

El informe de prueba con capturas de pantalla revela que Copilot parece ser completamente inútil para algunas tareas. Incluso en una consideración benevolente, no logra sacar algo positivo de los resultados de Copilot. La resumen de un extracto de un artículo del blog Dr. RGPD era tan falso que un ser humano se avergonzaría. Copilot inventó numerosas afirmaciones simplemente y completó la tarea asignada completamente nada.

En su lugar, Microsoft está haciendo en cada lugar como si Copilot fuera una excelente solución y las respuestas fueran utilizadas directamente de esa manera. En ninguna parte se podía leer que alguna respuesta podría ser incorrecta o algo similar.

Modelos lingüísticos basados en estadísticas

Sí, así es. Así es exactamente como funciona la gramática. Así es exactamente como funciona la inteligencia. Véase el cerebro humano. Los modelos lingüísticos no se entrenan igual que los humanos, que dan más pasos para dar una respuesta.

Toda nuestra existencia se basa en probabilidades: Compárese con la desintegración radiactiva o, más en general, con la física cuántica. Todo se basa en el azar. Todo. Si es necesario, pregunte a alguien que sepa algo de física cuántica.

No importa por qué un sistema sea inteligente. Lo que cuenta son únicamente los resultados. A quien todavía crea que el cerebro humano no es "hackbar", le puedo enviar un informe sobre un cerebro de rata artificial, pero parece que se logró simular movimientos y las actividades correspondientes del cerebro a través de una simulación.

La IA puede utilizarse respetando la ley

En teoría, esto puede ser así. En la práctica, surgen algunas dudas:

  1. ¿De dónde proceden los miles de millones o incluso billones de registros de datos que se han introducido en un sistema de IA para su entrenamiento?
  2. Con servicios en la nube como ChatGPT o Azure, se plantea la cuestión de si las condiciones legales son suficientes.
  3. ¿Puede cumplirse el artículo 44b de la UrhG (Ley alemana de Propiedad Intelectual)?
  4. ¿Cómo se pueden eliminar datos de un modelo de IA existente?

La pregunta 3: El legislador alemán exige que los Crawler solo puedan leer el contenido de las páginas web si el propietario de la página no se ha opuesto. Se supone que el rechazo debería estar, según Alemania, en el Impresum o en los Términos y Condiciones. Esto es completamente impracticable desde un punto de vista técnico y no es realizable. Los Crawler no entienden las formulaciones de rechazo en lenguaje natural. No hay Crawler basados en Inteligencia Artificial. Solo hay Crawler tontos que proporcionan contenido para sistemas que deben volverse inteligentes o ya lo son. La archivo robots.txt sería una buena solución. Lamentablemente, Alemania ha pasado por alto esta solución. Además, el propietario del Crawler debería poder demostrar más tarde que NO HABÍA un rechazo. Esto es poco práctico y en la práctica no se puede hacer. Por lo tanto, el recopilado de contenido de las páginas web alemanas siempre sería un gran riesgo legal y a menudo estaría prohibido.

La pregunta 1: Los datos provienen de Internet. Los textos, las imágenes y otros trabajos están protegidos por derecho de autor en sí mismos. La protección del derecho de autor surge automáticamente al crear un trabajo siempre que el trabajo tenga la altura creativa necesaria. Por lo tanto, estos contenidos pueden no ser leídos en absoluto (ver pregunta 3) o sólo hasta que el titular de los derechos les niegue su permiso. Las AI generativas producen resultados potencialmente protegidos por derecho de autor y, por lo tanto, ilegales. Porque solo la lectura podría haber sido permitida, pero no la creación de respuestas de AI.

La eliminación de datos en modelos de IA no es posible con certeza. Un modelo de IA debe seguir funcionando ilegalmente si alguien quiere que sus datos ya no estén visibles en el modelo (o al menos en las respuestas del modelo).** Lanzar un modelo de IA y reentrenarlo no es una opción para modelos gigantescos como ChatGPT, ya que sería demasiado caro y demasiado laborioso. Nuevas solicitudes de eliminación prolongarían el proceso hasta lo infinito. Sin embargo, para la IA en línea no existe este problema.

Sobre la pregunta 2: Consulte más arriba para Belege, por qué Microsoft y sus plataformas se consideran inseguras. Además, vienen los documentos legales que Microsoft y OpenAI imponen a los usuarios. Se plantea la cuestión de quién revisa estos documentos con orden y qué pasa si se encuentra un defecto. El discutir problemas puede ser una táctica popular, pero no resuelve el problema real. Además, Microsoft, como muestran muchos ejemplos prácticos (datos de Telemetría de Windows, nuevo Outlook con gran apetito por datos y acceso a correos de clientes mediante credenciales de cliente…), quiere recopilar mucha información y nada más. ¿Por qué confiar en estas empresas? No hay razón para ello.

La IA es un algoritmo

"Un algoritmo es […] una prescripción de acción única para resolver un problema o una clase de problemas." (Fuente: Wikipedia, negrita aquí agregada).

Un sistema de Inteligencia Artificial se basa en una red neuronal. Si bien esto puede ser calificado como algoritmo en sentido estricto, es más que cuestionable. Sin duda alguna, una red neuronal no lo es para el observador humano, sobre todo cuando se trata de redes profundas (por eso también el término del Aprendizaje Profundo).

Al fin y al cabo, los humanos tampoco se describen como algoritmos. Su cerebro también está formado por una red neuronal.

Por lo tanto, se debería rechazar la afirmación de que un sistema de inteligencia artificial es un algoritmo, a una consideración estricta. En Wikipedia, por otro lado, no se equipara un sistema de inteligencia artificial con un algoritmo. Más bien, se le atribuye el progreso del entrenamiento a un algoritmo, lo cual es plausible porque esta mejora de la red neuronal durante el entrenamiento sigue reglas de cálculo claras y determinadas.

Si crees que la IA es un algoritmo: Por favor, comparte un caso en el que creas que la solución automatizada de un problema NO es un algoritmo. Tenemos curiosidad!

La IA es una herramienta

Eso es tan cierto como decir que "un coche es un montón de materia" o que "las cookies son archivos". Entonces todo o nada sería una herramienta. El contenido informativo sería entonces cero. Así que la afirmación no es útil.

Algunos llaman a AI-gestützte Tools cuando hablan de AI como herramienta. Las imprecisiones lingüísticas, en cualquier caso, no conducen a una mejor comprensión.

En cualquier caso, la inteligencia no es una herramienta, sino una propiedad (sobresaliente) de un sistema.

Los modelos lingüísticos no podían deducir lógicamente

Fakt es: Los modelos de lenguaje pueden resolver preguntas matemáticas extremadamente complejas mejor que casi cualquier persona en la Tierra. Supongamos que un sistema de Inteligencia Artificial lo hace leyendo todas las posibles formulaciones del problema y aprendiendo de ellas. Entonces ya se ha utilizado la palabra "aprender". Si nos quedamos con "leer", entonces es posible que el sistema de IA pueda resolver todos los problemas, conocidos o desconocidos, siempre y cuando sean similares a los problemas conocidos. ¿Dónde está la diferencia con la mayoría de las personas?

Una de las tareas de AIMO. Se muestra la respuesta de un sistema de IA, que también proporcionó la solución. Fuente: véase el siguiente enlace.

Por favor lean las tareas matemáticas que se han presentado a los sistemas de Inteligencia Artificial en la Olimpiada de Matemática AI (AIMO). Si bien pueden entender estas tareas, son evidentemente un pequeño porcentaje de la población mundial que puede considerarse con un profundo conocimiento matemático.

Por cierto, el autor de este artículo pudo resolver con la ayuda del mejor modelo matemático una tarea matemática muy exigente, sobre la que solo sabía (de un matemático) que se puede resolver mediante ecuaciones diophánticas. No tengo ni idea de qué son las ecuaciones diophánticas. El enigma trata de marineros y cocos y es probable que nadie en el planeta haya podido resolverlo por sí mismo (en términos porcentuales). Para ello se introdujo el largo texto alemán (!) de la tarea en el modelo matemático inglés. La respuesta de la IA fue incorrecta, pero el camino hacia la solución que intentó era tan cercano a la solución que con muy poco esfuerzo se pudo encontrar la solución correcta por mano.

Los tokens no son datos reales

Más concretamente: hay quien piensa que, por el mero hecho de que los textos se almacenen como números en los modelos lingüísticos, éstos no almacenan datos originales.

Sprachmodelos guardan texto en forma de series numéricas (vectores). Para ello se descomponen palabras en fragmentos, que se llaman tokens. Cada token corresponde a un número. Esta asignación de fragmentos de palabra a números es única para cada modelo de lenguaje y está establecida en un diccionario (vocabulario**) específico. Este vocabulario se adjunta como archivo de texto con cada modelo de lenguaje y puede ser revisado y evaluado en cualquier momento.

La secuencia numérica 4711, 0815, 9933 podría corresponder a la secuencia de letras Maxi, mi, lian. Obviamente, las cifras se pueden remitir a palabras. Por lo tanto, las series numéricas son personales si los caracteres codificados representan datos personales. También son personales los datos que indirectamente se derivan de una persona (vgl. Art. 4 Núm. 1 RGPD).

Además, los modelos de lenguaje forman su salida a través de valores de probabilidad acumulados de tokens. No se consideran solo dos tokens, sino una cadena completa de tokens. Un parámetro técnico que regula esto se llama top_p.

Por lo tanto, el documento de la tesis de Hamburgo (véase más abajo) es fundamentalmente erróneo. Parece haber sido redactado así para legalizar todos los sistemas de IA, la mayoría de los cuales probablemente sean ilegales.

Los modelos lingüísticos de IA no almacenarían datos personales

La argumentación del HmbBfDI va así: Es sería extremadamente difícil extraer datos personales de modelos lingüísticos. El TJCE dijo que la reconstrucción de un enlace a una persona solo puede considerarse posible si los medios y esfuerzos necesarios para ello están dentro del marco habitual. El HmbBfDI dice que sólo con una sofisticada ataque a la privacidad ilegal podrían extraerse datos personales de modelos lingüísticos. Debido al enorme esfuerzo necesario, según la jurisprudencia del TJCE no son datos personales.

He aquí un sencillo contraejemplo que refuta fácilmente el HmbBfDI:

Consulta a ChatGPT y respuesta de ChatGPT. Estado: 15.07.2024

Modelos lingüísticos almacenan datos de todas las personas igual. Incluso aquellas que no son personalidades públicas se almacenan en el modelo lingüístico, y es así durante su pre-entrenamiento sobre los datos de entrenamiento. Los datos de entrenamiento están compuestos por muchos miles de millones de documentos. Es poco probable que allí solo aparezcan Angela Merkel o otras personas completamente públicas que parecen tener menos derecho a la privacidad que el ciudadano normal.

Es es incluso posible, citar completos desde un modelo de lenguaje sacar. El artículo enlazado anteriormente también demuestra que en LLMs muy bien datos personales están. En contraste con la suposición del HmbBfDI son todos los grandes modelos de AI parte de un sistema de AI. Esto significa: Un sistema de AI puede interpretar y convertir a texto las números, de las cuales un modelo de AI está compuesto. Tener solo un modelo de AI en la unidad de disco duro sin la capacidad de interpretación sería ingenuo. Este caso ingenuo no existe en ChatGPT o GPT-4o. Existe sólo en modelos de lenguaje Open Source, pero incluso así solo teóricamente. Porque basta con descargar una biblioteca de programación muy extendida para poder interpretar el contenido del modelo. Lamentablemente, el HmbBfDI ha construido una diferencia técnica entre ChatGPT y GPT-4o que no existe.

En sí mismo, no importa:

  1. Si se utiliza un LLM, suele haber datos personales. Si estos se ponen en circulación, la persona que lo haga será responsable.
  2. Si no se utiliza un LLM, normalmente no importa qué datos contenga. Nadie lo ve.
  3. Así que no se trata principalmente de almacenamiento.

No puede existir la inteligencia artificial general

Esta clase de inteligencia también se conoce como AGI. AGI significa Artificial General Intelligence. Estamos apenas al comienzo. Obviamente, no son frecuentes las observaciones de robots inteligentes que vagan por la historia del mundo.

La verdad es que pocos negocios en solitario ya están invirtiendo miles de billones de dólares en la construcción de robots inteligentes. Para ello se necesita:

  1. Un robot (ya existe, cada vez mejor).
  2. Un cerebro electrónico (ya existe, cada vez mejor).
  3. Alguien que ponga la caja de cerebros (ordenador con IA) en el robot (este alguien ya está ahí).

Existen ya estas tres componentes. Sistemas de aprendizaje autónomos existen evidentemente. Mira a ChatGPT o NuminaMath (más abajo). Solo es cuestión de tiempo hasta que los robots aprendan a dominar mejor nuestro mundo de lo que alguien podrá hacerlo nosotros mismos.

Sólo dentro de muchos años la IA sería dominante

La falsedad de esta suposición no puede demostrarse, como tampoco las afirmaciones de la sección anterior sobre la AGI. El tiempo lo dirá.

La realidad es que el desarrollo de la Inteligencia Artificial avanza a velocidad de luz. Lo que no era posible hace dos semanas, ahora lo es. Esto se aplica especialmente a los avances en modelos de lenguaje de código abierto. El mencionado AIMO fue ganado por un modelo de código abierto llamado NuminaMath. Respondió correctamente 29 de 50 problemas matemáticos más difíciles que se presentaron en forma de texto.

Google afirma, por cierto, que un avance en la robótica se ha logrado con ayuda de un modelo de lenguaje.

Predicción del Dr. RGPD: Dentro de 10 o 15 años, habrá robots corriendo por ahí que supondrán una seria amenaza para la humanidad. También podrían ser 5 años (habría que ser un experto en robótica para saberlo con seguridad). Pero desde luego no pasarán otros 35 años antes de que tengamos que preocuparnos seriamente por nuestra existencia debido a la superioridad de la IA. Si tienes hijos, este artículo predice que moldearán el final de sus vidas de una forma distinta a la que les conviene.

Resumido

He aquí las afirmaciones más importantes en su forma correcta:

  • ChatGPT es un sistema inteligente muy superior a los humanos para muchas tareas.
  • La inteligencia es independiente de las personas.
  • La inteligencia artificial es la inteligencia en un sistema artificial. Puede definir usted mismo lo que es artificial (no importa).
  • Preguntar a modelos de lenguaje cuesta nada. Eso es válido para AI Offline, es decir, modelos de lenguaje autónomos.
  • El entrenamiento de modelos de Inteligencia Artificial no cuesta nada. Esto es válido para el entrenamiento en hardware propio o hardware alquilado. Esta hardware está encendida de todos modos. Si un entrenamiento de IA corre sobre ella o no, es igualmente irrelevante para los costes del hardware.
  • La AI no es un algoritmo, sino una solución ininteligible para muchos problemas.
  • Microsoft Copilot es un sistema inútil. En cualquier caso, esto es cierto incluso para las tareas estándar más sencillas que cualquier IA offline puede hacer mejor.
  • La nube Azure no es segura. Así lo demuestran numerosos incidentes en los que Microsoft no brilló especialmente.
  • La IA se convertirá en una amenaza para la humanidad en pocos años. O como dijo Sam Altmann, de OpenAI: "La IA nos matará a todos. Pero hasta entonces, será increíblemente útil"."

Si desea introducir una propia Inteligencia Artificial (IA Offline) en su empresa, es importante saber lo siguiente:

  • Una IA offline puede optimizarse. Ofrece mejores resultados que ChatGPT para muchos casos de uso. Esto también se debe a que su sistema solo funciona para usted y no tiene que funcionar para millones de otros usuarios.
  • Una IA fuera de línea ofrece un control total de los datos. Todo RPD está encantado de tener una IA offline.
  • El funcionamiento de una IA offline es barato, ya sea comprando un servidor de IA o alquilando un servidor de este tipo en un centro de datos alemán a un proveedor alemán.
  • Una IA offline puede recuperar datos de Internet o comunicarse con otros sistemas informáticos.

¿Cuáles son sus preguntas o puntos de vista?

Mensajes clave

La inteligencia artificial (IA) como ChatGPT es realmente inteligente y supera a la capacidad de un humano promedio en muchas tareas.

ChatGPT es útil para tareas cotidianas y conocimiento general, pero no es adecuado para tareas complejas que requieren precisión o acceso a información en tiempo real.

Microsoft Azure y ChatGPT no son seguros y pueden poner en riesgo la privacidad de los usuarios.

Eliminar datos de modelos de IA es muy difícil, casi imposible, y no existe una solución segura y práctica.

La inteligencia artificial no es simplemente un algoritmo, ya que aprende y resuelve problemas complejos de manera similar a los humanos.

Los modelos de lenguaje de IA almacenan datos personales, incluso de personas comunes, durante su entrenamiento.

La inteligencia artificial avanza rápidamente y en el futuro podría representar una amenaza para la humanidad.

La inteligencia artificial (IA) se volverá una amenaza para la humanidad en pocos años, pero antes de eso será muy útil.

Acerca de

Sobre el autor
Me llamo Klaus Meffert. Soy doctor en informática y llevo más de 30 años dedicándome profesional y prácticamente a las tecnologías de la información. También trabajo como experto en informática y protección de datos. Obtengo mis resultados analizando la tecnología y el Derecho. Esto me parece absolutamente esencial cuando se trata de protección de datos digitales.

WHOIS: ¿A quién pertenece una determinada dirección de Internet y qué problemas de protección de datos se derivan de ello?