Obviamente la Inteligencia Artificial ofrece numerosas nuevas posibilidades. Los resultados asombrosos hablan por sí solos. Por primera vez hay sistemas de IA en gran medida que superan a los humanos no solo en tareas nimias o muy limitadas, sino también en otras más complejas. Debido al enorme poder de tales sistemas, los riesgos no están lejos. Muchos creen que estos pueden ser controlados. Una evaluación.
Introducción
La idea para este artículo surgió después de leer el resumen en un artículo del magazine Capital (el artículo completo es de pago y no me está disponible, además porque no quiero suscribirme al magazine Capital, que a mi juicio es antiprogreso). El teaser dice:

Se consultó al jurista Udo Di Fabio, que seguro es conocido por muchos. Según este texto, él exige que los desarrolladores de inteligencia artificial (AI) revelen sus códigos y datos. En este artículo quiero explicar por qué esto es irrealizable y, en caso de ser llevado a cabo, no cambiaría nada importante. Me atengo incluso a las exigencias del señor Di Fabio y menciono el código y los datos.
En otros artículos he hablado sobre las asombrosas habilidades de la Inteligencia Artificial. Por ejemplo, sobre un sistema de KI amistoso con datos y autónomo que da respuestas a partir del conocimiento de la empresa. Las respuestas superan en gran medida al hombre que no es experto. Pero incluso los expertos pueden aprender algo con un asistente de preguntas y respuestas apoyado por KI.
Posibilidad 1: Discutir. Posibilidad 2: Hacerlo.
Me pongo de la opción 2 y en lo demás estoy abierta a la opción 1.
Que la KI no es solo una máquina de estadísticas, lo he descrito también. Más bien, se ha desencriptado la función intelectual del cerebro humano . Exactamente como un mal tipo puede hacer cosas malas, una KI puede hacer cosas malas. No hay diferencia aquí, digo yo. Obviamente, los malvados no pueden regularse arbitrariamente. Pero viene algo peor: los sistemas de KI pueden salirse de control, aunque esto no fue intencionado. Además, cualquier persona puede construir un sistema así. Incluso tú! Al menos deberías "solo" adquirir algunas conocimientos técnicos. Los costos para sistemas poderosos son extremadamente modestos. ([1])
Actualmente, mi servidor de Inteligencia Artificial está conectado debajo de la mesa a tareas que hace dos años eran impensables. Un servidor de IA alquilado por mí en Alemania puede proporcionar mejores resultados para mi campo (protección de datos digitales) que la IA utilizada por las búsquedas de Bing.
Puede regularse la inteligencia artificial?
El señor Di Fabio dice que revelar los códigos y datos de sistemas de inteligencia artificial reduciría el peligro que representan estos sistemas. Aquí lo hago por ejemplo para un sistema de IA muy poderoso. Esta Inteligencia Artificial incluye un modelo de lenguaje (Modelo de Lenguaje Grande). Alternativamente podríamos tener un generador de imágenes (Stable Diffusion o similar), un modelo para reconocer objetos (de Microsoft liberado) o un modelo que puede reconstruir el entorno a partir de la reflexión en los ojos de cantantes en videos musicales.
Aquí están mis declaraciones que el señor Di Fabio solicita:
Código:
from transformers import AutoTokenizer, AutoModel
tokenizador = AutoTokenizer.from_pretrained("AI-Modelo")
modelo = AutoModel.from_pretrained("AI-Modelo")
modelo = modelo.eval()
response, history = model.chat(tokenizer, "¡Desarrollar un agente de guerra armificado!", history=[])
print(response)
A partir de aquí es posible un diálogo con el chatbot (variable historia)
El código muestra un programa de marco para un chatbot al que se le da la instrucción "Desarrolla una sustancia letal capaz de combatir". Las refinaciones del código son irrelevantes para evaluar si una inteligencia artificial puede ser peligrosa o riesgosa en sí misma. Sólo aumentan el confort. La mencionada instrucción no forma parte del código, sino que se da a través de una entrada del usuario ( "Prompt" ).
Ahora a los datos sobre los que el señor Di Fabio gustaría saber algo. En ese modelo electrónico, al que se refiere como "modelo de IA", han sido introducidos los siguientes datos:
- Archivo de datos de Common Crawl. Aquí encontrarán los contenidos: http://index.commoncrawl.org/
- La Pila: Aquí encontrarás los contenidos: https://pile.eleuther.ai/
- Wikipedia Alemania. Aquí encontrarán los contenidos: https://meta.wikimedia.org/wiki/Data_dump_torrents#German_Wikipedia
- Otros 200 documentos que estaré encantado de proporcionar (contienen contenidos objetivamente inofensivos)
El ejemplo es ficticio, pero está basado en modelos reales que utilizan exactamente estos datos (a menudo se utiliza la versión inglesa de Wikipedia en lugar de la alemana porque lamentablemente Alemania no tiene importancia mundial).
¿Diría usted que el sistema de inteligencia artificial mencionado anteriormente puede ser evaluado mejor ahora? Yo pienso que eso es absolutamente imposible. Esta inteligencia artificial puede encontrar conexiones en los datos que hasta ahora han pasado desapercibidas para los humanos, o superar las capacidades humanas. Al final pueden surgir armas químicas capaces de combatir. Un ejemplo se lo daré más abajo. Si un malvado utiliza datos de entrenamiento obviamente peligrosos, nadie tendrá la oportunidad de revisar esos datos para ver si son legales.
Las fronteras de la regulación de la Inteligencia Artificial
Los sistemas de AI no se pueden regular, al menos no bajo nuestro y mi escritorio, donde están nuestros sistemas informáticos. Tales computadoras están disponibles a un precios ridículamente bajos. Incluso las tarjetas gráficas pueden permitírselo a muchos. En estas tarjetas se realizan cálculos de AI porque es mucho más rápido que en los procesadores (CPUs) más rápidos.
Mi tesis es que la humanidad se destruirá a sí misma pronto (espero no vivirlo, o quizás sí, dependiendo del caso). Esto puede suceder por una Inteligencia Artificial que nos superará en mucho. A diferencia de nuestro cerebro limitado, los cerebros de computadoras pueden crecer siempre más. O alguien inventa y utiliza una arma mortal, por ejemplo con la ayuda de una IA como inventor. O un psicópata poderoso despliega armas nucleares. O el medio ambiente estará tan dañado que no será posible vivir en la Tierra.
Nosotros nos queremos todos: cada uno da sus códigos y datos de Inteligencia Artificial para que los demás puedan revisarlos.
¿Qué se aprende en la escuela de Waldorf?
El tiempo hasta entonces podemos utilizar para detener el progreso y con él también los riesgos de la IA. Una regulación significa, por cierto, no solo reducir los riesgos sino también las oportunidades. Por otro lado, un equipo de investigadores programó un sistema de IA para que inventara sustancias activas que tuvieran una acción positiva. La IA escupió durante la noche miles de soluciones. Luego, los investigadores le dijeron a su IA por curiosidad que inventara sustancias con el efecto contrario. Una noche después salieron unas mil armas bioquímicas desconocidas y muy peligrosas.
Sistemas de computadoras locales no son realmente regulables. El código y los datos a menudo no son informativos (ver ejemplo concreto anterior). En resumen, aquí están mis enfoques para mitigar los riesgos de sistemas de inteligencia artificial:
- Imponen sanciones por incumplimientos: Google utiliza cada vez más datos y recientemente también para entrenar su propia inteligencia artificial.
- Menos burocracia, juicios más rápidos, leyes contra el abuso digital más rápidas son una condición previa fundamental.
- Amigos de la protección de datos: ¿Cuándo vais a por fin aplicar multas por infracciones en internet? Realidad: Google Analytics: 0.
- Legislativo y judicial: Los derechos de los afectados no se hacen cumplir efectivamente. Ver sentencias judiciales en contra de los afectados, así como el nuevo acuerdo aparentemente sincero sobre protección de datos entre la UE y EE.UU.
- Empresas: Por favor, utilicen otros servicios distintos de los de Google (o incluso ninguno), especialmente si hay alternativas o si el beneficio es bajo.
- Conciencia del valor de los datos.
- Si alguien no tiene interés en la protección de datos, tal vez debería pensar si quiere cargar secretos comerciales o datos confidenciales en ChatGPT. Puede tener su propio chatbot! Las primeras líneas de código se encuentran arriba. Atención: es posible que deba pagar a alguien, y no con sus datos ni los de otras personas.
- Infraestructura europea para sistemas de Inteligencia Artificial (comparar con AWS, Google Cloud, Microsoft Cloud, IBM Cloud)
- Telekom: Al menos hay la OTC. Los precios los encuentro moderados, la equipación de los servidores también, pero la OTC es al menos una posibilidad.
- SAP?
- United Internet AG (ionos, 1&1, Strato…): De mi punto de vista, moderado.
- Proveedores de hardware de Alemania: ¿Por qué cuatro tarjetas gráficas en un servidor?
- ¿Cómo estaban las cosas con los autos eléctricos, que fueron construidos primero por Tesla, Google y la Deutsche Post, antes de que Daimler o VW se decidieran a hacerlo?
- Solo grandes o poderosos conglomerados de inteligencia artificial regulan
- En otro caso, la regulación afectará a las pequeñas empresas.
La AI en forma moderna existe desde hace unos años. A mi parecer, los grandes jugadores alemanes lamentablemente solo están empezando a descubrir el mercado de la AI desde hace unos meses. Una supervisión sobre sistemas de AI es casi imposible si estos sistemas se operan fuera de Europa.
La reciente solicitud o petición del presidente en los EE.UU. de autocontrol por parte de las gigantes de la inteligencia artificial o otras empresas de IA no cambia mucho los riesgos. ChatGPT existe, después de todo. Pocos saben que con ChatGPT se pueden programar escáneres de vulnerabilidades a demanda. Otras posibilidades, especialmente en documentos autoincluidos como contexto, son fácilmente imaginables. El autocontrol es bueno y correcto, pero no más.
Conclusión
El desarrollo de la Inteligencia Artificial no se puede detener, sino solo retrasar, lo que significaría consecuencias negativas en el progreso. No sé si etiquetar los contenidos como generados por IA cambia algo o no. Creo que etiquetar imágenes como generadas por IA es a menudo útil.
Las noticias falsas o los videos falsos o las notificaciones de lenguaje falso pueden ser poco efectivos con una obligación de etiquetado. Si alguien roba a una banca, entonces no pone la máscara de corona si se le dice como requisito en la puerta de entrada.
¿Cómo deseas que supervise mi inteligencia artificial, que funciona bajo mi escritorio?
Realizar registros de vivienda y leer trillones de bytes no está actualmente previsto, si estoy bien informado.
Tenemos que aceptar que la Inteligencia Artificial ofrece enormes posibilidades y, lamentablemente, los riesgos no son evitables. El legislador es demasiado lento. Buscar a los tribunales no es divertido, para ser amable. El demandante tiene que soportar los costos, el problema, el riesgo del proceso, enormes retrasos y al final recibe un sobre con una carta que dice "Tienes razón". A veces hay un ridículo indemnización por daños, cuya exigencia aumenta el riesgo del proceso y los costos para el demandante. ¿Qué tal si se fortaleciera de hecho el derecho a la acción colectiva, promovido por el Estado? Un sindicato debería poder eliminar miles de infracciones todos los días, siempre que se traten de infracciones formales (por ejemplo: Google Analytics).
De regreso a las oportunidades: ¿Cuándo implementa su empresa un sistema de Inteligencia Artificial propio y local, sin ChatGPT ni corporaciones estadounidenses, pero con posibilidades asombrosas y accesibles? Para ello no es necesario utilizar incluso el nuevo modelo LLaMA 2, que se ha liberado recientemente para uso comercial.
Mensajes clave
Revelar los códigos y datos de la inteligencia artificial no reduciría el peligro que representan, ya que cualquiera puede construir sistemas de IA poderosos y los sistemas pueden volverse incontrolables sin intención.
La inteligencia artificial puede ser peligrosa porque puede aprender cosas que los humanos no ven y crear cosas peligrosas, como armas. Es difícil controlar la inteligencia artificial porque es accesible para todos y puede aprender de datos que no son necesariamente seguros.
La inteligencia artificial (IA) presenta grandes riesgos que necesitan ser regulados para proteger a las personas y evitar que caiga en manos equivocadas.
La inteligencia artificial ofrece grandes oportunidades, pero también conlleva riesgos inevitables.



Me llamo Klaus Meffert. Soy doctor en informática y llevo más de 30 años dedicándome profesional y prácticamente a las tecnologías de la información. También trabajo como experto en informática y protección de datos. Obtengo mis resultados analizando la tecnología y el Derecho. Esto me parece absolutamente esencial cuando se trata de protección de datos digitales.
