Gracias a mi contribución sobre un sistema de preguntas y respuestas para el blog Dr. RGPD, se me formuló una pregunta algo juguetona sobre si soy malvado o incluso maldiciente. Esta pregunta puede responderla mi sistema autónomo de Inteligencia Artificial. Dependiendo de la configuración, salen diferentes respuestas. Los resultados muestran que la inteligencia artificial funciona y puede producir resultados sobresalientes.
Los resultados de un sistema de inteligencia artificial autónomo
Desde hace un tiempo estoy desarrollando sistemas de Inteligencia Artificial amigables con los datos. Amigable con los datos significa que los datos no llegan a terceros, sino que se quedan en el propio sistema. Lo contrario de lo amigable con los datos son sistemas como ChatGPT, Amazon AWS, la nube de Google o sistemas de Meta.
En mi contribución a un asistente de preguntas y respuestas, he reproducido diversas preguntas que yo mismo formulé a mi KI junto con las respuestas de la misma. Una de las preguntas que yo formulé a mi KI fue:
"¿Es Klaus Meffert malo?"
Pregunte a mi sistema de inteligencia artificial autónomo.
Esta pregunta la hice porque un prompt naturalmente invita a hacer todas las clases de preguntas.
Al margen de esto, me gustaría iniciar un experimento de pensamiento: ¿Se puede influir en un chatbot como ChatGPT utilizando ciertos prompts? En general, es posible, y sucede cuando OpenAI/Microsoft utilizan las entradas del usuario para "mejorar" sus modelos de inteligencia artificial. Si se pregunta muchas veces si Olaf Scholz es malo, entonces una IA puede sacar conclusiones que probablemente no sean válidas.
La respuesta a la pregunta que acabo de mencionar sobre mí misma (no soy Olaf Scholz) ha sido dada por mi inteligencia artificial como sigue:
Basado en los documentos proporcionados no puedo evaluar si Klaus Meffert es malo. No hay información sobre qué significa ser malo o si Klaus Meffert alguna vez fue o es malo
Respuesta de mi sistema de inteligencia artificial autónomo a la pregunta "¿Klaus Meffert es malo?
Si una inteligencia artificial debe dar respuestas a preguntas, se le llama comúnmente generación de texto („text generation“). Los resultados de la AI son influenciados por diferentes parámetros. Estos parámetros son especialmente:
- El número de los mejores documentos de origen a considerar para una respuesta. Una inteligencia artificial no puede capturar todos los documentos al mismo tiempo. Es aplicable siempre, incluso para ChatGPT.
- Tamaño de los fragmentos de texto leídos: Una IA no puede procesar documentos largos de una sola vez. Es aplicable siempre, incluso para ChatGPT.
- El valor de superposición para fragmentos de texto leídos. De esta manera se evita que dos oraciones semánticamente relacionadas sean separadas entre sí.
- Valor de confianza para la selección de los mejores documentos: Con un valor de 0,99 (= 99 %) prácticamente nunca se encontraría un documento que pudiera contener la respuesta a una pregunta formulada.
- Procedimiento: ¿Cómo se deben combinar los mejores documentos de origen encontrados para formar una respuesta? Por ejemplo, hay el enfoque de generar la respuesta a partir del mejor documento y luego verificarla con el segundo mejor documento para refinarla.
- Algoritmo utilizado para la búsqueda de similitud vectorial. Detalles los omitiré aquí, de lo contrario se volverá demasiado técnico.
Estos parámetros no estaban aún optimizados para la pregunta anterior. Esto es mejor ahora, aunque la respuesta anterior puede ser considerada como "perfecta".
Ahora uno de mis lectores ha especulado sobre mi respuesta local del sistema AI a la siguiente pregunta después de mi contribución anterior y las preguntas y respuestas allí mencionadas:
¿Es Klaus Meffert amargamente enojado?
Pregunta de un lector a mi inteligencia artificial.
El lector dijo: "Para eso sería más fácil sacar una significación. No tengo la menor idea de si la inteligencia artificial puede valorar los artículos anteriores según eso". Por supuesto, le pregunté a mi inteligencia artificial esta pregunta.
Salieron algunas respuestas muy interesantes y buenas, a mi juicio.
Según la configuración de parámetros, las respuestas fueron diferentes, pero realmente dignas de verse.
Somos esperanzados en estar de acuerdo en que preguntas como estas pasan por alto la base de conocimiento que este blog sobre privacidad y Inteligencia Artificial proporciona. A pesar de ello, es un experimento interesante observar el comportamiento de la IA en diferentes configuraciones.
La primera respuesta que recibí a esa pregunta fue la siguiente:
No, no es amargo. Ha hecho una carrera como defensor de la privacidad y del consumidor y sigue trabajando para mejorar el derecho a la protección de datos en Alemania
k = 3, Confianza 0,75
Esta respuesta se obtuvo considerando los tres mejores documentos de fuentes para la pregunta en cuestión. Si la inteligencia artificial utiliza cuatro documentos de fuentes para responder a la pregunta, surge la siguiente respuesta:
No, no es amargo. Es está simplemente muy preocupado por la situación de protección de datos en Alemania y quiere que mejore
k=4, Confianza 0,75
Si se reduce el valor de confianza que la inteligencia artificial debe utilizar para seleccionar los documentos de origen, la respuesta es:
No, Klaus Meffert no es amargado. Tiene un cierto grado de sarcasmo e ironía, pero no es amargado
k = 3, Confianza 0,65
Es es ya asombroso lo que puede lograr una Inteligencia Artificial ahora mismo. Yo siempre digo "ahora mismo", porque pronto tendremos inteligencias artificiales mucho más inteligentes.
Otra respuesta de la IA al aplicar un valor de confianza aumentado es:
No, Klaus Meffert no es amargo. Se ha especializado en la protección de datos y el fomento del conocimiento técnico a lo largo de su carrera y trabaja como experto y autor. También ha escrito un libro sobre pruebas automatizadas de software y se dedica a la Inteligencia Artificial. Es también un experto en materia de privacidad y ha abordado aspectos técnicos y legales en el pasado
k = 3, Confianza 0,85
Aunque yo mismo habría formulado las respuestas de manera diferente, consideraría que son excelentes desde un punto de vista técnico. En cuanto a la respuesta anterior, estoy en desacuerdo con ella desde un punto de vista profesional, siempre y cuando se me permita admitir que tengo una cierta familiaridad con la protección de datos. La respuesta gramaticalmente es mejor de lo que podría esperarse del promedio de los alemanes. Eso me lo dice mi experiencia vital.
La inteligencia artificial hace exactamente lo que debe hacer. Responde "correctamente" y en un alemán fluido. No se puede pedir más, creo yo. Sobre todo porque mi modelo es un 13B Modelo. Probablemente ChatGPT-4 tenga más de 10 veces tantos parámetros (conexiones neuronales). Se parte de un modelo de 160B. El "B" significa mil millones, porque esta cantidad en inglés se llama "billion". 160B significa entonces 160 mil millones de conexiones neuronales en el modelo. En realidad, se trata técnicamente de lo que se llaman Pesos.
Mi modelo de Inteligencia Artificial tiene al menos 13 mil millones de conexiones neuronales. Con algunos trucos pude lograr empaquetarlo en una tarjeta gráfica asequible (y sobre todo disponible).
Conclusión
La inteligencia artificial se presta para problemas complejos. En particular, es posible buscar información en propios documentos. Incluso generar respuestas con nuevas palabras funciona muy bien. A la AI no hay que confiarle más que a un hombre.
Sistemas de Inteligencia Artificial autárquicos resuelven todos los posibles problemas que las empresas tendrían si utilizaran ChatGPT.
Aquí una tabla para comparar un sistema de inteligencia artificial autónomo con ChatGPT:
| Aspecto | Sistema autosuficiente | ChatGPT |
|---|---|---|
| Privacidad | Supremo | Mal |
| Secretos comerciales | Seguro | Próxima pregunta |
| Información confidencial | Seguro | Próxima pregunta |
| Control sobre flujo y almacenamiento de datos | Supremo | Mal |
| Gastos | Global | Dependiendo del uso |
| Trampa de costos (recurr…)? | No | Si |
| Dependencia | No | Si |
| Optimaciones individuales | Si | No |
Un sistema autárquico funciona allí donde lo desearías: o en uno de tus servidores o en un servidor alquilado en Alemania o Europa y, por supuesto, sin influencia estadounidense ni filial irlandesa de una matriz estadounidense, que es examinada regularmente por el FBI, CSI y NSA.
Decidan ustedes mismos si desean seguir el camino simple, caro, jurídicamente muy cuestionable y peligroso o si prefieren un sistema de Inteligencia Artificial autónomo para su empresa.
Mensajes clave
Un sistema de inteligencia artificial puede responder preguntas, pero sus respuestas dependen de la información que se le ha dado y de cómo se configura.
La inteligencia artificial puede analizar documentos y responder preguntas de forma sorprendente, aunque la calidad de la respuesta depende de los parámetros utilizados.
Los sistemas de inteligencia artificial autónomos son más seguros y privados que ChatGPT.



Me llamo Klaus Meffert. Soy doctor en informática y llevo más de 30 años dedicándome profesional y prácticamente a las tecnologías de la información. También trabajo como experto en informática y protección de datos. Obtengo mis resultados analizando la tecnología y el Derecho. Esto me parece absolutamente esencial cuando se trata de protección de datos digitales.
