Con el modelo de IA DeepSeek-R1, China ha conseguido dejar en evidencia a los estadounidenses. DeepSeek-R1 es significativamente más eficiente que ChatGPT de OpenAI. Incluso los vástagos más pequeños de R1 son casi tan buenos como OpenAI o1 en pruebas de referencia importantes. El mercado de valores reaccionó conmocionado. La gente ni siquiera se había dado cuenta de que ya existía otro modelo de DeepSeek.
Introducción
Todo el mundo conoce ChatGPT. Todo el mundo conoce DeepSeek desde "ayer" como muy tarde. Es probable que los inversores en renta variable, en particular, se hayan dado cuenta de que algo ha ocurrido en el mercado de la IA.
DeepSeek ha puesto a libre disposición un proyecto que puede hacer superflua la OpenAI.
Así lo demostraron DeepSeek-R1 y sus modelos destilados.
OpenAI mantiene en secreto su modelo superior ChatGPT (que incluye o1, o3, etc.) en las versiones más recientes y oculta al público detalles sobre él. DeepSeek, una empresa de China, por otro lado, está regalando su modelo superior haciéndolo público. Una pena para OpenAI, que quería ganar dinero con ChatGPT, pero probablemente nunca llegue a la zona de beneficios.
COSTES para la creación de DeepSeek-R1 fueron significativamente más bajas que las del ChatGPT en cada versión más reciente. Además, R1 puede funcionar a plena capacidad desde cualquier empresa mediana. Las versiones más pequeñas incluso pueden ejecutarse en laptops. Funcionar por sí mismo significa aquí: Cargan el modelo R1, lo copian en su servidor de inteligencia artificial (o laptop), desactivan luego la conexión a Internet si es necesario y pueden trabajar completamente autónomamente con su IA.
Los modelos de IA de DeepSeek pueden descargarse y funcionar de forma autónoma en su propio servidor u ordenador portátil.
Esto es muy útil para numerosas aplicaciones.
¿Qué tan bueno es DeepSeek-R1?
La calidad de un modelo de Inteligencia Artificial se comprueba mediante Puntos de referencia. Son preguntas de prueba estandarizadas para el modelo. ¿Cuán bien funciona un modelo de IA para una aplicación concreta en su empresa, solo puede descubrirse a través de (fácil y rápido) probado para la aplicación concreta. Tienen que saber, para qué quieren utilizar Inteligencia Artificial.
Los puntos de referencia dan una muy buena indicación de lo bueno que es un modelo en sí mismo. Estos son los resultados publicados por la propia DeepSeek:

La barra de la izquierda es la de DeepSeek-R1, la segunda la del modelo de referencia OpenAI o1. Como puede verse, R1 es tan bueno como o1. Los puntos de referencia mencionados son estándar. Están en detalle:
- AIME 2024: Mathematikprobleme
- Codeforces: Tareas de programación
- GPQA Diamante: GPQA significa Un barem de preguntas y respuestas a nivel universitario, que es inaccesible para Google. Preguntas de elección múltiple
- MATH-500: Conclusiones matemáticas
- MMLU (Medir el Entendimiento del Lenguaje Masaivo Multitarea): Preguntas de Elección Multiple de muchos campos del conocimiento
Para responder a la pregunta al principio: DeepSeek-R1 es entonces muy bueno. El modelo muestra algunas transferencias de conocimiento intencionales. Las preguntas políticas críticas las responde como si China se lo gustara. Sin embargo, el modelo no debe considerarse un chatbot. En este sentido, aunque esto puede ser perturbador, desde un punto de vista técnico es a menudo irrelevante.
La calidad de DeepSeek fue confirmada por algunos usuarios. Aquí está un informe de prueba traducido del inglés al alemán , que compara R1 y OpenAI o1 (seguido como cita):
- Para el razonamiento lógico R1 es mucho mejor que cualquier modelo SOTA anterior hasta o1. Es mejor que o1-preview, pero un nivel por debajo de o1. Esto se refleja también en el Test AGI ARC.
- Matemáticas: Lo mismo se aplica a la matemática: R1 es un asesino, pero o1 es mejor.
- Codificación: No he podido jugar mucho, pero al primer vistazo está a la par con o1, y el hecho de que cueste 20x menos lo convierte en un ganador práctico.
- Escribir: Aquí R1 asume el liderazgo. Transmite las mismas impresiones que el Opus inicial. Es libre, menos censurado, tiene mucha más personalidad, es fácil de manejar y es muy creativo en comparación con los otros modelos, incluso en comparación con o1-pro.
El rumbo del futuro
Cualquiera que siga la evolución del sector de la IA se dará cuenta de varias cosas:
- Los modelos de IA son cada vez mejores.
- Los mejores modelos de IA son cada vez más pequeños (ya casi no son "grandes", como se indica en "Grandes modelos lingüísticos").
- Los métodos de entrenamiento para crear modelos de IA son cada vez más sofisticados.
- Los pequeños modelos de IA existentes pueden mejorarse fácilmente consultando nuevos modelos.
- La velocidad de la luz es una subestimación para designar la velocidad de los acontecimientos.
Todas esas cosas representan para OpenAI existenciales amenazas.
Un conocimiento aún más importante es el siguiente: con la ayuda del llamado Aprendizaje por Refuerzo (aprendizaje reforzante), se pueden mejorar significativamente pequeños modelos de inteligencia artificial que ya existen. Se toman las respuestas que da el modelo maestro R1 a preguntas formuladas y se alimentan en los modelos más pequeños, llamados modelos escolares. La inteligencia de los modelos escolares recibe entonces un gran impulso y puede pensar mejor y sacar conclusiones por sí misma. DeepSeek ha descrito una sofisticada técnica (reflexión emergente) para que esto funcione especialmente bien.
Así que modelos de código abierto como Qwen-2.5 y Llama-3.1, que ya eran muy buenos por sí mismos, podían hacerse aún mejores con un mínimo esfuerzo. OpenAI, por otro lado, tiene que invertir mucho tiempo, energía y dinero para lograr resultados mejores. Mientras que OpenAI es un secreto cerrado, los avances descritos anteriormente ocurren en la pública y están disponibles gratuitamente para todos.
El informe de prueba indica que DeepSeek-R1 es aproximadamente 30 veces más barato en su uso que OpenAI o1 y aproximadamente 5 veces más rápido que o1. Es aún más económico si deseas utilizar intensivamente R1 y ejecutarlo en un servidor propio. Además, existen ramas de R1 que incluso pueden ser ejecutadas en un portátil (o como último recurso también en un teléfono móvil).
Rama de DeepSeek-R1
Como se puede ver en la figura anterior con el punto de referencia, hay otros modelos de DeepSeek:
- DeepSeek-R1-32B
- DeepSeek-V3
DeepSeek-V3 se publicó a finales de diciembre de 2024, por lo que ya está obsoleto (véase "Velocidad de la luz"). Sirvió de base para la R1.
DeepSeek-R1-32B es una versión destilada de DeepSeek-R1, que tiene 685 mil millones de parámetros (685B). La versión destilada tiene solo 32 mil millones de parámetros, por lo que puede ejecutarse en un servidor de inteligencia artificial asequible. Destilar significa que es un Extracto del modelo más grande. Nota al margen: Diferentes fuentes de DeepSeek dan una vez 685B y otra vez 671B parámetros.
Además de este extracto, DeepSeek-R1-32B, existen otras variantes que se pueden ejecutar en hardware más asequible. Esto es solo para informar a todos aquellos que aún quieren utilizar ChatGPT para automatizar procesos.
Las variantes de DeepSeek-R1 son (a 28/01/2025):
- DeepSeek-R1-32B: Modelo secundario del benchmark. Se refiere a DeepSeek-R1-Distill-Qwen-32B
- DeepSeek-R1-Distill-Llama-8B
- DeepSeek-R1-Distill-Llama-70B
- DeepSeek-R1-Distill-Qwen-14B
- DeepSeek-R1-Distill-Qwen-7B
- DeepSeek-R1-Distill-Qwen-1.5B
También está DeepSeek-R1-Zero, que tiene el mismo tamaño de modelo que el modelo principal. Zero se ha sometido a menos procesos de entrenamiento que el modelo principal, por lo que es ligeramente peor (pero sigue siendo mejor que cualquier cosa que OpenAI haya conseguido con un presupuesto razonable).
El modelo principal, DeepSeek-R1, tiene 685.000 millones de parámetros, pero sólo 40.000 millones de ellos están activos en un momento dado. Se trata de una arquitectura denominada Mixture-of-Experts (MoE). Es como en los humanos: De todas las neuronas del cerebro, no todas están activas cuando estás pensando. Más bien, sólo una pequeña proporción de tus neuronas están activas cuando hablas, por ejemplo. El resto de las neuronas del cerebro están en reposo y no necesitan estar activas.
DeepSeek-R1 es "pequeño" porque sólo tiene que utilizar simultáneamente una pequeña proporción de sus muchas neuronas cuando piensa.
Esto supone un gran ahorro de recursos.
Este menor número de neuronas activas simultáneamente significa que R1 puede funcionar con un hardware menos costoso. OpenAI debería avergonzarse aquí. Y es que los modelos de OpenAI requieren infraestructuras de servidores que van más allá de lo imaginable. R1, en cambio, puede ser explotado por cualquier PYME con recursos financieros razonables.
Los destilados de R1 se crean mediante la llamada destilación del conocimiento. Para ello, el modelo principal es tomado como profesor y cuestionado por un alumno. Esto es análogo a cómo un niño aprende de sus padres, salvo que hasta cierta edad, el niño es (a menudo) significativamente menos inteligente que los padres.
Cada destilado se creó a partir de un LLM existente. Una vez se utilizó Llama-3.1-8B de o Llama-3.3-70B-Instruct de Meta. Otros destilados se basan en diferentes variantes del modelo Qwen-2.5 de Alibaba.
Oportunidades y riesgos
Parece que cada vez se publican mejores modelos de IA a mayor velocidad. OpenAI se está convirtiendo en un modelo descatalogado. ChatGPT, OpenAI o1 y todos los demás modelos son cada vez mejores, pero también cada vez más caros.
OpenAI mantiene en secreto sus modelos, algoritmos y datos. DeepSeek hace exactamente lo contrario. El proceso de entrenamiento es público. Los modelos son públicos y se pueden descargar. Ejecutamos un modelo de DeepSeek en un portátil de IA. ¡En un portátil!
OpenAI está destruida y no alcanzará las expectativas de beneficios.
Los modelos de código abierto son el futuro.
Modelos DeepSeek son extremadamente buenos. Han destruido valores bursátiles. Por cierto, también en el ámbito energético ( "Siemens Energy: caída del 20% – ¿Fantasía de Inteligencia Artificial?", Noticia del 27.01.2025), ya que modelos más pequeños como los de DeepSeek pueden funcionar con "hardware más asequible", mientras que OpenAI se desangra en energía. El inversor Marc Andreesen ha comentado: "DeepSeek es uno de los avances más impresionantes y asombrosos que he visto – y como código abierto, un regalo profundo al mundo" (Fuente: red evitable con letra antes de Y).
¿Para qué sirve DeepSeek?
A nadie se le debería ocurrir utilizar DeepSeek en su forma original como chatbot. Sin embargo, los conocimientos amigables con China pueden volverse inofensivos.
Los siguientes casos de uso son más importantes que un chatbot aburrido (extracto):
- Buscar y cuestionar el conocimiento de la empresa
- Analizar las facturas por ley de la cadena de suministro y calcular la huella de CO₂
- Crear automáticamente recomendaciones para resolver las solicitudes de asistencia
- Clasificación automática de mensajes, textos y otros documentos
- Saque conclusiones lógicas automáticamente
- Resolver problemas matemáticos
- Sin embargo.
Esto es exactamente lo que ahora puede tener lugar completamente sin OpenAI, y tan bien como con OpenAI.
La desaparición de OpenAI
El funcionamiento de la IA sin OpenAI tiene varias ventajas:
- A menudo mejores resultados
- Costes previsibles y siempre bajos
- Seguridad total de los datos
- Independencia total
- Puede optimizarse a voluntad
- Estratégicamente valioso
OpenAI tiene un futuro muy difícil por delante. OpenAI no puede resolver este problema con mejores modelos de IA, porque cada vez se publican mejores modelos de IA como código abierto por DeepSeek & Co.
| OpenAI | DeepSeek (and others) |
|---|---|
| Large models | Small models |
| Closed-Source | Open-Source |
|
Getting better, bigger, and more expensive |
Getting better, smaller, and cheaper |
|
Slow release cycles |
Light speed |
|
Progress through money and the most expensive personnel |
Progress through a huge open source community |
|
Operation: Energy problem, hardware problem |
Operation on standard AI servers or laptops |
OpenAI pronto estará tan desfasada en términos de calidad que tendrá que buscarse otro campo de negocio. Ya había indicios de ello hace meses, pero nadie quería verlo. En la Olimpiada Matemática de IA, por ejemplo, el ganador fue un modelo de IA de código abierto.
Sólo la integración de la búsqueda en Internet, la automatización de los navegadores o el OpenAI Operator siguen siendo salvavidas a medio camino. Sin embargo, cualquier mejor programador de IA también puede programar estos sistemas, ya que se basan en tecnologías estándar de libre acceso. Esto significa que OpenAI seguirá siendo interesante a lo sumo para usuarios individuales que se conformen con recibir una buena función a cambio de una tarifa de datos. Es dudoso que OpenAI pueda cubrir sus inmensos costes de hardware, energía y personal.
El mundo en letargo
Übrigens: Es gibt bereits un nuevo modelo de DeepSeek: Janus-Pro. Janus-Pro es un modelo bicéfalo, para mantener la denominación elegida por DeepSeek de "Janus". Janus-Pro es un generador y explorador de imágenes al mismo tiempo. Pueden solicitar que se les genere una imagen o cargar una imagen en Janus y hacer preguntas sobre ella.
El mercado de valores fue vaporizado por DeepSeek-R1 y no por Janus-Pro.
La noticia de la R1 llegó al mundo con un retraso de la edad de piedra (unos 7 días después de la publicación del modelo). En el momento del crack bursátil, Janus-Pro ya existía, pero nadie se dio cuenta. Por tanto, está más informado que la mayoría.
Janus-Pro según los benchmarks es mejor que DALL-E 3, pero tan pequeño, que cabe en un dedal (o se puede ejecutar en un portátil).
El genio de la R1
No se trata principalmente de que con R1 se ha publicado un modelo supereficiente que compete a OpenAI. Se trata de que se ha publicado la plantilla para ello. Todos los investigadores en Inteligencia Artificial del mundo saben ahora cómo pueden crear modelos mejores que o1. Y no es suficiente: estos modelos son más pequeños, mejores, más baratos que los modelos de OpenAI y además están disponibles gratuitamente y siempre reproducibles.
Si en el futuro OpenAI alguna vez llega a generar ganancias, será probablemente con una Superinteligencia. Luego tendríamos otros desafíos que la decisión de qué inteligencia artificial utilizar para automatizar los procesos de un negocio. Porque esta superinteligencia tendría que surgir en unos pocos años. De lo contrario, OpenAI probablemente estaría en quiebra o obsoleta hasta entonces.
Como alguien dijo en un comentario en un foro de AI:
Este año (2025, finales de enero) ya se ha avanzado más en IA que en todo 2024.
Puede que sea una ligera exageración, pero probablemente no esté muy alejada de la realidad. Cada semana que pasa, esta afirmación se vuelve más exacta o incluso se queda corta.
Aquellos que aún no piensan concretamente en automatizar procesos en la empresa con inteligencia artificial, son o nunca lo estarán o solo usan computadoras para escribir facturas (artesanos, etc.). En especial para departamentos de desarrollo de software, la IA es extremadamente emocionante!



Me llamo Klaus Meffert. Soy doctor en informática y llevo más de 30 años dedicándome profesional y prácticamente a las tecnologías de la información. También trabajo como experto en informática y protección de datos. Obtengo mis resultados analizando la tecnología y el Derecho. Esto me parece absolutamente esencial cuando se trata de protección de datos digitales.
