Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort DSGVO-Probleme finden

DeepSeek-R1: Un pequeño modelo lingüístico vaporiza la Bolsa

0
Dr. DSGVO Newsletter detected: Extended functionality available
More articles · Website-Checks · Live Offline-AI

Con el modelo de IA DeepSeek-R1, China ha conseguido dejar en evidencia a los estadounidenses. DeepSeek-R1 es significativamente más eficiente que ChatGPT de OpenAI. Incluso los vástagos más pequeños de R1 son casi tan buenos como OpenAI o1 en pruebas de referencia importantes. El mercado de valores reaccionó conmocionado. La gente ni siquiera se había dado cuenta de que ya existía otro modelo de DeepSeek.

Introducción

Todo el mundo conoce ChatGPT. Todo el mundo conoce DeepSeek desde "ayer" como muy tarde. Es probable que los inversores en renta variable, en particular, se hayan dado cuenta de que algo ha ocurrido en el mercado de la IA.

DeepSeek ha puesto a libre disposición un proyecto que puede hacer superflua la OpenAI.

Así lo demostraron DeepSeek-R1 y sus modelos destilados.

OpenAI mantiene en secreto su modelo superior ChatGPT (que incluye o1, o3, etc.) en las versiones más recientes y oculta al público detalles sobre él. DeepSeek, una empresa de China, por otro lado, está regalando su modelo superior haciéndolo público. Una pena para OpenAI, que quería ganar dinero con ChatGPT, pero probablemente nunca llegue a la zona de beneficios.

COSTES para la creación de DeepSeek-R1 fueron significativamente más bajas que las del ChatGPT en cada versión más reciente. Además, R1 puede funcionar a plena capacidad desde cualquier empresa mediana. Las versiones más pequeñas incluso pueden ejecutarse en laptops. Funcionar por sí mismo significa aquí: Cargan el modelo R1, lo copian en su servidor de inteligencia artificial (o laptop), desactivan luego la conexión a Internet si es necesario y pueden trabajar completamente autónomamente con su IA.

Los modelos de IA de DeepSeek pueden descargarse y funcionar de forma autónoma en su propio servidor u ordenador portátil.

Esto es muy útil para numerosas aplicaciones.

¿Qué tan bueno es DeepSeek-R1?

La calidad de un modelo de Inteligencia Artificial se comprueba mediante Puntos de referencia. Son preguntas de prueba estandarizadas para el modelo. ¿Cuán bien funciona un modelo de IA para una aplicación concreta en su empresa, solo puede descubrirse a través de (fácil y rápido) probado para la aplicación concreta. Tienen que saber, para qué quieren utilizar Inteligencia Artificial.

Los puntos de referencia dan una muy buena indicación de lo bueno que es un modelo en sí mismo. Estos son los resultados publicados por la propia DeepSeek:

Vergleich von DeepSeek-R1 (3 Versionen) mit OpenAI o1 (Version 1217) und OpenAI o1-mini. Quelle

La barra de la izquierda es la de DeepSeek-R1, la segunda la del modelo de referencia OpenAI o1. Como puede verse, R1 es tan bueno como o1. Los puntos de referencia mencionados son estándar. Están en detalle:

  • AIME 2024: Mathematikprobleme
  • Codeforces: Tareas de programación
  • GPQA Diamante: GPQA significa Un barem de preguntas y respuestas a nivel universitario, que es inaccesible para Google. Preguntas de elección múltiple
  • MATH-500: Conclusiones matemáticas
  • MMLU (Medir el Entendimiento del Lenguaje Masaivo Multitarea): Preguntas de Elección Multiple de muchos campos del conocimiento

Para responder a la pregunta al principio: DeepSeek-R1 es entonces muy bueno. El modelo muestra algunas transferencias de conocimiento intencionales. Las preguntas políticas críticas las responde como si China se lo gustara. Sin embargo, el modelo no debe considerarse un chatbot. En este sentido, aunque esto puede ser perturbador, desde un punto de vista técnico es a menudo irrelevante.

La calidad de DeepSeek fue confirmada por algunos usuarios. Aquí está un informe de prueba traducido del inglés al alemán , que compara R1 y OpenAI o1 (seguido como cita):

  • Para el razonamiento lógico R1 es mucho mejor que cualquier modelo SOTA anterior hasta o1. Es mejor que o1-preview, pero un nivel por debajo de o1. Esto se refleja también en el Test AGI ARC.
  • Matemáticas: Lo mismo se aplica a la matemática: R1 es un asesino, pero o1 es mejor.
  • Codificación: No he podido jugar mucho, pero al primer vistazo está a la par con o1, y el hecho de que cueste 20x menos lo convierte en un ganador práctico.
  • Escribir: Aquí R1 asume el liderazgo. Transmite las mismas impresiones que el Opus inicial. Es libre, menos censurado, tiene mucha más personalidad, es fácil de manejar y es muy creativo en comparación con los otros modelos, incluso en comparación con o1-pro.

El rumbo del futuro

Cualquiera que siga la evolución del sector de la IA se dará cuenta de varias cosas:

  • Los modelos de IA son cada vez mejores.
  • Los mejores modelos de IA son cada vez más pequeños (ya casi no son "grandes", como se indica en "Grandes modelos lingüísticos").
  • Los métodos de entrenamiento para crear modelos de IA son cada vez más sofisticados.
  • Los pequeños modelos de IA existentes pueden mejorarse fácilmente consultando nuevos modelos.
  • La velocidad de la luz es una subestimación para designar la velocidad de los acontecimientos.

Todas esas cosas representan para OpenAI existenciales amenazas.

Un conocimiento aún más importante es el siguiente: con la ayuda del llamado Aprendizaje por Refuerzo (aprendizaje reforzante), se pueden mejorar significativamente pequeños modelos de inteligencia artificial que ya existen. Se toman las respuestas que da el modelo maestro R1 a preguntas formuladas y se alimentan en los modelos más pequeños, llamados modelos escolares. La inteligencia de los modelos escolares recibe entonces un gran impulso y puede pensar mejor y sacar conclusiones por sí misma. DeepSeek ha descrito una sofisticada técnica (reflexión emergente) para que esto funcione especialmente bien.

Así que modelos de código abierto como Qwen-2.5 y Llama-3.1, que ya eran muy buenos por sí mismos, podían hacerse aún mejores con un mínimo esfuerzo. OpenAI, por otro lado, tiene que invertir mucho tiempo, energía y dinero para lograr resultados mejores. Mientras que OpenAI es un secreto cerrado, los avances descritos anteriormente ocurren en la pública y están disponibles gratuitamente para todos.

El informe de prueba indica que DeepSeek-R1 es aproximadamente 30 veces más barato en su uso que OpenAI o1 y aproximadamente 5 veces más rápido que o1. Es aún más económico si deseas utilizar intensivamente R1 y ejecutarlo en un servidor propio. Además, existen ramas de R1 que incluso pueden ser ejecutadas en un portátil (o como último recurso también en un teléfono móvil).

Rama de DeepSeek-R1

Como se puede ver en la figura anterior con el punto de referencia, hay otros modelos de DeepSeek:

  • DeepSeek-R1-32B
  • DeepSeek-V3

DeepSeek-V3 se publicó a finales de diciembre de 2024, por lo que ya está obsoleto (véase "Velocidad de la luz"). Sirvió de base para la R1.

DeepSeek-R1-32B es una versión destilada de DeepSeek-R1, que tiene 685 mil millones de parámetros (685B). La versión destilada tiene solo 32 mil millones de parámetros, por lo que puede ejecutarse en un servidor de inteligencia artificial asequible. Destilar significa que es un Extracto del modelo más grande. Nota al margen: Diferentes fuentes de DeepSeek dan una vez 685B y otra vez 671B parámetros.

Además de este extracto, DeepSeek-R1-32B, existen otras variantes que se pueden ejecutar en hardware más asequible. Esto es solo para informar a todos aquellos que aún quieren utilizar ChatGPT para automatizar procesos.

Las variantes de DeepSeek-R1 son (a 28/01/2025):

  • DeepSeek-R1-32B: Modelo secundario del benchmark. Se refiere a DeepSeek-R1-Distill-Qwen-32B
  • DeepSeek-R1-Distill-Llama-8B
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-14B
  • DeepSeek-R1-Distill-Qwen-7B
  • DeepSeek-R1-Distill-Qwen-1.5B

También está DeepSeek-R1-Zero, que tiene el mismo tamaño de modelo que el modelo principal. Zero se ha sometido a menos procesos de entrenamiento que el modelo principal, por lo que es ligeramente peor (pero sigue siendo mejor que cualquier cosa que OpenAI haya conseguido con un presupuesto razonable).

El modelo principal, DeepSeek-R1, tiene 685.000 millones de parámetros, pero sólo 40.000 millones de ellos están activos en un momento dado. Se trata de una arquitectura denominada Mixture-of-Experts (MoE). Es como en los humanos: De todas las neuronas del cerebro, no todas están activas cuando estás pensando. Más bien, sólo una pequeña proporción de tus neuronas están activas cuando hablas, por ejemplo. El resto de las neuronas del cerebro están en reposo y no necesitan estar activas.

DeepSeek-R1 es "pequeño" porque sólo tiene que utilizar simultáneamente una pequeña proporción de sus muchas neuronas cuando piensa.

Esto supone un gran ahorro de recursos.

Este menor número de neuronas activas simultáneamente significa que R1 puede funcionar con un hardware menos costoso. OpenAI debería avergonzarse aquí. Y es que los modelos de OpenAI requieren infraestructuras de servidores que van más allá de lo imaginable. R1, en cambio, puede ser explotado por cualquier PYME con recursos financieros razonables.

Los destilados de R1 se crean mediante la llamada destilación del conocimiento. Para ello, el modelo principal es tomado como profesor y cuestionado por un alumno. Esto es análogo a cómo un niño aprende de sus padres, salvo que hasta cierta edad, el niño es (a menudo) significativamente menos inteligente que los padres.

Cada destilado se creó a partir de un LLM existente. Una vez se utilizó Llama-3.1-8B de o Llama-3.3-70B-Instruct de Meta. Otros destilados se basan en diferentes variantes del modelo Qwen-2.5 de Alibaba.

Oportunidades y riesgos

Parece que cada vez se publican mejores modelos de IA a mayor velocidad. OpenAI se está convirtiendo en un modelo descatalogado. ChatGPT, OpenAI o1 y todos los demás modelos son cada vez mejores, pero también cada vez más caros.

OpenAI mantiene en secreto sus modelos, algoritmos y datos. DeepSeek hace exactamente lo contrario. El proceso de entrenamiento es público. Los modelos son públicos y se pueden descargar. Ejecutamos un modelo de DeepSeek en un portátil de IA. ¡En un portátil!

OpenAI está destruida y no alcanzará las expectativas de beneficios.

Los modelos de código abierto son el futuro.

Modelos DeepSeek son extremadamente buenos. Han destruido valores bursátiles. Por cierto, también en el ámbito energético ( "Siemens Energy: caída del 20% – ¿Fantasía de Inteligencia Artificial?", Noticia del 27.01.2025), ya que modelos más pequeños como los de DeepSeek pueden funcionar con "hardware más asequible", mientras que OpenAI se desangra en energía. El inversor Marc Andreesen ha comentado: "DeepSeek es uno de los avances más impresionantes y asombrosos que he visto – y como código abierto, un regalo profundo al mundo" (Fuente: red evitable con letra antes de Y).

¿Para qué sirve DeepSeek?

A nadie se le debería ocurrir utilizar DeepSeek en su forma original como chatbot. Sin embargo, los conocimientos amigables con China pueden volverse inofensivos.

Los siguientes casos de uso son más importantes que un chatbot aburrido (extracto):

  • Buscar y cuestionar el conocimiento de la empresa
  • Analizar las facturas por ley de la cadena de suministro y calcular la huella de CO₂
  • Crear automáticamente recomendaciones para resolver las solicitudes de asistencia
  • Clasificación automática de mensajes, textos y otros documentos
  • Saque conclusiones lógicas automáticamente
  • Resolver problemas matemáticos
  • Sin embargo.

Esto es exactamente lo que ahora puede tener lugar completamente sin OpenAI, y tan bien como con OpenAI.

La desaparición de OpenAI

El funcionamiento de la IA sin OpenAI tiene varias ventajas:

  • A menudo mejores resultados
  • Costes previsibles y siempre bajos
  • Seguridad total de los datos
  • Independencia total
  • Puede optimizarse a voluntad
  • Estratégicamente valioso

OpenAI tiene un futuro muy difícil por delante. OpenAI no puede resolver este problema con mejores modelos de IA, porque cada vez se publican mejores modelos de IA como código abierto por DeepSeek & Co.

OpenAI DeepSeek (and others)
Large models Small models
Closed-Source Open-Source

Getting better, bigger, and more expensive

Getting better, smaller, and cheaper

Slow release cycles

Light speed

Progress through money and the most expensive personnel

Progress through a huge open source community

Operation: Energy problem, hardware problem

Operation on standard AI servers or laptops

OpenAI pronto estará tan desfasada en términos de calidad que tendrá que buscarse otro campo de negocio. Ya había indicios de ello hace meses, pero nadie quería verlo. En la Olimpiada Matemática de IA, por ejemplo, el ganador fue un modelo de IA de código abierto.

Sólo la integración de la búsqueda en Internet, la automatización de los navegadores o el OpenAI Operator siguen siendo salvavidas a medio camino. Sin embargo, cualquier mejor programador de IA también puede programar estos sistemas, ya que se basan en tecnologías estándar de libre acceso. Esto significa que OpenAI seguirá siendo interesante a lo sumo para usuarios individuales que se conformen con recibir una buena función a cambio de una tarifa de datos. Es dudoso que OpenAI pueda cubrir sus inmensos costes de hardware, energía y personal.

El mundo en letargo

Übrigens: Es gibt bereits un nuevo modelo de DeepSeek: Janus-Pro. Janus-Pro es un modelo bicéfalo, para mantener la denominación elegida por DeepSeek de "Janus". Janus-Pro es un generador y explorador de imágenes al mismo tiempo. Pueden solicitar que se les genere una imagen o cargar una imagen en Janus y hacer preguntas sobre ella.

El mercado de valores fue vaporizado por DeepSeek-R1 y no por Janus-Pro.

La noticia de la R1 llegó al mundo con un retraso de la edad de piedra (unos 7 días después de la publicación del modelo). En el momento del crack bursátil, Janus-Pro ya existía, pero nadie se dio cuenta. Por tanto, está más informado que la mayoría.

Janus-Pro según los benchmarks es mejor que DALL-E 3, pero tan pequeño, que cabe en un dedal (o se puede ejecutar en un portátil).

El genio de la R1

No se trata principalmente de que con R1 se ha publicado un modelo supereficiente que compete a OpenAI. Se trata de que se ha publicado la plantilla para ello. Todos los investigadores en Inteligencia Artificial del mundo saben ahora cómo pueden crear modelos mejores que o1. Y no es suficiente: estos modelos son más pequeños, mejores, más baratos que los modelos de OpenAI y además están disponibles gratuitamente y siempre reproducibles.

Si en el futuro OpenAI alguna vez llega a generar ganancias, será probablemente con una Superinteligencia. Luego tendríamos otros desafíos que la decisión de qué inteligencia artificial utilizar para automatizar los procesos de un negocio. Porque esta superinteligencia tendría que surgir en unos pocos años. De lo contrario, OpenAI probablemente estaría en quiebra o obsoleta hasta entonces.

Como alguien dijo en un comentario en un foro de AI:

Este año (2025, finales de enero) ya se ha avanzado más en IA que en todo 2024.

Puede que sea una ligera exageración, pero probablemente no esté muy alejada de la realidad. Cada semana que pasa, esta afirmación se vuelve más exacta o incluso se queda corta.

Aquellos que aún no piensan concretamente en automatizar procesos en la empresa con inteligencia artificial, son o nunca lo estarán o solo usan computadoras para escribir facturas (artesanos, etc.). En especial para departamentos de desarrollo de software, la IA es extremadamente emocionante!

Sobre el autor
Me llamo Klaus Meffert. Soy doctor en informática y llevo más de 30 años dedicándome profesional y prácticamente a las tecnologías de la información. También trabajo como experto en informática y protección de datos. Obtengo mis resultados analizando la tecnología y el Derecho. Esto me parece absolutamente esencial cuando se trata de protección de datos digitales.

Así puede reemplazar la inteligencia artificial el Morning Briefing del Handelsblatt