Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen
Externe Links sind mit dem Symbol Externer Link Symbol gekennzeichnet. Datenschutzinfo

DeepSeek-R1: Ein kleines Sprachmodell vaporisiert die Börse

Deutsche Version (Original)
0
Dr. DSGVO Newsletter erkannt: Erweiterte Funktionen verfügbar
Artikel als PDF · Mehr Inhalte & kompakte Kernaussagen · Webseiten-Checks · Offline-KI Live
Standardansicht: Dr. DSGVO Newsletter nicht erkannt. Erweiterte Funktionen nur für Abonnenten:
Artikel als PDF · Mehr Inhalte & kompakte Kernaussagen · Webseiten-Checks · Offline-KI Live
📄 Artikel als PDF (nur für Newsletter-Abonnenten)
🔒 Premium-Funktion
Der aktuelle Beitrag kann in PDF-Form angesehen und heruntergeladen werden

📊 Download freischalten
Der Download ist nur für Abonnenten des Dr. DSGVO-Newsletters möglich

Mit dem KI-Modell DeepSeek-R1 gelang es China, die Amerikaner in den Boden zu schämen. DeepSeek-R1 ist deutlich effizienter als ChatGPT von OpenAI. Sogar superkleine Ableger von R1 sind in wichtigen Benchmarks nahezu genauso gut wie OpenAI o1. Die Börse reagierte mit Schockwellen. Dabei wurde gar nicht wahrgenommen, dass es schon eine weiteres DeepSeek-Modell gibt.

Einleitung

Jeder kennt ChatGPT. Spätestens seit „gestern“ kennt jeder DeepSeek. Vor allem Aktienanleger dürften mitbekommen haben, dass sich auf dem KI-Markt etwas getan hat.

DeepSeek hat eine Blaupause frei verfügbar gemacht, die OpenAI überflüssig machen kann.

Dies wurde durch DeepSeek-R1 und dessen Destillatmodelle demonstriert.

OpenAI hält sein Top-Modell ChatGPT (samt o1, o3 usw.) in den neueren Versionen geheim und verheimlicht der Öffentlichkeit Details dazu. DeepSeek, ein Unternehmen aus China, verschenkt hingegen sein Top-Modell, indem es öffentlich gemacht wird. Schade für OpenAI, die mit ChatGPT Geld verdienen wollten, es damit aber wohl nie in den Gewinnbereich schaffen werden.

Die Kosten für die Erschaffung von DeepSeek-R1 waren ganz erheblich niedriger als die für ChatGPT in jeder neueren Version. Weiterhin kann R1 in Vollausprägung von jeder mittelständischen Firma selbst betrieben werden. Die kleineren Varianten laufen sogar auf Laptops. Selbst betreiben heißt hier: Sie laden das R1-Modell herunter, kopieren es auf Ihren KI-Server (oder Laptop), deaktivieren dann bei Bedarf die Internetverbindung und können so völlig autark mit Ihrer KI arbeiten.

Die KI-Modelle von DeepSeek können heruntergeladen und autark auf einem eigenen Server oder Laptop betrieben werden.

Für zahlreiche Anwendungsfälle ist das sehr sinnvoll.

Wie gut ist DeepSeek-R1?

Die Qualität eines KI-Modells wird durch Benchmarks geprüft. Das sind genormte Testfragen an das Modell. Wie gut ein KI-Modell für einen konkreten Anwendungsfall in Ihrem Unternehmen ist, kann nur durch (einfaches, schnelles) Ausprobieren für den jeweiligen Anwendungsfall herausgefunden werden. Sie müssen eben wissen, wofür Sie KI einsetzen wollen.

Die Benchmarks geben eine sehr gute Indikation, wie gut ein Modell an sich ist. Hier die von DeepSeek selbst veröffentlichten Benchmark-Ergebnisse:

Vergleich von DeepSeek-R1 (3 Versionen) mit OpenAI o1 (Version 1217) und OpenAI o1-mini. Quelle

Der jeweils linke Balken ist der von DeepSeek-R1, der jeweils zweite Balken der des Referenzmodells OpenAI o1. Wie zu erkennen ist, ist R1 gleich gut wie o1. Die genannten Benchmarks sind Standard. Es sind im Einzelnen:

  • AIME 2024: Mathematikprobleme
  • Codeforces: Programmieraufgaben
  • GPQA Diamond: GPQA steht für A graduate-level Google-proof Q&A benchmark. Multiple-Choice Fragen
  • MATH-500: Mathematische Schlussfolgerungen
  • MMLU (Measuring Massive Multitask Language Understanding): Multiple-Choice Fragen aus vielen Wissensgebieten

Um die Frage am Anfang zu beantworten: DeepSeek-R1 ist also offenbar sehr gut. Das Modell weist einige absichtliche Wissensverschiebungen auf. Kritische politische Fragen beantwortet es so, wie es China gut findet. Das Modell soll allerdings nicht als Chatbot betrachtet werden. Insofern ist dieses Detail zwar verstörend, aber aus technischer Sicht oft egal.

Die Qualität von DeepSeek wurde von einigen Nutzern bestätigt. Hier ein aus dem Englischen ins Deutsche übersetzter Testbericht, der R1 und OpenAI o1 gegenüberstellt (folgendes als Zitat):

  • Für das logische Schlussfolgern ist R1 viel besser als jedes frühere SOTA-Modell bis o1. Es ist besser als o1-preview, aber eine Stufe unter o1. Dies zeigt sich auch in dem ARC AGI Test.
  • Mathematik: Für Mathematik gilt das Gleiche: R1 ist ein Killer, aber o1 ist besser.
  • Codierung: Ich bin nicht dazu gekommen, viel zu spielen, aber auf den ersten Blick ist es gleichauf mit o1, und die Tatsache, dass es 20x weniger kostet, macht es zum praktischen Sieger.
  • Schreiben: Hier übernimmt R1 die Führung. Es vermittelt die gleichen Eindrücke wie das frühe Opus. Es ist frei, weniger zensiert, hat viel mehr Persönlichkeit, ist leicht zu steuern und ist sehr kreativ im Vergleich zu den anderen Modellen, sogar im Vergleich zu o1-pro.

Der Verlauf der Zukunft

Wer die Entwicklung im KI-Bereich verfolgt, dem fallen mehrere Dinge auf:

  • KI-Modelle werden immer besser.
  • Bessere KI-Modelle werden immer kleiner (sie sind kaum noch „Large“, wie in „Large Language Modells“ angedeutet).
  • Die Trainingsmethoden zum Erschaffen von KI-Modellen werden immer raffinierter.
  • Kleinere bestehende KI-Modelle können durch Befragen von neuen Modellen leicht noch viel besser gemacht werden.
  • Lichtgeschwindigkeit ist für die Bezeichnung der Geschwindigkeit der Entwicklungen eine Untertreibung.

All das stellt für OpenAI existentielle Bedrohungen dar.

Aber noch wichtiger ist folgende Erkenntnis: Mit Hilfe des sogenannten Reinforcement Learning (verstärkendes Lernen) können ganz andere kleine, schon vorhandene KI-Modelle, noch deutlich besser gemacht werden. Man nimmt dazu die Antworten, die das Mastermodell R1 auf gestellte Fragen gibt und füttert sie in die kleineren Schülermodelle rein. Die Intelligenz der Schülermodelle bekommt dann einen enormen Schub und kann selbst besser Denken und Schlussfolgerungen ziehen. DeepSeek hat eine raffinierte Methode (emergente Selbstreflektion) beschrieben, damit das besonders gut funktioniert.

So konnten Open-Source Modelle wie Qwen-2.5 und Llama-3.1, die an sich schon sehr gut waren, noch besser gemacht werden. Mit minimalem Aufwand. OpenAI muss hingegen sehr viel Zeit, Energie und Geld investieren, um bessere Ergebnisse zu erzielen. Während OpenAI ein Geheimniskrämer ist, finden die eben beschriebenen Fortschritte in der Öffentlichkeit und für jeden frei zugänglich statt.

Laut Testbericht ist DeepSeek-R1 ca. 30 Mal günstiger in der Nutzung als OpenAI o1 und ca. 5 Mal schneller als o1. Noch günstiger geht es, wenn Sie R1 intensiv nutzen wollen und auf einem eigenen Server betreiben. Nebenbei gibt es Ableger von R1, die sogar auf einem Laptop (oder zur Not auch auf einem Smartphone) betrieben werden können.

Ableger von DeepSeek-R1

Wie in der obigen Abbildung mit dem Benchmark zu erkennen ist, gibt es weitere Modelle von DeepSeek:

  • DeepSeek-R1-32B
  • DeepSeek-V3

DeepSeek-V3 wurde Ende Dezember 2024 veröffentlicht, ist also bereits veraltet (siehe „Lichtgeschwindigkeit“). Es diente al Basis für R1.

DeepSeek-R1-32B ist eine destillierte Version von DeepSeek-R1, welches 685 Milliarden Parameter hat (685B). Die destillierte Version hat nur 32 Milliarden Parameter, kann also auf einem erschwinglichen KI-Server betrieben werden. Destilliert heißt, dass es ein Extrakt aus dem größeren Modell ist. Nebenbemerkung: Verschiedene Quellen von DeepSeek geben einmal 685B und einmal 671B Parameter an.

Neben diesem einen Extrakt, DeepSeek-R1-32B, gibt es weitere Varianten, die allesamt auf billiger Hardware selbst betrieben werden können. Das nur zur Info für alle, die immer noch ChatGPT zur Automatisierung von Prozessen nutzen wollen.

Die Varianten von DeepSeek-R1 sind (Stand 28.01.2025):

  • DeepSeek-R1-32B: Sekundärmodell aus dem Benchmark. Gemeint ist DeepSeek-R1-Distill-Qwen-32B
  • DeepSeek-R1-Distill-Llama-8B
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-14B
  • DeepSeek-R1-Distill-Qwen-7B
  • DeepSeek-R1-Distill-Qwen-1.5B

Daneben gibt es noch DeepSeek-R1-Zero, was die gleiche Modellgröße hat wie das Hauptmodell. Zero hat weniger Trainingsprozesse durchlaufen als das Hauptmodell, ist also etwas schlechter (aber immer noch besser als alles, was OpenAI mit halbwegs vernünftigem Budget bisher hinbekommen hat).

Das Hauptmodell, DeepSeek-R1, hat zwar 685 Milliarden Parameter, aber nur 40 Milliarden davon sind gleichzeitig aktiv. Es handelt sich um eine sogenannte Mixture-of-Experts Architektur (MoE). Es ist wie beim Menschen: Von allen Ihren Neuronen im Gehirn sind nicht alle aktiv, wenn Sie nachdenken. Vielmehr ist nur ein kleiner Teil Ihrer Neuronen aktiv, wenn Sie beispielsweise sprechen. Der Rest Ihrer Neuronen im Gehirn ruht sich aus und muss nicht aktiv werden.

DeepSeek-R1 ist deshalb „klein“, weil es beim Nachdenken nur einen kleinen Teil seiner vielen Neuronen gleichzeitig nutzen muss.

Das ist extrem Ressourcen-sparend.

Diese kleinere Anzahl gleichzeitig aktiver Neuronen führt dazu, dass R1 auf günstigerer Hardware laufen kann. OpenAI muss sich hier schämen. Denn für die OpenAI-Modelle werden Serverinfrastrukturen benötigt, die jedes Vorstellungsvermögen sprengen. R1 hingegen kann von jedem KMU mit vernünftigen wirtschaftlichen Verhältnissen selbst betrieben werden.

Die Destillate aus R1 sind durch sogenannte Wissensdestillation entstanden. Dazu wird das Hauptmodell als Lehrer genommen und von einem Schüler befragt. Das ist analog dazu, wie ein Kind von seinen Eltern lernt, nur, dass das Kind bis zu einem gewissen Alter (oft) deutlich weniger Intelligenz als die Eltern ist.

Jedes Destillat wurde auf Basis eines schon vorhandenen LLMs erschaffen. Einmal wurde Llama-3.1-8B von oder Llama-3.3-70B-Instruct von Meta verwendet. Andere Destillate basieren auf verschiedenen Modellvarianten von Qwen-2.5 von Alibaba.

Chancen und Risiken

Offenbar werden mit immer größerer Geschwindigkeit immer bessere und zugleich kleine KI-Modelle veröffentlicht. OpenAI wird zum Auslaufmodell. ChatGPT, OpenAI o1 und wie die Modelle alle heißen, werden zwar auch immer besser, aber auch immer teurer.

OpenAI hält seine Modelle, Algorithmen und Daten geheim. DeepSeek tut genau das Gegenteil. Die Trainings-Pipeline ist öffentlich. Die Modelle sind öffentlich, sie können heruntergeladen werden. Auf einem KI-Notebook lassen wir ein DeepSeek-Modell laufen. Auf einem Notebook!

OpenAI ist zerstört und wird hinter den Gewinnerwartungen zurückbleiben.

Open Source Modelle sind die Zukunft.

DeepSeek-Modelle sind extrem gut. Sie haben Börsenwerte zerstört. Übrigens auch im Energiebereich („Siemens Energy: 20-Prozent-Crash – KI-Fantasie weg?“, Meldung vom 27.01.2025), denn solche kleineren Modellen wie die von DeepSeek können auf „billiger“ Hardware betrieben werden, während OpenAI mit Energie herumsauen muss. Der Investor Marc Andreesen hat kommentiert: "DeepSeek is one of the most amazing and impressive breakthroughs I've ever seen – and as open-source, a profound gift to the world" (Quelle: vermeidungswürdiges Netzwerk mit Buchstabe vor Y).

Wofür kann DeepSeek gut eingesetzt werden?

Ganzen Artikel jetzt über kostenfreien Dr. DSGVO Newsletter lesen.
Weitere Extras für Abonnenten:
Viele Artikel in PDF-Form · Kompakte Kernaussagen für Beiträge · Offline-KI · Freikontingent+ für Website-Checks
Schon Abonnent? Link im Newsletter anklicken & diese Seite auffrischen.
Newsletter abonnieren

KI-Beratung, KI-Lösungen

Umfassende Beratung (fachlich, rechtlich, technisch):

Leistungsangebot:

  • Erstberatung inkl. Machbarkeitsaussagen
  • Schulungen und Workshops für Führungskräfte, Berufsgeheimnisträger, Angestellte, Entwickler
  • KI-Lösungen mit und ohne ChatGPT/Azure. Cloud oder eigener KI-Server

Ihre Anfrage

Oder Mail an ki@dr-dsgvo.de

Wer schreibt hier?
Mein Name ist Klaus Meffert. Ich bin promovierter Informatiker und beschäftige mich seit über 30 Jahren professionell und praxisbezogen mit Informationstechnologie. In IT & Datenschutz bin ich auch als Sachverständiger tätig. Ich stehe für pragmatische Lösungen mit Mehrwert. Meine Firma, die IT Logic GmbH, berät Kunden und bietet Webseiten-Checks sowie optimierte & sichere KI-Lösungen an.
Bitte nutzen Sie bei Verwendung meiner Ergebnisse die Quellenangabe oder verlinken Sie gut wahrnehmbar auf diesen Artikel:
Einen Kurzlink oder eine Bestätigung für Ihre Quellenangabe erhalten Sie kurzfristig auf Anfrage. Ein Teilen oder Verteilen dieses Beitrags ist natürlich ohne weiteres möglich und gewünscht.

Schreiben Sie einen Kommentar

Ihre Mail-Adresse wird nicht veröffentlicht.

So kann Künstliche Intelligenz das Handelsblatt Morning Briefing ablösen