Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen
Externe Links sind mit dem Symbol Externer Link Symbol gekennzeichnet. Datenschutzinfo

DeepSeek vs. ChatGPT: Faktencheck zum chinesischen KI-Sprachmodell

Deutsche Version (Original)
3
Dr. DSGVO Newsletter erkannt: Erweiterte Funktionen verfügbar
Artikel als PDF · Mehr Inhalte & kompakte Kernaussagen · Webseiten-Checks · Offline-KI Live
Standardansicht: Dr. DSGVO Newsletter nicht erkannt. Erweiterte Funktionen nur für Abonnenten:
Artikel als PDF · Mehr Inhalte & kompakte Kernaussagen · Webseiten-Checks · Offline-KI Live
📄 Artikel als PDF (nur für Newsletter-Abonnenten)
🔒 Premium-Funktion
Der aktuelle Beitrag kann in PDF-Form angesehen und heruntergeladen werden

📊 Download freischalten
Der Download ist nur für Abonnenten des Dr. DSGVO-Newsletters möglich

KI ist ein hochkomplexes Thema, das selbst viele Techniker nicht verstehen. Hinzu kommt eine Berichterstattung, die aus Gründen der notwendigen Vereinfachung oder einem Bedürfnis nach Aufmerksamkeit oft ungenau ist. Heraus kommen Aussagen, die ein verzerrtes Bild auf DeepSeek werfen. Das Wichtigste dazu im Klartext.

Einleitung

DeepSeek ist eine chinesische Firma. Kürzlich wurde von dieser Firma das Sprachmodell DeepSeek-R1 veröffentlicht. Es soll genauso gut und in Teilen auch besser als OpenAI’s Sprachmodell o1 sein („ChatGPT“).

Das führte dazu, dass Unternehmenswerte von KI-Firmen wie Nvidia am Boden lagen. Selbst die Datenschutzorganisation noyb berichtete dies in deren Newsletter vom 30.01.2025

Es wird oft so dargestellt, als ob DeepSeek deutlich effizienter sei als ChatGPT. Das stimmt in den relevanten Aspekten auch, in anderen aber eher weniger.

Dann liest man Schlagzeilen wie diese:

Stand: 30.01.2025, Quelle: https://www.epochtimes.de/politik/deutschland/deutsche-datenschuetzer-wollen-chinesische-deepseek-ki-ueberpruefen-medienbericht-a5022687.html

Daraus entsteht der Eindruck, als sei das chinesische Sprachmodell nicht sicher, weil Nutzerdaten womöglich missbraucht werden.

Die meisten der in der Öffentlichkeit kursierenden Aussagen dieser Art sind nicht voll zutreffend.

Fakten zu DeepSeek

Datenschutz & Datensicherheit

DeepSeek ist die Bezeichnung einer chinesischen Firma. Wenn DeepSeek stattdessen als Bezeichnung für ein Sprachmodell verwendet wird, muss man zwei Varianten unterscheiden:

  1. Cloud-Version, auch als „App“ bezeichnet
  2. Open Source Sprachmodell, völlig autark nutzbar

Die weiter oben genannte Berichterstattung, dass „DeepSeek“ wahrscheinlich Nutzerdaten missbrauche, kann sich nur auf die Cloud-Version („App“) beziehen. Denn das Open Source-Sprachmodell kann heruntergeladen und lokal betrieben werden, ganz ohne Internetverbindung. Ohne solche Verbindung können schlecht Nutzerdaten nach China wandern.

Das DeepSeek-Sprachmodell kann ohne jedes Sicherheitsrisiko genutzt werden.

Nämlich in der lokalen Version, die auf einem eigenen KI-Server laufen kann.

ChatGPT ist übrigens auch nicht unbedingt sicher. Amerikanische Geheimdienstgesetze erlauben es US-Behörden und US-Geheimdiensten, Daten von anderen abzugreifen. Das EU-US-Datenschutzabkommen DPF war sowieso nie viel Wert und nur ein Formalismus. Es basiert zudem auf einem Präsidialerlass von Joe Biden. Mit der Auflösung eines wichtigen Gremiums durch Trump wird es weiter entwertet. Der Präsidialerlass könnte ebenso jederzeit von Donald Trump für nichtig erklärt werden.

Zudem hat OpenAI sehr viel Spaß daran, Ihre Daten einzusammeln. Selbst, wenn Ihre ChatGPT-Daten nicht für das KI-Training verwendet werden, dann aber doch vielleicht für andere Zwecke! Etwa zum Auswerten der OpenAI-KI, die Sie dann immer abhängiger macht (Preiserhöhungen wurden bereits angekündigt).

Effizienz

Angeblich soll das Training von DeepSeek-R1 ca. 6 Millionen USD gekostet. Die tatsächlichen Kosten waren höher, denn diese Zahl bezieht sich nicht auf die Gesamtkosten und zudem auf das Basismodell DeepSeek-V3. Für ChatGPT wurde eine Summe von 100 Millionen USD berichtet.

Richtig ist auf jeden Fall:

  • DeepSeek-R1 kann auf deutlich günstigerer Hardware als ChatGPT betrieben werden
  • DeepSeek-R1 antwortet deutlich schneller als ChatGPT, weil es deutlich „kleiner“ ist
  • Der Betrieb von DeepSeek-R1 verbraucht somit deutlich weniger Energie

Warum ist DeepSeek-R1 kleiner als ChatGPT? Laut Angaben von DeepSeek ist R1 ein 685B Modell, besteht also aus 685 Milliarden Neuronenverbindungen. ChatGPT dürfte ähnlich groß sein. Also was jetzt?

DeepSeek-R1 arbeitet so wie das menschliche Gehirn: Wenn Sie sprechen, wird überwiegend das Sprachzentrum aktiviert. Beim Sprechen feuern also nur wenige aller Ihrer Neuronen im Gehirn. Technisch wird dies bei DeepSeek-R1 durch eine sogenannte Mixture of Experts-Architektur bewerkstelligt. Diese Architektur ist schon seit langem Allgemeingut. Sie wurde etwa bereits von Mistral verwendet.

Weil DeepSeek-R1 Open Source ist, kann es heruntergeladen und selbst betrieben werden. Um DeepSeek-R1 auf eigener Hardware laufen zu lassen, benötigt man einen Server, der ungefähr 30.000 Euro kostet. Das können sich viele Firmen leisten. ChatGPT hingegen wollen Sie nicht auf eigener Hardware laufen lassen, abgesehen davon, dass Sie es nicht können, weil OpenAI das nicht möchte und deswegen das Modell nicht veröffentlicht hat.

Qualität

In diversen Benchmarks schneidet DeepSeek-R1 genauso gut wie OpenAI o1 ab. Und das, obwohl R1 sehr viel effizienter und kleiner als ChatGPT ist. Nutzer berichten, dass R1 genauso gut wie ChatGPT sei, andere sehen R1 vorne.

Die chinesische Zensur hat einige Fakten aus dem Modell herausgelöscht oder verdreht eingespeichert. Demnach ist die Qualität bei einigen politischen Fragen schlecht.

Allerdings ist ein allgemeiner Chatbot ein denkbar schlechter Anwendungsfall für eine Unternehmens-KI. Insofern ist es fast egal, dass einige politische Fakten in R1 fragwürdig sind. Mit Standardverfahren wie Fine-Tuning oder RAG können Textanwendungen sehr gut mit R1 betrieben werden. Weitere Anwendungsfälle können mit R1 noch besser realisiert werden. Dazu gehören:

  • Firmenwissen befragen (Ihre Dokumente befragen),
  • Erfüllen der Pflichten aus dem Lieferkettengesetz, etwa durch Auswerten von Lieferanten-Dokumenten,
  • Erstellen von Zusammenfassungen, Übersetzungen oder Sprachvereinfachungen.
  • Programmier-Assistent

Vor allem der letzte Anwendungsfall ist hochinteressant. So gelang es dem Autor, innerhalb von wenigen Stunden das zu programmieren, was ansonsten mehrere Wochen Zeit gekostet hätte. Und das meist auf dem Sofa am Tipp-unfreundlichen Tablet und ohne Mikrofon-Nutzung. Es ist eben ein Unterschied, ob man 30 Minuten lang spaßbehaftet mit KI programmiert oder ob man im besten Fall das gleiche Ergebnis ohne Spaß nach 2 Tagen erreicht.

Weitere Vorteile von DeepSeek-R1 gegenüber ChatGPT

OpenAI bringt immer wieder mal ein Release oder eine neue Unterversion von ChatGPT heraus. Diese Varianten unterscheiden sich bezüglich der Beantwortung Ihrer Frage. Eine Konsistenz ist hier nicht gegeben. Ohne Konsistenz keine Zuverlässigkeit bei der Automatisierung von Prozessen.

OpenAI ist kostenpflichtig. Die Kostenlos-Version ist für Unzternehmen entweder irrelevant oder wird eben einfach genutzt. Die kostenpflichtige Chatbox hilft nicht bei der Automatisierung Ihrer Prozesse. Die kostenpflichtige Programmierschnittstelle (API) bringt Unsicherheiten mit sich: Wie oft wird man diese API wohl aufrufen müssen? Wie viele Daten müssen wohl an die API geschickt werden? Abhängig vom Umfang der Daten sind auch die Kosten für die API-Nutzung höher oder niedriger.

Updates finden dann statt, wenn OpenAI diese einplant. Das bedeutet auch, dass Updates nicht dann stattfinden, wenn Sie dies möchten. OpenAI als Lieferant bestimmt über die Version von ChatGPT, die Sie benutzen dürfen.

DeepSeek funktioniert so, wie Sie es erwarten können. Einmal heruntergeladen, antwortet es immer gleich. Tests und Benchmarks zeigen den dauerhaft gültigen Zustand.

DeepSeek kann zu Fixkosten betrieben werden, die im Wesentlichen aus dem Preis von Hardware (oder deren Miete) bestehen.

DeepSeek kann leicht durch andere Modelle oder neuere Modellvarianten ausgetauscht werden. Das passiert genau dann, wenn Sie es wollen. Unsicherheiten können durch Tests beseitigt werden. Generell ist es auch deswegen eine gute Idee, konkrete Anwendungsfälle mit KI lösen zu wollen. Diese kann man sehr gut beherschen und validieren.

Warum ist DeepSeek ein Urknall?

Es ist schon sehr erstaunlich, dass ein Sprachmodell wie R1 den Platzhirschen, ChatGPT, nach Meinung der breiten Öffentlichkeit schlägt. Und das, obwohl das Modell von DeepSeek kleiner ist. Auch wird DeepSeek weniger Mittel als OpenAI verwendet haben.

Was aber dem ganzen noch eins drauf setzt: DeepSeek-R1 wurde veröffentlicht und frei zugänglich gemacht. Plastisch beschrieben, bedeutet das:

  1. Jeder kann DeepSeek-R1 per Download einiger Dateien in Ihrem Browser auf Ihre Festplatte herunterladen.. Jeder
  2. Jeder kann dann R1 lokal auf seinem KI-Server installieren. Jeder.
  3. Jeder kann dann R1 so oft und lange nutzen, wie er oder sie es will. Es entstehen keine Zusatzkosten.

Im Gegensatz hier die Möglichkeiten, die ChatGPT bietet.

  1. Niemand kann ChatGPT herunterladen.
  2. Niemand kann ChatGPT für Automatisierungsaufgaben oder andere API-Verwendung nutzen, ohne eine unvorhersehbare Menge Geld dafür aufwenden zu müssen.

Die wahre Sensation

Das war aber noch nicht alles.

Die Krone setzt DeepSeek damit auf: DeepSeek verrät uns allen das Kochrezept zum Herstellen von DeepSeek-R1.

Das bedeutet:

  • Jeder kann sich einen ChatGPT-Klon bauen.
  • Niemand braucht mehr OpenAI.

Konkret ist folgendes von DeepSeek als Open-Source verfügbar:

  • Trainingsmethode von R1 als Konzept („Paper“)
  • Trainingsmethode von R1 als nutzbare Programmbibliothek (Python)
  • Destillat-Datensätze, die Wissen und verbalisierte Denkprozesse aus DeepSeek enthalten
  • Hauptdatensätze wie C4 oder The Pile, die seit langem Allgemeingut sind

Zur Veranschaulichung hier ein Auszug aus einem der genannten Destillat-Datensätze:

Datensatz OpenThoughts-114k, Auszug.

Und hier das veröffentlichte Backrezept, damit auch Ihr Unternehmen bei Bedarf ein neues KI-Modell in der Güte von ChatGPT backen kann:

Quelle: HuggingFace

Das war nur ein Auszug. Genannt und beschrieben sind auch weitere Feinheiten wie Multi-token Prediction.

Der Code zum Neuerschaffen von DeepSeek-R1 ist in der Transformers-Bibliothek in Python als Quellcode verfügbar.

DeepSeek hat jedem verraten, wie ChatGPT nachgebaut werden kann.

Das ist die eigentliche Sensation.

Weitere Sensationen

Nebenbei hat DeepSeek allen verraten, wie bestehende Sprachmodelle, die ziemlich klein sind, mit Hilfe eines Wissenstransfers auf einfache Weise noch intelligenter gemacht werden können.

Diese kleineren Modelle heißen Destillatmodelle. Ein solches Modell ist so klein, dass es günstiger Hardware betrieben werden kann. Einige dieser aufgeschlauten Modelle können auf einem Low Cost KI-Server betrieben werden. Das kleinste dieser Modelle kann zur Not auch auf einem modernen Smartphone installiert werden und ohne Internetverbindung betrieben werden!

Auch diese Destillatmodelle hat DeepSeek frei verfügbar gemacht.

Fazit

Ganzen Artikel jetzt über kostenfreien Dr. DSGVO Newsletter lesen.
Weitere Extras für Abonnenten:
Viele Artikel in PDF-Form · Kompakte Kernaussagen für Beiträge · Offline-KI · Freikontingent+ für Website-Checks
Schon Abonnent? Link im Newsletter anklicken & diese Seite auffrischen.
Newsletter abonnieren

KI-Beratung, KI-Lösungen

Umfassende Beratung (fachlich, rechtlich, technisch):

Leistungsangebot:

  • Erstberatung inkl. Machbarkeitsaussagen
  • Schulungen und Workshops für Führungskräfte, Berufsgeheimnisträger, Angestellte, Entwickler
  • KI-Lösungen mit und ohne ChatGPT/Azure. Cloud oder eigener KI-Server

Ihre Anfrage

Oder Mail an ki@dr-dsgvo.de

Wer schreibt hier?
Mein Name ist Klaus Meffert. Ich bin promovierter Informatiker und beschäftige mich seit über 30 Jahren professionell und praxisbezogen mit Informationstechnologie. In IT & Datenschutz bin ich auch als Sachverständiger tätig. Ich stehe für pragmatische Lösungen mit Mehrwert. Meine Firma, die IT Logic GmbH, berät Kunden und bietet Webseiten-Checks sowie optimierte & sichere KI-Lösungen an.
Bitte nutzen Sie bei Verwendung meiner Ergebnisse die Quellenangabe oder verlinken Sie gut wahrnehmbar auf diesen Artikel:
Einen Kurzlink oder eine Bestätigung für Ihre Quellenangabe erhalten Sie kurzfristig auf Anfrage. Ein Teilen oder Verteilen dieses Beitrags ist natürlich ohne weiteres möglich und gewünscht.

Kommentare von Lesern

Die Kommentare drücken die Meinungen der jeweiligen Kommentargeber aus
  1. Ray

    Vielen Dank Dr. Meffert, für diese Einordnung, wie immer sehr hilfreich. Mit welchen Größenordnungen muss man denn bei einem Download rechnen?

    Danke und beste Grüße

    • Dr. DSGVO

      Beim großen Hauptmodell R1 sind es ca. 700 GB.
      Bei den Destillatmodellen deutlich weniger, abhängig von der Variante. Für eine 7B Version beispielsweise ca. 15 GB

      Wenn Sie keinen KI-Rechner haben, würde ich an Ihrer Stelle die Zeit anders verwenden, als KI-Modelle zu installieren 😉

  2. Ray

    Vielen Dank, das hilft doch schon mal zur Einordnung.

Schreiben Sie einen Kommentar

Ihre Mail-Adresse wird nicht veröffentlicht.

DeepSeek-R1: Ein kleines Sprachmodell vaporisiert die Börse