DeepSeek ist einerseits unsicher (die Cloud App) und andererseits sehr sicher (das Open-Source Modell). In diesem Fokuspapier zu DeepSeek, das aus der KI Expertengruppe des IT Klub Mainz & Rheinhessen hervorgeht, werden die Hintergründe zu DeepSeek, der App und den verschiedenen DeepSeek-Modellen aufgegriffen. Vorab: Jedes Unternehmen kann mit Open-Source KI mehr erreichen als mit ChatGPT.
Was ist DeepSeek?
Mit „DeepSeek“ wird vor allem das außergewöhnliche Sprachmodell namens R1 bezeichnet, das von einer chinesischen Firma namens „DeepSeek“ veröffentlicht wurde. KI-Sprachmodelle werden auch als LLMs bezeichnet, was für „Large Language Model“ steht.
Was mit einem DeepSeek Open-Source Modell möglich ist, ist grundsätzlich auch möglich mit den leistungsfähigen Open-Source Modellen anderer Anbieter (auch aus Europa) .
Mit R1 ist es DeepSeek gelungen, ein Sprachmodell zu erzeugen, das ähnlich gut wie „ChatGPT“ ist. DeepSeek hat für Aufsehen gesorgt, weil deren App aufgrund der Qualität von R1 innerhalb kürzester Zeit alle Rekorde brach und so maximale Aufmerksamkeit erhielt.
Was macht DeepSeek so besonders?
Aufgrund zahlreicher herausragender Eigenschaften hat DeepSeek den KI-Markt durchgewirbelt. Die DeepSeek-App wurde innerhalb kürzester Zeit zu der am meisten heruntergeladenen App. Einige der Gründe für den Erfolg:
Hoher Intelligenzfaktor
DeepSeek-Modelle können eine sehr große Anzahl an Neuronen haben, während sie nur einen Bruchteil davon pro Aufgabenstellung benötigen. DeepSeek hat zudem raffinierte Trainingsmethoden erfunden.
Effizienteres Training und Antwortverhalten
Durch die selektive Aktivierung von Experten reduziert sich der Rechenaufwand erheblich im Vergleich zu Modellen, deren neuronales Netz immer vollständig aktiviert ist.
Geringere Kosten
Durch die selektive Modellarchitektur sind die Kosten für den Betrieb deutlich geringer als bei Modellen wie ChatGPT von OpenAI.
Quelloffen & sicher
Jeder kann zu „OpenAI“ werden: DeepSeek-Modelle sind frei verfügbar und können lokal betrieben werden. Die lokale Version kommt ohne jeglichen Datentransfer aus. Die folgende Grafik illustriert dies:

Durch einfachen Datei-Download können Open-Source KI Modelle in KI-Systeme eingepflanzt werden. Das Modell sendet keine Daten irgendwohin. Stellen Sie sich analog eine Textdatei vor, die mit nichts und niemandem kommunizieren kann.
Erfolgsrezept veröffentlicht
DeepSeek hat zu allem Überfluss verraten, wie jeder selbst ein KI-Modell erstellen kann, dass ChatGPT Konkurrenz machen kann.
Was bedeutet „DeepSeek“?
Der Begriff „DeepSeek“ wird oft als Synonym für verschiedene Begriffe verwendet, die unterschiedliche Bedeutungen haben:
| Begriff | Bedeutung | Eigenschaften |
|---|---|---|
| DeepSeek | Chinesische Firma | „KI-Rezept“ verschenkt, Startup?, Geniestreiche |
| DeepSeek R1 | Leistungsfähiges Sprachmodell | Open-Source, Sehr leistungsfähig, Beste Datensicherheit |
| DeepSeek App | Anwendung für Smartphones | Keine Datensicherheit, Vaporisierte die Börse, basiert auf R1 |
| Destillatmodelle | Aufgeschlaute LLMs mit kompakter Größe | Open-Source, Beste Datensicherheit, R1 war der Lehrer |
Ist DeepSeek sicher?
App für Smartphones (Cloud-Variante)
Die DeepSeek-App gilt als ausgesprochen unsicher. Sie sollte generell nicht verwendet werden, auch nicht für rein private Zwecke.
Open-Source Varianten
Die Open-Source Modelle von DeepSeek, inklusive der handlichen Destillatmodelle, können heruntergeladen und komplett lokal/autark auf eigener Hardware betrieben werden. Sie bieten aufgrund dessen völlige Datensicherheit. Ein Datentransfer hin zu Dritten kann ausgeschlossen werden. Somit sind KI-Modelle von DeepSeek in der Open-Source Variante sicherer als Cloud-Lösungen wie die von OpenAI oder Microsoft.
Gespeichertes Wissen
In jedem KI-Modell ist über die Trainingsdaten eine riesige Menge an Weltwissen gespeichert. DeepSeek als chinesische Firma hat aus politischen Motiven einige Fakten verdreht und im angebotenen Flaggschiff-Modell R1 in fragwürdiger Weise abgespeichert. Mittlerweile gibt es Modelle, die dies korrigiert haben.
Bei KI-Anwendungen, die Firmenwissen befragen, wird bei weit verbreiteten Verfahren wie RAG grundsätzlich das Firmenwissen bevorzugt und das chinesische Imperativ unterdrückt und unschädlich gemacht.
Was bedeutet „Mixture of Experts“?
„Mixture of Experts“ (MoE) ist eine Architektur für neuronale Netzwerke, bei der mehrere spezialisierte Teilnetzwerke (die „Experten“) parallel existieren, während ein Routing-Mechanismus (der „Gatekeeper“) entscheidet, welche Experten für die jeweils aktuelle Aufgabe aktiviert werden sollen.
Der Transformer-Ansatz
Transformer ist ein weit verbreiteter KI-Ansatz für „intelligente“ Modelle. Bei herkömmlichen Transformer-Modellen werden für jede Befragung alle Parameter des Modells verwendet. MoE-Modelle hingegen teilen ihre Kapazitäten in mehrere spezialisierte Subnetze auf, die jeweils für bestimmte Arten von Eingaben oder Aufgaben optimiert sind.
Optimierte Architektur
Wenn ein MoE-Modell eine Eingabe erhält, nutzt es zunächst einen Router (auch als „Gating Network“ bezeichnet). Der Router entscheidet, welche der verfügbaren Experten für diese spezifische Aufgabe am besten geeignet sind. Typischerweise werden dabei nur ein bis zwei Experten pro Token aktiviert, während die anderen inaktiv bleiben.
Andere MoE-Modelle
DeepSeek hat den MoE-Ansatz nicht etwa erfunden (wohl aber andere Innovationen hervorgebracht). Beispielsweise hat schon das französische Unternehmen Mistral Ende 2023 ein Modell mit dieser Architektur bereitgestellt.
Wie ist DeepSeek R1 aufgebaut?
DeepSeek-Modelle verarbeiten Eingaben, indem je nach Fragestellung nur wenige Teile des elektronischen Gehirns aktiviert werden – die sogenannten Experten.

den entsprechenden Experten zu. Das Diagramm wurde KI-unterstützt generiert.
Diese Architektur bietet mehrere wesentliche Vorteile gegenüber herkömmlichen Modellen mit dichter Struktur und erklärt, warum MoE-Modelle wie DeepSeek-MoE mit vergleichsweise geringem Rechenaufwand sehr leistungsfähig sein können. Das Prinzip ist vergleichbar mit dem menschlichen Gehirn: Beim Sprechen wird überwiegend das Sprachzentrum beansprucht, und andere Teile werden kaum oder gar nicht aktiv.
Wichtige Komponenten eines MoE-Modells
MoE-Modelle wie DeepSeek R1 nutzen folgende Innovationen:
- Router-Netzwerk: Bestimmt, welche KI-Experten für welchen Teil der Eingabe (Token) aktiv werden.
- Experten-Netzwerke: Spezialisierte neuronale Netze, die jeweils auf bestimmte Aufgaben trainiert sind.
- Experten-Gewichte: Die vom Router berechneten Gewichte, die bestimmen, wie stark jeder Experte zum Endergebnis beiträgt.
- Gewichtete Summe: Kombiniert die Ausgaben der verschiedenen Experten basierend auf den vom Router zugewiesenen Gewichten.
Zusammengefasst
- Open-Source KI-Modelle werden immer besser und effizienter.
- Modelle wie DeepSeek R1 können auf erschwinglicher Hardware selbst betrieben werden.
- Lokale Implementierungen verbessern die Ergebnisqualität und sparen bei intensiverer Nutzung Kosten.
- Die DeepSeek-App (Cloud) sollte keinesfalls genutzt werden.
- Die Anleitung zum Erstellen von „ChatGPT 2.0“ ist für jeden öffentlich verfügbar und frei nutzbar.
- Open-Source Modelle schaffen Unabhängigkeit von Cloud-Diensten und Apps Dritter.
Über die KI Expertengruppe des IT Klub
Der IT Klub kann von Hause aus geballte IT-Kompetenz nachweisen. Die KI Expertengruppe unterstützt mit praxisnahen Angeboten und Empfehlungen zu technischen und rechtlichen Aspekten. Maßgeschneiderte Lösungen für intelligente KI-Assistenten und gezielte Weiterbildungen sind im Fokus.
Über den IT Klub
Der IT Klub Mainz & Rheinhessen wurde mit dem Ziel gegründet, eine Branchenvertretung für Unternehmen in der Region zu sein. Der IT Klub als Netzwerk bietet seinen Mitgliedern Wissenstransfer, Weiterbildung, Nachwuchsförderung und Standortmarketing.
Randnotiz
Dieser Artikel wurde mit Hilfe von KI als Extrakt aus dem PDF erzeugt (aber nicht nur alleine mit KI).
Der Textauszug zu diesem Beitrag, den nur Suchmaschinen sehen, wird „Excerpt“ genannt. Er wurde ebenfalls mit Hilfe von KI erstellt.
Das Bild zum Beitrag wurde mit KI generiert. Die beiden Diagramme wurden auch mit KI-Unterstützung generiert.
Das PDF zum Download wurde, bis auf den Inhalt, wieder mit Hilfe von KI erstellt:

Auch diese Mini-Illustration „KI-unterstützte Erstellung“ wurde mit KI generiert. Langsam wird es langweilig (aber im positiven Sinne!) …
Wer über KI spricht und KI-Beratung sowie KI-Lösungen anbietet, sollte auch selbst KI nutzen. Genau das passiert hier. Weitere Beispiele folgen in zukünftigen Beiträgen, etwa die hocheffiziente Generierung von Programm-Code durch KI-Assistenten (KI-Programmierung).
KI-Beratung, KI-Lösungen
Leistungsangebot:
- Erstberatung inkl. Machbarkeitsaussagen
- Schulungen und Workshops für Führungskräfte, Berufsgeheimnisträger, Angestellte, Entwickler
- KI-Lösungen mit und ohne ChatGPT/Azure. Cloud oder eigener KI-Server

gekennzeichnet.


Mein Name ist Klaus Meffert. Ich bin promovierter Informatiker und beschäftige mich seit über 30 Jahren professionell und praxisbezogen mit Informationstechnologie. In IT & Datenschutz bin ich auch als Sachverständiger tätig. Ich stehe für pragmatische Lösungen mit Mehrwert. Meine Firma, die