Dzięki modelowi sztucznej inteligencji DeepSeek-R1 Chinom udało się zawstydzić Amerykanów. DeepSeek-R1 jest znacznie bardziej wydajny niż ChatGPT OpenAI. Nawet bardzo małe odgałęzienia R1 są prawie tak dobre jak OpenAI o1 w ważnych testach porównawczych. Giełda zareagowała falą uderzeniową. Ludzie nawet nie zdawali sobie sprawy, że istnieje już inny model DeepSeek.
Wprowadzenie
Wszyscy znają ChatGPT. Wszyscy znają DeepSeek najpóźniej od "wczoraj". W szczególności inwestorzy kapitałowi prawdopodobnie zdali sobie sprawę, że coś wydarzyło się na rynku sztucznej inteligencji.
DeepSeek udostępnił darmowy plan, który może sprawić, że OpenAI stanie się zbędne.
Zostało to zademonstrowane przez DeepSeek-R1 i jego modele destylatów.
OpenAI utrzymuje swój najwyższy model ChatGPT (w tym o1, o3 itp.) w tajemnicy w nowszych wersjach i ukrywa szczegóły na jego temat przed opinią publiczną. DeepSeek, firma z Chin, z drugiej strony rozdaje swój topowy model, upubliczniając go. Szkoda dla OpenAI, które chciało zarobić na ChatGPT, ale prawdopodobnie nigdy nie wejdzie w strefę zysku.
Koszty tworzenia DeepSeek-R1 były znacznie niższe niż koszty ChatGPT w każdej nowszej wersji. Dodatkowo R1 może być uruchomiony w pełnym zakresie przez każde średniej wielkości przedsiębiorstwo. Mniejsze warianty działają nawet na laptopach. Uruchamianie samodzielnie oznacza: ładują model R1, kopiują go na swój serwer AI (lub laptop), wyłączając przy potrzebie połączenie z Internetem i mogą pracować całkowicie niezależnie z ich AI.
Modele sztucznej inteligencji DeepSeek można pobrać i obsługiwać autonomicznie na własnym serwerze lub laptopie.
Jest to bardzo przydatne w wielu zastosowaniach.
Jak dobry jest DeepSeek-R1?
Jakość modelu AI jest sprawdzana za pomocą benchmarków. Są to standardowe pytania testowe dla modelu. Jak dobrze model AI działa w konkretnym przypadku w Twoim przedsiębiorstwie, można tylko przez (proste, szybkie) próbowanie go wykonać. Musisz więc wiedzieć, do czego chcesz zastosować AI.
Testy porównawcze dają bardzo dobry wskaźnik tego, jak dobry jest model sam w sobie. Oto wyniki testów porównawczych opublikowane przez DeepSeek:

Słupek po lewej stronie przedstawia DeepSeek-R1, a drugi słupek model referencyjny OpenAI o1. Jak widać, R1 jest tak samo dobry jak o1. Wspomniane benchmarki są standardowe. Są one szczegółowe:
- AIME 2024: Mathematikprobleme
- Codeforces: Zadania programistyczne
- GPQA Diamond: GPQA oznacza Najwyższy poziom pytań i odpowiedzi, które są niezależne od Google. Pytania wielokrotnego wyboru
- MATH-500: Wnioski matematyczne
- MMLU (Measuring Massive Multitask Language Understanding): Większość pytań wielokrotnego wyboru z wielu dziedzin wiedzy
Odpowiedź na pierwszą pytanie: DeepSeek-R1 jest więc bardzo dobry. Model ten wykazuje pewne absolutnie celowe przesunięcia wiedzy. Krytyczne pytania polityczne odpowiada tak, jakby to było dla Chin dobre. Model jednak nie powinien być traktowany jako chatbot. W związku z tym jest to szczegół trochę drażniący, ale technicznie często nieistotny.
Jasność DeepSeek została potwierdzona przez niektórych użytkowników. Poniżej jest tłumaczenie z angielskiego na niemiecki raport testowy, który porównuje R1 i OpenAI o1 (poniżej cytowany):
- Dla logicznego wnioskowania R1 jest znacznie lepszy niż każde wcześniejsze SOTA-model do o1. Jest lepszy od o1-preview, ale o jedną klasę gorszy od o1. To pokazuje się również w testach ARC AGI.
- Matematyka: Tak samo w matematyce: R1 jest zabójcą, ale o1 jest lepszy.
- Kodowanie: Nie miałem czasu na grę, ale na pierwszy rzut oka jest on równy o1, a fakt, że kosztuje 20x mniej, czyni go praktycznym zwycięzcą.
- Pisanie: Tutaj R1 bierze prowadzenie. Przekazuje te same wrażenia co wcześniejszy Opus. Jest wolny, mniej cenzurowany, ma dużo więcej osobowości, jest łatwy do sterowania i jest bardzo kreatywny w porównaniu z innymi modelami, nawet w porównaniu z o1-pro.
Kurs na przyszłość
Każdy, kto śledzi rozwój sektora sztucznej inteligencji, zauważy kilka rzeczy:
- Modele AI stają się coraz lepsze.
- Lepsze modele sztucznej inteligencji stają się coraz mniejsze (nie są już "duże", jak wskazano w "Dużych modelach językowych").
- Metody szkoleniowe do tworzenia modeli sztucznej inteligencji stają się coraz bardziej wyrafinowane.
- Mniejsze istniejące modele AI można łatwo ulepszyć, konsultując się z nowymi modelami.
- Szybkość światła jest przecenieniem dla oznaczenia prędkości rozwoju.
Wszystko to stanowi dla OpenAI istotne zagrożenia.
Tekst źródłowy: Aber noch wichtiger is folgende Erkenntnis: Mit Hilfe des sogenannten Reinforcement Learning (verstärkendes Lernen) können ganz andere kleine, schon vorhandene AI-Modelle, noch deutlich besser gemacht werden. Man nimmt dazu die Antworten, die das Mastermodell R1 auf gestellte Fragen gibt und füttert sie in die kleineren Modele studenckie rein. Die Intelligenz der Schülermodelle bekommt dann einen enormen Schub und kann selbst besser Denken und conclusions ziehen. DeepSeek hat eine raffinierte Methode (emergente Selbstreflektion) beschrieben, damit das besonders gut funktioniert. Tłumaczenie: Ale jeszcze ważniejsze jest następujące odkrycie: Z pomocą tzw. Reinforcement Learning (uczenia się przez nagrodzenie) można znacznie poprawić już istniejące, małe modele AI. W tym celu odpowiedzi, które daje model R1 na zadane pytania są wprowadzane do mniejszych modeli uczniów, a ich [5] inteligencja [6] otrzymuje ogromny impuls i może samodzielnie lepiej myśleć i wnioskować. DeepSeek opisał raffiniowaną metodę (emergentną samoocenę), dzięki której to działa szczególnie dobrze.
Tak więc modele open-source takie jak Qwen-2.5 i Llama-3.1, które były już bardzo dobre, mogły być jeszcze lepsze z minimalnym nakładem pracy. OpenAI musi natomiast inwestować dużo czasu, energii i pieniędzy, aby osiągnąć lepsze wyniki. Podczas gdy OpenAI jest tajemnicą, postępy opisane powyżej są dostępne dla każdego w publicznie.
Laut Testbericht DeepSeek-R1 jest około 30 razy tańszy w użytkowaniu niż OpenAI o1 i około 5 razy szybszy od o1. Jest jeszcze taniej, jeśli chcesz intensywnie używać R1 i uruchamiać go na własnym serwerze. Poza tym istnieją odmiany R1, które nawet mogą być uruchomione na laptopie (lub w przypadku potrzeby również na smartfonie).
Odrost DeepSeek-R1
Jak widać na powyższym rysunku z benchmarkiem, istnieją inne modele z DeepSeek:
- DeepSeek-R1-32B
- DeepSeek-V3
DeepSeek-V3 został wydany pod koniec grudnia 2024 roku, więc jest już przestarzały (patrz "Prędkość światła"). Służył jako podstawa dla R1.
DeepSeek-R1-32B jest wersją destylowaną DeepSeek-R1, która ma 685 miliardów parametrów (685B). Wersja destylowana ma tylko 32 miliardy parametrów i może być uruchomiona na dostępnym serwerze AI. Destylacja oznacza, że jest to wydruk z większego modelu. Uwaga: różne źródła DeepSeek podają raz 685B i raz 671B parametrów.
Obok tego jednego ekstraktu, DeepSeek-R1-32B, istnieją jeszcze inne wersje, które wszystkie na tańszej sprzęcie mogą być uruchamiane samodzielnie. To tylko informacja dla tych, którzy nadal chcieliby korzystać z ChatGPT do automatyzacji procesów.
Dostępne warianty DeepSeek-R1 to (stan na 28/01/2025):
- DeepSeek-R1-32B: Drugi model z testu porównawczego. Odnosi się to do DeepSeek-R1-Distill-Qwen-32B
- DeepSeek-R1-Distill-Llama-8B
- DeepSeek-R1-Distill-Llama-70B
- DeepSeek-R1-Distill-Qwen-14B
- DeepSeek-R1-Distill-Qwen-7B
- DeepSeek-R1-Distill-Qwen-1.5B
Istnieje również DeepSeek-R1-Zero, który ma taki sam rozmiar modelu jak model główny. Zero przeszedł mniej procesów szkoleniowych niż główny model, więc jest nieco gorszy (ale wciąż lepszy niż wszystko, co OpenAI udało się osiągnąć przy rozsądnym budżecie).
Chociaż główny model, DeepSeek-R1, ma 685 miliardów parametrów, tylko 40 miliardów z nich jest aktywnych w dowolnym momencie. Jest to tak zwana architektura Mixture-of-Experts (MoE). To tak jak u ludzi: Spośród wszystkich neuronów w mózgu, nie wszystkie są aktywne podczas myślenia. Raczej tylko niewielka część neuronów jest aktywna, gdy na przykład mówisz. Reszta neuronów w mózgu odpoczywa i nie musi być aktywna.
DeepSeek-R1 jest "mały", ponieważ musi używać tylko niewielkiej części swoich wielu neuronów jednocześnie podczas myślenia.
Jest to niezwykle oszczędne rozwiązanie.
Mniejsza liczba jednocześnie aktywnych neuronów oznacza, że R1 może działać na tańszym sprzęcie. OpenAI powinno się tutaj wstydzić. Wynika to z faktu, że modele OpenAI wymagają infrastruktury serwerowej, która wykracza poza wyobraźnię. Z drugiej strony, R1 może być obsługiwany przez dowolne MŚP z rozsądnymi zasobami finansowymi.
Destylaty z R1 są tworzone przez tak zwaną destylację wiedzy. W tym celu główny model jest traktowany jako nauczyciel i odpytywany przez ucznia. Jest to analogiczne do tego, jak dziecko uczy się od swoich rodziców, z tym wyjątkiem, że do pewnego wieku dziecko jest (często) znacznie mniej inteligentne niż rodzice.
Każdy destylat został stworzony na podstawie istniejącego LLM. Raz użyto Llama-3.1-8B od lub Llama-3.3-70B-Instruct od Meta. Pozostałe destylaty bazują na różnych wariantach modelu Qwen-2.5 od Alibaba.
Szanse i zagrożenia
Wygląda na to, że coraz lepsze modele sztucznej inteligencji są publikowane w coraz szybszym tempie. OpenAI staje się przestarzałym modelem. ChatGPT, OpenAI o1 i wszystkie inne modele stają się coraz lepsze, ale także coraz droższe.
OpenAI utrzymuje swoje modele, algorytmy i dane w tajemnicy. DeepSeek robi dokładnie odwrotnie. Potok treningowy jest publiczny. Modele są publiczne i można je pobrać. Uruchamiamy model DeepSeek na notebooku AI. Na notebooku!
OpenAI jest zniszczone i nie osiągnie oczekiwanych zysków.
Modele open source to przyszłość.
Modele DeepSeek są naprawdę świetne. Zniszczyły wartości giełdowe. Co ciekawe również w dziedzinie energii („Siemens Energy: 20-procentowy upadek – fantazja AI zniknęła?“, komunikat z dnia 27.01.2025), ponieważ takie mniejsze modele jak te od DeepSeek mogą być uruchamiane na „tańszej” sprzęcie, podczas gdy OpenAI musi się martwić o energię. Inwestor Marc Andreesen komentował: "DeepSeek to jeden z najbardziej fascynujących i wrażliwych przełomów, jakie kiedykolwiek widziałem – a jako otwartego kodu, to prawdziwy dar dla świata" (Źródło: niezbyt przyjemne sieciowisko z literą przed Y).
Do czego można wykorzystać DeepSeek?
Nikt nie powinien mieć pomysłu na wykorzystanie DeepSeek w jego oryginalnej formie jako chatbota. Jednak wiedza przyjazna Chinom może być nieszkodliwa.
Poniższe przypadki użycia są ważniejsze niż nudny chatbot (fragment):
- Znajdowanie i kwestionowanie wiedzy o firmie
- Analizowanie faktur zgodnie z prawem łańcucha dostaw i obliczanie śladu węglowego
- Automatyczne tworzenie zaleceń dotyczących rozwiązywania zgłoszeń do pomocy technicznej
- Automatyczna klasyfikacja wiadomości, tekstów i innych dokumentów
- Automatycznie wyciągaj logiczne wnioski
- Rozwiązywanie problemów matematycznych
- etc.
To jest dokładnie to, co może się teraz odbywać całkowicie bez OpenAI i równie dobrze jak z OpenAI.
Upadek OpenAI
Obsługa AI bez OpenAI ma kilka zalet:
- Często lepsze wyniki
- Przewidywalne i zawsze niskie koszty
- Pełne bezpieczeństwo danych
- Pełna niezależność
- Możliwość dowolnej optymalizacji
- Wartość strategiczna
OpenAI ma przed sobą bardzo trudną przyszłość. OpenAI nie może rozwiązać tego problemu za pomocą lepszych modeli AI, ponieważ coraz lepsze modele AI są stale publikowane jako open source przez DeepSeek & Co.
| OpenAI | DeepSeek (and others) |
|---|---|
| Large models | Small models |
| Closed-Source | Open-Source |
|
Getting better, bigger, and more expensive |
Getting better, smaller, and cheaper |
|
Slow release cycles |
Light speed |
|
Progress through money and the most expensive personnel |
Progress through a huge open source community |
|
Operation: Energy problem, hardware problem |
Operation on standard AI servers or laptops |
OpenAI wkrótce będzie tak przestarzałe pod względem jakości, że będzie musiało znaleźć inne pole działalności. Oznaki tego pojawiły się już kilka miesięcy temu, ale nikt nie chciał tego dostrzec. Na przykład na olimpiadzie matematycznej AI zwycięzcą został model AI open source.
Jedynie integracja wyszukiwania internetowego, automatyzacja przeglądarek czy OpenAI Operator są wciąż w połowie wartymi uwagi kołami ratunkowymi. Jednak każdy lepszy programista AI może również zaprogramować takie systemy, ponieważ są one oparte na swobodnie dostępnych standardowych technologiach. Oznacza to, że OpenAI pozostanie interesujące co najwyżej dla indywidualnych użytkowników, którzy są zadowoleni z otrzymania dobrej funkcji za opłatą za dane. Wątpliwe jest, czy OpenAI będzie w stanie pokryć ogromne koszty sprzętu, energii i personelu.
Świat w stanie uśpienia
Oto tłumaczenie:Übrigens: Już istnieje nowy model DeepSeek: Janus-Pro. Janus-Pro jest modelem dwugłowym, aby pozostać w nazwaniu "Janus" wybranej przez DeepSeek. Janus-Pro to generujący i analizujący obrazy model. Możecie więc poprosić o generowanie obrazów lub załadujcie swoje obrazy do Janusa i zapytajcie o nie.
Rynek akcji został wyparowany przez DeepSeek-R1, a nie przez Janus-Pro.
Wiadomość o R1 dotarła na świat z opóźnieniem godnym epoki kamienia łupanego (ok. 7 dni po opublikowaniu modelu). W czasie krachu giełdowego Janus-Pro już istniał, ale nikt nie zdawał sobie z tego sprawy. Jesteś więc lepiej poinformowany niż większość.
Janus-Pro jest zgodnie z benchmarkami lepszy od DALL-E 3, ale tak mały, że może się wlać do kubka (lub działać na notebooku).
Das Geniale an R1
Nie chodzi tu głównie o to, że zostało opublikowane superwydajne model R1, który stawia OpenAI w konkurencji. Chodzi o to, że została opublikowana szablonka, dzięki której lepsze modele niż o1 mogą być tworzone. A to nie wszystko: te modele są mniejsze, lepsze i tańsze od modeli OpenAI i dodatkowo są wolne do użytku i każdorazowo replikowalne.
Jeśli OpenAI w przyszłości będzie miała szansę na osiągnięcie zysków, to tylko dzięki Superinteligencji. Wtedy jednak będziemy mieli inne wyzwania niż decyzja o automatyzacji procesów za pomocą AI. Bo ta Superinteligencja musiałaby pojawić się w ciągu kilku lat. W przeciwnym razie OpenAI prawdopodobnie będzie albo bankrutem, albo już nie istnieje.
Jak ktoś to ujął w komentarzu na forum AI:
W tym roku (2025, koniec stycznia) poczyniono już większe postępy w zakresie sztucznej inteligencji niż w całym 2024 roku.
To może być lekka przesada, ale prawdopodobnie nie jest to dalekie od rzeczywistości. Z każdym mijającym tygodniem stwierdzenie to staje się coraz bardziej trafne, a nawet niedopowiedziane.
Kto teraz nie myśli konkretnie o automatyzacji procesów w firmie przy pomocy AI, albo nigdy na to nie jest gotowy, albo używa komputera tylko do pisania faktur (handlarze itp.). W szczególności dla oddziałów rozwoju oprogramowania AI jest bardzo interesująca!



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
