Con il modello di intelligenza artificiale DeepSeek-R1, la Cina è riuscita a mettere in ginocchio gli americani. DeepSeek-R1 è significativamente più efficiente di ChatGPT di OpenAI. Anche le propaggini più piccole di R1 sono quasi altrettanto efficienti di OpenAI o1 in importanti benchmark. Il mercato azionario ha reagito con onde d'urto. La gente non si era nemmeno resa conto che esisteva già un altro modello di DeepSeek.
Introduzione
Tutti conoscono ChatGPT. Tutti conoscono DeepSeek al più tardi da "ieri". Gli investitori azionari, in particolare, si saranno probabilmente resi conto che è successo qualcosa nel mercato dell'IA.
DeepSeek ha reso disponibile gratuitamente un progetto che può rendere superfluo OpenAI.
Questo è stato dimostrato da DeepSeek-R1 e dai suoi modelli di distillato.
OpenAI mantiene segreto il suo modello di punta ChatGPT (compresi o1, o3 ecc.) nelle versioni più recenti e nasconde i dettagli su di esso al pubblico. DeepSeek, un'azienda cinese, invece, sta regalando il suo modello di punta rendendolo pubblico. Peccato per OpenAI, che voleva fare soldi con ChatGPT, ma che probabilmente non riuscirà mai a raggiungere la zona di profitto.
Costi per la creazione di DeepSeek-R1 sono stati notevolmente inferiori a quelli di ChatGPT in ogni versione più recente. Inoltre, R1 può essere gestito in forma completa da qualsiasi azienda media. Le varianti minori possono anche funzionare su laptop. Gestire da sé significa scaricare il modello R1, copiarlo sul proprio server di intelligenza artificiale (o laptop), disabilitare quindi la connessione internet quando necessario e poter così lavorare completamente autonomamente con l'intelligenza artificiale.
I modelli di intelligenza artificiale di DeepSeek possono essere scaricati ed eseguiti autonomamente sul proprio server o laptop.
È molto utile per numerose applicazioni.
Quanto è buono DeepSeek-R1?
La qualità di un modello di intelligenza artificiale viene verificata attraverso Parametri di riferimento. Sono delle domande di prova standardizzate rivolte al modello. Quanto bene un modello di IA sia per una applicazione specifica nel vostro azienda può essere scoperto solo attraverso (facile, veloce) sperimentazione per l'applicazione specifica in questione. Dovete semplicemente sapere a cosa volete utilizzare l'IA.
I benchmark danno un'ottima indicazione della bontà di un modello in sé. Ecco i risultati dei benchmark pubblicati da DeepSeek stesso:

La barra di sinistra è quella di DeepSeek-R1, la seconda barra è quella del modello di riferimento OpenAI o1. Come si può notare, R1 è altrettanto valido di o1. I benchmark citati sono standard. Sono in dettaglio:
- AIME 2024: Mathematikprobleme
- Codeforces: compiti di programmazione
- GPQA Diamond: GPQA sta per Un benchmark di domande e risposte a livello universitario, Google-proof. Domande multiple scelta
- MATH-500: Conclusioni matematiche
- MMLU (Misurazione della comprensione linguistica multitasking di massa): Domande multiple scelta da molti campi del sapere
Per rispondere alla domanda all'inizio: DeepSeek-R1 è quindi molto buono. Il modello presenta alcune trasformazioni intenzionali di conoscenza. Risponde alle questioni politiche critiche in modo da piacere a Cina. Tuttavia, il modello non deve essere considerato come un chatbot. In questo senso, questo dettaglio è sconcertante, ma dal punto di vista tecnico spesso è irrilevante.
La qualità di DeepSeek è stata confermata da alcuni utenti. Ecco un testo di recensione tradotto dall'inglese in italiano , che confronta R1 e OpenAI o1 (come segue, come citazione):
- Per il logico ragionamento R1 è molto meglio di ogni precedente modello SOTA fino a o1. È migliore rispetto a o1-preview, ma una categoria sotto o1. Ciò si riflette anche nel test ARC AGI.
- Matematica: Per la matematica vale lo stesso: R1 è un killer, ma o1 è meglio.
- Codifica: Non sono riuscito a giocare molto, ma in superficie è pari a o1, e il fatto che costi 20x meno lo rende un vincitore pratico.
- Scrittura: Ecco R1 prende il comando. Es trasmette le stesse impressioni dell'opera precedente. È libera, meno censurata, ha molto più personalità, è facile da guidare e si dimostra molto creativa rispetto agli altri modelli, anche rispetto a o1-pro.
La rotta del futuro
Chiunque segua gli sviluppi nel settore dell'intelligenza artificiale noterà diverse cose:
- I modelli di intelligenza artificiale migliorano sempre di più.
- I migliori modelli di intelligenza artificiale stanno diventando sempre più piccoli (non sono quasi più "grandi", come indicato in "Modelli linguistici di grandi dimensioni").
- I metodi di addestramento per la creazione di modelli di intelligenza artificiale stanno diventando sempre più sofisticati.
- I modelli di IA esistenti più piccoli possono essere facilmente migliorati consultando nuovi modelli.
- La velocità della luce è una sottolineatura per la designazione della velocità delle evoluzioni.
Tutte queste cose rappresentano per OpenAI minacce esistenziali.
Un aspetto ancora più importante è la seguente scoperta: con l'aiuto del cosiddetto Apprendimento per Rinforzo (apprendimento di rinforzo), si possono migliorare notevolmente modelli di intelligenza artificiale già esistenti e piccoli. Si prendono le risposte che il modello master R1 dà alle domande poste e si alimentano queste risposte nei modelli studenti più piccoli. L'intelligenza dei modelli studenti riceve poi un enorme impulso e può pensare meglio e trarre conclusioni migliori. DeepSeek ha descritto una sofisticata metodologia (riflessione emergente) per far funzionare questo processo in modo particolarmente efficace. ([1])
Così i modelli open-source come Qwen-2.5 e Llama-3.1, che erano già molto buoni di per sé, potevano essere migliorati ancora di più. Con un minimo sforzo. OpenAI deve invece investire molto tempo, energia e denaro per ottenere risultati migliori. Mentre OpenAI è un segreto, questi progressi si verificano in pubblico e sono liberi per tutti.
Il test report è che DeepSeek-R1 costa circa 30 volte meno di OpenAI o1 e circa 5 volte più veloce di o1. Si può essere ancora più economici se si utilizza intensivamente R1 e lo si esegue su un proprio server. Inoltre, ci sono versioni di R1 che possono essere eseguite anche su un laptop (o in caso di emergenza anche su uno smartphone). ([1])
Derivazione di DeepSeek-R1
Come si può vedere nella figura precedente con il benchmark, ci sono altri modelli di DeepSeek:
- DeepSeek-R1-32B
- DeepSeek-V3
DeepSeek-V3 è stato rilasciato alla fine di dicembre 2024, quindi è già obsoleto (vedi "Velocità della luce"). È servito come base per R1.
DeepSeek-R1-32B è una versione distillata di DeepSeek-R1, che ha 685 miliardi di parametri (685B). La versione distillata ha solo 32 miliardi di parametri e quindi può essere eseguita su un server di intelligenza artificiale accessibile. Distillato significa che è un estratto dal modello più grande. Nota a margine: diverse fonti di DeepSeek riportano una volta 685B e una volta 671B parametri.
Oltre a questo unico estratto, DeepSeek-R1-32B, esistono altre varianti che tutte possono essere gestite con hardware più economico. Ciò solo per informazione per tutti coloro che ancora vogliono utilizzare ChatGPT per l'automatizzazione di processi.
Le varianti di DeepSeek-R1 sono (al 28/01/2025):
- DeepSeek-R1-32B: modello secondario del benchmark. Si riferisce a DeepSeek-R1-Distill-Qwen-32B
- DeepSeek-R1-Distill-Llama-8B
- DeepSeek-R1-Distill-Llama-70B
- DeepSeek-R1-Distill-Qwen-14B
- DeepSeek-R1-Distill-Qwen-7B
- DeepSeek-R1-Distill-Qwen-1.5B
Esiste anche DeepSeek-R1-Zero, che ha le stesse dimensioni del modello principale. Zero è stato sottoposto a un numero inferiore di processi di addestramento rispetto al modello principale, quindi è leggermente peggiore (ma comunque migliore di qualsiasi cosa OpenAI sia riuscita a ottenere con un budget ragionevole).
Sebbene il modello principale, DeepSeek-R1, abbia 685 miliardi di parametri, solo 40 miliardi di essi sono attivi in qualsiasi momento. Si tratta di una cosiddetta architettura Mixture-of-Experts (MoE). È come negli esseri umani: Di tutti i neuroni del cervello, non tutti sono attivi quando si pensa. Piuttosto, solo una piccola parte dei neuroni è attiva quando si parla, ad esempio. Il resto dei neuroni del cervello è a riposo e non ha bisogno di essere attivo.
DeepSeek-R1 è "piccolo" perché deve usare solo una piccola parte dei suoi numerosi neuroni contemporaneamente quando pensa.
Si tratta di un'operazione che consente un notevole risparmio di risorse.
Questo numero ridotto di neuroni attivi simultaneamente significa che R1 può funzionare su un hardware meno costoso. OpenAI dovrebbe vergognarsi. Infatti, i modelli OpenAI richiedono infrastrutture server al di là di ogni immaginazione. R1, invece, può essere gestito da qualsiasi PMI con risorse finanziarie ragionevoli.
I distillati di R1 sono creati dalla cosiddetta distillazione della conoscenza. A questo scopo, il modello principale viene assunto come insegnante e interrogato da uno studente. Questo è analogo al modo in cui un bambino impara dai suoi genitori, con la differenza che fino a una certa età il bambino è (spesso) molto meno intelligente dei genitori.
Ogni distillato è stato creato sulla base di un LLM esistente. Una volta è stato utilizzato Llama-3.1-8B di Meta o Llama-3.3-70B-Instruct di Meta. Gli altri distillati sono basati su diverse varianti del modello Qwen-2.5 di Alibaba.
Opportunità e rischi
Sembra che vengano pubblicati modelli di IA sempre migliori a una velocità sempre maggiore. OpenAI sta diventando un modello fuori produzione. ChatGPT, OpenAI o1 e tutti gli altri modelli stanno diventando sempre migliori, ma anche sempre più costosi.
OpenAI mantiene segreti i suoi modelli, algoritmi e dati. DeepSeek fa esattamente il contrario. La pipeline di addestramento è pubblica. I modelli sono pubblici e possono essere scaricati. Eseguiamo un modello DeepSeek su un notebook AI. Su un notebook!
OpenAI è distrutta e non raggiungerà le aspettative di profitto.
I modelli open source sono il futuro.
I modelli DeepSeek sono estremamente buoni. Hanno distrutto valori azionari. Anche nel settore energetico ( "Siemens Energy: 20% crash – fantasia di intelligenza artificiale via?", comunicato stampa del 27.01.2025), perché modelli più piccoli come quelli di DeepSeek possono essere eseguiti su "hardware meno costoso", mentre OpenAI deve sprecare energia. L'investitore Marc Andreesen ha commentato: "DeepSeek è uno dei più grandi e impressionanti progressi che abbia mai visto – e come open-source, un dono profondo al mondo" (fonte: rete evitabile con lettera prima di Y).
Per cosa può essere utilizzato DeepSeek?
Nessuno dovrebbe avere l'idea di utilizzare DeepSeek nella sua forma originale come chatbot. Tuttavia, la conoscenza della Cina può essere resa innocua.
I seguenti casi d'uso sono più importanti di un noioso chatbot (estratto):
- Trovare e interrogare le conoscenze aziendali
- Analizzare le fatture dovute alla legge sulla catena di fornitura e calcolare l'impronta di CO₂
- Creare automaticamente raccomandazioni per la risoluzione dei ticket di assistenza
- Classificazione automatica di messaggi, testi e altri documenti
- Trarre conclusioni logiche in modo automatico
- Risolvere problemi di matematica
- Eccetera.
Questo è esattamente ciò che può avvenire ora senza OpenAI, e altrettanto bene con OpenAI.
La scomparsa di OpenAI
Il funzionamento dell'IA senza OpenAI presenta diversi vantaggi:
- Risultati spesso migliori
- Costi prevedibili e sempre bassi
- Completa sicurezza dei dati
- Completa indipendenza
- Può essere ottimizzato a piacere
- Valore strategico
OpenAI ha un futuro molto difficile davanti a sé. OpenAI non può risolvere questo problema con modelli di AI migliori, perché modelli di AI sempre migliori vengono costantemente pubblicati come open source da DeepSeek & Co.
| OpenAI | DeepSeek (and others) |
|---|---|
| Large models | Small models |
| Closed-Source | Open-Source |
|
Getting better, bigger, and more expensive |
Getting better, smaller, and cheaper |
|
Slow release cycles |
Light speed |
|
Progress through money and the most expensive personnel |
Progress through a huge open source community |
|
Operation: Energy problem, hardware problem |
Operation on standard AI servers or laptops |
OpenAI sarà presto così obsoleto in termini di qualità che dovrà trovare un altro campo di attività. I segnali di ciò erano già presenti mesi fa, ma nessuno voleva vederli. Alle Olimpiadi di matematica dell'intelligenza artificiale, ad esempio, il vincitore è stato un modello di intelligenza artificiale open source.
Solo l'integrazione della ricerca su Internet, l'automazione dei browser o l'OpenAI Operator sono ancora delle linee di vita degne di nota. Tuttavia, qualsiasi programmatore di IA più bravo può programmare anche questi sistemi, poiché si basano su tecnologie standard liberamente disponibili. Ciò significa che OpenAI rimarrà interessante al massimo per i singoli utenti che sono felici di ricevere una buona funzione a fronte di un compenso in dati. Non è certo che OpenAI sarà in grado di coprire i suoi immensi costi di hardware, energia e personale.
Il mondo in sonno
Altre cose: Esiste già un nuovo modello di DeepSeek: Janus-Pro. Janus-Pro è un modello a due teste, per mantenere la denominazione scelta da DeepSeek "Janus". Janus-Pro è sia un generatore di immagini che un riconoscitore di immagini. Potete quindi chiedere di creare delle immagini o caricarne alcune in Janus e fare domande sulle stesse.
Il mercato azionario è stato vaporizzato da DeepSeek-R1 e non da Janus-Pro.
La notizia di R1 è arrivata nel mondo con un ritardo da pietra (circa 7 giorni dopo la pubblicazione del modello). Al momento del crollo del mercato azionario, Janus-Pro esisteva già, ma nessuno se ne era accorto. Siete quindi più informati di molti altri.
Janus-Pro è secondo i benchmark meglio di DALL-E 3, ma così piccolo che può stare in un cappello da fiori (o essere utilizzato su un notebook).
Il genio di R1
Non si tratta principalmente del fatto che con R1 sia stato pubblicato un modello superefficace che fa concorrenza ad OpenAI. Si tratta del fatto che è stata pubblicata la blueprint per crearli. Tutti gli scienziati di intelligenza artificiale del mondo sanno ora come creare modelli migliori di o1. E non basta: questi modelli sono più piccoli, migliori, meno costosi dei modelli di OpenAI e inoltre sono gratuiti e riproducibili in qualsiasi momento.
Se OpenAI dovesse mai realizzare profitti in futuro, lo farebbe probabilmente solo con una Superintelligenza. Allora avremmo problemi diversi da quello di decidere quale tipo di intelligenza artificiale utilizzare per automatizzare i processi aziendali. Infatti questa superintelligenza dovrebbe emergere in pochi anni. Altrimenti OpenAI sarebbe probabilmente fallita o obsoleta entro quel periodo.
Come ha detto qualcuno in un commento su un forum di AI:
Quest'anno (2025, fine gennaio) sono già stati compiuti più progressi nell'IA che nell'intero 2024.
Forse si tratta di una leggera esagerazione, ma probabilmente non è molto lontana dalla realtà. Ogni settimana che passa, questa affermazione diventa più accurata o addirittura un eufemismo.
Chi non riflette ancora in modo concreto su come automatizzare processi aziendali utilizzando l'intelligenza artificiale, è o non lo sarà mai o usa i computer solo per scrivere fatture (artigiani ecc.). In particolare per le sezioni di sviluppo software l'IA è estremamente affascinante!



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
