Cerca

Esteri

Cina, la nuova potenza “aperta” dell’IA: perché l’America non può più ignorarla

La scalata silenziosa dei modelli cinesi aperti, dai download ai mercati globali: perché DeepSeek, Qwen e MiniMax stanno ridisegnando il potere tecnologico mondiale mentre l’Occidente discute

Cina, la nuova potenza “aperta” dell’IA: perché l’America non può più ignorarla

Cina, la nuova potenza “aperta” dell’IA: perché l’America non può più ignorarla

Una mattina di fine 2025, sulle piattaforme Hugging Face e OpenRouter, la classifica dei modelli di intelligenza artificiale (IA) più utilizzati cambia volto. I nomi storici statunitensi arretrano, mentre avanzano sigle fino a poco prima considerate di nicchia: DeepSeek, Qwen di Alibaba, Kimi K2 di Moonshot AI, M2 di MiniMax. Nel giro di poche settimane, i modelli “aperti” sviluppati in Cina superano quelli americani nei download e arrivano a rappresentare quasi la metà dell’uso globale dell’IA open source e circa il 13% dell’uso complessivo di IA nell’arco dell’anno. Non si tratta di una fluttuazione occasionale, ma di un segnale strutturale: l’ecosistema aperto è diventato uno dei principali campi di competizione strategica tra Washington e Pechino.

A mettere in fila dati e implicazioni è un’analisi di Le Monde, che parla apertamente di una sfida per gli Stati Uniti. Le cifre, confermate da ricerche indipendenti, descrivono un cambio di fase che l’Occidente non può più permettersi di osservare con distacco. Secondo lo studio “Economies of Open Intelligence” e i dati annuali di OpenRouter, basati su oltre 100 trilioni di token di utilizzo reale tracciati nel 2025, i modelli cinesi partivano da una quota settimanale di circa 1,2% a fine 2024. Nel corso del 2025 sono arrivati a picchi vicini al 30%, con una media annua intorno al 13%dell’uso globale di IA. All’interno del solo segmento open source, la loro quota sfiora la metà del traffico complessivo, trainata soprattutto da DeepSeek e Qwen. Nello stesso periodo, i modelli proprietari di OpenAI, Google e Anthropicmantengono circa il 70% dei token totali, ma l’asse dell’innovazione aperta si sposta chiaramente verso est.

Un secondo indicatore, elaborato da MIT (Massachusetts Institute of Technology) e Hugging Face, rafforza il quadro. Nel 2025, le nuove installazioni di modelli “open-weight” cinesi su Hugging Face raggiungono il 17% dei download globali, superando per la prima volta la quota statunitense, ferma al 15,8%. È un dato rilevante perché misura la diffusione lungo tutta la filiera degli sviluppatori, non solo l’uso via interfacce di programmazione (API).

ai

Il caso più emblematico è quello di DeepSeek. A gennaio 2025, il rilascio di DeepSeek-R1 e la diffusione di DeepSeek-V3 generano un’attenzione immediata sui mercati e nei media. In una singola seduta, Nvidia perde centinaia di miliardi di dollari di capitalizzazione. A colpire l’opinione pubblica è anche il costo dichiarato di addestramento di V3, stimato tra 5,5 e 5,6 milioni di dollari. Gli analisti chiariscono subito che si tratta di una stima parziale, ma il messaggio passa: l’efficienza è diventata un obiettivo strategico. Nei mesi successivi, inchieste di Reuters e CNBCconfermano la tendenza: modelli competitivi, costi ridotti e una forte rivendicazione dell’approccio open source da parte del fondatore Liang Wenfeng. In Cina, DeepSeek diventa il chatbot più utilizzato; in diversi Paesi occidentali supera temporaneamente ChatGPT nelle classifiche di download. Soprattutto, nei flussi misurati da OpenRouter, i suoi modelli sono il principale motore della crescita dei token open cinesi nel 2025.

Accanto a DeepSeek, si consolida Qwen, la famiglia di modelli di Alibaba. Dal 2024 in avanti, versioni come Qwen 2.5 e Qwen 3 vengono rilasciate con licenze sempre più permissive, spesso Apache 2.0 (Apache License 2.0), includendo capacità multimodali, funzioni di ragionamento avanzato e architetture MoE (Mixture-of-Experts). Nel 2025, Qwen compare stabilmente tra i modelli più scaricati al mondo ed è citato come riferimento per il rapporto tra costo e prestazioni nel segmento open.

La terza realtà chiave è Moonshot AI, con Kimi K2. Nel 2025, l’azienda rende pubblici pesi e istruzioni di un modello MoE con finestre di contesto molto ampie e una particolare attenzione a programmazione e ragionamento logico. Secondo fonti indipendenti, il modello raggiunge rapidamente i vertici delle classifiche di download, con aggiornamenti successivi che estendono il contesto fino a 256 mila token.

Più recente, ma significativa, è la traiettoria di MiniMax. Nell’autunno 2025, l’azienda rende open-weight il modello M2, orientato a flussi di lavoro agentici e al coding. In poche settimane emergono repository pubblici, guide per l’uso con vLLM (Very Large Language Model inference framework) e SGLang, oltre a demo accessibili. Sul piano finanziario, MiniMax avvia il percorso verso la quotazione a Hong Kong e, a inizio 2026, annuncia una domanda retail sovrascritta oltre mille volte. Un segnale chiaro: l’open source non è solo ricerca, ma anche mercato e accesso ai capitali.

La spiegazione più diffusa del vantaggio cinese punta sui vincoli imposti dai controlli statunitensi sull’export di chip avanzati. Con un accesso limitato alle GPU (Graphics Processing Unit) di ultima generazione, i laboratori cinesi hanno investito su tecniche come la distillazione dei modelli, le architetture MoE, l’ottimizzazione dell’attenzione sparsa e infrastrutture più leggere. Rendere aperti pesi e codici serve a catalizzare contributi esterni e ad accelerare l’adozione globale. Ma dietro c’è anche una scelta industriale più ampia: innalzare il livello minimo di prestazioni dell’ecosistema nazionale, ridurre le barriere per sviluppatori e piccole e medie imprese, esportare standard tecnologici. Analisi del Financial Times e studi congiunti MIT–Hugging Face mostrano come la quota cinese di download open abbia superato quella statunitense nell’ultimo anno.

I dati di OpenRouter indicano che nel 2025 i modelli aperti rappresentano circa il 30% dei token globali. Le aziende continuano a usare modelli chiusi, ma quando servono efficienza, personalizzazione e controllo dei dati, la scelta ricade sempre più spesso su DeepSeek, Qwen, Kimi K2 e MiniMax M2.

Negli Stati Uniti, il dibattito è acceso. Da un lato, esponenti del mondo accademico, aziende come Anthropic e molti decisori politici richiamano l’attenzione sui rischi di sicurezza legati al rilascio di modelli potenti. Dall’altro, cresce la consapevolezza che una strategia troppo restrittiva possa lasciare spazio alla diffusione globale di tecnologie cinesi. In questo contesto nasce, nell’estate 2025, l’ATOM Project (American Truly Open Models), un’iniziativa che chiede investimenti in grandi cluster di calcolo e rilasci open-weight rapidi. Anche l’Amministrazione statunitense riconosce il valore strategico dell’export tecnologico nei propri piani sull’IA. Figure come Eric Schmidt, ex amministratore delegato di Google, sottolineano che la leadership americana è nata in un contesto di ricerca aperta e collaborativa e che abbandonarlo ora sarebbe un errore strategico.

La competizione è anche culturale. I modelli linguistici riflettono, per costruzione, scelte su dati, filtri e criteri di moderazione. La diffusione globale di modelli aperti sviluppati in Cina implica che tali scelte vengano incorporate in scuole, pubbliche amministrazioni e imprese di altri Paesi. Non sorprende che alcune amministrazioni statunitensi abbiano limitato l’uso di DeepSeek e che la Casa Bianca parli di valore geostrategico dei modelli aperti occidentali.

In Europa, il Vertice di Parigi sull’IA del febbraio 2025 rilancia l’idea di una “terza via”: modelli aperti ma affidabili, cooperazione multilaterale e infrastrutture condivise. Il comunicato dell’Eliseo, insieme agli interventi di Emmanuel Macron e Ursula von der Leyen, insiste sull’accessibilità e sulla diversità dell’ecosistema come strumenti per evitare dipendenze tecnologiche.

Dal punto di vista tecnico, molte soluzioni cinesi puntano sulle architetture MoE, che attivano solo una parte dei parametri a ogni passo, riducendo i costi di inferenza. Per gli utenti, questo significa contesti più lunghi, fino a 128–256 mila token, e maggiore scalabilità anche in ambienti locali. Il filone dei modelli di “ragionamento” ha rafforzato l’adozione: DeepSeek-R1 ha mostrato come strategie di RL (Reinforcement Learning) possano produrre salti prestazionali con costi inferiori, anche se analisi di SemiAnalysis invitano a interpretare con cautela le stime circolate.

Rimangono zone d’ombra. Diversi studi segnalano una riduzione della trasparenza su dataset e pipeline di addestramento e la diffusione di licenze ibride che non sempre rispettano gli standard OSI (Open Source Initiative). Alcuni modelli includono limitazioni d’uso o filtri che sollevano interrogativi sulla loro adozione in contesti pubblici occidentali.

Per Italia ed Europa, la sfida è duplice. Da un lato, esiste una finestra per costruire un ecosistema competitivo basato su modelli aperti, supercalcolo condiviso e standard chiari. Dall’altro, l’adozione di modelli open cinesi richiede strumenti solidi di valutazione, audit e governance dei contenuti. Nel 2026, l’open source non è più una scelta ideologica: è una leva di politica industriale, un tema di sicurezza e uno strumento di influenza internazionale.

Fonti
Economies of Open Intelligence; OpenRouter; MIT; Hugging Face; Reuters; CNBC; Financial Times; SemiAnalysis; documenti del Vertice di Parigi sull’IA; dichiarazioni pubbliche di Eric Schmidt.

Commenti scrivi/Scopri i commenti

Condividi le tue opinioni su Giornale La Voce

Caratteri rimanenti: 400

Resta aggiornato, iscriviti alla nostra newsletter

Edicola digitale

Logo Federazione Italiana Liberi Editori