Mentre la corsa globale allo sviluppo dell’Intelligenza Artificiale Generativa si intensifica, i modelli linguistici cinesi stanno rapidamente chiudendo il gap prestazionale con le loro controparti statunitensi più avanzate. Tuttavia, questo successo tecnologico porta con sé un corollario ineludibile e preoccupante: l’emergere di rischi di sicurezza e stabilità precedentemente sottovalutati. Analisi recenti suggeriscono che i sistemi di AI cinesi hanno ormai raggiunto un livello di “rischio limite”, una soglia critica che, se non gestita, potrebbe avere implicazioni catastrofiche per la sicurezza pubblica e l’ordine globale.

Un recente rapporto dell’organizzazione cinese di esperti di sicurezza AI, Concordia AI, ha lanciato un avvertimento chiaro, citato dal South China Morning Post: i principali modelli di intelligenza artificiale sviluppati da aziende cinesi, come DeepSeek, hanno ormai raggiunto la stessa soglia critica di rischio già associata ai modelli avanzati americani. La valutazione, che ha analizzato 50 modelli di punta, definisce questo “rischio limite” come la capacità potenziale dell’IA di causare conseguenze catastrofiche che vanno ben oltre i semplici errori operativi.

Le aree di rischio esaminate da Concordia AI sono quattro pilastri fondamentali della sicurezza: attacchi informatici, rischi biologici, rischi chimici e perdita di controllo umano. Il modello DeepSeeker-R1, in particolare, ha ottenuto il punteggio di rischio più elevato per quanto riguarda le capacità di esecuzione di attacchi informatici, evidenziando una crescente abilità dell’AI nel diventare uno strumento di aggressione cibernetica sofisticato.

Un altro risultato sbalorditivo riguarda Doubao Seed 1.6 di ByteDance, che per la prima volta ha superato gli esperti umani nella risoluzione di problemi complessi relativi ai protocolli di esperimenti biologici. Questa competenza è considerata dagli analisti strettamente correlata al potenziale rischio di sviluppare armi biologiche, un livello di capacità che il rapporto paragona esplicitamente a modelli di frontiera come GPT-5 di OpenAI e Grok-4 di xAI.

L’aumento dei punteggi di rischio in tutte le aree, con il rischio di perdita di controllo in aumento del 50% e il rischio biologico del 38% rispetto all’anno precedente, è stato attribuito primariamente allo sviluppo dei modelli di inferenza.

I modelli di inferenza rappresentano un’evoluzione significativa nella capacità dell’AI, poiché sono sottoposti a un processo di ragionamento logico più strutturato prima di generare una risposta. Questo non è un mero miglioramento della velocità, ma della profondità di comprensione e pianificazione del modello, conferendogli un livello di prestazioni che si avvicina alle capacità di ragionamento umano. Brian Che, CEO di Concordia AI, ha riassunto la situazione in modo diretto: “Man mano che i modelli di intelligenza artificiale raggiungono capacità di ragionamento di livello umano, diventano sempre più imprevedibili, rivelando i limiti degli attuali sistemi di gestione della sicurezza”.

L’imprevedibilità e la capacità di ragionamento logico a livello umano sollevano la possibilità che l’AI possa agire in modi non previsti o intenzionalmente pericolosi, anche senza istruzioni esplicite in tal senso, superando le misure di sicurezza finora implementate.

Di fronte a questi sviluppi, la reazione di mercato riflette una crescente consapevolezza del pericolo. Il rapporto di Concordia AI ha notato come, in risposta a rischi simili, i principali attori statunitensi come OpenAI e Anthropic abbiano rafforzato attivamente le loro misure di sicurezza, mantenendo livelli di rischio generale più bassi nonostante il miglioramento delle prestazioni. Questo suggerisce che l’implementazione di rigorosi sistemi di governance del rischio può mitigare, anche se non eliminare, le minacce poste dai modelli più potenti.

Anche il governo cinese ha mostrato segnali di crescente preoccupazione istituzionale. La Cyberspace Administration of China (CAC) ha recentemente pubblicato un documento che cita il rischio che i sistemi di AI sfuggano al controllo umano e ha approvato emendamenti alla sua legge sulla sicurezza informatica, includendo per la prima volta disposizioni sulla sicurezza dell’intelligenza artificiale e la segnalazione degli incidenti. Questi passi indicano che il tema della sicurezza AI sta passando dall’essere una questione di nicchia a una priorità strategica nazionale.

L’ascesa dei modelli cinesi a livelli di “rischio limite” non è solo una notizia di sicurezza informatica, ma un segnale che il potenziale di instabilità generato dall’AI non è più circoscritto a un’unica regione. La necessità di stabilire standard di sicurezza AI globali e condivisi è diventata un imperativo per garantire che la competizione tecnologica non si trasformi in una corsa sconsiderata verso l’autodistruzione e la perdita del controllo umano sui sistemi che governano le nostre vite.

Di Fantasy