Immagine AI

La mattina del 2, ora locale statunitense, il servizio Claude, sviluppato da Anthropic, ha registrato un’interruzione di connessione su larga scala che ha reso temporaneamente inaccessibili il sito web e l’app mobile destinati al pubblico consumer. L’episodio si è verificato in un momento di espansione senza precedenti della base utenti, in un contesto di forte esposizione mediatica e di tensione istituzionale con il Dipartimento della Difesa degli Stati Uniti, creando un intreccio complesso tra fattori tecnici, dinamiche di mercato e implicazioni politiche.

Secondo i dati riportati dal servizio di monitoraggio DownDetector, intorno alle 6:40 del mattino (ora di New York) sono state segnalate circa 2.000 anomalie relative al servizio cloud associato a Claude. Anthropic ha confermato che i propri servizi rivolti ai consumatori erano offline, spiegando che l’interruzione era collegata a una domanda “senza precedenti” registrata nella settimana precedente. L’azienda ha precisato che l’incidente non ha coinvolto le integrazioni enterprise, ossia le organizzazioni che utilizzano i modelli Claude tramite API all’interno dei propri sistemi, circoscrivendo così l’impatto ai canali diretti di accesso pubblico.

Dal punto di vista infrastrutturale, un picco improvviso di traffico può mettere sotto pressione diversi livelli della stack tecnologica: bilanciamento del carico, orchestrazione dei container, provisioning dinamico delle istanze GPU, sistemi di caching e code di inferenza. In un servizio AI su larga scala, la saturazione può verificarsi non solo a livello di rete, ma anche nella disponibilità di acceleratori hardware dedicati all’elaborazione dei modelli linguistici. Un aumento repentino degli utenti gratuiti, combinato con un’espansione degli abbonati a pagamento e con l’adozione massiccia dell’app mobile, può generare colli di bottiglia nella gestione delle richieste concorrenti, specialmente quando il modello di punta richiede risorse computazionali elevate per garantire latenze competitive.

Anthropic ha comunicato che il problema è stato risolto intorno alle 10:50 dello stesso giorno, ripristinando la piena operatività dei sistemi. Parallelamente, l’azienda ha riconosciuto un degrado delle prestazioni relativo all’ultimo modello rilasciato, “Claude Opus 4.6”, per il quale era in corso una correzione. Il degrado prestazionale in modelli di grandi dimensioni può manifestarsi in tempi di risposta più lunghi, instabilità nella generazione o riduzione della qualità percepita, spesso a causa di ottimizzazioni ancora in fase di tuning o di carichi superiori alle previsioni iniziali di capacity planning.

L’interruzione si inserisce in una fase di crescita straordinaria per Claude. Secondo quanto dichiarato da Anthropic, il numero di utenti gratuiti è aumentato di oltre il 60% da gennaio, mentre gli abbonati a pagamento sono più che raddoppiati rispetto a ottobre dello scorso anno. L’app mobile ha inoltre raggiunto per diversi giorni il primo posto nella classifica delle app gratuite dell’App Store di Apple, segnale di una penetrazione significativa nel mercato consumer. Questa espansione non è avvenuta in un vuoto competitivo, ma in un momento di forte polarizzazione nel settore dell’AI generativa.

La crescita di interesse attorno a Claude è stata amplificata dal conflitto istituzionale con il Dipartimento della Difesa degli Stati Uniti. L’amministrazione guidata dal presidente Donald Trump ha ordinato alle agenzie federali di interrompere l’utilizzo della tecnologia di Anthropic dopo un periodo di grazia di sei mesi, mentre il Segretario alla Difesa Pete Hegseth ha classificato l’azienda come “rischio per la catena di approvvigionamento della sicurezza nazionale”. Questa designazione, con implicazioni potenzialmente rilevanti per l’accesso ai contratti governativi e per la reputazione istituzionale, ha acceso un dibattito pubblico sulla relazione tra aziende AI e apparato militare.

Anthropic ha reagito in modo deciso, minacciando azioni legali e definendo la misura “legalmente ingiustificata”. Il CEO Dario Amodei ha criticato la decisione qualificandola come ritorsiva e punitiva. La vicenda ha rapidamente assunto una dimensione sistemica, coinvolgendo non solo l’azienda ma l’intero ecosistema tecnologico statunitense.

Poco dopo l’esclusione di Anthropic, la rivale OpenAI ha annunciato un contratto per implementare i propri modelli su una rete classificata del Dipartimento della Difesa. L’azienda ha dichiarato che l’accordo rispetta principi che vietano la sorveglianza di massa domestica e richiedono responsabilità umana nell’uso di armi autonome. Tuttavia, parte dell’utenza ha reagito con proteste e richieste di cancellazione degli abbonamenti a ChatGPT, e si è registrato un passaggio di un numero significativo di utenti verso Claude, contribuendo indirettamente alla pressione sulla sua infrastruttura.

Nel frattempo, centinaia di professionisti del settore tecnologico hanno firmato una lettera aperta chiedendo al Dipartimento della Difesa di revocare la designazione di “rischio per la supply chain”. Tra i firmatari figurano rappresentanti di aziende come Slack, IBM e Salesforce. La lettera invoca una supervisione del Congresso, sostenendo che sanzionare aziende tecnologiche americane per aver rifiutato determinate richieste governative possa creare un precedente pericoloso per l’innovazione e la libertà imprenditoriale. Alcuni ricercatori hanno inoltre evidenziato che la possibilità di un abuso governativo dell’intelligenza artificiale dovrebbe essere considerata un rischio catastrofico sistemico, al pari di altre minacce ad alto impatto.

L’episodio dell’interruzione di Claude non può quindi essere interpretato esclusivamente come un evento tecnico. Esso rappresenta il punto di intersezione tra crescita esponenziale dell’adozione, limiti infrastrutturali tipici delle piattaforme AI su larga scala e un contesto politico altamente polarizzato. La resilienza operativa, la gestione elastica delle risorse cloud e la governance etica dell’intelligenza artificiale emergono come dimensioni interdipendenti. In un mercato in cui la fiducia degli utenti può spostarsi rapidamente in risposta a decisioni strategiche o istituzionali, la stabilità tecnica e la trasparenza diventano fattori competitivi centrali tanto quanto le prestazioni del modello.

Di Fantasy