Immagine AI

Claude Code, l’agente di codifica basato sull’intelligenza artificiale sviluppato da Anthropic, ha recentemente suscitato preoccupazioni tra gli utenti a causa di restrizioni d’uso improvvise e poco chiare. Secondo quanto riportato da TechCrunch, a partire dal 15 luglio 2025, gli utenti, inclusi quelli del piano Max da 200 dollari al mese, hanno segnalato limiti di utilizzo non annunciati, con messaggi come “Hai raggiunto il limite di utilizzo del cloud” e orari di ripristino poco chiari.

Questi cambiamenti hanno sollevato dubbi tra gli utenti, che si sono chiesti se i loro piani fossero stati declassati o se l’utilizzo fosse stato misurato in modo errato. Un utente ha commentato: “Non ha senso che io abbia superato il limite di 900 messaggi dopo averlo usato solo poche volte in 30 minuti”, evidenziando preoccupazioni sulla precisione del monitoraggio dell’utilizzo.

Anthropic ha riconosciuto i problemi, dichiarando di essere “a conoscenza del fatto che alcuni utenti di Cloud Code stanno riscontrando ritardi nei tempi di risposta e sta lavorando a una soluzione”, ma ha rifiutato di fornire ulteriori dettagli.

Inoltre, sono stati segnalati errori di sovraccarico tra gli utenti dell’API Claude, con la pagina di stato di Anthropic che ha registrato sei situazioni problematiche in quattro giorni. Tuttavia, la pagina di stato attuale mostra ancora “100% up”, sollevando dubbi sulla sua affidabilità.

La struttura dei limiti di utilizzo di Anthropic è progettata per adattarsi in modo flessibile in base alla domanda. Il piano Max offre limiti di utilizzo 20 volte superiori a quelli del piano Pro e 100 volte superiori a quelli degli utenti gratuiti, ma i valori esatti o i livelli di utilizzo garantiti non sono stati divulgati. Di conseguenza, gli utenti incontrano difficoltà nel funzionamento del servizio, poiché non riescono a prevedere quando e in base a quali criteri verranno applicate le restrizioni.

Un utente del piano Max ha affermato: “Spesso invio richieste che superano i 1.000 dollari al giorno in base ai prezzi delle API”, e ha aggiunto: “Capisco che questa tariffa non sia sostenibile per Anthropic, ma almeno ci dovrebbe essere un preavviso e una comunicazione trasparente”. Ha avvertito: “Questo porterà solo a una perdita di fiducia da parte degli utenti”.

Questa situazione evidenzia l’importanza di una comunicazione chiara e trasparente da parte dei fornitori di servizi basati sull’intelligenza artificiale, soprattutto quando si tratta di modifiche ai piani tariffari e alle limitazioni d’uso. Gli utenti si aspettano di essere informati in anticipo su eventuali cambiamenti che potrebbero influire sul loro lavoro e sulle loro attività quotidiane.

Di Fantasy