Immagine AI

La vera partita nell’AI enterprise non si gioca più sulla qualità del modello. Si gioca su chi gestisce il livello dove gli agenti pianificano, chiamano strumenti, accedono ai dati, eseguono workflow e producono tracce verificabili per i team di sicurezza. Microsoft e OpenAI guidano oggi il mercato dell’orchestrazione enterprise, ma Anthropic ha registrato il suo primo ingresso misurabile in questo segmento, passando dallo 0% al 5,7% nelle preferenze di orchestrazione primaria tra i decision-maker tecnici enterprise tra gennaio e febbraio 2026.

Il prodotto al centro di questa mossa è Claude Managed Agents: un servizio cloud che automatizza gran parte dello scaffolding necessario per portare un agente in produzione dalla configurazione dei container all’osservabilità, riducendo i tempi di sviluppo da mesi a settimane. Il modello di pricing è ibrido: si pagano i token consumati dal modello secondo le tariffe API standard, più $0,08 per ora di runtime attivo dell’agente, misurato in millisecondi, senza conteggiare il tempo in cui l’agente è in attesa.

Anthropic ha separato il “cervello”, il layer inferenziale, dalle “mani”, i container di esecuzione, in modo che questi vengano provisioning solo se necessari. Con questa architettura, il p50 del time-to-first-token è sceso di circa il 60% e il p95 di oltre il 90%. La sessione funziona come un log append-only di tutto ciò che accade, e getEvents() permette al modello di interrogare il contesto selezionando slice posizionali dello stream di eventi, risolvendo il problema della gestione della context window su task a lungo orizzonte.

Tre funzionalità espandono ulteriormente le capacità della piattaforma. La prima è Dreaming: un sistema che analizza sessioni precedenti e memoria storica per riconoscere pattern, correggere errori e raffinare i workflow tra una sessione e l’altra, separando la memoria in-session dall’apprendimento inter-session. La seconda è Outcomes: un meccanismo di valutazione integrato nel layer di orchestrazione invece che esterno ad esso, spostando i quality check dall’esterno verso l’interno del runtime. La terza è la *Multi-Agent Orchestration: un agente lead che distribuisce il lavoro a sub-agenti specializzati con i propri modelli, prompt e strumenti, capaci di lavorare in parallelo su un file system condiviso con risultati consolidati nel contesto dell’agente principale.

Sul fronte della sicurezza, i token OAuth sono conservati in un vault esterno alla sandbox dove gira il codice generato da Claude, in modo che l’agente non li gestisca mai direttamente. Le chiamate agli strumenti MCP passano attraverso un proxy dedicato che presenta al modello solo un token associato alla sessione.

Le implicazioni per chi costruisce architetture enterprise sono però meno lineari di quanto la proposta commerciale lasci intendere. La sessione è archiviata in un database gestito da Anthropic, il che può rappresentare un problema di compliance per le organizzazioni che devono dimostrare data residency, e introduce il rischio che il comportamento degli agenti diventi più dipendente dal runtime del provider che dalle istruzioni dell’organizzazione stessa. Chi ha già in produzione stack composti da LangGraph per il routing, Pinecone per la memoria vettoriale e DeepEval per la valutazione esterna deve fare i conti con il costo — tecnico e organizzativo — di una migrazione verso un sistema che centralizza tutto, ma su infrastruttura che l’enterprise non controlla.

Anthropic ha segnalato che altri provider di modelli e piattaforme probabilmente convergeranno verso un modello simile, perché i modelli rischiano di diventare intercambiabili, mentre tooling e infrastruttura di orchestrazione no. La scelta che le organizzazioni stanno affrontando non è tecnica in senso stretto: è una scelta di dove posizionare il controllo operativo dei propri agenti, e con quali trade-off tra semplicità di deployment e indipendenza dall’ecosistema del vendor.

Di Fantasy