Il moderno data stack, così come si è evoluto nell’era cloud, è stato progettato per un mondo in cui gli esseri umani interrogano i dati, mentre l’infrastruttura che sta emergendo con l’intelligenza artificiale agentica è costruita per un contesto completamente diverso, in cui sono gli agenti software a utilizzare i dati per agire.
È in questo scenario che Google introduce il concetto di Agentic Data Cloud, un’evoluzione che non si limita a migliorare le prestazioni o la scalabilità dei sistemi esistenti, ma ridefinisce il ruolo stesso del dato all’interno dell’architettura. Il punto centrale non è più la capacità di rispondere a query, ma quella di abilitare decisioni autonome e azioni operative continue.
Il modern data stack, nella sua forma più diffusa, si basa su una separazione chiara tra livelli funzionali: ingestione dei dati, trasformazione, storage e analisi. Tecnologie come data warehouse, data lake e strumenti di business intelligence sono state progettate per ottimizzare l’accesso umano alle informazioni, riducendo il tempo necessario per passare dalla domanda all’insight. In questo modello, il dato è strutturato per essere interrogato, aggregato e visualizzato.
L’Agentic Data Cloud rompe questa logica introducendo un livello operativo in cui il dato diventa direttamente utilizzabile da sistemi autonomi. Gli agenti AI non eseguono query nel senso tradizionale, ma interagiscono con l’infrastruttura dati come parte di un ciclo continuo percezione-decisione-azione. Questo implica che i dati non devono essere semplicemente disponibili, ma devono essere contestualizzati, aggiornati in tempo reale e integrati con capacità di esecuzione.
Uno degli elementi distintivi è l’integrazione nativa tra storage, compute e modelli AI. Invece di orchestrare pipeline separate che trasferiscono dati tra sistemi diversi, l’Agentic Data Cloud tende a ridurre le frizioni tra questi livelli, permettendo agli agenti di operare direttamente sui dati dove risiedono. Questo approccio riduce la latenza e abilita flussi operativi continui, che sono fondamentali quando le decisioni devono essere prese in tempo reale. Un altro aspetto chiave riguarda il superamento del paradigma query-driven. Nel modello tradizionale, il sistema rimane passivo finché non riceve una richiesta esplicita. Nell’architettura agentica, invece, il sistema è proattivo: gli agenti monitorano costantemente lo stato dei dati e dei sistemi, identificano pattern, anomalie o opportunità e intervengono automaticamente. Questo richiede meccanismi avanzati di orchestrazione e coordinamento, perché più agenti possono operare contemporaneamente su domini diversi.
Google evidenzia anche come questo nuovo modello richieda una revisione profonda della governance. Quando sono gli esseri umani a interrogare i dati, il controllo è relativamente centralizzato e le azioni sono limitate. Quando invece sono gli agenti a eseguire operazioni, diventa necessario introdurre livelli di controllo più sofisticati, che includono policy dinamiche, sistemi di verifica delle decisioni e capacità di audit in tempo reale. La fiducia nell’infrastruttura non deriva più solo dalla qualità del dato, ma dalla prevedibilità e sicurezza del comportamento degli agenti.
L’Agentic Data Cloud implica inoltre un cambiamento nel modo in cui vengono progettati i workflow. Le pipeline lineari lasciano spazio a sistemi adattivi, in cui le sequenze di azioni non sono rigidamente predefinite ma emergono dal comportamento degli agenti in base agli obiettivi assegnati. Questo introduce una dimensione dinamica che il modern data stack non era stato concepito per gestire.
