Gli agenti AI non sono più giocattoli che producono testo: prendono decisioni, muovono denaro, manipolano documenti, toccano dati personali. È naturale che il mondo della finanza e dell’assicurazione abbia iniziato a chiedersi come coprire il rischio che deriva da errori, abusi, malfunzionamenti.
Da questa domanda è nata l’Artificial Intelligence Underwriting Company, guidata da un ex dirigente di Anthropic e sostenuta da un seed da quindici milioni di dollari, con nomi come Nat Friedman a mettere la firma sull’assegno.
L’obiettivo dichiarato è creare una specie di SOC 2 per l’intelligenza artificiale: un insieme di controlli, audit, metriche, procedure che permetta di valutare e garantire il comportamento di un agente come oggi si certifica l’affidabilità di un sistema software tradizionale.
Tradurre tutto questo in pratica significa entrare nel cuore pulsante di un deployment agentico. Bisogna misurare quante volte l’agente allucina e in quali condizioni, quanto costa correggere un errore, quali sono i tool a cui ha accesso e con quali soglie di autorizzazione, se esiste un tracciato immutabile delle sue azioni, se le politiche di sicurezza vengono aggiornate con la stessa rapidità con cui cambiano i prompt di attacco.
È un lavoro di archeologia e ingegneria insieme: si devono estrarre dati da log spesso caotici, imporre formati standard, costruire un dossier tecnico che convinca l’assicuratore che il rischio è sotto controllo. In cambio, le startup ottengono non solo una polizza che le protegge economicamente da un incidente, ma anche una credenziale da spendere con clienti enterprise ancora timorosi.
È la consapevolezza che, per fare sul serio con gli agenti, serve un’infrastruttura di fiducia: controlli tecnici, audit ricorrenti, policy engine dichiarativi, kill switch pronti a scattare. Non è la parte più glamour dell’AI, ma è quella che decide chi potrà davvero portare questi sistemi nel mondo reale senza tremare a ogni step.