Immagine AI

L’avanzamento tumultuoso dell’Intelligenza Artificiale, pur promettendo efficienza e innovazione senza precedenti, sta gettando una lunga ombra sul settore assicurativo globale. Le compagnie di assicurazione di tutto il mondo si stanno muovendo con urgenza per introdurre esclusioni relative all’AI nelle loro polizze aziendali, in una mossa preventiva contro un potenziale aumento delle perdite finanziarie associate alla proliferazione di questa tecnologia. Gli analisti sono concordi: questa azione è finalizzata a minimizzare il rischio sistemico derivante dall’opacità e dall’imprevedibilità dei modelli di AI, i cui errori, noti come “allucinazioni”, si stanno traducendo con crescente frequenza in danni economici reali e diversificati.

Secondo le recenti rivelazioni del Financial Times, le principali compagnie assicurative statunitensi, tra cui AIG, Great American e WR Berkeley, hanno già avviato le procedure per ottenere l’approvazione normativa necessaria per inserire nuove condizioni che non coprano più la responsabilità derivante dall’uso aziendale dell’Intelligenza Artificiale, inclusi chatbot e agenti automatizzati. La proposta di WR Berkeley, in particolare, è radicale, mirando a classificare come esente da responsabilità “qualsiasi utilizzo effettivo o sospetto dell’IA”, una clausola che potrebbe applicarsi a un’ampia gamma di prodotti e servizi che incorporano la tecnologia.

La ragione di questa reazione è radicata nella natura stessa dell’AI. Il settore assicurativo sottolinea che l’opacità e l’imprevedibilità dei modelli costituiscono un rischio critico nel processo di sottoscrizione delle polizze. Esperti di cyber insurance ammettono apertamente di evitare i sistemi di sottoscrizione basati su modelli linguistici di grandi dimensioni (LLM), definendo l’intelligenza artificiale una “scatola nera troppo grande”. Come evidenziato dai dirigenti di AIG, sebbene non ci siano piani immediati per un’esclusione universale, il potenziale di richieste di risarcimento assicurativo è destinato ad aumentare drasticamente nel tempo, rendendo cruciale assicurarsi la flessibilità per gestire l’esposizione.

I timori delle compagnie non sono teorici, ma sono alimentati da incidenti recenti che dimostrano la vasta gamma di perdite associate all’AI. I casi di responsabilità sono sempre più eterogenei:

  • Responsabilità del Chatbot: In un caso emblematico, Air Canada è stata ritenuta responsabile per i danni dopo che un tribunale ha stabilito che uno sconto erroneamente offerto da un suo chatbot rappresentava una promessa valida e vincolante.
  • L’Errore di Visione: Wolf River Electric, un’azienda statunitense di energia solare, ha intentato una causa multimilionaria (richiedendo almeno 110 milioni di dollari di danni) contro Google, accusandola di aver fornito informazioni fuorvianti attraverso la sua “Panoramica sull’Intelligenza Artificiale”.
  • La Frode Deepfake: La società di ingegneria britannica Arup ha subito una perdita colossale di 25 milioni di dollari in seguito a una sofisticata frode orchestrata da un’organizzazione criminale che ha utilizzato l’intelligenza artificiale per replicare digitalmente le voci dei dirigenti aziendali e usarle per autorizzare trasferimenti finanziari.

Questi incidenti mettono in luce il problema della responsabilità: non è chiaro chi sia responsabile in caso di incidente—il fornitore del modello, l’azienda che lo implementa o, in ultima analisi, la compagnia assicurativa?

Al di là delle singole perdite, la vera paura che spinge le assicurazioni all’azione è il rischio sistemico. Kevin Kalinich, responsabile della sicurezza informatica presso Aon, ha sottolineato che le compagnie assicurative possono sostenere la perdita di alcune centinaia di milioni di dollari a causa di un errore di AI di una singola azienda. Tuttavia, il mercato assicurativo non può permettersi di assorbire il rischio sistemico che si verificherebbe se migliaia o decine di migliaia di aziende fossero colpite simultaneamente a causa di un difetto nel modello di un unico, grande fornitore di intelligenza artificiale.

Le allucinazioni e gli incidenti causati dall’AI spesso non sono coperti dalle tradizionali polizze di cyber insurance. Sebbene l’assicurazione E&O (Errori e Omissioni), che copre gli errori tecnici, potrebbe potenzialmente essere applicabile, l’aggiunta accelerata di esclusioni specifiche per l’AI sta rapidamente restringendo l’ambito di copertura. I settori assicurativo e legale prevedono un futuro contenzioso. In caso di un grave fallimento sistemico, gli esperti prevedono che le compagnie assicurative inizieranno apertamente a contestare i risarcimenti, sostenendo di “non aver mai avuto intenzione di assicurare questo rischio” fin dall’inizio. Questa battaglia legale, secondo i legali di settore, è in arrivo e ridefinirà il confine tra rischio tecnologico e responsabilità finanziaria.

Di Fantasy