Immagine AI

L’emergere di accessi non autorizzati al modello di nuova generazione Mythos di Anthropic ha sollevato un dibattito tecnico critico sulla sicurezza dei processi di distribuzione controllata delle intelligenze artificiali di frontiera. Nonostante il modello fosse destinato esclusivamente a un ecosistema ristretto di partner attraverso il protocollo “Project Glasswing”, l’infiltrazione da parte di attori esterni ha evidenziato come la superficie di attacco di un modello IA non sia limitata ai suoi endpoint diretti, ma si estenda a tutta la catena di approvvigionamento tecnologica. La violazione non è avvenuta attraverso un attacco brute-force ai sistemi centrali di Anthropic, bensì sfruttando le vulnerabilità intrinseche nelle configurazioni di partner terzi, dimostrando che la sicurezza di un modello avanzato è robusta solo quanto l’anello più debole della sua rete di distribuzione.

La metodologia utilizzata dagli utenti non autorizzati per ottenere l’accesso rivela una sofisticata combinazione di tecniche di ricognizione e sfruttamento dei permessi. Gli attori coinvolti hanno incrociato diritti di accesso legittimi, ottenuti tramite ambienti di sviluppo di fornitori esterni, con metadati tecnici estratti da repository pubblici come GitHub e informazioni frammentarie reperite online. Questa triangolazione ha permesso di mappare le posizioni logiche dei modelli e di aggirare i filtri del Project Glasswing. Tecnicamente, ciò evidenzia una lacuna nella gestione dei token di autenticazione e nella segmentazione degli ambienti di test tra Anthropic e i suoi partner, dove l’esposizione accidentale di configurazioni API o di chiavi crittografiche in spazi di documentazione pubblica ha fornito la chiave d’accesso necessaria per interrogare il modello Mythos all’insaputa della casa madre.

Il rischio associato a Mythos è particolarmente elevato a causa della sua natura duale: il modello è stato progettato per identificare proattivamente vulnerabilità sistemiche, uno strumento di “red teaming” automatizzato che, sebbene finora utilizzato per scopi benigni come lo sviluppo di siti web, possiede le capacità latenti per mappare i punti deboli delle infrastrutture informatiche. Questo potenziale ha innescato una reazione immediata nel settore bancario globale. Mentre le principali banche statunitensi hanno già iniziato i test per rafforzare le proprie difese, le istituzioni finanziarie in Europa, Regno Unito e India premono per un accesso paritario. La preoccupazione espressa durante le riunioni del Fondo Monetario Internazionale risiede nel fatto che le capacità di ragionamento di Mythos potrebbero superare i framework di sicurezza attuali, rendendo i sistemi bancari tradizionali vulnerabili a analisi di penetrazione condotte a una velocità e con una precisione precedentemente impossibili per attori umani o modelli di generazione precedente.

La risposta di Anthropic, focalizzata sull’indagine del fornitore terzo coinvolto, solleva la questione fondamentale della scalabilità della sicurezza nell’IA. Come sottolineato dal governatore della Bundesbank, Joachim Nagel, la restrizione eccessiva dell’accesso può ironicamente aumentare il rischio di abusi e squilibri sistemici, creando mercati neri per l’accesso ai modelli o zone d’ombra dove la tecnologia viene testata senza supervisione regolatoria. Il piano di espansione graduale dell’accesso a Mythos verso le istituzioni europee e britanniche dovrà quindi necessariamente includere non solo una verifica delle capacità del modello, ma soprattutto un irrigidimento dei protocolli di custodia dei dati e dei sistemi di monitoraggio degli accessi delegati, per prevenire che l’IA progettata per proteggere il sistema finanziario diventi involontariamente lo strumento per la sua destabilizzazione.

Di Fantasy