L’Importanza della Sicurezza dei Pesi nei Modelli Linguistici di Anthropic e OpenAI

 

Jason Clinton, responsabile della sicurezza informatica presso Anthropic e uno dei tre dirigenti senior che riportano direttamente al CEO Dario Amodei, svolge un ruolo cruciale all’interno dell’azienda. Clinton supervisiona un team dedicato alla sicurezza, che si occupa di una vasta gamma di aspetti, dalla protezione dei dati alla sicurezza fisica. Anthropic è una startup sostenuta da giganti come Google e Amazon, nota per i suoi imponenti modelli linguistici Claude e Claude 2, che ha raccolto oltre 7 miliardi di dollari dagli investitori. Nonostante ciò, conta solamente circa 300 dipendenti.

Tuttavia, la sfida più pressante per Clinton è garantire la protezione dei pesi dei modelli di Claude, che sono memorizzati in un enorme file di dimensioni terabyte. Nei campi dell’apprendimento automatico e delle reti neurali profonde, i pesi dei modelli – ovvero i valori numerici che rappresentano le connessioni tra i nodi – rivestono un’importanza fondamentale. Questi valori determinano le prestazioni del modello una volta addestrato.

Un recente rapporto del think tank politico Rand Corporation sottolinea l’importanza di proteggere i pesi dei modelli, affermando che, sebbene non siano l’unico aspetto critico, rappresentano un risultato unico ottenuto attraverso complesse fasi di addestramento, comprese elaborazioni di dati, calcoli significativi, ottimizzazioni algoritmiche e altro ancora. Il documento suggerisce che acquisire questi pesi potrebbe permettere a un utente malintenzionato di utilizzare l’intero modello a un costo nettamente inferiore rispetto all’addestramento.

Clinton ha dichiarato che gran parte del suo tempo come responsabile della sicurezza è dedicato a proteggere questo file. La sicurezza dei pesi dei modelli è una priorità assoluta all’interno dell’organizzazione, e vi sono investimenti significativi per garantire questa sicurezza.

Tuttavia, la preoccupazione di Anthropic riguardo ai pesi dei modelli non è tanto legata al loro valore di proprietà intellettuale, quanto piuttosto alla necessità di evitare che questa potente tecnologia cada nelle mani sbagliate. Clinton ha enfatizzato il pericolo che gruppi malintenzionati, organizzazioni terroristiche o entità statali con risorse considerevoli possano accedere ai pesi dei modelli LLM più sofisticati. Se un aggressore ottenesse accesso all’intero file, potrebbe sfruttare l’intera rete neurale per scopi potenzialmente dannosi.

Questo allarme è condiviso anche a livello governativo, come dimostra l’Ordine esecutivo della Casa Bianca sullo “Sviluppo e utilizzo sicuro, protetto e affidabile dell’intelligenza artificiale,” che richiede alle società di modelli di fondazione di fornire documentazione sulla proprietà e la sicurezza dei pesi dei modelli.

OpenAI, una delle società modello di base menzionate nel rapporto, ha dichiarato il suo impegno per la sicurezza dei pesi dei modelli e ha limitato l’accesso a tali pesi solo a partner selezionati, come Microsoft. Tuttavia, la ricerca ha individuato circa 40 possibili vettori di attacco per ottenere questi preziosi dati.

Mentre alcuni esperti sostengono che i modelli a fondazione aperta, con pesi ampiamente disponibili, offrano vantaggi significativi in termini di innovazione e trasparenza, altri ritengono che il rischio marginale legato a tali modelli rimanga limitato. La comunità open source vede la condivisione come un vantaggio, ma è importante prevenire abusi da parte di individui o organizzazioni malintenzionate.

La sicurezza informatica nel campo dell’intelligenza artificiale è una sfida in costante evoluzione, e il settore sta affrontando una carenza di esperti di sicurezza qualificati. Il futuro potrebbe richiedere un cambiamento di mentalità, con patch e misure di sicurezza quotidiane invece che patch periodiche.

In sintesi, la protezione dei pesi dei modelli nei modelli linguistici di Anthropic e OpenAI è fondamentale per prevenire abusi potenzialmente dannosi di questa tecnologia avanzata, e il settore si sta adattando rapidamente per affrontare questa sfida in evoluzione. 

Di ihal