Una lettera inviata martedì da due senatori statunitensi all’amministratore delegato di Meta, Mark Zuckerberg, che metteva in dubbio la fuga di marzo del popolare modello di linguaggio di grandi dimensioni open source di Meta, LLaMA, rappresenta una minaccia per la comunità di intelligenza artificiale open source, affermano gli esperti. È notevole perché arriva in un momento chiave in cui il Congresso ha dato la priorità alla regolamentazione dell’intelligenza artificiale, mentre l’IA open source sta assistendo a un’ondata di nuovi LLM.
Ad esempio, tre settimane fa, il CEO di OpenAI Sam Altman ha testimoniato davanti alla sottocommissione del Senato per la privacy, la tecnologia e la legge – il senatore Richard Blumenthal (D-CT) è il presidente e il senatore Josh Hawley (R-MO) il suo membro di rango – e ha concordato con richieste per una nuova agenzia di regolamentazione dell’IA
La lettera a Meta (che al momento si è rifiutata di commentare) è stata inviata da Blumenthal e Hawley per conto dello stesso sottocomitato. I senatori hanno affermato di essere preoccupati per il “potenziale uso improprio di LLaMA in spam, frode, malware, violazioni della privacy, molestie e altri illeciti e danni”.
La lettera indicava il rilascio di LLaMA a febbraio, affermando che Meta ha rilasciato LLaMA per il download da parte di ricercatori approvati, “piuttosto che centralizzare e limitare l’accesso ai dati, al software e al modello sottostanti”. Ha aggiunto che la “scelta di Meta di distribuire LLaMA in modo così sfrenato e permissivo solleva domande importanti e complicate su quando e come sia appropriato rilasciare apertamente sofisticati modelli di intelligenza artificiale”.
Diversi esperti hanno affermato di “non essere interessati” alle teorie del complotto, ma di essere preoccupati per le macchinazioni dietro le quinte.
William Falcon, CEO di Lightning AI e creatore di PyTorch Lightning open source, è stato ancora più chiaro, dicendo che la lettera era “super sorprendente” e, sebbene non volesse “alimentare teorie del complotto”, “sembra quasi che OpenAI e il Congresso stanno lavorando insieme ora”.
E Steven Weber, professore alla School of Information e al dipartimento di scienze politiche dell’Università della California, Berkeley, è andato ancora oltre, dicendo che pensa che Microsoft, operando attraverso OpenAI, stia “correndo spaventata, nello stesso modo in cui Microsoft aveva paura di Linux alla fine degli anni ’90 e si riferiva al software open-source come a un “cancro” del sistema di proprietà intellettuale”. Steve Ballmer, ha ricordato, “ha chiamato la sua gente … per convincere le persone che l’open source era malvagio, quando in realtà quello che era era una minaccia competitiva per Windows”.
Christopher Manning, direttore dello Stanford AI Lab, ha dichiarato in un messaggio che, sebbene attualmente non esistano leggi o “norme comunitarie forti su pratiche accettabili” quando si tratta di IA, ha “incoraggiato fortemente” il governo e la comunità dell’IA a lavorare per sviluppare regolamenti e norme applicabili a tutte le aziende, comunità e individui che sviluppano o utilizzano grandi modelli di intelligenza artificiale. Tuttavia, ha affermato: “In questo caso, sono felice di supportare il rilascio open source di modelli come i modelli LLaMA”. Mentre “riconosce pienamente” che modelli come LLaMA possono essere utilizzati per scopi dannosi, come disinformazione o spam, ha affermato che sono più piccoli e meno capaci dei modelli più grandi costruiti da OpenAI, Anthropic e Google (da circa 175 miliardi a 512 miliardi parametri).
Al contrario, ha affermato che mentre i modelli di LLaMA sono più grandi e di migliore qualità rispetto ai modelli rilasciati da collettivi open source, non sono drammaticamente più grandi (il più grande modello LLaMA è di 60 miliardi di parametri; il modello GPT-Neo-X rilasciato dal collettivo distribuito dei contributori di EleutherAE è di 20 miliardi di parametri). “In quanto tale, non considero il loro rilascio un rischio inaccettabile”, ha detto. “Dovremmo essere cauti nel mantenere una buona tecnologia da aziende innovative e studenti che cercano di conoscere e costruire il futuro. Spesso è meglio regolamentare gli usi della tecnologia piuttosto che la disponibilità della tecnologia”.
Vipul Ved Prakash, co-fondatore e CEO di Together, che gestisce il progetto open source RedPajama che ha replicato il set di dati LLaMA per creare LLM open source e all’avanguardia, ha affermato che la lettera del Senato a Meta è un ” tentativo fuorviante di limitare l’accesso a una nuova tecnologia. La lettera, ha sottolineato, è “piena di preoccupazioni tipiche dell’uomo di paglia”. Ad esempio, ha affermato, “non ha senso utilizzare un modello linguistico per generare spam. Ho contribuito a creare quello che è probabilmente il sistema anti-spam più diffuso oggi su Internet e posso affermare con certezza che gli spammer non utilizzeranno LLaMA o altri LLM perché esistono modi molto più economici per creare messaggi di spam”.
Molte di queste preoccupazioni, ha continuato, sono “applicabili ai linguaggi di programmazione che consentono di sviluppare nuovi programmi, e alcuni di questi programmi sono scritti con intenti dannosi. Ma non limitiamo i linguaggi di programmazione sofisticati come società, perché apprezziamo la capacità e la funzionalità che portano nelle nostre vite.
In generale, ha affermato che il discorso sulla sicurezza dell’IA è una “risposta presa dal panico con prove a sostegno di danni sociali da poco a zero”. Prakash ha affermato di essere preoccupato che ciò porti allo “soffocamento dell’innovazione in America e alla consegna delle chiavi della tecnologia più importante della nostra generazione ad alcune aziende, che hanno plasmato in modo proattivo il dibattito”.
Una domanda è perché i modelli di Meta vengono individuati (oltre al fatto che Meta ha avuto scontri con il Congresso per decenni). Dopotutto, sia Manning che Falcon hanno sottolineato che un nuovo modello del Technology Innovation Institute sostenuto dal governo degli Emirati Arabi Uniti ha reso disponibile un modello con 40 miliardi di parametri di qualità ancora migliore, Falcon. “Quindi non avrebbe fatto molta differenza per il tasso di progresso o la diffusione di LLM se LLaMA fosse stato rilasciato o meno”, ha detto Manning, mentre Falcon si è chiesto cosa potesse fare il governo degli Stati Uniti per il suo rilascio: “Cosa faranno? Dìranno agli Emirati Arabi Uniti che non possono rendere pubblico il modello?”
Ed è qui che entra in gioco la “politica dell’intimidazione”. Non stanno dicendo che regoleranno, ma c’è sicuramente un’affermazione “altrimenti” appesa nella stanza che incombe sopra una lettera del genere.
Questo è ciò che è più preoccupante. “Ad un certo punto, i legislatori inizieranno a esercitare sempre più pressioni su altri fornitori o piattaforme che potrebbero fare affari o fornire una piattaforma per applicazioni o modelli open source”, ha affermato. “Ed è così che si arriva a regolamentare l’open source senza regolamentare formalmente l’open source”.