Avere timore di qualcosa che hai contribuito a costruire è probabilmente una delle paure più intense. Questa paura porta con sé un senso di colpa e rimpianto per ciò che è stato fatto. Questa è la situazione di molti pionieri dell’intelligenza artificiale come Geoffrey Hinton e Yoshua Bengio, che stanno cercando di mettere in guardia sulle potenziali minacce legate all’IA.
Bengio ha dichiarato alla BBC di sentirsi “smarrito” per il lavoro che ha svolto. È il secondo “padrino” dell’IA ad esprimere preoccupazioni e richiedere una regolamentazione dell’IA. Hinton è stato il primo a lasciare Google per avvertire il mondo sui problemi legati al ritmo di sviluppo di questa tecnologia, sostenendo che l’intelligenza artificiale rappresenti un “rischio esistenziale”.
La scorsa settimana, centinaia di scienziati e ricercatori nel campo dell’intelligenza artificiale si sono uniti per avvertire che il futuro dell’umanità è a rischio. La dichiarazione sul rischio dell’IA, firmata da Hinton, Bengio, Sam Altman di OpenAI, Demis Hassabis di Google DeepMind e Emad Mostaque di Stability AI, tra gli altri, sottolinea che “mitigare il rischio di estinzione derivante dall’IA dovrebbe essere una priorità globale, insieme ad altri rischi sociali come le pandemie e la guerra nucleare”.
In sostanza, la maggior parte delle persone coinvolte nello sviluppo della tecnologia è preoccupata da cosa potrebbe accadere se questa tecnologia finisse nelle mani di “cattivi attori”, inclusi organizzazioni militari e terroristiche.
Quando gli stessi esperti sollevano le preoccupazioni legate alla tecnologia, è facile lasciarsi sopraffare dalla paura. D’altra parte, coloro che prosperano grazie alla rivoluzione dell’IA stanno ora votando per un aumento degli sviluppi in questo campo. Questo potrebbe essere attribuito anche al fatto che la creazione di modelli di IA come ChatGPT è diventata più accessibile grazie ai modelli open source. Prendiamo ad esempio il recente dibattito sulla necessità di modelli di IA generativi senza censure che superano le dimensioni dei modelli attuali.
Ciò potrebbe anche spiegare perché gli esperti di intelligenza artificiale stanno diventando visti come profeti di sventura. Stanno diventando sempre più preoccupati dall’idea che la tecnologia finisca nelle mani di persone meno competenti, con il rischio che diventi fuori controllo.
D’altra parte, Yann LeCun, considerato il terzo “padrino” dell’intelligenza artificiale e capo di Meta AI, ha reagito con scetticismo alle profezie apocalittiche degli esperti di intelligenza artificiale. LeCun ha criticato apertamente coloro che sovrastimano le capacità dei modelli di intelligenza artificiale generativi in fase di sviluppo, come ChatGPT e Bard.
Un altro esperto di intelligenza artificiale che ha richiamato l’attenzione sugli specialisti dell’IA che sembrano profetizzare il giorno del giudizio è Kyunghyun Cho, considerato uno dei pionieri nella traduzione automatica neurale che ha portato allo sviluppo dei Transformers da parte di Google. In un’intervista ai media, Cho ha espresso frustrazione riguardo al modo in cui si sta sviluppando la discussione sull’IA e come l’audizione del Senato degli Stati Uniti sia stata deludente, concentrandosi solo sui problemi legati all’IA, senza menzionarne i benefici. Ha affermato: “Sono deluso da molte di queste discussioni sul rischio esistenziale; ora lo chiamano addirittura ‘estinzione’. Questo sta monopolizzando la discussione”.
Il punto è che è molto facile per una persona che non ha mai implementato un singolo modello di machine learning nella propria vita diventare un pessimista riguardo all’IA. Queste persone sono spesso influenzate dai numerosi film che presentano macchine che conquistano il mondo. Tuttavia, quando anche gli esperti di intelligenza artificiale stanno abbracciando la stessa narrazione con le stesse spiegazioni, sembra che si tratti semplicemente di allarmismo e non di una ragione legittima.
Prendiamo ad esempio Elon Musk, uno dei più noti pessimisti riguardo all’IA che continua a esprimere preoccupazioni. In un’intervista recente al Wall Street Journal, Musk ha affermato: “Non penso che l’IA cercherà di distruggere l’umanità, ma potrebbe renderci sotto stretto controllo”. Ritiene ancora che ci sia una “possibilità diversa da zero” che l’IA diventi una minaccia per l’umanità alla stregua del Terminator.
In passato, una petizione per sospendere gli esperimenti su larga scala di intelligenza artificiale e limitare l’addestramento dei modelli oltre GPT-4 è stata accolta positivamente da molti ricercatori di intelligenza artificiale, inclusi Musk e Steve Wozniak. Questa nuova petizione sembra molto simile alla precedente, con l’aggiunta di Altman. Ciò suggerisce che ci sono molte questioni in gioco oltre alla reale paura che la tecnologia prenda il sopravvento sull’umanità.
Altman ha richiesto al governo di regolamentare lo sviluppo dell’IA, ma allo stesso tempo ritiene che OpenAI debba essere considerata in modo diverso. Questo solleva dubbi sulla motivazione dell’azienda nel chiedere la regolamentazione governativa sull’IA, poiché ciò rappresenta un chiaro conflitto di interessi per Altman.
Sappiamo tutti che la paura vende. Come ha spiegato Cho, “sfortunatamente, le storie sensazionalistiche attirano maggiormente l’attenzione. L’idea che l’intelligenza artificiale distruggerà completamente l’umanità o che curerà tutti i nostri problemi non è corretta”.