Più di 1.000 esperti di tecnologia, ricercatori e investitori hanno firmato una lettera aperta in cui chiedono un’interruzione di sei mesi alla creazione di “sistemi di intelligenza artificiale giganti”, citando “profondi rischi per la società”.
Tuttavia, coloro che si occupano di tecnologia sanno già che questa richiesta non può essere soddisfatta. È pura fantasia pensare che un governo o un’autorità possano imporre un “divieto di esperimenti sull’intelligenza artificiale”. La tecnologia non può essere fermata: chi ha scoperto il fuoco non ha chiesto il permesso a nessuno, e una volta che ne sono state chiarite le potenzialità, non è mai stato messo sotto controllo. Quando l’elettricità è stata scoperta, non avrebbe avuto senso vietarla: ci sarebbe sempre stato qualcuno, da qualche parte, che ne avrebbe sfruttato l’energia per fare soldi.
Il machine learning è solo l’ultima di una lunga serie di tecnologie che preoccupa molti: a partire dall’uso di un termine improprio, “intelligenza artificiale”, alcuni ritengono che si tratti di una tecnologia che non possiamo controllare. Questa posizione è assurda, così come credere che l’apprendimento automatico abbia il potenziale per “l’intelligenza generale”. Questo tipo di sogno ad occhi aperti colpisce anche le persone che lavorano direttamente sul campo, come nel recente caso di Blake Lemoine e la sua malsana ossessione per la presunta autocoscienza dell’algoritmo su cui stava lavorando.
Facciamo chiarezza: LaMDA, GPT e tutti gli altri algoritmi in circolazione non possiedono autoconsapevolezza, e sebbene tendiamo all’antropomorfismo e amiamo attribuire qualità umane agli animali e alla tecnologia, allo stesso modo siamo inclini alla pareidolia, ma questo è solo un effetto del nostro cervello e non è reale. Alla fine di novembre dello scorso anno, una società che aveva portato i modelli di addestramento di alcuni algoritmi a un nuovo livello utilizzando modelli di linguaggio di grandi dimensioni – la prima versione di ChatGPT è stata addestrata su un supercomputer realizzato con circa 10.000 schede grafiche Nvidia – ha quindi deciso di aprire il suo modello conversazionale a qualsiasi utente per aumentare esponenzialmente il suo input. Poiché questo è un modello conversazionale che chiunque può usare, non passò molto tempo prima che alcune persone iniziassero ad attribuirgli qualità umane; quando “ha allucinazioni” e sbaglia gravemente, lo interpretano come la ribellione della macchina o una prova di qualche coscienza nascosta.
Ancora una volta, cerchiamo di essere chiari: un modello di linguaggio di grandi dimensioni fa semplicemente quello che fa qualsiasi altro algoritmo: impara a correlare concetti e formulare frasi con essi. Non pensa. Non è intelligente. Non è autocosciente, o addirittura cosciente. È semplicemente una versione incredibilmente avanzata della funzione di completamento automatico del testo sul nostro smartphone o email, che può sembrare “intelligente” (e per altri, esasperantemente sciocco). Si basa sulla statistica, non sull’intelligenza: si tratta di funzioni statistiche complesse sviluppate su scala enorme, con così tanti parametri e così grande memoria che gli umani non possono tenerne il passo. Ma ciò non li rende intelligenti, né li rende capaci di autocoscienza, tanto meno Terminator che un giorno si ribellerà contro di noi. Questo è pura fantasia.
L’apprendimento automatico comporta “profondi rischi per la società”? Bene, una tecnologia che secondo alcune stime potrebbe sostituire fino a tre milioni di posti di lavoro è un rischio, ma allo stesso tempo potrebbe anche aggiungere il 7% al PIL globale. Il rischio per la società avrà più a che fare con la distribuzione di quell’aumento piuttosto che con altro: se, come finora, genera disparità e allarga il divario tra ricchi e poveri, allora avremo un problema serio, ma non per la tecnologia in sé, bensì a causa dell’avidità di alcuni esseri umani. Se milioni di persone perdono il lavoro e non viene fatto nulla per offrire loro alternative, allora probabilmente dovremo affrontare disordini sociali, ma non sarà colpa della tecnologia in sé.
La tecnologia ha sempre sostituito il lavoro manuale con le macchine e soprattutto è inevitabile: non appena cadono le barriere all’ingresso, l’adozione cessa di essere volontaria e diventa obbligatoria. Chi non adotta la tecnologia in uso nel resto del proprio settore è presto fuori dai giochi. Più regolamentazione? Forse, ma ciò comporta la regolamentazione da parte di politici che di solito non hanno idea, nemmeno la minima approssimazione, di cosa stiano parlando. Più responsabilità e freni al suo utilizzo? Certamente, ma l’esperienza suggerisce che non accadrà.
C’è stata un’esplosione di finanziamenti per modelli linguistici di grandi dimensioni a partire da novembre, creando una concorrenza feroce e sfrenata e apparentemente trasformando l’apprendimento automatico in una nuova religione, ma da qualunque parte la si guardi, ormai è semplicemente troppo tardi per fermare anche solo temporaneamente il progresso della tecnologia. Non accadrà. La tecnologia non può essere fermata e non dovrebbe essere: come con tutte le tecnologie, i suoi sviluppi devono essere monitorati e regolamentati per mitigare i rischi potenziali, ma non possiamo permetterci di ignorare il suo potenziale beneficio per la società.