Immagine AI

C’è qualcosa di profondamente inquietante nella discrezione con cui alcuni tra i più potenti costruttori del nostro futuro stanno preparando rifugi sotterranei, case remote in Nuova Zelanda o “scorte” silenziose per un’emergenza globale. Da una parte si ergono proclami pubblici: l’intelligenza artificiale generale (AGI) porterà una nuova era di progresso. Dall’altra, dietro le quinte, sembra che chi ha la forza di plasmare quel futuro si prepari a esserne in qualche modo esentato, protetto e separato.

Un articolo della BBC descrive come varie testimonianze, permessi di costruzione e storie locali confermino che magnati della tecnologia — non solo idealisti dell’AI — avrebbero messo i piani all’opera da tempo. Mark Zuckerberg, sin dal 2014, starebbe edificando un complesso sotterraneo in una vasta proprietà a Kauai, con alimentazione autonoma e scorte alimentari integrate, protetto da muri e accordi di riservatezza. Mentre, in California, si dice abbia acquisito proprietà con spazi seminterrati che i vicini già soprannominano “bunker” o “bat cave”. Quando gli è stato chiesto se tutto ciò fossero meri rifugi da apocalisse, Zuckerberg ha risposto con decisione di no, parlando piuttosto di “cantina” o “spazio sotterraneo.”

Ma Zuckerberg non è il solo. Reid Hoffman, co-fondatore di LinkedIn, qualche anno fa ha parlato apertamente di un’“assicurazione apocalisse” posseduta da molti miliardari della Silicon Valley. Secondo lui, possedere immobili in zone remote come la Nuova Zelanda — nazioni isolate, stabili politicamente e geograficamente vantaggiose — sarebbe una forma di piano di fuga non così velato. Vale la pena notare che nomi come Sam Altman (OpenAI) e Peter Thiel sono già stati legati a proprietà o rifugi remoti in Nuova Zelanda come parte di scenari di contingente evacuazione qualora l’AI diventasse incontrollabile.

La figura che più affascina e unisce angoscia e biografia è quella di Ilya Sutskever, ex capo scienziato di OpenAI. In passato avrebbe dichiarato che prima del rilascio di un’AGI avrebbe “costruito un bunker”, intervallo che non è chiaro se intendesse collettivo, aziendale o personale. Questo episodio è citato anche nel libro “Empire of AI” di Karen Hao, come un esempio di come chi plasma il futuro talvolta temi il futuro stesso.

Questa ambivalenza — proclamare fiducia verso un’era in cui le macchine rendono tutto migliore, ma nel privato prepararsi per uno scenario in cui le macchine o il caos la fanno da padrone — è ciò che rende tali vicende profondamente simboliche. Gli ingegneri, i visionari, gli imprenditori che oggi innalzano teorie di cooperazione umano-macchina, forse intravedono una fragilità nella loro stessa creazione, e scelgono la distanza, la segretezza, la protezione estrema.

Naturalmente, queste storie sollevano scetticismo. Alcuni esperti minimizzano: secondo Neil Lawrence, professore di machine learning all’Università di Cambridge, il concetto stesso di AGI, e di conseguenza il panico che la circonda, è “ridicolo” quanto un “veicolo di intelligenza artificiale” — ovvero: non esiste un’unica intelligenza che possa dominare ogni contesto. Alcuni come Vince Lynch, CEO della startup IV.AI, liquidano l’AGI come un esercizio di marketing: chi proclama di costruire “la cosa più intelligente mai esistita” sa che attira attenzione e capitale.

Eppure queste dimore segrete e i progetti sotterranei non sembrano del tutto dettati dalla paranoia. Sono, forse, l’espressione di un disagio profondo: chi spinge l’orologio dell’innovazione può non avere fiducia nelle infrastrutture che costruisce. Se l’IA diventa troppo potente, se il futuro radicale si trasforma in qualcosa di incontrollabile, chi ha potere probabilmente vuole almeno garantirsi una riserva di distanza. In fin dei conti, il fatto che alcuni tra i protagonisti del cambiamento stiano contemporaneamente preparando “uscite di sicurezza” ci dice qualcosa sulla misura dell’insicurezza che alimenta anche chi vuole plasmare il domani.

Di Fantasy