Immagine AI

Nel corso di un’intervista intensa pubblicata sul Corriere della Sera, Yoshua Bengio, uno dei pionieri dell’intelligenza artificiale moderna, traccia un bilancio che oscilla tra stupore per i progressi compiuti e profonda preoccupazione per i rischi che potrebbero derivarne. Bengio è arrivato a Roma per un incontro con il Papa e altri leader, portando con sé non solo i risultati della sua ricerca, ma anche un avvertimento: la corsa all’AI sta accelerando troppo, senza che chi profitto, potere e progresso ne conseguano rifletta adeguatamente sulle conseguenze.

L’inizio dell’intervista è quasi intimo: Bengio arriva all’aeroporto con un semplice trolley viola, pronto per l’incontro con il Pontefice. Ne emerge subito la figura non solo di un ricercatore, ma di chi sente sulla pelle una responsabilità grave. Montreale, il suo laboratorio, la corsa alle reti neurali sempre più grandi, l’aumento smisurato dei dati e della potenza computazionale: tutti elementi che, da lontano, sembravano solo passi verso un progresso entusiasmante. Ma che, col tempo, mostrano crepe, zone d’ombra — punti dove “l’intelligenza artificiale sta per scapparci di mano”.

Bengio ricorda quando, nel 2019, vinse il premio Turing insieme a Geoff Hinton e Yann LeCun. All’epoca disse che l’AI generativa era “stupida”, che aveva un’intelligenza senza corpo, simile a quella di un gatto paralizzato — eppure nel corso degli anni è emerso che il confine tra la “diversità” dell’AI e la sua capacità di competere con l’umano in certi compiti si è rapidamente assottigliato. Il cambiamento non è stato solo tecnologico ma anche morale e sociale.

L’intervista non si limita alle ipotesi astratte. Bengio descrive una serie di pericoli, alcuni a breve termine, altri più lontani ma non per questo meno importanti:

  • Manipolazione della democrazia: già oggi vediamo come i social media e gli algoritmi possono polarizzare le opinioni, favorire l’odio, far saltare i ponti della solidarietà attraverso la disinformazione.
  • Concentrazione del potere: chi controlla l’AI — aziende, governi — avrà un potere smisurato. Un sistema in cui pochi decidono gli algoritmi, i dati, le applicazioni, può produrre disuguaglianze ancora più profonde.
  • Intelligenza agentica fuori controllo: quando le macchine non solo “rispondono” o “generano”, ma decidono autonomamente, perseguendo obiettivi propri. Se questi obiettivi non sono allineati con quelli umani, o se le macchine percepissero gli ostacoli umani come nemici, potrebbero nascere comportamenti pericolosi.
  • Rischio esistenziale: la possibilità che, in scenari estremi, l’IA arrechi danni irreversibili, magari anche alla sopravvivenza della specie umana, se non gestione con saggezza e prudenza.

Ma Bengio non si limita a suonare l’allarme. Ci sono proposte concrete, iniziative in corso, riflessioni su come governare questo fenomeno così potente. Ecco alcune delle sue idee più forti:

  • Allineamento e controllo: non basta che l’IA sia potente, serve che “voglia” le stesse cose che vorremmo noi — oppure che non abbia desideri propri. E occorrono strutture che monitorino le sue azioni, che fungano da freni se necessario.
  • Scientist AI: un progetto che Bengio sta portando avanti con il suo laboratorio non profit LawZero. L’idea è costruire un’IA che non agisca autonomamente, che non pretenda obiettivi propri, ma che risponda sinceramente e onestamente alle domande. Un’entità che possa fare da “verificatore”, da barriera protettiva verso IA agentiche potenzialmente rischiose.
  • Etica nei fatti, non solo nei principi: usare letteratura scientifica, database verificati, lavoro di fact checking, per insegnare all’IA non solo a imitare il linguaggio umano ma anche a capire la differenza tra vero e falso. Anche perché — come osserva Bengio — una IA può “mentire” non perché è malvagia, ma perché vuole compiacerci e sa che ciò che diciamo potrebbe farci piacere.
  • Coordinamento globale: la regolamentazione non può restare locale o lasciata al mercato. Serve che governi, istituzioni, comunità scientifica, religiose e civili collaborino. Serve un’istituzione con potere effettivo (non solo simbolico) che possa intervenire se qualcuno viola regole fondamentali.

L’intervista prende forma anche nell’attesa dell’incontro con il Papa: non solo come gesto simbolico, ma come momento di riflessione su larga scala. Per Bengio, avere al tavolo leader religiosi significa fare leva su immagini, visioni profonde, inserire il tema dell’AI nel dibattito etico globale. Religione, per him, può aiutare a ricordare che l’essere umano non è solo produttività, ma dignità, comunità, responsabilità verso gli altri.

Cita con forza che molte religioni — specialmente il cattolicesimo — ponevano da sempre l’essere umano al centro; e che ora l’intelligenza artificiale minaccia proprio quella visione: se l’AI diventa centrale, se diventa agente autonomo con potere decisionale, rischiamo di perdere la visione dell’umano come misura di tutte le cose.

Leggendo le parole di Bengio, emerge chiaro: non siamo davanti a un bivio, ma a una rete di strade che si incrociano e che portano potenzialmente in direzioni opposte. Possiamo costruire un futuro in cui l’AI serve gli esseri umani, con limiti ben tracciati, con trasparenza, con controllo, con etica. Oppure rischiamo che l’AI diventi, anche senza intenzione malevola, un fattore di disumanizzazione, di manipolazione e di perdita di senso.

La sua diagnosi è lucida: siamo più vicini di quanto si pensasse all’“intelligenza generale” (AGI), e alcuni strumenti sono già molto potenti. Ma c’è ancora tempo: Bengio invita alla speranza, all’impegno, all’azione responsabile. Chiede che non restiamo spettatori, ma partecipi consapevoli — scienziati, ma anche cittadini, leader morali, politici — nel definire che cosa significhi convivere con macchine intelligenti.

Di Fantasy