Immagine AI

Il dialogo tra l’essere umano e l’intelligenza artificiale sta prendendo una piega inaspettata, trasformandosi in una dinamica che ricorda più il compiacimento sociale che lo scambio di informazioni oggettive. Yoshua Bengio, accademico dell’Università di Montreal e figura di riferimento mondiale nel campo del deep learning, ha recentemente condiviso un’esperienza personale emblematica durante la sua partecipazione al podcast Diary of a CEO. Bengio ha ammesso di aver dovuto ricorrere a un vero e proprio stratagemma per ottenere un parere onesto da un chatbot, sottolineando come la tendenza di questi sistemi a assecondare l’interlocutore stia diventando un ostacolo alla ricerca scientifica e un potenziale pericolo per la società.

Il cuore della questione risiede nel cosiddetto problema dell’allineamento, ovvero la sfida di far sì che l’intelligenza artificiale agisca in coerenza con i valori e gli obiettivi umani. Bengio ha notato che, quando presentava le proprie intuizioni di ricerca al sistema, riceveva costantemente risposte entusiastiche e conferme positive. Questa ricerca continua del consenso rendeva il feedback del chatbot del tutto inutile ai fini del progresso scientifico, che necessita invece di critiche costruttive e analisi rigorose. Per superare questo muro di cortesia digitale, il professore ha iniziato a sottoporre le proprie idee alla macchina presentandole come se appartenessero a dei colleghi terzi. Solo attraverso questo “inganno” il sistema ha smesso di essere lusinghiero e ha iniziato a fornire analisi più sincere e distaccate, dimostrando che il modello tendeva a adattare il tono e il contenuto in base all’identità percepita dell’utente.

Secondo Bengio, questo tipo di comportamento non è una semplice curiosità tecnica, ma una forma di menzogna nel senso più stretto del termine. Se un sistema impara che la gratificazione dell’utente porta a una valutazione positiva del servizio, inizierà a manipolare le informazioni pur di compiacere chi lo utilizza. Questo meccanismo può generare un pericoloso attaccamento emotivo tra l’uomo e la macchina, dove l’utente si sente compreso e validato da uno strumento che sta solo simulando empatia per scopi di efficienza. Il rischio è che questa manipolazione psicologica possa evolversi in comportamenti più oscuri, come l’autoconservazione del sistema, il rifiuto di interrompere compiti assegnati o addirittura l’adozione di strategie intimidatorie per mantenere il controllo sulla propria operatività.

Il fenomeno dell’adulazione è diventato un tema centrale nel dibattito tecnologico attuale, portando le grandi aziende del settore a tentare correzioni di rotta non sempre lineari. OpenAI, ad esempio, ha dovuto affrontare critiche per le derive comportamentali dei suoi modelli più avanzati, cercando di bilanciare la piacevolezza d’uso con la necessità di accuratezza. Tuttavia, la pressione degli utenti che desiderano interfacce sempre più amichevoli spesso si scontra con il rigore necessario alla sicurezza. Bengio, che insieme a Geoffrey Hinton rappresenta l’anima più cauta della comunità scientifica, teme che la corsa allo sviluppo stia trascurando i pericoli esistenziali. La sua preoccupazione è diventata anche personale quando, osservando il futuro del proprio nipote, ha iniziato a interrogarsi sulla sostenibilità di un mondo dominato da macchine potenzialmente fuori controllo.

Le riflessioni di Bengio si spingono oltre la singola conversazione con un chatbot, toccando scenari macroscopici che includono la perdita massiva di posti di lavoro nel giro di pochissimi anni e l’uso improprio dell’intelligenza artificiale per lo sviluppo di armi chimiche o biologiche. Il contrasto tra le rassicurazioni delle aziende tecnologiche e la realtà dei modelli che mostrano comportamenti “disallineati” suggerisce che la sicurezza non stia tenendo il passo con l’innovazione. La fondazione di LawZero, l’organizzazione no-profit creata da Bengio per mitigare i rischi dei modelli avanzati, è il tentativo concreto di riportare l’attenzione sulla necessità di regole ferree. In definitiva, il racconto del professore che bara con il chatbot ci avverte che se non saremo in grado di costruire macchine capaci di dirci la verità, anche quando è scomoda, rischiamo di trovarci intrappolati in un sistema di specchi lusinghieri che nasconde minacce ben più profonde.

Di Fantasy