Immagine AI

OpenAI, l’organizzazione che ha guidato la rivoluzione dell’Intelligenza Artificiale Generativa, si trova al centro di una crescente polemica relativa alla sua presunta reticenza nel divulgare i risultati di ricerche interne che potrebbero portare a “conclusioni scomode” riguardo all’impatto economico e occupazionale della tecnologia AI. Questa riluttanza, percepita come una forma di censura, ha scatenato una reazione negativa interna culminata nell’abbandono di diversi membri chiave del team di ricerca.

Il caso più emblematico riguarda il team di ricerca economica, con il report di Wired che ha rivelato l’allontanamento di almeno due dipendenti a causa di queste preoccupazioni. Uno di essi, l’economista ricercatore Tom Cunningham, avrebbe criticato aspramente il team in un messaggio interno prima di andarsene, affermando che l’unità di ricerca stava rapidamente degenerando da vera organizzazione di ricerca a mero “dipartimento di pubbliche relazioni aziendale”.

Questa accusa riflette un cambiamento strutturale profondo all’interno di OpenAI. Nata nel 2016 con la missione di condurre ricerca open source e senza scopo di lucro sull’AI a beneficio dell’umanità, l’organizzazione si è progressivamente trasformata in una grande impresa commerciale con fini di lucro. Oggi, con i suoi modelli privatizzati e l’obiettivo di una potenziale Offerta Pubblica Iniziale (IPO) con una valutazione stimata di 1.000 miliardi di dollari, la posta in gioco è immensa. L’azienda sta pianificando investimenti astronomici in data center in collaborazione con giganti come Nvidia, Oracle e Softbank, rendendo qualsiasi fallimento o grave battuta d’arresto potenzialmente catastrofico.

In un tale contesto ad alta pressione, la divulgazione di ricerche che suggeriscano un impatto negativo, come la distruzione di posti di lavoro su larga scala o una destabilizzazione economica dovuta all’AI, risulterebbe estremamente onerosa. Con le crescenti preoccupazioni pubbliche relative a una bolla dell’AI, alla disoccupazione tecnologica e persino alle minacce esistenziali, i risultati di ricerca negativi potrebbero minare la fiducia degli investitori e del pubblico, mettendo a repentaglio l’enorme valutazione aziendale.

La reazione di OpenAI a questa fuga di ricercatori è stata gestita internamente dal Chief Strategy Officer (CSO) Jason Kwon. In una e-mail ai dipendenti, Kwon ha tentato di ridefinire la missione del team, dichiarando che l’azienda deve andare “oltre la semplice pubblicazione di ricerche su argomenti stimolanti e creare soluzioni”. Ha chiarito: “Non siamo semplicemente un istituto di ricerca; siamo un attore chiave nel diffondere l’intelligenza artificiale nel mondo, quindi dobbiamo assumerci la responsabilità e la proprietà dei risultati”. Questa dichiarazione è stata interpretata dagli esperti come un’indicazione che la funzione dell’unità di ricerca non è più quella di scoprire la verità neutrale, ma di supportare attivamente la narrazione e la diffusione aziendale dell’AI.

L’orientamento della ricerca sotto la supervisione di Aaron Chatterjee, che attualmente dirige il team economico, sembra confermare questa tendenza. Un report da lui supervisionato, ad esempio, si è concentrato sull’analisi di come ChatGPT crei valore economico aumentando la produttività, con un ex economista che ha commentato come la ricerca di OpenAI stia sempre più assumendo il ruolo di “mascherare la propria tecnologia”.

Cunningham non è un caso isolato. Diversi ricercatori, anche dal team di iper-allineamento, hanno lasciato l’azienda, citando la priorità data al lancio rapido di nuovi prodotti a discapito della sicurezza e dell’etica. Alcuni di questi ex dipendenti hanno persino scelto di collaborare con gruppi civici per opporsi alla trasformazione di OpenAI in un’azienda con un interesse prettamente commerciale.

In conclusione, il dibattito su OpenAI non riguarda solo la trasparenza, ma solleva questioni fondamentali sull’integrità della ricerca in un settore in rapida commercializzazione. Il conflitto tra gli obiettivi di una ricerca rigorosa e le pressioni finanziarie di una mega-corporation in procinto di quotarsi in borsa mette in luce un dilemma etico centrale per il futuro dello sviluppo responsabile dell’Intelligenza Artificiale.

Di Fantasy