Nel 2019, Arvind Narayanan, professore di informatica all’Università di Princeton e recentemente nominato direttore del Center for Information Technology Policy, aveva condiviso una presentazione su Twitter con il titolo “AI Snake Oil”, sostenendo che gran parte dell’intelligenza artificiale venduta oggi non funziona come promesso. Il professore, assieme a Sayash Kapoor, un dottorando e ex ingegnere software presso Facebook, aveva poi intrapreso la stesura di un libro per esplorare in profondità il tema.
Il Cambiamento della Visione sull’Intelligenza Artificiale
Narayanan aveva inizialmente focalizzato la sua attenzione sull’intelligenza artificiale predittiva. Tuttavia, era stato sorpreso dall’accelerazione dei progressi nell’intelligenza artificiale generativa, specialmente nel suo utilizzo come tecnologia di consumo. Questo cambiamento aveva portato a una riorientazione del focus del libro, mantenendo tuttavia invariati i principali argomenti.
Kapoor aveva aggiunto che con l’ingresso delle tecnologie di consumo, nuovi problemi come la sicurezza dei prodotti erano diventati preoccupazioni maggiori. La conversazione nell’ambito dell’intelligenza artificiale si era quindi spostata dall’indagare sui limiti dell’intelligenza artificiale predittiva a mettere in luce la necessità di più regolamentazione nell’intelligenza artificiale generativa.
Il Messaggio per Consumatori e Aziende
Entrambi i ricercatori avevano enfatizzato la necessità di pensare criticamente ai diversi tipi di intelligenza artificiale. Narayanan aveva espresso preoccupazione per l’eccessiva semplificazione nel discorso pubblico e aveva suggerito che, sebbene l’intelligenza artificiale fosse un campo potente e utile, l’hype era diventato eccessivo e rischioso.
Feedback dalla Comunità
Il blog “AI Snake Oil” aveva ricevuto un’accoglienza positiva e diversi tipi di feedback, che avevano aiutato Narayanan e Kapoor a rifinire le loro argomentazioni. Kapoor aveva sottolineato che erano emerse anche critiche utili, in particolare riguardo al loro punto di vista sull’intelligenza artificiale e la disinformazione.
Aspetti Etici e di Politica
Narayanan aveva riconosciuto che c’erano state resistenze anche su fronti etici, come lo sfruttamento della manodopera nella costruzione dell’IA. Entrambi i ricercatori avevano esortato a un cambiamento politico piuttosto che all’astinenza individuale dall’uso dell’IA.
Futuri Passaggi d’Azione
Kapoor aveva posto la trasparenza come priorità assoluta per le aziende di generazione di intelligenza artificiale. Narayanan aveva insistito su una maggiore presenza di tecnologi nel governo e sull’applicazione efficace delle leggi esistenti per regolamentare l’IA.
Preoccupazioni e Aspirazioni Finali
Kapoor aveva esposto la sua preoccupazione per una frattura tra le comunità di etica e sicurezza dell’IA, sottolineando che si trattava più di una lotta per il potere che di un dibattito intellettuale. Narayanan aveva avvertito il pubblico di non farsi ingannare dai numeri spesso citati per quantificare le prestazioni dell’IA, poiché non erano sempre indicativi dell’efficacia nell’uso reale.