La recente concomitanza del primo anniversario di ChatGPT e l’incidente di Sam Altman di Open AI ha messo in evidenza a Silicon Valley il dibattito tra l’accelerazione e la decelerazione nello sviluppo dell’intelligenza artificiale (AI). Questo tema ha portato all’enfasi sull'”intelligenza artificiale responsabile”.
CNBC ha riportato che quest’anno l'”accelerazionismo efficace (e/acc)”, simbolo dell’ottimismo tecnologico, è entrato in conflitto con il decelerazionismo nell’IA.
Questo contrasto filosofico ha avuto origine nel 2021, a seguito dell’ascesa dell'”altruismo efficace”, un movimento di pessimismo tecnologico. L'”e/acc” è diventato più serio con il lancio di un sito web lo scorso ottobre, creato da quattro esperti anonimi, inclusi noti tecnologi come Guillaume Verdon di Google e Twitter. Questi esperti credono che la tecnologia migliorerà il mondo.
Personalità influenti come Mark Andreessen, fondatore di Andreessen Horowitz, e Yann LeCun Mehta, prominente scienziato dell’AI, sostengono questa visione. Andreessen ha persino etichettato Verdon come “il santo dell’ottimismo tecnologico”. LeCun ha contribuito rendendo open source il Large Language Model (LLM) di Meta per realizzare questa visione.
I pessimisti tecnologici, in contrasto, hanno guadagnato notorietà a causa dell’incidente di Open AI. Gli altruisti efficaci ritengono che l’AI possa portare alla fine dell’umanità e si concentrano sul rallentarne lo sviluppo e sull'”allineamento”, per permettere un controllo umano completo sull’AI.
Si ritiene che Ilya Sutskever di OpenAI, a capo di un team iper-allineato, abbia persuaso alcuni altruisti efficaci e abbia concordato il licenziamento di Altman.
Marlo Bogon, CEO del Machine Intelligence Research Institute, ha affermato che le specie con intelligenza superiore possono avere conseguenze dannose, paragonando gli scimpanzé negli zoo a sistemi di AI avanzati che potrebbero avere un impatto simile sull’umanità.
Christine Padermore, CEO dello Strategic Risk Council ed ex funzionario del Pentagono, sostiene che rallentare l’AI non è la soluzione, poiché l’AI è ormai una tecnologia a beneficio dell’umanità.
Questo dibattito sta influenzando significativamente le attività aziendali. OpenAI sta conducendo ricerche approfondite sull’allineamento dell’AI e ha recentemente condiviso dettagli rilevanti.
Un sondaggio di Amazon ha scoperto che il 59% dei leader aziendali considera l’AI responsabile una priorità massima, con il 47% che prevede di investire maggiormente in questo campo nel 2024 rispetto al 2023.
Dia Win, responsabile dell’AI di AWS, ha evidenziato che l’AI responsabile è un imperativo aziendale integrato nel modo di lavorare.
Alcuni ritengono inevitabile un rallentamento dello sviluppo dell’AI d’avanguardia. Wynn ha sottolineato che le aziende stanno riconoscendo l’importanza dell’AI responsabile, il che potrebbe rallentare l’innovazione ma renderà i sistemi più sicuri.
Bogon ha previsto che l’AI potrebbe raggiungere un livello catastrofico entro il 2030 e ha enfatizzato che i governi devono essere pronti a sospendere i sistemi di AI fino a quando non verranno dimostrate le loro sicurezze.