Oggi, in un inaspettato Instagram Reel, Mark Zuckerberg, CEO di Meta, ha rivelato che la sua azienda sta lavorando allo sviluppo di un’Intelligenza Generale Artificiale (AGI) open source. Unendo le forze di due dei suoi team di ricerca AI, FAIR e GenAI, l’obiettivo è creare un’AGI completa e renderla il più aperta possibile alla comunità.
Zuckerberg ha condiviso la visione a lungo termine di Meta di costruire un’AGI, rendendola open source in modo responsabile per garantire che tutti possano beneficiarne. Ha spiegato che il futuro dei servizi richiede un’AGI completa, con avanzamenti in ogni settore dell’IA, dal ragionamento alla pianificazione, alla memoria e altre competenze cognitive.
Nel Reel, Zuckerberg ha anche messo in luce Llama 3, un progetto su cui Meta sta lavorando attivamente. Ha enfatizzato la costruzione di una “massiccia infrastruttura informatica” da parte dell’azienda, che prevede di includere 350.000 Nvidia H100 entro la fine dell’anno.
Ha inoltre evidenziato il metaverso di Meta e gli occhiali intelligenti Ray-Ban, sottolineando il ruolo che questi dispositivi avranno nell’integrazione tra intelligenza artificiale e metaverso. Zuckerberg prevede che l’uso di IA diventerà una parte quotidiana della nostra vita, probabilmente attraverso dispositivi come gli occhiali intelligenti, che offrono un modo ideale per un’IA di percepire ciò che vediamo e sentiamo.
Questo annuncio segue le recenti dichiarazioni di Sam Altman, CEO di OpenAI, sull’AGI al World Economic Forum di Davos, e arriva nonostante lo scetticismo espresso dal capo scienziato di Meta, Yann LeCun, sulla realizzazione dell’AGI nel prossimo futuro.
Infine, la notizia che Meta sta pianificando di rendere la sua futura AGI open source arriva in un momento cruciale per il dibattito sull’IA open source rispetto a quella closed source, specialmente dopo che VentureBeat ha dichiarato che Llama e l’IA open source hanno dominato il 2023. Questo annuncio intensifica il dibattito, soprattutto alla luce di recenti affermazioni da parte di Anthropic sulla potenziale presenza di “agenti dormienti” distruttivi nei modelli open source.