Recentemente, un dipendente di OpenAI ha dichiarato che l’azienda ha già raggiunto l’Intelligenza Artificiale Generale (AGI) con il suo modello di intelligenza artificiale ‘o1’. Tuttavia, questa affermazione ha suscitato dibattiti tra esperti e osservatori del settore.
Il 7 dicembre 2024, Vahid Kazemi, membro del team tecnico di OpenAI, ha espresso su X (precedentemente Twitter) la sua convinzione che l’azienda abbia già conseguito l’AGI, evidenziando che il modello ‘o1’ ne è una chiara dimostrazione. Kazemi ha sottolineato che, sebbene ‘o1’ non superi gli esseri umani in ogni singolo compito, eccelle nella maggior parte delle attività rispetto alla maggior parte delle persone.
Questa dichiarazione ha generato un acceso dibattito online, con numerosi utenti che hanno espresso opinioni contrastanti. Alcuni sostengono che i modelli linguistici di grandi dimensioni (LLM) come ‘o1’ seguano semplicemente “ricette” predefinite, senza una reale comprensione dei compiti eseguiti. Kazemi ha risposto a queste critiche affermando che anche il processo scientifico umano spesso segue schemi predefiniti, con l’intuizione che deriva da numerosi tentativi ed errori.
La questione centrale riguarda la definizione stessa di AGI. Mentre modelli come ChatGPT hanno superato gli esseri umani in vari benchmark, molti esperti ritengono che l’AGI implichi una comprensione e una consapevolezza del contesto paragonabili a quelle umane, qualcosa che attualmente manca nei modelli esistenti.
Sam Altman, CEO di OpenAI, ha recentemente dichiarato che l’AGI rappresenta un obiettivo raggiungibile nel prossimo futuro, ma ha sottolineato che la vera sfida risiede nello sviluppo di una “superintelligenza”, un’intelligenza artificiale che superi gli esseri umani in tutti i campi. Anche Elon Musk ha espresso opinioni simili, suggerendo che l’AGI potrebbe essere realizzata entro uno o due anni.
Tuttavia, non tutti condividono questo ottimismo. Recentemente, la rivista Time ha evidenziato che, durante una dimostrazione, ‘o1’ ha commesso errori basilari, sollevando dubbi sulla sua effettiva capacità di comprensione. In un esempio, il modello ha fornito istruzioni imprecise su come costruire una casetta per uccelli, indicando una mancanza di comprensione pratica del compito.
Quindi, mentre alcuni all’interno di OpenAI credono che l’AGI sia già stata raggiunta con ‘o1’, la comunità scientifica rimane divisa. La definizione e la misurazione dell’AGI continuano a essere oggetto di dibattito, e ulteriori ricerche sono necessarie per determinare se i modelli attuali possano effettivamente eguagliare o superare le capacità cognitive umane.