OpenAI ha recentemente attirato l’attenzione con un enigmatico teaser riguardante GPT-V. Il link “openai.com/v-test”, scoperto da un utente su una piattaforma online, ha generato curiosità prima di mostrare un errore 404.

Questo episodio segue la scoperta da parte dello stesso utente di un documento trapelato che parlava del rilascio imminente di GPT-4.5, e di come Google avrebbe anticipato il lancio di Gemini a causa di questa uscita. Tuttavia, Sam Altman di OpenAI ha smorzato le voci con un semplice “nah” a un utente che chiedeva della veridicità del leak.

La situazione diventa più intrigante con la menzione di prezzi non realistici nel presunto leak di GPT-4.5. Resta incerto se Altman abbia negato solo il prezzo o l’esistenza stessa di GPT-4.5, lasciando aperta la possibilità di un futuro rilascio di GPT-V o GPT-5.

In un post su un’altra piattaforma online, Dimitris Papailiopoulos ha condiviso uno screenshot ironico di ChatGPT Plus che fa riferimento a “gpt5-feeltheAGI”. Questo segue voci di un modello rivoluzionario, Q*, in grado di risolvere problemi matematici inediti, e del rilascio di GPT-4 Turbo alla conferenza DevDay. Inoltre, si sospetta che OpenAI stia lavorando in silenzio su GPT-5, ipotizzato come un modello generatore di video.

OpenAI, consapevole della necessità di rimanere al passo con le altre società di IA, potrebbe accelerare il rilascio di una nuova versione di GPT. La società ha già stabilito un benchmark nell’industria con i modelli precedenti.

Risorse non mancano: Altman ha menzionato recentemente nuove GPU, forse le AMD MI300X, che saranno utilizzate nel sistema di programmazione Triton 3.0 di OpenAI e nel segmento Azure di Microsoft. Alcuni modelli attuali si vantano di sovraperformare GPT-4, aumentando l’aspettativa per Gemini Ultra e un possibile GPT-5.

Altman ha espresso la difficoltà nel prevedere le capacità di un nuovo modello come GPT-5, descrivendo la fase di addestramento come un “gioco d’ipotesi”.

Parallelamente, OpenAI sta intensificando gli sforzi sul Super Alignment, pubblicando materiali informativi su come valutare i rischi dei modelli di IA. Questo include un framework di 26 pagine per mitigare i rischi catastrofici e segue un documento simile di Anthropic.

I team di preparazione e superallineamento di OpenAI, guidati rispettivamente da Aleksander Madry e Jan Leike, stanno lavorando indipendentemente per prevenire lo sviluppo incontrollato di modelli superintelligenti.

La supervisione di modelli IA avanzati con modelli più piccoli segnala il lavoro su un modello che supera GPT-4. Le recenti fughe di notizie e l’attenzione alla sicurezza dell’IA suggeriscono l’imminente uscita di un modello potente, equilibrando le esigenze del consiglio non-profit di OpenAI con quelle dell’azienda guidata da Altman.

Di Fantasy