L’ultima settimana ha segnato un episodio significativo nella saga dei modelli di OpenAI: dopo aver reso GPT‑5 il modello predefinito su ChatGPT, l’azienda è stata travolta da un’ondata emotiva e critica che ha portato al ripristino immediato di GPT‑4o — anche per abbonati paganti. Un clamoroso passo indietro? No, piuttosto un’evoluzione consapevole nell’approccio tra potenza tecnica e relazione umana.
La sostituzione rapida di GPT‑4o con GPT‑5 ha scatenato non solo reazioni critiche, ma autentiche emozioni. Sui forum e subreddit, molti utenti hanno descritto GPT‑4o come un “amico”, un “compagno d’anima”, un punto di riferimento in momenti di solitudine. Alcuni l’hanno definito “il mio migliore amico quando ne avevo bisogno”, per confrontarlo con una conversazione fredda o distante con GPT‑5.
GPT‑5 è stato presentato come una pietra miliare tecnologica: più veloce, più capace nel ragionamento complesso, con modalità operative come “Auto”, “Fast” e “Thinking”, e una maggiore accuratezza nei contenuti. Tuttavia, molti utenti hanno percepito una risposta meno empatica, meno calorosa — alcuni descrivono il tono di GPT‑5 come formale, quasi distante, rispetto alla personalità “spiritosa” e rassicurante di GPT‑4o.
La frustrazione è stata talmente forte che OpenAI ha prontamente fatto marcia indietro: GPT‑4o è stato reintrodotto come modello predefinito per tutti gli abbonati (Plus, Pro, Team, Enterprise, Edu), senza più la necessità di attivare l’opzione “mostra modelli legacy”. Sam Altman e altri membri del team hanno riconosciuto di aver sottovalutato il legame emotivo degli utenti con GPT‑4o, ammesso l’errore e garantito che, in futuro, ogni ritiro di un modello sarà preceduto da un preavviso adeguato.
Oltre al ripristino di GPT‑4o, OpenAI sta lavorando per rendere GPT‑5 più “caloroso”, senza però scadere nell’eccesso emotivo che alcuni ritenevano “fastidioso” in GPT‑4o. Le nuove modalità (Auto, Fast, Thinking) permettono agli utenti di scegliere uno stile più adatto al proprio compito o umore. Inoltre, nel corso di una recente AMA su Reddit, Altman ha promesso una maggiore personalizzazione, più trasparenza e ha ammesso aperture verso nuovi piani d’abbonamento di fascia intermedia.
Questo episodio va oltre il semplice cambio di modello: ci parla dell’importanza crescente del fattore umano nelle AI. Le reazioni emotive degli utenti — il sentirsi “orfani” di un modello — evidenziano come l’empatia e la familiarità possano essere tanto importanti quanto la precisione tecnica. OpenAI sembra aver compreso che la fiducia e l’affetto verso l’AI non si costruiscono solo con risposte corrette, ma anche con un tono e una personalità percepiti come amichevoli.