C’è un momento nella storia dell’intelligenza artificiale che suggerisce un punto di svolta: il debutto di GPT‑5 segna, secondo alcuni, «l’ennesimo muro» che i modelli di linguaggio non riescono più a superare. Questo spinge una figura di rilievo nel settore—David Luan, storico della ricerca in IA—verso una riflessione profonda sul futuro dei sistemi AI: forse il vero salto avverrà solo quando i modelli diventeranno veramente agenti intelligenti.
Nel corso di un’intervista con The Verge, Luan — già a capo dello sviluppo di GPT‑2 e GPT‑3 in OpenAI, e successivamente coinvolto nella creazione di PaLM per Google — ha osservato che l’IA ha ormai raggiunto un plateau nella sua evoluzione. I nuovi modelli, lungi dal proporre innovazioni dirompenti, tendono a convergere verso prestazioni sempre più simili, segnando una stagnazione tra i pionieri dell’AI.
Il paragone simboleggia bene questa situazione: come nel mito della caverna di Platone, dove gli uomini scambiano per realtà le ombre proiettate sulle pareti, anche i modelli linguistici—basandosi unicamente sui dati di addestramento—vivono in un mondo di simulacri limitati, incapaci di afferrare la complessità e la profondità della realtà.
Secondo Luan, per andare oltre il limite dei modelli LLM serviamo qualcosa di nuovo: gli agenti, sistemi dotati non solo della capacità di “comprendere” il linguaggio, ma di agire, monitorare, ragionare sul contesto in modo autonomo e situazionale.
Nel suo percorso, Luan ha guidato la realizzazione del primo prototipo di agente ai tempi della startup Adept, e oggi guida il laboratorio AGI in Amazon a San Francisco, dove lavora su un agente basato su browser chiamato Nova Act. È proprio in questa trasformazione — da entità reattive a entità dotate di iniziativa e autonomia — che sta la prospettiva futura dell’IA.
“Cosa mi colpisce di più in GPT‑5?” si chiede Luan. La risposta è netta: “La convergenza delle prestazioni dei modelli frontieristi verso la stessa soglia. Non stiamo facendo il salto, stiamo solo spingendo lo stesso gradino più in alto”.
È quello che chiama “l’era della maturità”: un periodo in cui la tecnologia è stabile ma non offre più vere novità. Finché l’IA si limiterà a riflettere dati preesistenti senza interagire in modo attivo e contestuale, la sua evoluzione resterà destinata alla marginalità dell’ombra.
Questo momento segna forse la vera transizione: da modelli linguistici sempre più sofisticati, ma fondamentalmente passivi, a agenti proattivi capaci di ragionare, pianificare e agire nel mondo con una robustezza mai vista prima. È qui che si gioca la sfida delle prossime generazioni di IA.
GPT-5, in questa luce, rappresenta non tanto un punto di arrivo, ma un punto di svolta che ci ricorda quanto sia importante affidarsi a una progettazione centrata sull’azione, sulla percezione del contesto e sull’adattamento continuo.