Negli ultimi anni, i modelli di intelligenza artificiale (IA) basati sul ragionamento, come la serie “o” di OpenAI, hanno mostrato progressi significativi, superando i limiti dei tradizionali modelli linguistici. Tuttavia, un recente rapporto di Epoch AI solleva interrogativi cruciali sulla sostenibilità di questa crescita esponenziale, suggerendo che potremmo essere prossimi a un punto di saturazione.

OpenAI ha introdotto la serie “o” con l’obiettivo di sviluppare modelli capaci di ragionare in modo più profondo e strutturato. Il modello “o3”, ad esempio, ha ottenuto punteggi impressionanti in benchmark complessi, come l’87,5% nel GPQA Diamond, avvicinandosi alle prestazioni umane . Questi modelli utilizzano tecniche avanzate, tra cui l’apprendimento per rinforzo (RL), per migliorare la qualità delle risposte attraverso una riflessione più approfondita.

L’apprendimento per rinforzo è stato fondamentale per l’evoluzione della serie “o”. OpenAI ha investito risorse significative in questa area, con il modello “o3” che ha richiesto dieci volte più potenza computazionale rispetto al precedente “o1” . Tuttavia, l’aumento esponenziale delle esigenze computazionali solleva preoccupazioni sulla sostenibilità a lungo termine di questo approccio.

Epoch AI evidenzia quattro principali ostacoli alla scalabilità dei modelli di ragionamento:

  • Disponibilità di Potenza: L’addestramento di modelli avanzati richiede enormi quantità di energia. Ad esempio, Meta ha utilizzato 27 megawatt di energia per addestrare il suo modello di punta, pari al consumo annuale di 23.000 famiglie americane .
  • Capacità di Produzione dei Chip: La crescente domanda di chip avanzati potrebbe superare la capacità produttiva attuale, limitando la disponibilità di hardware necessario per l’addestramento.
  • Scarsità di Dati: Si stima che la quantità di dati umani di alta qualità disponibili per l’addestramento si esaurirà tra il 2026 e il 2032, limitando ulteriormente la possibilità di migliorare i modelli .
  • Muri di Latenza: I ritardi inevitabili nei calcoli durante l’addestramento possono rallentare i progressi, creando un “muro di latenza” che ostacola l’efficienza complessiva.

Secondo Epoch AI, se i trend attuali continuano, i progressi nei modelli di ragionamento potrebbero rallentare significativamente entro il 2026, con un limite teorico di crescita delle prestazioni del 4 volte all’anno . Questo scenario suggerisce che, senza innovazioni radicali, potremmo raggiungere un plateau nelle capacità dei modelli di ragionamento.

Di Fantasy