La recente comunicazione di OpenAI, mediata dalle dichiarazioni del responsabile di ChatGPT Nick Turley, segna la fine dell’era “naïf” del software come servizio (SaaS) applicato ai modelli linguistici di grande scala. Il passaggio da un abbonamento illimitato a una struttura di prezzo variabile o limitata non è una semplice scelta commerciale, ma una necessità derivante dall’evoluzione dell’architettura dei modelli stessi. Il cuore del problema risiede nel passaggio dal “pre-training compute”, ovvero l’energia spesa per addestrare il modello, al “test-time compute”, la capacità di calcolo investita durante la fase di inferenza per permettere al sistema di “pensare” più a lungo prima di fornire una risposta.

Questa nuova frontiera tecnologica, introdotta con i modelli della serie “o1” e successivi, rompe il rapporto lineare tra richiesta dell’utente e costo operativo. Se nei modelli tradizionali ogni query consumava una quantità di risorse relativamente prevedibile, i nuovi agenti capaci di ragionamento logico profondo possono scalare l’utilizzo delle GPU in modo esponenziale a seconda della complessità del compito. Fornire un accesso illimitato a tale potenza di calcolo con un canone fisso di 20 dollari mensili è diventato tecnicamente e logicamente insostenibile, paragonabile, come suggerito da Turley, all’offerta di un piano elettrico domestico senza contatore in un’epoca di massiccia industrializzazione energetica.

L’esperienza di Anthropic con lo strumento “Claude Code” ha già tracciato la rotta di questa crisi di sostenibilità: alcuni sviluppatori, attraverso l’automazione, hanno generato volumi di traffico e consumo di token centinaia di volte superiori al valore economico del loro abbonamento. Questo fenomeno di “iper-utilizzo” sta spingendo l’intera industria verso modelli di “usage-based pricing”, dove il costo riflette l’effettivo sforzo computazionale richiesto. Per OpenAI, che inizialmente aveva concepito ChatGPT come una demo temporanea della durata di un mese, la sfida è ora trasformare un prodotto diventato virale per la sua accessibilità in un sistema operativo della vita quotidiana che sia economicamente scalabile.

In questo contesto, la strategia di OpenAI si sta biforcando per garantire la massima penetrazione di mercato senza erodere i margini operativi. Da un lato, l’azienda esplora l’introduzione di piani supportati dalla pubblicità per raggiungere quegli utenti nei mercati emergenti che non hanno accesso a sistemi di pagamento ricorrenti o che non possono permettersi il costo dei piani “Pro” o “Max”. Dall’altro, si sta concentrando sull’evoluzione degli agenti autonomi, sistemi capaci di eseguire compiti complessi nel mondo reale, come la scrittura e il deploy di intere applicazioni software. Questi agenti non si limitano a rispondere a una domanda, ma operano in cicli iterativi che richiedono una gestione dei costi estremamente precisa e dinamica.

La transizione verso un modello basato sull’utilizzo effettivo e l’integrazione della pubblicità rappresentano dunque il tentativo di bilanciare due obiettivi apparentemente opposti: mantenere ChatGPT come uno strumento universale e democratico, pur riconoscendo che l’intelligenza di frontiera ha un costo marginale non nullo. La sfida tecnica per il futuro prossimo sarà lo sviluppo di algoritmi di “routing” capaci di assegnare ogni richiesta al modello meno costoso in grado di risolverla, ottimizzando il consumo di risorse ed evitando lo spreco di potenza di calcolo pregiata per compiti triviali, preservando al contempo la privacy e l’indipendenza delle risposte fornite dall’intelligenza artificiale.

Di Fantasy