Immagine AI

Negli ultimi mesi nella Silicon Valley si è consolidato un dibattito sempre più acceso attorno a quella che viene definita la “Seconda ondata dell’IA”, un’espressione utilizzata per descrivere il passaggio da un’intelligenza artificiale orientata principalmente all’ottimizzazione dei costi a una fase in cui l’AI diventa il motore per la creazione di prodotti e servizi completamente nuovi. Se la prima ondata, esplosa con la diffusione dei Large Language Model (LLM) e di strumenti come ChatGPT, è stata caratterizzata dall’automazione di processi esistenti e dal miglioramento dell’efficienza operativa, la nuova fase punta a generare valore economico diretto attraverso applicazioni che non sarebbero mai potute esistere senza modelli generativi avanzati.

Uno dei principali promotori di questa visione è Kyron Gibbs, fondatore di Inworld ed ex product manager di Google DeepMind. Dopo aver contribuito allo sviluppo di motori per personaggi AI capaci di generare comportamenti dinamici e interazioni realistiche, Gibbs ha recentemente avviato un acceleratore dedicato a circa trenta startup focalizzate su applicazioni AI consumer. L’iniziativa coinvolge importanti fondi di venture capital come Khosla Ventures e Lightspeed Venture Partners, oltre a figure di rilievo provenienti da OpenAI, Google e Stripe, segnalando che la spinta verso questa seconda fase non è solo retorica ma sostenuta da capitali e infrastrutture concrete.

Secondo questa impostazione, la prima ondata dell’intelligenza artificiale si è concentrata prevalentemente sulla riduzione dei costi: assistenti virtuali per il customer service, automazione di task amministrativi, generazione automatica di codice o contenuti per ridurre il tempo uomo necessario alla produzione. Questo approccio, pur avendo generato enormi benefici in termini di efficienza, tende a ristrutturare modelli di business già esistenti, comprimendo costi e margini, senza necessariamente espandere l’economia complessiva. La seconda ondata, invece, si fonda sull’idea che l’AI possa creare nuovi flussi di ricavo, nuovi mercati e nuove categorie di prodotto. Non si tratta più di rendere più economico ciò che esiste, ma di progettare esperienze digitali radicalmente diverse, in cui l’intelligenza artificiale non è uno strumento accessorio ma l’architettura centrale del prodotto.

Dal punto di vista tecnico, questo salto richiede uno stack di intelligenza artificiale su scala consumer in grado di garantire latenze estremamente ridotte, nell’ordine dei 300 millisecondi, per offrire interazioni percepite come istantanee. Occorre inoltre sostenere milioni di utenti contemporaneamente, con sistemi di inferenza ottimizzati, modelli miniaturizzati e costi di calcolo drasticamente abbattuti rispetto al periodo iniziale dei LLM. La combinazione tra progressi hardware, tecniche di quantizzazione e distillazione dei modelli e architetture di inferenza distribuita sta rendendo possibile questa nuova generazione di applicazioni in tempo reale, altamente personalizzate e integrate nel quotidiano.

La personalizzazione rappresenta uno dei pilastri tecnologici della seconda ondata. Mentre le applicazioni della prima fase tendevano a offrire risposte generiche o automatizzate su larga scala, le nuove soluzioni puntano a costruire esperienze adattate alle preferenze individuali. Un esempio è la piattaforma di notizie basata sull’AI denominata Particle, che utilizza modelli linguistici per identificare podcast rilevanti per ciascun utente, analizzarne il contenuto audio e video e trasformarlo in articoli sintetici. Il valore qui non risiede semplicemente nella sintesi automatica, ma nella capacità di riorganizzare il flusso informativo attorno al profilo cognitivo e agli interessi della singola persona, riducendo il tempo di fruizione e ridefinendo il modo in cui si accede alle informazioni.

Un altro caso emblematico è quello delle app di fitness iperpersonalizzate, come Luvu, che utilizzano modelli di intelligenza artificiale per generare notifiche e percorsi di allenamento adattivi. Invece di messaggi standardizzati, il sistema integra dati contestuali – come eventi personali registrati o pattern comportamentali precedenti – per costruire comunicazioni che risultano più pertinenti e motivanti. I tassi di interazione e di retention, secondo quanto dichiarato dai fondatori, risultano significativamente superiori rispetto alle app tradizionali. Dal punto di vista tecnico, questo tipo di applicazione sfrutta modelli generativi integrati con sistemi di reinforcement learning (RL), nei quali si instaura un ciclo continuo di feedback tra comportamento dell’utente e risposta dell’algoritmo, affinando progressivamente l’esperienza.

Nel settore dell’intrattenimento digitale, la seconda ondata si manifesta attraverso giochi sociali alimentati da LLM, come Status, in cui i personaggi non giocanti sono generati e animati dinamicamente dall’intelligenza artificiale. A differenza dei videogiochi tradizionali con ruoli e dialoghi predefiniti, questi sistemi sfruttano l’output non deterministico dei modelli linguistici per generare risposte sempre leggermente diverse, creando ambienti narrativi fluidi e imprevedibili. L’elemento tecnico distintivo è l’integrazione tra generazione linguistica, gestione dello stato del mondo virtuale e logiche di simulazione sociale, che consente interazioni più ricche e realistiche rispetto ai tradizionali script statici.

La riflessione proposta da imprenditori e investitori come Gary Tan di Y Combinator si inserisce in questo contesto: non basta migliorare l’efficienza del 5% o ridurre i costi del 2%. La domanda strategica diventa come costruire un prodotto talmente innovativo da giustificare un valore percepito dieci volte superiore rispetto alle soluzioni precedenti. In termini economici, la differenza tra la prima e la seconda ondata è la transizione dall’ottimizzazione dei margini alla creazione di nuova domanda. L’intelligenza artificiale libera il suo potenziale quando diventa catalizzatore di esperienze per cui gli utenti sono disposti a pagare, non semplicemente uno strumento per comprimere spese operative.

Questa trasformazione implica anche una ridefinizione delle competenze richieste alle startup e ai team di sviluppo. Non si tratta solo di integrare API di modelli linguistici, ma di progettare architetture di prodotto che mettano l’AI al centro del design, garantendo robustezza, sicurezza e scalabilità. La gestione della latenza, l’ottimizzazione dell’inferenza, la personalizzazione su larga scala e l’orchestrazione di più modelli diventano aspetti critici tanto quanto l’interfaccia utente.

Di Fantasy