Immagine AI

La prima fase dell’esplosione dell’intelligenza artificiale generativa è stata caratterizzata da un entusiasmo diffuso che ha favorito la nascita di migliaia di startup in tutto il mondo. L’accesso relativamente semplice a modelli linguistici avanzati tramite API ha abbassato drasticamente la barriera tecnica all’ingresso, consentendo a piccoli team di costruire prodotti in tempi rapidissimi. Tuttavia, con la maturazione del mercato e il consolidamento dei principali fornitori di modelli, stanno emergendo segnali di tensione strutturale. In particolare, due categorie di modelli di business vengono oggi considerate ad alto rischio: gli LLM wrapper e gli aggregatori di intelligenza artificiale.

Darren Mowry, vicepresidente di Google responsabile del cloud, di DeepMind e dell’organizzazione globale delle startup, ha sintetizzato questa dinamica nel podcast di TechCrunch affermando che per questi modelli “si è già accesa la spia di controllo motore”. L’espressione richiama l’idea di un’anomalia strutturale che, pur non avendo ancora causato un arresto improvviso, segnala un problema di sostenibilità nel medio termine.

Un LLM wrapper è, nella sua forma più semplice, un prodotto che si appoggia a un modello di base come OpenAI, Anthropic o Google, integrando un’interfaccia utente e una logica applicativa focalizzata su uno specifico problema. Esempi tipici includono strumenti di scrittura automatica, assistenti per lo studio o generatori di contenuti verticali. In molti casi, il valore aggiunto consiste in un’interfaccia ottimizzata, prompt preconfigurati e una minima integrazione con workflow esistenti. Durante la fase iniziale del boom generativo, questa strategia era sufficiente per attrarre utenti e investimenti, grazie alla novità della tecnologia sottostante.

Secondo Mowry, però, il mercato non è più disposto ad accettare una struttura che “etichetta in bianco” un modello di base aggiungendo solo un sottile strato di proprietà intellettuale. Il problema principale è la mancanza di un vantaggio competitivo difendibile. Se il core tecnologico è interamente controllato dal provider del modello, il rischio è che quest’ultimo integri rapidamente le funzionalità più richieste direttamente nella propria piattaforma, comprimendo i margini e riducendo la rilevanza dell’intermediario.

Questa dinamica è già stata osservata con il lancio dello store GPT di ChatGPT, che ha consentito la creazione e distribuzione di applicazioni personalizzate direttamente all’interno dell’ecosistema del fornitore del modello. Servizi che in precedenza avrebbero potuto costruire una base utenti autonoma si sono trovati improvvisamente a competere con soluzioni native integrate nella piattaforma principale. Il caso di Jasper, inizialmente cresciuta grazie all’integrazione con GPT-3, è emblematico di questa pressione competitiva: il valore differenziale si è ridotto drasticamente con l’introduzione di funzionalità analoghe direttamente in ChatGPT.

Parallelamente, anche il modello degli aggregatori di intelligenza artificiale presenta criticità strutturali. Queste piattaforme, come Perplexity AI o OpenRouter, offrono un’interfaccia unificata o un’unica API attraverso cui accedere a più modelli, instradando le richieste verso quello ritenuto più appropriato. Dal punto di vista tecnico, il valore consiste nell’orchestrazione, nel routing intelligente e nella semplificazione dell’accesso multi-modello. Tuttavia, Mowry sottolinea che questa funzione di intermediazione è difficilmente difendibile nel lungo periodo, poiché i fornitori di modelli stanno rafforzando direttamente le proprie offerte enterprise, includendo strumenti di gestione, monitoraggio e integrazione.

La situazione ricorda, secondo il vicepresidente di Google, la fase iniziale del mercato cloud alla fine degli anni Duemila. In quel periodo molte startup costruirono il proprio business rivendendo infrastruttura di Amazon Web Services. Quando Amazon ampliò la propria offerta con strumenti aziendali più sofisticati, numerosi rivenditori privi di un valore aggiunto distintivo furono espulsi dal mercato. Sopravvissero soltanto le aziende capaci di integrare servizi ad alto contenuto specialistico, come sicurezza avanzata, migrazione complessa o consulenza DevOps, costruendo un “fossato” competitivo reale.

Il concetto di “fossato ampio e profondo” diventa quindi centrale nell’analisi della sostenibilità delle startup AI. Un vantaggio competitivo può essere costruito in senso orizzontale, offrendo una piattaforma ampiamente differenziata per funzionalità e integrazione, oppure in senso verticale, radicandosi profondamente in un settore specifico con competenze di dominio difficilmente replicabili. Esempi citati includono Cursor, assistente per la programmazione con integrazione profonda nei flussi di sviluppo, e Harvey, piattaforma di intelligenza artificiale focalizzata sul settore legale. In questi casi, il valore non deriva solo dal modello linguistico sottostante, ma dall’integrazione con processi, dati proprietari e workflow professionali complessi.

Nel frattempo, anche il lato della domanda sta cambiando. Secondo le stime di Gartner, la spesa globale in software ha superato i 1.249 miliardi di dollari lo scorso anno e continua a crescere, con una previsione di incremento del 14,7% che dovrebbe portarla a circa 1.434 miliardi. Tuttavia, la dinamica decisionale all’interno delle imprese è diventata più rigorosa. Se nella fase iniziale l’urgenza di “non restare indietro” nell’intelligenza artificiale aveva favorito decisioni rapide, oggi le aziende valutano con maggiore attenzione il ritorno sull’investimento, coinvolgendo dipartimenti legali e finanziari e analizzando la stabilità tecnologica dei fornitori.

Le dichiarazioni del CEO di Regal, riportate dal Wall Street Journal, evidenziano questo cambiamento: ciò che in passato poteva essere chiuso con una singola demo ora richiede mesi di negoziazione e validazione. Inoltre, i frequenti aggiornamenti dei modelli di base introducono un ulteriore elemento di incertezza, poiché le organizzazioni esitano a vincolarsi a soluzioni che potrebbero diventare obsolete nel giro di pochi trimestri.

Un dato particolarmente significativo fornito da Gartner indica che, ad aprile 2025, solo l’11% dei responsabili di customer service e assistenza clienti riteneva che l’IA generativa avesse raggiunto i principali obiettivi aziendali. Questo suggerisce che l’adozione non si traduce automaticamente in valore misurabile e che il mercato sta entrando in una fase di razionalizzazione, in cui le metriche di performance e fattibilità prevalgono sull’entusiasmo tecnologico.

Nel complesso, il settore dell’intelligenza artificiale generativa sta passando da una fase di espansione esplorativa a una fase di selezione competitiva. I modelli di business basati su semplice intermediazione o su un sottile livello applicativo sopra un LLM rischiano di essere schiacciati dall’integrazione verticale dei grandi fornitori di modelli. La sopravvivenza e la crescita richiederanno differenziazione profonda, integrazione nei processi aziendali e creazione di asset proprietari difficilmente replicabili. In un mercato sempre più maturo, non sarà sufficiente cavalcare la tecnologia sottostante: sarà necessario dimostrare valore concreto, sostenibile e misurabile nel tempo.

Di Fantasy