Immagine AI

Negli ultimi due anni il dibattito sull’intelligenza artificiale in azienda si è concentrato soprattutto su modelli linguistici di grandi dimensioni e su tecniche di prompting sempre più sofisticate. In molti contesti, l’idea dominante è stata quella di “insegnare” ai modelli generalisti a comportarsi correttamente attraverso istruzioni sempre più dettagliate, esempi contestuali e prompt complessi. Tuttavia, l’esperienza di LinkedIn racconta una storia diversa, che mette in discussione l’efficacia di questo approccio quando l’IA deve operare su scala industriale e con requisiti stringenti di affidabilità.

Secondo quanto raccontato da VentureBeat, per LinkedIn il prompting si è rivelato fin dall’inizio una strada poco percorribile. Non perché sia inutile in assoluto, ma perché inadatta a un contesto in cui milioni di utenti interagiscono quotidianamente con sistemi automatici che influenzano raccomandazioni, feed, suggerimenti di lavoro, messaggistica e sicurezza della piattaforma. In uno scenario simile, l’imprevedibilità introdotta da prompt dinamici e complessi diventa un rischio operativo difficile da accettare.

Il problema principale non è tanto la capacità del modello di “capire” una richiesta, quanto la coerenza delle risposte nel tempo. In un ambiente enterprise come quello di LinkedIn, ogni variazione non controllata nel comportamento dell’IA può tradursi in risultati incoerenti, regressioni funzionali o, nel peggiore dei casi, in decisioni sbagliate che impattano direttamente sull’esperienza degli utenti. Il prompting avanzato, proprio perché lavora su modelli generalisti e probabilistici, tende a produrre risposte diverse a parità di input, rendendo difficile garantire stabilità e prevedibilità.

Per questo motivo, invece di spingere sull’ottimizzazione dei prompt, LinkedIn ha scelto di investire in modelli più piccoli e specializzati. Si tratta di modelli addestrati su compiti ben definiti, con un perimetro funzionale chiaro e controllabile. Questa scelta rappresenta un cambio di prospettiva importante: l’obiettivo non è avere un’unica intelligenza artificiale “onnisciente”, ma una costellazione di modelli mirati, ciascuno progettato per svolgere un compito specifico in modo affidabile, veloce ed economicamente sostenibile.

Un altro aspetto centrale di questa strategia riguarda le prestazioni e i costi. I grandi modelli linguistici richiedono risorse computazionali significative, con tempi di inferenza più elevati e costi operativi che crescono rapidamente con l’aumentare del traffico. In una piattaforma come LinkedIn, dove ogni millisecondo conta e ogni richiesta viene moltiplicata per milioni di utenti, l’adozione di modelli più leggeri consente di mantenere latenze basse e di ridurre drasticamente i costi infrastrutturali, senza rinunciare alla qualità del risultato.

C’è poi una questione di controllo ingegneristico. I piccoli modelli permettono ai team di sviluppo di comprendere meglio il comportamento dell’IA, di testarla in modo più rigoroso e di intervenire rapidamente in caso di anomalie. Al contrario, quando si fa affidamento su modelli molto grandi e su prompt sempre più complessi, diventa difficile isolare le cause di un errore o di un comportamento inatteso. In pratica, il prompting rischia di diventare una forma di “colla” che tiene insieme sistemi complessi senza offrire vere garanzie di solidità nel lungo periodo.

L’approccio di LinkedIn riflette anche una maturazione più ampia nel modo in cui le aziende stanno integrando l’intelligenza artificiale nei propri prodotti. Dopo una fase iniziale di entusiasmo, in cui l’obiettivo era dimostrare cosa fosse possibile fare con l’IA generativa, molte organizzazioni stanno ora entrando in una fase più pragmatica. In questa nuova fase, contano meno le demo spettacolari e di più l’affidabilità, la governance e l’integrazione profonda nei sistemi esistenti.

In questo senso, la scelta di LinkedIn suggerisce che il futuro dell’IA enterprise potrebbe non essere dominato esclusivamente da modelli sempre più grandi, ma da architetture ibride, in cui modelli generalisti convivono con modelli piccoli e specializzati. I primi possono essere utilizzati per compiti esplorativi o creativi, mentre i secondi diventano il motore silenzioso delle funzioni critiche, quelle che devono funzionare sempre nello stesso modo, ogni giorno, su larga scala.

Alla fine, il messaggio che emerge dall’esperienza di LinkedIn è chiaro: quando l’intelligenza artificiale passa dalla sperimentazione alla produzione reale, le priorità cambiano. La capacità di controllare il comportamento dei modelli, di garantirne la stabilità e di renderli sostenibili nel tempo diventa più importante della flessibilità offerta dal prompting avanzato. Ed è proprio in questo equilibrio tra potenza e controllo che si gioca oggi la vera sfida dell’IA nelle grandi piattaforme digitali.

Di Fantasy