Nel corso del secolo scorso, IBM ha assistito all’emergere e al declino di numerose tendenze tecnologiche. Tuttavia, ciò che ha sempre prevalso sono state le tecnologie che offrono scelta e flessibilità. Oggi, l’azienda sta affrontando una nuova sfida nel panorama dell’intelligenza artificiale (IA): aiutare le imprese a scegliere il modello di linguaggio di grandi dimensioni (LLM) più adatto a ciascun caso d’uso specifico. Secondo Armand Ruiz, Vice President della piattaforma IA di IBM, le aziende stanno abbandonando le strategie monomarca a favore di approcci multimodello, adattando l’LLM alle esigenze particolari di ogni applicazione.
IBM ha sviluppato una propria famiglia di modelli IA open-source denominata Granite, ma non la propone come unica soluzione. Al contrario, l’azienda si posiziona come un “centro di controllo” per i carichi di lavoro IA, offrendo alle imprese la possibilità di combinare diversi modelli in base alle necessità specifiche. Ad esempio, per la generazione di codice, molte aziende preferiscono utilizzare modelli come Anthropic, mentre per compiti di ragionamento complesso si orientano verso modelli come o3. Per la personalizzazione dei modelli con i propri dati, le scelte variano tra Granite, Mistral, Llama e altri modelli open-source. IBM assiste le imprese nel selezionare l’LLM più adatto a ciascun caso d’uso, fornendo raccomandazioni basate sulle specifiche esigenze.
Per facilitare l’adozione di approcci multimodello, IBM ha introdotto un gateway che offre alle imprese un’unica API per passare da un LLM all’altro, mantenendo al contempo visibilità e governance su tutte le implementazioni. Questa architettura tecnica consente ai clienti di eseguire modelli open-source sui propri stack di inferenza per casi d’uso sensibili, mentre accedono a API pubbliche come AWS Bedrock o Google Cloud’s Gemini per applicazioni meno critiche. In questo modo, IBM offre una soluzione che evita il lock-in proprietario, permettendo alle aziende di scegliere liberamente i modelli più adatti alle loro esigenze.
Oltre alla gestione dei modelli, IBM affronta la crescente necessità di comunicazione tra agenti IA attraverso protocolli aperti. L’azienda ha sviluppato l’Agent Communication Protocol (ACP) e lo ha contribuito alla Linux Foundation, in competizione con il protocollo Agent2Agent (A2A) di Google, anch’esso recentemente donato alla stessa fondazione. Entrambi i protocolli mirano a facilitare la comunicazione tra agenti e ridurre il lavoro di sviluppo personalizzato. Questi protocolli forniscono modi standardizzati per l’interazione tra sistemi IA su diverse piattaforme e fornitori, un aspetto cruciale per le imprese che operano su larga scala.
Secondo Ruiz, l’IA dovrebbe andare oltre i semplici chatbot e contribuire a trasformare i flussi di lavoro aziendali. Un esempio interno di IBM illustra questo cambiamento: invece di interagire con chatbot per informazioni sulle risorse umane, gli agenti specializzati ora gestiscono automaticamente le richieste riguardanti compensi, assunzioni e promozioni, indirizzando le informazioni ai sistemi appropriati e coinvolgendo gli esseri umani solo quando necessario. Questo rappresenta un cambiamento fondamentale nell’architettura, passando dall’interazione uomo-computer all’automazione dei flussi di lavoro tramite agenti IA.
Le esperienze di IBM suggeriscono diverse linee guida per le imprese che desiderano implementare l’IA in modo efficace:
- Abbandonare l’approccio “chatbot-first”: Le organizzazioni dovrebbero identificare flussi di lavoro completi da trasformare, piuttosto che aggiungere interfacce conversazionali ai sistemi esistenti.
- Progettare per la flessibilità multimodello: Le imprese devono adottare piattaforme di integrazione che consentano di passare tra modelli in base ai requisiti del caso d’uso, mantenendo al contempo standard di governance.
- Investire in standard di comunicazione: Le organizzazioni dovrebbero dare priorità agli strumenti IA che supportano protocolli emergenti come MCP, ACP e A2A, piuttosto che approcci di integrazione proprietari che creano lock-in con i fornitori.
- Mappare i flussi di lavoro prima di sviluppare la tecnologia: Utilizzare programmi di consulenza per definire le capacità degli agenti basate su sfide operative reali.
- Pianificare una riprogettazione dell’interfaccia utente: Ottimizzare l’esperienza utente per flussi di lavoro guidati dagli agenti, piuttosto che per i tradizionali modelli di navigazione del software.