Iniziamo da qui: senza dubbio, le opportunità offerte dall’intelligenza artificiale generativa (GenAI) sono immense. È innegabile che stia trasformando il nostro mondo a un ritmo sorprendente, forse persino più velocemente di quanto la maggior parte di noi avesse previsto. Oltre a ciò, va sottolineato che questa tecnologia sta progredendo sempre di più nella sua intelligenza. Tuttavia, le implicazioni di GenAI, con la sua abilità di generare testo, immagini e narrazioni, per le aziende e l’ambito commerciale sono ben diverse dal suo impatto sul pubblico generale. È importante considerare che la maggior parte delle aziende non si dedica alla creazione di poesie o storie, come invece avviene con gli utenti di ChatGPT; al contrario, servono le proprie clientela e operano in ambiti differenti.

Molte imprese hanno esperienza nell’elaborazione del linguaggio naturale (NLP) e nell’implementazione di chatbot di base. Tuttavia, GenAI sta accelerando notevolmente la capacità di integrare, interpretare e tradurre i dati in risultati concreti per le aziende. Di conseguenza, è necessario identificare rapidamente quali applicazioni di GenAI possono risolvere le sfide aziendali più urgenti e stimolare la crescita. Per comprendere come le aziende possano integrare GenAI nei loro dati aziendali, è fondamentale esaminare il percorso che ci ha portato fin qui.

Da decenni, la tecnologia cerca di interpretare i linguaggi naturali. Mentre il linguaggio umano è una forma evoluta di espressione, la vasta gamma di dialetti in tutto il mondo, che spaziano dai simboli e suoni alle sillabe, alla fonetica e alle lingue, ha costretto la tecnologia a fare affidamento su forme di comunicazione digitale più semplici, come bit e byte, fino a tempi relativamente recenti.

Io stesso ho iniziato a lavorare con i programmi di PNL quasi dieci anni fa. In quel periodo, ci si concentrava sulla tassonomia e l’ontologia del linguaggio, sull’estrazione delle entità e su una forma rudimentale di database grafici (principalmente in formato XML) per cercare di tracciare relazioni e contesti complessi tra varie entità, conferire significato alle query di ricerca, generare word cloud e ottenere risultati. Questo processo non era strettamente basato su calcoli matematici ma richiedeva un coinvolgimento significativo per costruire database di tassonomia, analizzare dati XML e, soprattutto, impiegare notevoli risorse computazionali e di memoria. È ovvio che alcuni progetti ebbero successo, mentre la maggioranza non andò a buon fine. Successivamente, l’apprendimento automatico fece il suo ingresso, introducendo vari approcci al deep learning e alle reti neurali, accelerando così la comprensione del linguaggio naturale (NLU) e l’elaborazione inferenziale del linguaggio naturale (NLI). Tuttavia, tre fattori costituirono dei limiti: la potenza di calcolo necessaria per elaborare modelli complessi, l’accesso a volumi di dati in grado di addestrare le macchine e, soprattutto, la necessità di un modello capace di auto-apprendere e correggersi, stabilendo connessioni temporali tra frasi.

Vent’anni dopo, le GPU offrono un’enorme capacità di calcolo, le reti neurali e l’auto-apprendimento sono diventati la norma, e sorgono approcci diversi per l’apprendimento supervisionato, non supervisionato e semi-supervisionato. Inoltre, è ora più semplice accedere a ingenti quantità di dati in diverse lingue, incluse varie piattaforme di social media, da utilizzare per l’addestramento di questi modelli. Il risultato è una serie di motori di intelligenza artificiale capaci di interagire con noi nel nostro linguaggio naturale, comprenderne l’emozione e il significato sottostante le domande e rispondere in maniera umanamente coerente.

Ognuno di noi, attraverso la sua presenza sui social media, ha contribuito inconsapevolmente a istruire questi motori. Attualmente, esistono motori che dichiarano di essere stati addestrati su trilioni di parametri, capaci di elaborare centinaia e migliaia di parametri di input, con abilità multimodali, che rispondono nei nostri termini. Che si tratti di GPT4/5, PaLM2, Llama o di qualsiasi altro modello di linguaggio di grandi dimensioni finora rilasciato, essi stanno emergendo come risolutori di problemi verticali sempre più contestualizzati.

Nonostante il passaggio da NLP a modelli di linguaggio di grandi dimensioni sia stato affascinante, grazie all’evoluzione della tecnologia e dei modelli di dati, nonché alla disponibilità di enormi quantità di dati di addestramento da noi generati, le aziende (come venditori al dettaglio, produttori, istituti bancari, ecc.) devono adattare questa tecnologia alle loro esigenze specifiche. Innanzitutto, le aziende non possono permettersi incertezze legate all’intelligenza artificiale: richiedono una precisione del 100% e nessuna incertezza quando gli utenti interagiscono con essa. Vi sono numerose domande che necessitano di una risposta precisa per risultare utili a livello aziendale, come ad esempio: “Quante stanze sono disponibili nel vostro hotel?” oppure “Avete biglietti di prima classe disponibili?”.

Per prevenire incertezze nell’ambito dell’intelligenza artificiale, occorre considerare il concetto tradizionale di “Systems of Engagement” e “Systems of Records”. I sistemi di coinvolgimento, che riguardino clienti, fornitori o dipendenti, possono sfruttare piattaforme conversazionali basate su GenAI già pronte all’uso, dopo essere state formate per fornire suggerimenti specifici per l’ambito commerciale: questa rappresenta la parte “più semplice”. La sfida consiste invece nell’integrare i sistemi di registrazione nell’intero processo aziendale. Molti imprenditori operano ancora in un contesto statico basato su tabelle e concetti, che rimarrà invariato poiché la maggior parte delle aziende mantiene una struttura organizzativa o aziendale statica, anche se gli eventi e i flussi di lavoro operano in maniera dinamica a livello transazionale.

A questo punto, occorre menzionare le piattaforme conversazionali di prossima generazione, che non si limitano a gestire conversazioni, interfacce e domande, ma seguono il percorso del cliente fino al conseguimento dell’obiettivo. Esistono vari approcci architetturali per queste piattaforme. Una soluzione immediata è l’utilizzo di middleware ibridi, che agiscono come un consolidatore tra dati aziendali vettoriali e etichettati e suggerimenti di conversazione basati su modelli di linguaggio di grandi dimensioni. Questo consente ai consumatori di ottenere risultati con precisione e senza incertezze.

Il processo di preparazione dei dati richiesto dalle aziende per renderli adatti ai motori di linguaggio di grandi dimensioni richiede un notevole sforzo. Si tratta di “appiattire” le tabelle tradizionali e i modelli di dati basati su entità. I database grafici, che riescono a rappresentare e immagazzinare dati in modi che i database relazionali non possono, stanno acquisendo nuova importanza in questo contesto. L’obiettivo è convertire i database aziendali in database grafici più comprensibili, con relazioni che delineano contesti e significati, semplificando così l’apprendimento dei motori di linguaggio di grandi dimensioni e permettendo loro di rispondere alle richieste finali dei clienti attraverso una combinazione di query conversazionali e in tempo reale. Questo compito cruciale di preparare i dati aziendali per i motori di linguaggio di grandi dimensioni è fondamentale per offrire un’esperienza end-to-end, passando dai “Systems of Engagement” ai “Systems of Record” e conducendo l’esperienza dell’utente fino al risultato finale.

In questo momento, grazie ai progressi nei dati e nell’intelligenza artificiale, l’impatto più evidente si verifica nell’ambito della generazione di codice software, come dimostrato dall’emergere di strumenti come Microsoft Copilot, Amazon CodeWhisperer e altri simili, destinati agli sviluppatori. Questi strumenti stanno innescando processi di modernizzazione di sistemi legacy, spesso bloccati da problemi di tempistica e costi. Con gli strumenti di generazione del codice basati su GenAI, assistiamo a una notevole accelerazione, con una riduzione dei tempi di realizzazione dei progetti del 20-40%. In progetti di sviluppo di codice da zero, tali strumenti permetteranno agli sviluppatori di risparmiare tempo e incrementare la produttività, concentrandosi su progetti di design thinking e iniziative innovative.

Oltre agli sviluppi nell’ambito del software, gli strumenti basati su GenAI stanno aprendo la strada a nuovi casi d’uso e scenari specifici, finalizzati a risolvere le sfide più pressanti delle aziende. Tuttavia, siamo solo all’inizio di un percorso che richiederà un’analisi approfondita per sfruttare al meglio questa tendenza. In ogni caso, stiamo già affrontando diverse problematiche e domande nei settori della vendita al dettaglio e della logistica sfruttando GenAI:

Quante unità di magazzino sono disponibili e quando è opportuno riordinare? È vantaggioso fare scorta in anticipo? Il prezzo attuale è adeguato o subirà un aumento? Quali articoli possono essere raggruppati o che tipo di personalizzazione è possibile offrire per massimizzare il profitto?
Per rispondere a questo tipo di domande, è necessaria una combinazione di interfacce conversazionali all’avanguardia, query basate su dati estremamente precisi nel backend e modelli di apprendimento automatico specializzati che offrano previsioni e indicazioni sul futuro. Perciò, il mio consiglio per le aziende, indipendentemente che si stia sperimentando con l’intelligenza artificiale o si sia già impegnati nel suo utilizzo, è quello di collaborare con fornitori di servizi che vantino una consolidata esperienza nel campo dell’intelligenza artificiale e una solida competenza in analisi dei dati. Questo vi aiuterà a sfruttare modelli GenAI adattabili alle vostre esigenze aziendali e a rimanere al passo con l’evoluzione del panorama tecnologico attuale.

Di Fantasy