Quando ChatGPT ha fatto il suo debutto più di un anno fa, ha introdotto agli utenti di Internet l’accesso a un assistente AI sempre disponibile con cui chattare e lavorare. Questo assistente ha svolto una varietà di compiti quotidiani, dalla generazione di contenuti in linguaggio naturale, come saggi, alla revisione e all’analisi di informazioni complesse. In breve tempo, l’ascesa rapida dei chatbot ha attirato l’attenzione globale sulla tecnologia che li ha resi possibili: la serie di modelli linguistici di grandi dimensioni (LLM) di cui fa parte.
Muovendoci rapidamente fino ad oggi, gli LLM, inclusi quelli della serie GPT e altri, sono diventati la forza trainante non solo di attività specifiche, ma anche di operazioni aziendali su larga scala. Le aziende stanno sfruttando le API dei modelli commerciali e le soluzioni open source per automatizzare compiti ripetitivi e migliorare l’efficienza nelle loro funzioni chiave. Immagina di poter conversare con un’intelligenza artificiale per creare campagne pubblicitarie per il tuo team di marketing o di poter accelerare le operazioni di assistenza clienti, accedendo al database giusto al momento giusto.
L’impatto di questa tecnologia è stato profondo. Tuttavia, un aspetto spesso trascurato riguarda il ruolo degli LLM nel moderno stack dei dati.
I dati sono fondamentali per i modelli linguistici di grandi dimensioni ad alta performance. Quando questi modelli vengono addestrati correttamente, possono aiutare i team a lavorare con i propri dati, sia per esplorarli che per condurre analisi complesse.
Nell’ultimo anno, con la crescita di ChatGPT e di strumenti concorrenti, le aziende che forniscono soluzioni per la gestione dei dati hanno integrato l’intelligenza artificiale generativa nei loro flussi di lavoro per semplificare la vita dei clienti. L’idea di base è stata quella di sfruttare la potenza dei modelli linguistici in modo che i clienti finali possano non solo ottenere un’esperienza migliore nella gestione dei dati, ma anche risparmiare tempo e risorse, consentendo loro di concentrarsi su altre attività più urgenti.
Uno dei cambiamenti più significativi è stato l’introduzione delle funzionalità di query conversazionali da parte dei fornitori. Questo significa ottenere risposte da dati strutturati parlando con loro, eliminando la necessità di scrivere complesse query SQL. Gli utenti, anche non tecnici, possono ora interagire con i dati in linguaggio naturale, inserendo istruzioni in modo intuitivo e ottenendo risultati direttamente dai loro dati. I modelli LLM convertiranno il testo in query SQL e le eseguiranno sui dati per generare le risposte desiderate.
Molti fornitori, tra cui Databricks, Snowflake, Dremio, Kinetica e ThoughtSpot, hanno introdotto questa funzionalità. Kinetica, ad esempio, inizialmente ha utilizzato ChatGPT per questa attività, ma ora ha sviluppato il proprio LLM nativo. Snowflake offre due strumenti: un assistente conversazionale per le query e uno strumento per l’estrazione di informazioni da dati non strutturati come immagini e PDF. Databricks è coinvolto in questo spazio con il suo “LakehouseIQ”.
Inoltre, sono emerse diverse startup che si concentrano sull’analisi basata sull’intelligenza artificiale. DataGPT, con sede in California, fornisce un analista AI dedicato per le aziende, in grado di eseguire migliaia di query in modo rapido.
Gli LLM non solo aiutano i team a generare approfondimenti dai dati attraverso input di testo, ma gestiscono anche le attività tradizionalmente manuali legate ai dati, contribuendo così alla costruzione di prodotti AI robusti.
A maggio, Informatica ha lanciato Claire GPT, uno strumento di intelligenza artificiale conversazionale basato su multi-LLM che consente agli utenti di interagire con le loro risorse di dati in linguaggio naturale, gestendo diverse attività all’interno della piattaforma IDMC.
Refuel AI, con sede in California, fornisce un modello linguistico di grandi dimensioni per aiutare con l’etichettatura e l’arricchimento dei dati. Gli LLM sono stati dimostrati efficaci anche nella rimozione del rumore dai dati, un passo cruciale nella costruzione di un’intelligenza artificiale solida.
Gli LLM possono anche entrare in gioco nell’integrazione e nell’orchestrazione dei dati, generando il codice necessario per connettere diverse fonti dati o eseguire query per costruire DAG Airflow.
È passato solo un anno dall’ascesa degli LLM, ma già stiamo assistendo a numerosi cambiamenti nel mondo aziendale. Con il continuo miglioramento dei modelli nel 2024 e l’innovazione dei team, possiamo aspettarci di vedere sempre più applicazioni di modelli linguistici in diverse aree del mondo aziendale, compreso lo sviluppo graduale dell’osservabilità dei dati.
Monte Carlo, un noto fornitore nel settore, ha già lanciato Fix with AI, uno strumento per la rilevazione e la correzione dei problemi nella pipeline dei dati. Acceldata, un altro attore del settore, si sta concentrando sull’integrazione degli LLM per l’osservabilità dei dati.