I grandi modelli linguistici come ChatGPT non comprendono i riferimenti come farebbe il tuo amico. Questo perché tali modelli hanno un problema contestuale. Molte cose sono cambiate dal 2021, quando l’attenzione si è spostata dalle backlink e parole chiave alla comprensione dell’intenzione, del comportamento e del contesto semantico dietro di esse.

Con la ricerca generativa che apre una nuova frontiera nella ricerca semantica, i modelli linguistici di grandi dimensioni, noti come LLM, si rivelano ideali per questo compito. Due giorni fa, Stack Overflow, la piattaforma Q/A, ha deciso di passare alla ricerca semantica a causa dell’aumento costante del traffico sulla pagina. Nel loro blog di annuncio, la società ha dichiarato: “La ricerca semantica e gli LLM vanno insieme come biscotti e latte”.

Stack Overflow, fondata nel 2008, ha utilizzato la ricerca full-text di Microsoft SQL ed Elasticsearch negli ultimi anni. Tuttavia, il blog ha sottolineato che anche con l’algoritmo migliore, la ricerca presenta un paio di problemi significativi. Il primo è la rigidità della ricerca lessicale. Un’errata ortografia o l’uso di sinonimi può portare a risultati non attesi a meno che l’indice non sia stato appositamente elaborato. Inoltre, il metodo lessicale può risultare poco intuitivo per gli utenti che utilizzano punteggiatura specializzata e operatori booleani.

I modelli linguistici hanno dimostrato di avere una notevole capacità: scoprono informazioni rilevanti e le presentano in modo naturale, fornendo un’esperienza di conversazione simile a quella umana durante la ricerca. Questa caratteristica dei LLM è stata vantaggiosa per chatbot e sistemi di risposta alle domande.

In breve, la ricerca semantica comprende il significato e l’intento dietro le domande, proprio come farebbe un essere umano. Ciò permette di fornire risultati di ricerca precisi e pertinenti nel contesto. Inoltre, l’integrazione di LLM e incorporamenti di testo consente un recupero più rapido dei documenti, riducendo significativamente i tempi di ricerca per gli utenti.

Stack Overflow afferma che la sua etica si basa sull’accuratezza e l’attribuzione. Mentre i grandi modelli linguistici là fuori generano risultati da fonti sconosciute, l’azienda si impegna a chiaramente attribuire le domande e le risposte utilizzate nei loro riepiloghi Retrieval Augmented Generation (RAG) con i LLM.

Lo scorso anno, Spotify, leader nei servizi musicali e nel podcasting, ha implementato la ricerca semantica per migliorare l’accessibilità dell’esperienza della piattaforma. Ciò ha comportato l’utilizzo della ricerca semantica nella loro app per la creazione di podcast all-in-one, Anchor, per aumentare le API dei podcast e migliorare la funzione di ricerca dei podcast abilitata al linguaggio naturale.

Prima di questo cambiamento, gli utenti dovevano fare affidamento sulla corrispondenza delle parole chiave per scoprire i podcast di interesse. Tuttavia, grazie alla semantica, l’esperienza è diventata simile a parlare con un amico, con risultati notevolmente migliori. Questo approccio innovativo considera il significato delle parole e delle frasi, non solo termini specifici, per un’esperienza di ricerca podcast più accurata.

Anche il gigante della tecnologia Google sta mirando a diventare un motore di ricerca completamente semantico. Le sue principali innovazioni come RankBrain, EAT, BERT e MUM supportano direttamente o indirettamente questo obiettivo. Gli sforzi di Google per sviluppare un motore di ricerca semantico risalgono al 1999 e sono diventati più concreti con l’introduzione del Knowledge Graph nel 2012 e il cambiamento fondamentale nel suo algoritmo di classificazione nel 2013, noto come Hummingbird. Con l’iniziativa Semantic Experiences, Google mette in mostra le sue capacità semantiche.

Ma Google non è l’unico a prendere sul serio questo approccio. Per la sua iniziativa AI for Scale, Microsoft fa affidamento sulla ricerca semantica. “Chiamiamo questa capacità di trasformazione ricerca semantica, un’importante vetrina di ciò che AI at Scale può offrire ai clienti,” ha dichiarato il colosso del software nel blog dell’azienda.

Mentre Stack Overflow ha recentemente integrato i modelli semantici nella sua ricerca, l’anno scorso, quando ChatGPT ha guadagnato fama su Internet, sono state fatte diverse previsioni sui modi in cui la ricerca semantica collaborata con i modelli linguistici può essere il prossimo passo adatto verso una migliore esperienza di ricerca.

Quando la ricerca semantica e l’IA generativa lavorano insieme, possono migliorare l’accuratezza, l’affidabilità e la facilità di mantenere la ricerca aggiornata. Le aziende che tardano ad adattarsi o che scelgono di adottare l’IA generativa senza combinare tecniche come la ricerca semantica (necessaria per renderla adatta al lavoro) troveranno difficile competere nella corsa al successo. La corsa per la supremazia richiede di rimanere in prima linea e utilizzare la potenza combinata della semantica e dei modelli linguistici fornisce un vantaggio strategico.

Di Fantasy