Immagine AI

La scoperta su internet non passa più solo da Google. O meglio: non passerà più solo da Google. Con la diffusione di assistenti conversazionali—ChatGPT, Gemini, Claude e simili—il modo in cui le persone cercano, scoprono e interagiscono con i brand sta cambiando profondamente. In questo nuovo panorama, Adobe ha scelto di intervenire con una proposta ambiziosa: LLM Optimizer, un’applicazione aziendale pensata per far emergere i marchi nel mondo dell’AI-driven discovery.

Spesso l’azienda che “arriva prima” in una conversazione, in un riepilogo o in una risposta generata dall’IA guadagna non solo visibilità, ma autorità e traffico. Adobe, con i suoi numeri interni tratti da Adobe Analytics, mostra come il fenomeno non sia marginale: negli Stati Uniti, da luglio 2024 a maggio 2025, il traffico verso siti retail dovuto a fonti generative AI è aumentato del 3.500%, e verso siti di viaggio del 3.200%. In altre parole, gli assistenti conversazionali stanno progressivamente diventando portali primari di scoperta del brand.

Ma come si affronta questo salto? Come si fa a “comparire” quando un sistema generativo costruisce una risposta e decide cosa citare? È qui che entra in gioco il concetto di Generative Engine Optimization (GEO), una trasformazione del tradizionale SEO in chiave AI. SEO non è più solo parole chiave, tag e link, ma “come appare il tuo brand nei modelli di linguaggio che costruiscono risposte”.

LLM Optimizer offre un approccio tripartito: monitoraggio, benchmarking e ottimizzazione. Prima di tutto, il sistema è in grado di identificare quando un contenuto di proprietà di un brand—una pagina web, una FAQ, un documento—viene usato come input per risposte generate da modelli conversazionali. Questo fornisce una “mappa attiva” di dove e come il marchio appare nelle conversazioni AI. Secondo, Adobe consente di confrontare questa visibilità con quella dei concorrenti su query ad alto valore, scovando evidenti “vuoti” dove il brand dovrebbe emergere ma non emerge. Terzo, LLM Optimizer suggerisce modifiche—sia ai contenuti interni, sia a contenuti esterni rilevanti come voci Wikipedia o fonti autorevoli—che possono aumentare la probabilità di essere citati nei risultati generativi. E la cosa chiave: permette di applicare tali modifiche con un clic, riducendo il divario tra strategia e implementazione.

Dietro queste funzionalità, LLM Optimizer supporta protocolli pensati per ambienti enterprise: il Model Context Protocol (MCP) e Agent-to-Agent (A2A). Ciò significa che non è un tool isolato: può integrarsi, “dialogare” con altri agenti e interoperare in ambienti complessi, adattandosi ai flussi già in uso nei reparti SEO, marketing e contenuti.

Quando gli esperti del settore discutono del tema, emergono alcune cautele. In particolare, anche se LLM Optimizer suggerisce miglioramenti, non sempre è chiaro quanto “ottimizzazione per AI” significhi rispetto a “ottimizzazione per motori di ricerca tradizionali”. Un commentatore ha sottolineato che, per il momento, nessuno dei software emergenti per l’ottimizzazione AI ha una “formula magica”: molti suggerimenti derivano da pattern rilevati, non da una conoscenza perfetta del funzionamento interno dei modelli di risposta.

Un’altra sfida riguarda la frammentazione degli assistenti generativi: ogni modello ha bias differenti, fonti di conoscenza diverse e modalità proprie di selezione delle citazioni. Ottimizzare per ChatGPT non garantisce di essere visibili su Gemini, e viceversa. Adobe sa bene questa difficoltà e indica che il suo strumento offre raccomandazioni adattative ai pattern di diversi motori AI.

C’è poi la questione “influenza esterna”: molte risposte AI citano fonti terze, non proprietà del brand. Un brand potrebbe trovarsi a dover “ottimizzare” Wikipedia, forum autorevoli o blog esterni perché sono quelle fonti che il modello fre quentemente richiama. Ciò implica intervenire anche fuori dal proprio dominio digitale, cosa non sempre semplice né controllabile.

Un’ultima nota riguarda l’adozione pratica: il tool è pensato per integrarsi con Adobe Experience Manager Sites, ma può anche operare da solo tramite API, per chi non è già nell’ecosistema Adobe. Questo è un elemento strategico: non costringe un’azienda a rifare tutto il proprio stack per utilizzare LLM Optimizer.

Cosa possiamo attenderci da questa mossa? Se Amazon ha cambiato il commercio online, gli assistenti generativi sono pronti a cambiare la scoperta digitale. E chi riuscirà a posizionare il proprio brand nei testi generati dagli LLM potrà guadagnare un vantaggio competitivo reale. Adobe sta cercando di offrire ai brand una centralità nelle conversazioni AI, non più solo nei motori di ricerca.

Di Fantasy