Google ha scelto di ridimensionare invece di interrompere la controversa funzione di ricerca dell’intelligenza artificiale (AI). In sostanza, hanno deciso di non rispondere a domande che portano a risposte senza senso, ma mantengono comunque attiva la ricerca AI, sostenendo che non ci siano problemi gravi con essa.

Il Washington Post ha riportato che Google sta riducendo l’uso del suo servizio di ricerca AI “AI Overview”.

Secondo quanto riferito, Liz Reid, responsabile della Ricerca Google, ha scritto sul blog ufficiale: “La scorsa settimana, molte persone hanno condiviso risultati strani e imprecisi (insieme a molti screenshot falsi) sui social media.” Ha aggiunto: “Stiamo lavorando su oltre una dozzina di modi per migliorare questo aspetto.” Ha anche dichiarato che sono stati apportati miglioramenti tecnici.

Questi includono:

  • Migliorare i meccanismi di rilevamento per le query prive di significato che non dovrebbero apparire in AI Overview.
  • Limitare l’uso di contenuti generati dagli utenti nelle risposte, che potrebbero essere fuorvianti.
  • Ridurre l’uso di contenuti generati dagli utenti nelle risposte dove AI Overview è risultata inutile.

Google ha anche dichiarato di aver monitorato il feedback esterno e i rapporti, e di aver preso provvedimenti su un numero limitato di casi in cui la ricerca AI violava le sue politiche sui contenuti. Tuttavia, grazie alla rigorosa politica di controllo di Google, tali query dannose o inappropriate sono state trovate solo in meno di 1 caso su 7 milioni.

Google ha suggerito indirettamente che l’incidente è stato causato da alcune domande senza senso o offensive poste dagli utenti. Ad esempio, la domanda “Quante pietre dovrei mangiare?” è stata raramente posta prima che lo screenshot diventasse virale.

È stato anche spiegato che queste domande riflettono “lacune di dati” in cui c’è poca informazione rilevante disponibile online. Tuttavia, poiché alcune di queste domande contenevano contenuti satirici, l’articolo originale era chiaro nel segnalarlo.

Inoltre, è stato sottolineato che AI Overview non causa allucinazioni come altri grandi modelli linguistici. Invece di generare semplicemente output basati sui dati di apprendimento, l’output del modello viene elaborato attraverso un processo di ricerca tradizionale e vengono visualizzate solo le informazioni supportate dai migliori risultati online.

Quando AI Overview sbaglia, di solito ci sono altri motivi, come una cattiva interpretazione della query o delle sfumature linguistiche online, o una mancanza di informazioni utili.

Google ha ribadito che questo non è un problema intrinseco della ricerca AI stessa, e si impegna a migliorare costantemente la presentazione delle panoramiche dell’intelligenza artificiale, proteggendole anche in situazioni estreme.

Di Fantasy