Per quasi tre decenni, Google è stata una fonte inesauribile di informazioni in tempo reale per gli utenti di Internet. Tuttavia, il mercato dell’informazione sta attraversando una rivoluzione grazie all’introduzione degli strumenti di intelligenza artificiale (IA) in grado di generare contenuti per conto degli esseri umani. Mentre Google ha a lungo sostenuto l’idea di “contenuti utili scritti da persone, per le persone, nei risultati di ricerca”, le sue recenti azioni sembrano contraddire questa affermazione.
Silenziosamente, l’azienda ha modificato le proprie linee guida per affrontare l’aumento dei contenuti generati da IA su Internet. Nell’ultima versione dell'”Aggiornamento dei contenuti utili” di Google, la frase “scritto da persone” è stata sostituita da un’impostazione che sottolinea come Google monitori costantemente i “contenuti creati per le persone” per valutare i siti nei suoi risultati di ricerca.
Questa modifica linguistica indica che Google riconosce l’impatto significativo degli strumenti di IA sulla creazione di contenuti. Nonostante le precedenti affermazioni sull’intenzione di distinguere tra contenuti creati da IA e quelli creati da esseri umani, questa mossa sembra contraddire la posizione di Google sull’ubiquità dei contenuti generati da IA su Internet.
Un esempio recente di questa evoluzione è il risultato di ricerca per la query “tank man” su Google, che ora visualizza un falso selfie generato da IA invece dell’iconica immagine dell’uomo cinese che protestava davanti ai carri armati a piazza Tiananmen.
Poiché gli strumenti basati su IA sono in continua evoluzione, è inevitabile che questi modelli possano anche generare contenuti in modo errato. Mentre i chatbot continuano a condividere contenuti online, c’è il rischio che forniscano informazioni inesatte. Pertanto, affidarsi ai bot di IA per la verifica dei “fatti” basati su contenuti generati in precedenza non sembra essere una soluzione ideale per il futuro.
Google sta cercando di affrontare questa sfida e ha annunciato misure significative per identificare e contestualizzare i contenuti generati da IA nella sua ricerca. Anche se misure come l’uso di filigrane e metadati possono essere applicate alle immagini per garantire la trasparenza, non esiste ancora un metodo chiaro per distinguere il testo generato da IA da quello scritto da esseri umani.
Google ha introdotto una serie di funzionalità per il suo chatbot AI Bard, incluso un pulsante “Google it” per verificare se le risposte di Bard sono in linea con le informazioni trovate su Google. Inoltre, Bard ora ha il compito di verificare i fatti generati da IA utilizzando i risultati di ricerca di Google, aumentando la precisione delle sue risposte.
Tuttavia, Google affronta anche la sfida di addestrare i modelli di IA con dati non filtrati, il che aumenta il rischio di spam nei set di dati utilizzati per l’addestramento.
Mentre il confine tra contenuti generati da IA e quelli creati da esseri umani continua a sfumare, sorge la domanda di cosa accadrà quando i contenuti generati da IA diventeranno la principale fonte per l’addestramento dei modelli di IA. Questo solleva la preoccupante possibilità di un futuro digitale instabile.
Google ha rilasciato una dichiarazione in cui sottolinea il suo impegno per proteggere i risultati di ricerca dall’abuso di contenuti generati da IA. Tuttavia, le recenti modifiche e aggiornamenti indicano un’evoluzione in corso.
Gli standard nel mondo dell’IA continuano a evolversi, e al momento Google sembra determinata a spingere l’innovazione dell’IA, sia attraverso l’aggiornamento delle politiche che attraverso miglioramenti a Bard, il suo rappresentante contro ChatGPT di OpenAI. L’azienda si trova in una situazione delicata, in bilico tra la promozione del potenziale dell’IA e la tutela dei risultati di ricerca. Mentre Google percorre questa strada complessa, le sue decisioni potrebbero plasmare o sconvolgere il futuro del mondo digitale permeato dall’IA.