Il 2023 è stato segnato dalla paura dell’intelligenza artificiale generativa, e il 2024 potrebbe essere l’anno in cui alcune di queste preoccupazioni diventano realtà. Un documento intitolato “The Curse of Recursion: Training on Generated Data Makes Models Forget”, scritto da Ilia Shumailov, Zakhar Shumaylov, Yiren Zhao, Yarin Gal, Nicolas Papernot e Ross Anderson, suggerisce che i modelli di intelligenza artificiale potrebbero essere compromessi in futuro. Questa teoria, un tempo considerata solo teorica, sta trovando conferme nella realtà.
Un fenomeno chiamato “collasso del modello” sta emergendo, dove i chatbot AI perdono le informazioni iniziali e le sostituiscono con dati generati da altri modelli AI. Ad esempio, è stato osservato che Grok, un chatbot sviluppato dalla xAI di Elon Musk, ha fornito risposte simili a quelle di OpenAI, suggerendo un possibile plagio.
Questo fenomeno ha riacceso la rivalità tra OpenAI e Elon Musk, che in passato era un sostenitore di GPT, un prodotto di OpenAI. Inoltre, si è notato che messaggi di errore legati all’IA di OpenAI sono apparsi in prodotti su piattaforme come Amazon, suggerendo un’infiltrazione dell’IA nei sistemi di e-commerce.
Daniel Sack, CEO e partner di Boston Consulting Group X, ha sottolineato che la maggior parte dei dati futuri utilizzati per l’addestramento dei modelli AI non saranno semplici riproduzioni, ma contenuti nuovi e senza precedenti. Questo punto di vista mette in evidenza le difficoltà nel riconoscere e ammettere i problemi dei prodotti tecnologici in sviluppo.
Il caso dei modelli di IA generativa è complicato dal fatto che vi sono ingenti investimenti coinvolti. Anche BCG X, che ha collaborato con OpenAI, mostra che la fiducia nella tecnologia è messa in dubbio a causa di questioni etiche irrisolte.
Catherine Flick, professoressa di etica e tecnologia dei giochi presso la Staffordshire University, ha commentato che la qualità dei risultati dei modelli AI potrebbe diminuire a causa della difficoltà nel distinguere tra dati generati da macchine e dati umani, aumentando il rischio di disinformazione.
In conclusione, ci troviamo di fronte a un panorama incerto dove il web è inondato di spam generato dall’intelligenza artificiale, e la distinzione tra contenuto umano e IA diventa sempre più sfumata. Per ora, si può solo osservare come queste dinamiche si sviluppano su Internet.