Immagine AI

Nel flusso incessante di post, commenti e discussioni digitali, qualcosa sta cambiando nel modo in cui percepiamo la realtà. Ed è proprio chi ha contribuito più di altri a diffondere questa trasformazione—Sam Altman, CEO di OpenAI—a mettere in guardia: i social media ormai sembrano falsi, animati da bot e testi che imitano troppo bene il linguaggio umano.

Navigando tra commenti su Reddit, in particolare su r/Claudecode, Altman ha avuto una “esperienza stranissima”: pur sapendo che la crescita di Codex, lo strumento di OpenAI, era reale, ha confessato di aver percepito i post come scritti da bot. “Ho cominciato a dare per scontato che fosse tutto finto/bot”, ha scritto su X (ex Twitter).

Questa sensazione non nasce dal nulla: Altman ha evidenziato come

  • gli utenti abbiano adottato tic linguistici tipici degli LLM, rendendo difficile distinguere un testo umano da uno generato;
  • i social media incentivano l’estremizzazione e l’engagement, creando un’eco ciclica di contenuti simili;
  • le campagne orchestrate (astroturfing) aumentino ancora di più il sospetto su quanto sia spontaneo e autentico ciò che leggi.

Le parole di Altman confermano un timore crescente: una fetta sempre più grande dell’internet sembra animata da intelligenze artificiali, non da persone reali. Oltre il 50% del traffico web del 2024 è stimato provenire da attività non umane. Il mix tra utenti che scrivono in stile “AI”, post promozionali e algoritmi che spremono ogni forma di clic rende il tutto sfuggente, incoerente… artificiale.

Questa dinamica ha messo in crisi la fiducia dei consumatori nei media digitali, compromettendo l’autenticità dei contenuti. Quando anche il creatore di tecnologie AI non riesce più a distinguere tra ciò che è reale e ciò che è simulato, la domanda che sorge spontanea è: abbiamo perso la realtà nella bolla dell’automa?

Di Fantasy