Immagine AI

Secondo quanto riportato da diverse fonti internazionali, OpenAI starebbe esplorando la possibilità di creare una piattaforma di social media radicalmente diversa da quelle esistenti: un social network progettato per essere accessibile esclusivamente a esseri umani reali, con l’obiettivo esplicito di bloccare la partecipazione dei bot basati su intelligenza artificiale. L’indiscrezione, diffusa il 29 (ora locale) da Forbes citando una fonte interna ben informata, parla di un progetto ancora in fase embrionale, portato avanti da un piccolo team di circa dieci persone e lontano da qualsiasi annuncio ufficiale o roadmap pubblica.

Il cuore dell’idea sarebbe una “piattaforma senza bot”, costruita attorno al concetto di verifica dell’identità personale. In un’epoca in cui i social network sono sempre più popolati da account automatizzati, spesso difficili da distinguere da utenti reali, OpenAI sembrerebbe voler ribaltare l’approccio tradizionale. Invece di limitarsi a rilevare e rimuovere i bot a posteriori, il sistema partirebbe da una barriera d’ingresso molto chiara: dimostrare di essere una persona reale prima ancora di poter creare un account.

Secondo le informazioni circolate internamente, tra le soluzioni prese in considerazione ci sarebbe anche un sistema di autenticazione biometrica avanzata, basato sul riconoscimento dell’iride. In questo contesto viene citato World Orb, una tecnologia sviluppata da Tools for Humanity, società co-fondata e presieduta dal CEO di OpenAI, Sam Altman. World Orb è noto per essere uno dei sistemi di “proof of personhood” più discussi degli ultimi anni, perché promette di distinguere in modo affidabile un essere umano da un’entità artificiale attraverso dati biometrici unici.

Proprio qui, però, emergono le prime e più delicate criticità. Se da un lato l’autenticazione biometrica offre una garanzia quasi assoluta sull’identità umana di un utente, dall’altro solleva timori profondi in materia di privacy. Informazioni come i dati dell’iride sono immutabili e, una volta raccolte, non possono essere “cambiate” come una password. L’idea di un social network che richieda una prova biometrica così invasiva potrebbe incontrare forti resistenze, soprattutto in Europa e in altri contesti normativi particolarmente sensibili alla protezione dei dati personali.

Un altro elemento ancora poco chiaro riguarda il modo in cui questo ipotetico social network di OpenAI si integrerebbe con l’ecosistema di servizi già esistenti. È stato ipotizzato che, pur essendo una piattaforma riservata agli umani, gli utenti potrebbero comunque utilizzare strumenti di intelligenza artificiale per creare e condividere contenuti, come immagini o video generati artificialmente. In questo scenario, l’AI non verrebbe esclusa dalla creatività, ma relegata al ruolo di strumento, lasciando l’interazione sociale vera e propria agli esseri umani.

Questa distinzione non sarebbe del tutto nuova. Meta, ad esempio, ha già introdotto su Instagram funzionalità di generazione di immagini tramite intelligenza artificiale, mentre OpenAI stessa ha lanciato Sora, un servizio dedicato alla creazione e condivisione di video generati dall’AI. La differenza, nel progetto ipotizzato, starebbe nel tentativo di separare in modo netto chi parla da cosa viene usato per creare.

Ufficialmente, OpenAI non ha confermato né smentito queste informazioni. Tuttavia, l’idea non è del tutto nuova. Già nell’aprile dello scorso anno, The Verge aveva riportato che OpenAI stava sperimentando un servizio di social networking, sottolineando come il progetto fosse fluido, privo di una data di lancio e suscettibile di cambiamenti significativi prima di vedere la luce, ammesso che ciò accada davvero.

Il contesto in cui nasce questa iniziativa è tutt’altro che casuale. Il problema degli account bot sui social media è diventato cronico e sempre più visibile. Bot automatici vengono utilizzati per manipolare discussioni pubbliche, amplificare contenuti d’odio, influenzare mercati come quello delle criptovalute e simulare consenso o dissenso politico. Molti osservatori sostengono che la situazione sia peggiorata dopo la trasformazione di Twitter in X, in seguito all’acquisizione da parte di Elon Musk, con una riduzione dei controlli e un aumento percepito di contenuti artificiali. Lo stesso Sam Altman ha commentato in passato che “l’intelligenza artificiale di Twitter sembra sempre più falsa”, una frase che riflette il disagio crescente verso ecosistemi sociali popolati da entità non umane.

Allo stesso tempo, il mercato dei social network è estremamente competitivo. Piattaforme come Threads di Meta, Instagram, TikTok e persino realtà emergenti come Blue Sky sono già impegnate in una battaglia feroce per l’attenzione degli utenti. Entrare in questo spazio con un nuovo social network, per di più con regole di accesso così stringenti, rappresenterebbe una scommessa rischiosa ma potenzialmente dirompente.

Di Fantasy