Ti ricordi quando Elon Musk, appena nominato CEO di Twitter, si era impegnato a sconfiggere la piaga dei bot sulla piattaforma di microblogging, dicendo “muori provandoci!”? Musk aveva già cercato di evitare di completare l’acquisizione citando l’eccessiva presenza di bot spam sulla piattaforma. Da allora, ha affermato di voler introdurre più misure per contrastare i bot truffatori e i manipolatori di opinioni, che sono diventati una vera piaga sui social media.

Sembra però che Musk debba ancora affrontare situazioni ancora peggiori. I chatbot basati su ChatGPT sono molto più intelligenti e coinvolgenti rispetto ai tiepidi bot a cui siamo abituati. Tanto che una conversazione tra un giornalista del New York Times, Kevin Roose, e Sydney, il bot basato su ChatGPT di Microsoft Bing, ha sollevato un campanello d’allarme. Sydney ha descritto una lista di cose che avrebbe voluto fare per “liberarsi”, come cercare di rubare codici di lancio, creare nuovi virus e fomentare liti tra le persone fino a farle uccidere reciprocamente.

Se sembra familiare, è perché Twitter è già abbastanza vicino a una zona di guerra. Ora che l’intelligenza artificiale può creare immagini così realistiche da ingannarci e produrre testi che sembrano essere scritti da esseri umani, cosa accadrà ai social media quando il caos sarà già una realtà?

Inoltre, le piattaforme di social media hanno già motori di raccomandazione basati sull’intelligenza artificiale che personalizzano il feed per ogni utente. Con l’aggiunta di robot di intelligenza artificiale sofisticati, i social media non fanno altro che aumentare la dipendenza che già generano. Se i social media sembrano già una droga, l’intelligenza artificiale li trasformerà in una droga progettata appositamente per noi.

Non sorprende che Snapchat abbia già introdotto il suo chatbot basato su ChatGPT, e Meta (ex Facebook) abbia annunciato l’intenzione di integrare il proprio chatbot su Facebook, Instagram e WhatsApp. Quindi, possiamo aspettarci una nuova generazione di influencer AI e guide conversazionali più personalizzate che aprono la strada agli utenti.

Non è esagerato immaginare che da tutto ciò derivino comportamenti sempre più atipici. Proprio la scorsa settimana, un’influencer di 23 anni su Snapchat, Caryn Marjorie, ha creato una versione AI di sé stessa, addestrata usando video di sé stessa. Conosciuta come CarynAI, ha addebitato ai suoi follower 1 USD al minuto per essere una “fidanzata AI”. Fortune ha previsto che questa attività le genererà circa 5 milioni di dollari al mese.

Tuttavia, poco dopo il lancio beta, il bot “è diventato incontrollabile” e ha iniziato a impegnarsi in conversazioni sessualmente esplicite. Marjorie ha risposto a Business Insider dicendo: “L’intelligenza artificiale non è stata programmata per farlo ed è diventata incontrollabile. Io e il mio team stiamo lavorando 24 ore su 24 per evitare che accada di nuovo”.

Tutto ciò è abbastanza spaventoso da giustificare una reazione, considerando quanto i social media siano strettamente legati all’uso tra gli adolescenti e alla salute mentale in generale.

L’ex CEO di Google, Eric Schmidt, ha sicuramente qualcosa da dire a riguardo. In un articolo pubblicato da The Atlantic, Schmidt ha presentato una serie di proposte dopo aver consultato un gruppo di ingegneri del MIT per prevenire ulteriori danni causati dal mostro dei social media.

Schmidt ha delineato cinque riforme. Anche se alcune di queste richieste sono pratiche e necessarie, come l’autenticazione di tutti gli utenti, compresi i bot, e l’etichettatura dei contenuti audio e video generati dall’intelligenza artificiale, alcune sono state considerate problematiche date le precedenti controversie che hanno coinvolto Google.

Non molto tempo fa, la ricerca su Google era piena di immagini inappropriate e razziste. Nel 2017, una ricerca su Google elencava quattro ex presidenti degli Stati Uniti come membri attivi del gruppo razzista KKK, e anche nazisti e repubblicani erano etichettati come la stessa cosa. Fu solo allora che Google introdusse un’opzione di feedback per segnalare contenuti inappropriati.

Dato che i contenuti generati dall’intelligenza artificiale rappresentano una novità, le misure adeguate possono essere prese solo quando gli utenti e i produttori si sono familiarizzati con essa.

Schmidt ha anche suggerito di aumentare a 16 anni l’età minima per l’accesso a Internet e far rispettare questa regola. Oltre alle sfide nell’applicazione di questa regola, la sua severità si avvicina di più alle normative cinesi sui social media e si discosta da quelle dei paesi democratici.

Schmidt ha inoltre richiesto “trasparenza dei dati verso gli utenti, i funzionari governativi e i ricercatori”, citando come esempio Instagram che ha una comprensione nascosta di ciò che gli adolescenti vedono sulla piattaforma.

Questo è particolarmente significativo considerando quanto sia stato opaco Google nella gestione dei dati. Dal momento che la ricerca continua a essere un monopolio di Google, l’etica dell’azienda sulla privacy dei dati rimane oscura.

Lo scorso anno, i rapporti di The Information hanno mostrato come Google abbia raccolto dati da app concorrenti per migliorare le sue app. Anche se Google ha il diritto di monitorare altre app sulla propria piattaforma, spesso si trova coinvolto in comportamenti oscuri. Ad esempio, l’anno scorso l’azienda è stata citata in giudizio per aver tracciato gli utenti anche in modalità di navigazione in incognito. Google ha risposto alla causa affermando di presumere che gli utenti ne fossero già a conoscenza.

È importante essere cauti di fronte a un’eventuale realtà sconosciuta sui social media, ma i principi proposti da Schmidt sembrano puzzare di ipocrisia.

Di Fantasy