Sembra che Meta abbia bisogno del tuo aiuto per le loro iniziative di intelligenza artificiale generativa e stiano conducendo programmi comunitari per raggiungere tale obiettivo. Nel novembre dello scorso anno, Meta ha annunciato l’intenzione di gestire i Forum Comunitari come un mezzo per prendere decisioni riguardanti le proprie tecnologie. Secondo Meta, consentire a un gruppo diversificato di persone di discutere e fornire prospettive e raccomandazioni migliorerebbe la qualità della governance. Inizialmente, l’obiettivo di Meta era il metaverso.

Recentemente, in collaborazione con la Stanford University, Meta ha pubblicato i risultati del primo sondaggio deliberativo globale, che ha coinvolto 6300 persone provenienti da 32 paesi e nove regioni del mondo. I partecipanti hanno trascorso ore in conversazioni attraverso sessioni di gruppo online, interagendo con esperti non affiliati a Meta per discutere le questioni affrontate. L’argomento del sondaggio era il bullismo e le molestie nel metaverso, concentrandosi sui sistemi di moderazione e monitoraggio. Tuttavia, poiché le priorità di Meta sono cambiate, il metaverso non è più così rilevante. Nonostante ciò, l’82% dei partecipanti ha raccomandato a Meta di utilizzare lo stesso formato di democrazia deliberativa per prendere decisioni future. Di conseguenza, Meta ha deciso di adottare un processo simile per le proprie tecnologie di intelligenza artificiale generativa.

Attualmente, Meta punta a mantenere le persone informate sul processo decisionale. Il mese scorso, l’azienda ha lanciato un forum comunitario sull’IA generativa con l’obiettivo di ottenere feedback sulle aspettative delle persone riguardo alle nuove tecnologie di intelligenza artificiale. Meta crede nell’importanza di incorporare le opinioni di persone ed esperti nelle decisioni relative ai prodotti e alle politiche sull’IA generativa. L’azienda afferma di collaborare attivamente con accademici, ricercatori e leader della comunità. Ma perché questa spinta?

Probabilmente, a causa delle critiche ricevute in passato riguardo all’acquisizione di informazioni personali degli utenti e alla violazione della privacy dei dati sulle piattaforme dei social media (come Facebook e Instagram), Mark Zuckerberg e Meta hanno deciso di adottare una strategia inversa. Vogliono dare l’impressione di cedere il controllo alle persone per determinare il futuro delle loro tecnologie.

Va anche notato che Meta è un membro fondatore della Partnership on AI, una comunità senza scopo di lucro, dal 2016. In questa collaborazione, lavorano con esperti del settore, organizzazioni, media e altri attori per affrontare le preoccupazioni riguardo al futuro dell’IA e stabilire confini etici appropriati. In modo ironico, però, l’app di microblogging di Meta, Threads, richiede agli utenti di concedere accesso alle informazioni personali sul proprio telefono per utilizzare l’app stessa.

Tuttavia, il sistema di feedback umano sperimentato da Meta ha i suoi limiti. È incerto quanto del feedback delle persone sia applicabile ed eseguibile nel sistema. Nel programma pilota di Meta per contrastare il bullismo nel metaverso, i partecipanti non erano d’accordo sulla severità delle punizioni per gli utenti coinvolti in atti ripetuti di bullismo e molestie. Ad esempio, solo il 43% dei partecipanti ha appoggiato la rimozione degli spazi riservati ai membri che erano stati testimoni di atti di bullismo ricorrenti.

Inoltre, i partecipanti non hanno avuto alcuna interazione diretta con coloro che prendono le decisioni, come i dipendenti di Meta. Questo ha fatto sembrare il processo più un semplice sondaggio o un esperimento sulla raccolta dati piuttosto che un esercizio democratico vero e proprio.

Nel contesto delle numerose discussioni sulle linee guida per la sicurezza dell’IA e la necessità di politiche normative universali, tutte le grandi aziende tecnologiche affermano di lavorare verso questo obiettivo. Anche Meta segue le orme di un’altra azienda tecnologica, OpenAI. Meta sta cercando di stare al passo con OpenAI accelerando il suo percorso nel settore dell’IA open-source, seguendo l’approccio decisionale democratico che OpenAI ha intrapreso.

OpenAI ha annunciato sovvenzioni per un totale di $1 milione per finanziare esperimenti volti a democratizzare le regole dell’IA e affrontare in modo ottimale i problemi di sicurezza ad essa correlati. Inoltre, l’azienda ha stanziato un altro milione per il programma di sovvenzioni per la sicurezza informatica, volto a creare e promuovere strumenti e tecnologie di sicurezza informatica basati sull’intelligenza artificiale. In altre parole, si tratta di un programma in cui le persone possono aiutare a creare o migliorare il framework di sicurezza aziendale.

Anche se questa mossa potrebbe essere vista critica, come un modo per evitare che il governo interferisca con il piano aziendale per la regolamentazione dell’IA, o come un modo per sembrare un’azienda responsabile che si impegna “per le persone”, è innegabile che le grandi aziende tecnologiche stiano gradualmente adottando un approccio democratico.

Di recente, Anthropic ha parlato di come sarebbe più efficace lavorare sull’IA costituzionale coinvolgendo non solo esperti, ma anche le persone comuni. DeepMind, ad esempio, ha pubblicato un documento che esamina come le istituzioni internazionali possano contribuire a gestire e mitigare i rischi dell’IA. Uno dei modelli complementari proposti dall’azienda mira a riunire ricercatori e ingegneri per accedere a modelli di intelligenza artificiale avanzati a fini di ricerca.

In conclusione, sembra che le grandi aziende tecnologiche stiano abbracciando gradualmente un percorso democratico. Nonostante ciò, rimane da capire quanto il feedback delle persone sia considerato e attuato effettivamente, soprattutto considerando le sfide e i limiti che questo approccio comporta.

Di Fantasy