Questi sono i rischi dell’IA su cui dovremmo concentrarci
Fin dagli albori dell’era dei computer, gli esseri umani hanno visto l’approccio dell’intelligenza artificiale (AI) con un certo grado di apprensione. Le raffigurazioni popolari dell’IA spesso coinvolgono robot assassini o sistemi onniscienti e che vedono tutto, intenzionati a distruggere la razza umana. Questi sentimenti hanno pervaso allo stesso modo i media, che tendono a salutare le scoperte nell’intelligenza artificiale con più allarme o clamore rispetto all’analisi misurata. In realtà, la vera preoccupazione dovrebbe essere se queste visioni distopiche eccessivamente drammatizzate distolgono la nostra attenzione dai rischi più sfumati, ma ugualmente pericolosi, posti dall’uso improprio delle applicazioni di intelligenza artificiale che sono già disponibili o in fase di sviluppo oggi.
L’intelligenza artificiale permea la nostra vita quotidiana, influenzando i media che consumiamo, cosa acquistiamo, dove e come lavoriamo e altro ancora. Le tecnologie di intelligenza artificiale continueranno sicuramente a rivoluzionare il nostro mondo, dall’automazione delle attività di routine dell’ufficio alla risoluzione di sfide urgenti come il cambiamento climatico e la fame . Ma come dimostrano incidenti come arresti illeciti negli Stati Uniti e la sorveglianza di massa della popolazione uigura cinese , stiamo già assistendo ad alcuni impatti negativi derivanti dall’intelligenza artificiale. Incentrati sullo spingere i confini di ciò che è possibile, le aziende, i governi, i professionisti dell’IA e gli scienziati dei dati a volte non riescono a vedere come le loro scoperte potrebbero causare problemi sociali fino a quando non è troppo tardi.
Pertanto, il momento di essere più intenzionali su come utilizziamo e sviluppiamo l’IA è adesso. Dobbiamo integrare le considerazioni sull’impatto etico e sociale nel processo di sviluppo sin dall’inizio, piuttosto che affrontare queste preoccupazioni dopo il fatto. E, cosa più importante, dobbiamo riconoscere che anche algoritmi e modelli apparentemente benigni possono essere utilizzati in modi negativi. Siamo molto lontani dalle minacce AI simili a Terminator – e quel giorno potrebbe non arrivare mai – ma c’è del lavoro in corso oggi che merita una considerazione altrettanto seria.
Come i deepfake possono seminare dubbi e discordia
I deepfake sono immagini, audio e video artificiali dall’aspetto realistico, in genere creati utilizzando metodi di apprendimento automatico. La tecnologia per produrre tali supporti “sintetici” sta avanzando a una velocità vertiginosa , con strumenti sofisticati ora liberamente e facilmente accessibili, anche ai non esperti. Gli attori dannosi già distribuiscono tali contenuti per rovinare la reputazione e commettere crimini basati sulla frode , e non è difficile immaginare altri casi d’uso dannosi.
I deepfake creano un duplice pericolo: che i contenuti falsi inducano gli spettatori a credere che affermazioni o eventi fabbricati siano reali e che la loro crescente prevalenza minerà la fiducia del pubblico in fonti di informazione affidabili. E sebbene gli strumenti di rilevamento esistano oggi, i creatori di deepfake hanno dimostrato di poter imparare da queste difese e adattarsi rapidamente. Non ci sono soluzioni facili in questo gioco ad alto rischio di gatto e topo. Anche i contenuti falsi non sofisticati possono causare danni sostanziali, dato il potere psicologico del bias di conferma e la capacità dei social media di diffondere rapidamente informazioni fraudolente.
I deepfake sono solo un esempio della tecnologia AI che può avere impatti sottilmente insidiosi sulla società. Mostrano quanto sia importante riflettere sulle potenziali conseguenze e sulle strategie di mitigazione dei danni sin dall’inizio dello sviluppo dell’IA.
Grandi modelli linguistici come moltiplicatori della forza di disinformazione
I modelli linguistici di grandi dimensioni sono un altro esempio di tecnologia AI sviluppata con intenzioni non negative che merita ancora un’attenta considerazione da una prospettiva di impatto sociale. Questi modelli imparano a scrivere testo simile a quello umano utilizzando tecniche di apprendimento profondo che vengono addestrate da modelli in set di dati, spesso raschiati da Internet. L’ultimo modello di OpenAI, una delle principali società di ricerca sull’IA, GPT-3 , vanta 175 miliardi di parametri, 10 volte maggiori rispetto all’iterazione precedente. Questa enorme base di conoscenza consente a GPT-3 di generare quasi tutto il testocon un input umano minimo, inclusi racconti, risposte e-mail e documenti tecnici. In effetti, le tecniche statistiche e probabilistiche che alimentano questi modelli migliorano così rapidamente che molti dei suoi casi d’uso rimangono sconosciuti. Ad esempio, gli utenti iniziali hanno scoperto solo inavvertitamente che il modello poteva anche scrivere codice .
Tuttavia, i potenziali svantaggi sono immediatamente evidenti. Come i suoi predecessori, GPT-3 può produrre testi sessisti, razzisti e discriminatori perché apprende dal contenuto Internet su cui è stato addestrato. Inoltre, in un mondo in cui i troll hanno già un impatto sull’opinione pubblica , modelli linguistici di grandi dimensioni come GPT-3 potrebbero affliggere le conversazioni online con retorica divisiva e disinformazione. Consapevole del potenziale uso improprio, OpenAI ha limitato l’accesso a GPT-3, prima per selezionare i ricercatori e successivamente come licenza esclusiva per Microsoft . Ma il genio è fuori dalla bottiglia: Google ha presentato un modello con un trilione di parametri all’inizio di quest’anno e OpenAI ammetteche i progetti open source sono sulla buona strada per ricreare presto GPT-3. Sembra che la nostra finestra per affrontare collettivamente le preoccupazioni sulla progettazione e l’uso di questa tecnologia si stia rapidamente chiudendo.
Il percorso verso un’IA etica e socialmente vantaggiosa
L’intelligenza artificiale potrebbe non raggiungere mai gli scenari fantascientifici da incubo di Skynet o Terminator, ma ciò non significa che possiamo evitare di affrontare i rischi sociali reali che l’IA di oggi pone. Lavorando con gruppi di stakeholder, ricercatori e leader del settore possono stabilire procedure per identificare e mitigare i potenziali rischi senza ostacolare eccessivamente l’innovazione. Dopotutto, l’IA stessa non è né intrinsecamente buona né cattiva. Ci sono molti vantaggi potenziali reali che può sbloccare per la società: dobbiamo solo essere riflessivi e responsabili nel modo in cui lo sviluppiamo e lo distribuiamo.
Ad esempio, dovremmo lottare per una maggiore diversità all’interno delle professioni della scienza dei dati e dell’intelligenza artificiale, compresa l’adozione di misure per consultarsi con esperti di dominio di settori pertinenti come le scienze sociali e l’economia durante lo sviluppo di determinate tecnologie. I potenziali rischi dell’IA vanno oltre il puramente tecnico; così devono essere gli sforzi per mitigare questi rischi. Dobbiamo anche collaborare per stabilire norme e pratiche condivise sull’intelligenza artificiale come GPT-3 e modelli deepfake, come valutazioni d’impatto standardizzate o periodi di revisione esterna. Allo stesso modo, il settore può intensificare gli sforzi in merito a contromisure, come gli strumenti di rilevamento sviluppati tramite la Deepfake Detection Challenge di Facebook o il Video Authenticator di Microsoft.. Infine, sarà necessario coinvolgere continuamente il pubblico in generale attraverso campagne educative sull’intelligenza artificiale in modo che le persone siano consapevoli e possano identificare più facilmente i suoi abusi. Se tante persone conoscessero le capacità di GPT-3 quante ne conoscono The Terminator, saremmo meglio attrezzati per combattere la disinformazione o altri casi d’uso dannosi.
Ora abbiamo l’opportunità di stabilire incentivi, regole e limiti su chi ha accesso a queste tecnologie, sul loro sviluppo e in quali contesti e circostanze vengono utilizzate. Dobbiamo usare questo potere con saggezza, prima che ci sfugga di mano.
Peter Wang è CEO e co-fondatore della piattaforma di data science Anaconda . È anche il creatore della comunità e delle conferenze di PyData e membro del consiglio del Center for Human Technology.