Appena meno di due settimane fa, durante l’annuale evento Connect, Meta ha introdotto una novità entusiasmante: adesivi per le chat generati dall’intelligenza artificiale. Inoltre, ha presentato un editor di immagini basato sull’intelligenza artificiale destinato a Instagram. Questa innovazione si basa sul modello linguistico di grandi dimensioni Llama 2, sviluppato internamente in collaborazione con Microsoft. La funzione IA ha la capacità di creare “più adesivi unici e di alta qualità in pochi istanti” in risposta alle richieste degli utenti, ma c’è un problema.
Nel comunicato stampa, Meta ha sottolineato che sulle sue piattaforme vengono inviati mensilmente “miliardi di adesivi”, offrendo agli utenti un’ampia gamma di possibilità creative. Tuttavia, questa nuova funzionalità ha finito per essere utilizzata in modo improprio in vari modi. Ad esempio, sono stati creati adesivi con personaggi Nintendo che impugnano armi da fuoco, rappresentazioni inappropriate del presidente canadese e persino una figura di Karl Marx dalle fattezze grottesche. Il motivo di ciò risiede nel fatto che il cervello dietro questa funzionalità, chiamato Emu, non è dotato di filtri che possano prevenire la creazione di contenuti controversi basati su frasi o immagini.
Secondo un documento di ricerca, Emu (che sta per “universo dei media espressivi”) è descritto come “un modello di diffusione latente di qualità ottimizzata che supera significativamente un modello all’avanguardia disponibile al pubblico, SDXLv1.0, in termini di attrattiva visiva”, come dichiarato nell’articolo di presentazione dell’azienda.
Sembra che, nella corsa all’innovazione nell’ambito dell’intelligenza artificiale, aziende come Meta e Microsoft dimentichino troppo spesso che le persone utilizzeranno sempre la tecnologia anche per scopi distruttivi.
Questa situazione non è affatto un caso isolato. All’inizio di quest’anno, Meta ha lanciato Galactica, un modello linguistico specifico per la ricerca scientifica che è stato ritirato solo tre giorni dopo il suo debutto. Secondo il MIT Technology Review, questo strumento, concepito per assistere gli scienziati nella produzione di componimenti scientifici pertinenti, è stato rimosso a causa della sua incapacità di distinguere fatti da finzione.
Anche l’anno scorso, Meta ha rilasciato Blender Bot, un chatbot AI con il quale gli utenti statunitensi hanno potuto interagire. Tuttavia, ben presto gli utenti hanno segnalato la diffusione di contenuti scomodi, tra cui stereotipi razzisti e teorie del complotto. A tutt’oggi, questi strumenti sono disponibili solo per gli utenti statunitensi, come dichiarato sulla pagina ufficiale.