L’ultima funzionalità progettata per mantenere la reputazione positiva di Instagram
L’anno scorso, Instagram ha introdotto un filtro dei commenti migliorato che utilizza l’apprendimento automatico per individuare parole e frasi offensive in contesti sfidanti. Ora, la compagnia sta espandendo una copertura simile a foto e didascalie. Oggi ha annunciato che utilizzerà l’intelligenza artificiale per “rilevare in modo proattivo il bullismo” prima di inviare il contenuto ai moderatori umani per la revisione.
La nuova funzionalità verrà distribuita agli utenti nelle prossime settimane, in tempo per il mese di ottobre per la prevenzione del bullismo nazionale negli Stati Uniti e poco prima della settimana anti-bullismo nel Regno Unito. La stessa tecnologia viene aggiunta anche ai video live per filtrare i commenti anche lì.
Questo è il primo annuncio di prodotto sotto il nuovo capo di Instagram, Adam Mosseri, che ha preso il posto dopo la partenza frettolosa dei co-fondatori Kevin Systrom e Mike Krieger il mese scorso. La divisione è stata segnalata a causa delle tensioni latenti tra la coppia e la casa madre di Facebook, che si è spesso intromessa con il prodotto di Instagram.
FACEBOOK DEVE MANTENERE INSTAGRAM POSITIVA E AI POTREBBE ESSERE IN GRADO DI AIUTARE
Con la fiducia del pubblico in Facebook che continua a calare, Instagram rimane il punto luminoso nella linea di prodotti dell’azienda. È popolare, redditizio e deve ancora essere contaminato dagli scandali che hanno minato Facebook. In questo contesto, utilizzare l’intelligenza artificiale per aiutare a eliminare i contenuti offensivi e mantenere una casa per Instagram con buone vibrazioni è estremamente importante.
Una storia pubblicata su Wired l’anno scorso ha spiegato alcuni dettagli dei filtri dei commenti di machine learning di Instagram, ma è ormai dimostrato che questo tipo di tecnologia non è una pallottola d’argento per la moderazione dei contenuti. L’intelligenza artificiale è economica da implementare su vasta scala, sì, ma ha ancora problemi a gestire il contesto e le sfumature umane. Ecco perché è bene che questi nuovi filtri per il bullismo inviino anche contenuti a moderatori umani per eseguire il controllo finale. L’automazione senza supervisione è una ricetta per il disastro.
È interessante notare che Instagram dice che non è solo analizzando didascalie di foto per identificare il bullismo, ma anche la foto stessa. Parlando con The Verge , un portavoce ha fornito l’esempio dell’IA alla ricerca di immagini a schermo diviso come un esempio di potenziale bullismo, in quanto una persona potrebbe essere negativamente confrontata con un’altra. Quali altri fattori l’IA cercherà, anche se non è chiaro. Potrebbe essere una buona idea, considerando che quando Facebook annunciò che avrebbe scansionato i meme usando l’intelligenza artificiale, la gente iniziò immediatamente a pensare a come aggirarequesti filtri.
Insieme ai nuovi filtri, Instagram sta anche lanciando un “effetto telecamera gentilezza”, che suona come un modo per diffondere un messaggio positivo come metodo per aumentare il coinvolgimento degli utenti. Mentre si utilizza la fotocamera posteriore, gli effetti riempiono lo schermo con una sovrapposizione di “commenti gentili in molte lingue”. Passa alla tua fotocamera frontale, e ottieni un luccichio di cuori e un educato incoraggiamento a “taggare un amico che vuoi supporto.”