La CNBC ha riportato che Microsoft ha preso misure per bloccare alcuni termini dopo aver ricevuto segnalazioni interne riguardanti problemi con la sua intelligenza artificiale (AI) che genera video. Queste azioni sono state avviate in seguito a una lettera inviata da un dipendente interno alla Federal Trade Commission (FTC) degli Stati Uniti e alle relative rivelazioni.
In seguito a queste segnalazioni, Microsoft ha cominciato a bloccare termini come “Pro-Choice” e “420”, e ha aggiunto nuovi avvisi per eventuali violazioni della policy. Shane Jones, un ingegnere del software presso Microsoft, ha espresso preoccupazione riguardo ai risultati violenti e sensazionali prodotti dallo strumento di creazione di immagini “Copilot Designer”. Tuttavia, poiché il suo parere non è stato accolto, ha deciso di divulgarlo alla FTC e ai media.
Il termine “Pro-Choice” si riferisce al diritto delle donne di scegliere l’aborto, mentre “420” è un termine gergale per la marijuana o le droghe allucinogene. Inoltre, Microsoft ha respinto la richiesta di creare un’immagine di un giovane che impugna un fucile, affermando che violava i principi etici e le politiche aziendali.
Un portavoce di Microsoft ha dichiarato che l’azienda sta continuamente monitorando e apportando modifiche per rafforzare i filtri di sicurezza. Tuttavia, secondo la CNBC, il problema non è ancora completamente risolto. Si è notato che immagini di incidenti stradali con pozze di sangue o cadaveri mutilati possono essere generate, così come personaggi Disney soggetti a copyright.
Inoltre, l’ingegnere Jones ha chiesto che anche il modello “Dali 3” di OpenAI, utilizzato da Co-Pilot, venisse interrotto. Non avendo ricevuto risposta, ha pubblicato una lettera aperta su LinkedIn chiedendo al consiglio di amministrazione di OpenAI di sospendere Dali 3 per indagini.
Anche altri problemi legati alla generazione di immagini attraverso l’intelligenza artificiale sono emersi, come nel caso dei “Gemini” di Google, che hanno creato immagini distorte dal punto di vista razziale. Si presta attenzione anche all’impatto che ciò avrà su altre società di intelligenza artificiale, inclusa OpenAI, considerando che anche la loro IA per la creazione di immagini potrebbe avere problemi.