Si è venuti a conoscenza attraverso rivelazioni interne che il generatore di immagini AI di Microsoft ha prodotto immagini violente e sensazionali, evidenziando una carenza di misure di sicurezza. Questo episodio segue la polemica legata a “Gemini” di Google, criticato per aver generato immagini di discriminazione razziale inversa, suggerendo che il dibattito sull’etica dell’intelligenza artificiale sia destinato a intensificarsi.
Un report della CNBC ha indicato che Shane Jones, un ingegnere informatico di Microsoft, ha espresso preoccupazioni riguardo alla generazione di contenuti violenti da “Copilot Designer”, uno strumento di creazione di immagini AI, in una lettera inviata alla Federal Trade Commission (FTC) degli Stati Uniti. Jones ha identificato un problema con Co-Pilot Designer, lanciato da Microsoft l’anno precedente con tecnologia OpenAI, che generava immagini in violazione dei principi dell’intelligenza artificiale responsabile, inclusi raffigurazioni inadeguate.
Dopo aver iniziato a segnalare internamente queste scoperte da dicembre, Microsoft ha riconosciuto le preoccupazioni ma non ha ritirato il prodotto dal mercato. Jones ha tentato di sollevare la questione pubblicamente su LinkedIn, ma è stato prontamente istruito dal team legale di Microsoft a rimuovere il post. Ha poi inviato una lettera ai senatori statunitensi e, il 6 marzo, alla presidente della FTC Lina Khan e al consiglio di amministrazione di Microsoft, condividendo la sua preoccupazione anche con i media, inclusa la CNBC.
Jones ha sottolineato la sua richiesta a Microsoft di sospendere l’uso pubblico di Co-Pilot Designer fino all’implementazione di migliori misure di sicurezza e ha suggerito di modificare la classificazione d’uso dello strumento in “solo per adulti”. Ha anche menzionato la consapevolezza di Microsoft e OpenAI riguardo ai rischi prima del lancio e ha criticato l’uso continuato di messaggi promozionali ingannevoli da parte di Microsoft.
Oltre a Jones, si è evidenziato che il team di CoPilot riceve quotidianamente un vasto numero di feedback, e che ogni problema segnalato richiede un impegno significativo per lo sviluppo di nuove protezioni o la riqualificazione dei modelli. Microsoft ha risposto, affermando il proprio impegno nel risolvere le preoccupazioni dei dipendenti in conformità con le politiche aziendali e ha sottolineato l’importanza dei canali di segnalazione interni per verificare e testare le preoccupazioni sollevate.
In parallelo, Sergey Brin, fondatore di Google, ha commentato il caso di Gemini, sospeso per le polemiche relative alla generazione di immagini di discriminazione razziale inversa, ammettendo errori nell’approccio testuale del progetto che ha portato alla chiusura del servizio di creazione di immagini a causa delle controversie suscitate.