Il gruppo di ricerca di Microsoft a Pechino ha annunciato un nuovo modello di intelligenza artificiale (AI), ma è stato rapidamente rimosso da Internet poche ore dopo. La spiegazione dietro questo repentino ritiro è che il test di sicurezza necessario per la pubblicazione è stato accidentalmente saltato.
Secondo quanto riportato il 17, i ricercatori di Microsoft Research Asia in Cina hanno eliminato il modello.
Prima di pubblicare un nuovo modello di intelligenza artificiale, Microsoft richiede l’approvazione da parte del Comitato per la sicurezza della distribuzione. Questo comitato verifica se il modello può generare contenuti dannosi, come testo violento o scioccante.
Il post sul blog, ora rimosso, presentava un modello chiamato “WizardLM-2”. Questo modello è in grado di svolgere varie attività, come generare testo, suggerire codice, tradurre tra lingue e risolvere alcuni problemi matematici. Si tratta di un’evoluzione della prima versione del modello open source Wizard LM, rilasciato dallo stesso gruppo l’anno scorso.
Questo episodio ha sollevato questioni riguardo alla politica di sviluppo dell’intelligenza artificiale in Cina, con Microsoft che è stata coinvolta nella verifica delle politiche di sicurezza. Si dice che l’amministrazione Biden stia cercando modi per limitare la distribuzione di modelli e hardware di intelligenza artificiale realizzati da aziende statunitensi in Cina. C’è anche l’interesse per garantire che i laboratori di ricerca di Pechino possano sviluppare tecnologie all’avanguardia in modo sicuro.
Al momento, Microsoft non ha rilasciato alcun commento in merito.