Il Financial Times (FT) ha riferito che l’agenzia cinese di sorveglianza di Internet, la National Internet Agency (CAC), sta lavorando a un sistema per forzare la licenza dei modelli di intelligenza artificiale generativa prima che vengano rilasciati.
È il contenuto che rende obbligatoria la registrazione presso le autorità entro 10 giorni lavorativi dal rilascio del modello. Si dice che il governo cinese elabori i relativi regolamenti entro questo mese.
Un funzionario che ha familiarità con la revisione del CAC ha dichiarato: “Le autorità di Pechino richiederanno a tutte le imprese di ottenere l’approvazione preventiva al fine di controllare e censurare completamente le informazioni generate dall’IA”.
Ma, ha detto, “le autorità sono preoccupate perché i regolamenti non dovrebbero impedire alle aziende cinesi di competere”.
Matt Sheehan, ricercatore presso il Carnegie Endowment for International Peace, ha diagnosticato che “il Partito Comunista Cinese si trova in una situazione in cui è la prima volta che trova un compromesso tra il suo obiettivo di ottenere la leadership nella corsa all’IA e il suo obiettivo di controllare le informazioni”.
Tuttavia, le normative cinesi sull’IA generativa sono incentrate sul controllo dei contenuti. Nelle linee guida normative relative all’IA generativa annunciate ad aprile, il CAC ha stabilito che il contenuto “deve incarnare i valori fondamentali del socialismo”.
Inoltre, è stato rivelato che i dati di addestramento dell’IA generativa dovrebbero anche garantire veridicità, accuratezza, obiettività e diversità e riflettere i valori socialisti.
Le autorità cinesi stanno rivedendo la norma finale nella direzione di rafforzare ulteriormente queste linee guida normative. È una posizione che il contenuto generato dall’intelligenza artificiale includa un piano in cui l’azienda in via di sviluppo è pienamente responsabile.
A questo proposito, Helen Toner, ricercatrice presso il Center for Security Technology della Georgetown University, ha previsto che le aziende cinesi non avrebbero escogitato un modello di intelligenza artificiale perché avrebbero dovuto assumersi la responsabilità di problemi al di fuori del loro controllo.