I principali rappresentanti governativi mondiali stanno mettendo in luce il loro impegno verso i potenziali e le sfide dell’intelligenza artificiale (IA).

Recentemente, il G7, che rappresenta sette delle principali economie mondiali, ha presentato un Codice di condotta per le entità che progettano avanzati sistemi di IA. Questo codice, ispirato al “Processo di Hiroshima sull’IA” presentato in precedenza, ha come obiettivo la creazione di sistemi di IA sicuri e affidabili.

Nel frattempo, il Presidente USA Joe Biden ha lanciato un’iniziativa sulla sicurezza dell’IA. L’UE, d’altro canto, sta ultimando la sua normativa vincolante sull’IA, mentre l’ONU ha istituito un comitato consultivo dedicato all’argomento, formato da esperti internazionali.

Il G7, nel suo comunicato, ha sottolineato le incredibili potenzialità dell’IA e la necessità di una governance efficace. I leader hanno rilasciato un quadro composto da 11 principi fondamentali per assicurare uno sviluppo e un’implementazione responsabile dell’IA. Questi principi riguardano, tra le altre cose, la sicurezza, la trasparenza, la tracciabilità, la mitigazione dei rischi, l’autenticazione e la protezione dei dati.

Il G7 ha ribadito l’importanza dei valori fondamentali, come i diritti umani e la democrazia, nell’ambito dell’IA. Inoltre, è prevista la revisione e l’aggiornamento del codice di condotta per mantenerlo sempre attuale e pertinente.

Numerosi leader del G7 hanno enfatizzato la volontà di sfruttare l’IA a beneficio globale, inclusi i paesi in via di sviluppo, garantendo al contempo la sicurezza e l’inclusività digitale.

Autorità mondiali, come Věra Jourová della Commissione europea, hanno espresso il loro sostegno al codice, sottolineando la necessità di un’IA etica e sicura. Anche la presidente della Commissione europea, Ursula von der Leyen, ha evidenziato le immense potenzialità dell’IA, invitando tutti gli sviluppatori a aderire al nuovo codice.

Il G7, composto da Stati Uniti, UE, Gran Bretagna, Canada, Francia, Germania, Italia e Giappone, ha pubblicato il nuovo quadro in 11 punti per aiutare gli sviluppatori a guidare la creazione e l’implementazione responsabile dell’IA .

Gli 11 punti comprendono:
– Adottare misure adeguate durante tutto lo sviluppo per identificare, valutare e mitigare i rischi. Ciò può includere il red-teaming, test e mitigazione per garantire affidabilità, sicurezza e protezione. Gli sviluppatori dovrebbero consentire la tracciabilità di set di dati, processi e decisioni.
– Identificare e mitigare le vulnerabilità, gli incidenti e i modelli di uso improprio dopo la distribuzione. Ciò può includere il monitoraggio delle vulnerabilità, degli incidenti e dei rischi emergenti e la facilitazione della scoperta di terze parti e degli utenti e della segnalazione degli incidenti.
– Segnalare pubblicamente le capacità, i limiti e gli ambiti di utilizzo appropriato e inappropriato dei sistemi avanzati di IA . Ciò dovrebbe includere un reporting sulla trasparenza supportato da “solidi processi di documentazione”.
– Adoperarsi per una condivisione responsabile delle informazioni e la segnalazione degli incidenti. Ciò può includere rapporti di valutazione, informazioni sulla sicurezza e sui rischi per l’incolumità, capacità previste o non previste e tentativi di eludere le misure di salvaguardia.
– Sviluppare, attuare e divulgare le politiche di governance dell’IA e di gestione del rischio. Ciò vale per i dati personali, i suggerimenti e gli output.
– Investire e implementare controlli di sicurezza , tra cui la sicurezza fisica, la sicurezza informatica e le misure di salvaguardia contro le minacce interne. Ciò può includere la protezione dei pesi dei modelli e degli algoritmi, dei server e dei set di dati, comprese le misure di sicurezza operativa e i controlli sugli accessi informatici/fisici.
– Sviluppare e implementare meccanismi affidabili di autenticazione e provenienza dei contenuti come la filigrana. I dati sulla provenienza dovrebbero includere un identificatore del servizio o del modello che ha creato il contenuto e le dichiarazioni di non responsabilità dovrebbero anche informare gli utenti che stanno interagendo con un sistema di intelligenza artificiale.
– Dare priorità alla ricerca per mitigare i rischi per la società e la sicurezza. Ciò può includere la conduzione, la collaborazione e l’investimento nella ricerca e nello sviluppo di strumenti di mitigazione.
– Dare priorità allo sviluppo di sistemi di intelligenza artificiale per affrontare le “più grandi sfide del mondo”, tra cui la crisi climatica, la salute globale e l’istruzione. Le organizzazioni dovrebbero anche sostenere iniziative di alfabetizzazione digitale.
– Promuovere lo sviluppo e l’adozione di standard tecnici internazionali. Ciò include il contributo allo sviluppo e all’utilizzo di standard tecnici e migliori pratiche internazionali.
– Implementare misure adeguate di immissione dei dati e protezioni per i dati personali e la proprietà intellettuale. Ciò dovrebbe includere un’adeguata trasparenza dei set di dati di addestramento.

Di Fantasy