Oggi, l’amministrazione Biden-Harris ha annunciato un importante passo avanti nel settore dell’intelligenza artificiale. Sette importanti società di intelligenza artificiale, tra cui OpenAI, Amazon, Anthropic, Google, Inflection, Meta e Microsoft, hanno fornito impegni volontari per gestire i rischi a breve e lungo termine dei modelli di intelligenza artificiale. Questi impegni mirano a garantire la sicurezza dei prodotti prima del loro rilascio al pubblico attraverso test di sicurezza interni ed esterni. Inoltre, le società si impegnano a condividere informazioni sulla gestione dei rischi dell’intelligenza artificiale.

Un aspetto cruciale degli impegni è l’investimento nella sicurezza informatica e nelle misure per proteggere i pesi dei modelli proprietari e non rilasciati. Le società si impegnano anche a facilitare la scoperta e la segnalazione di vulnerabilità da parte di terzi nei loro sistemi di intelligenza artificiale.

Altre misure includono lo sviluppo di sistemi come il watermarking per identificare i contenuti generati dall’intelligenza artificiale, la segnalazione pubblica delle capacità e dei limiti dei sistemi di IA e la priorità alla ricerca sui rischi dell’IA per la società, come la lotta contro i pregiudizi e la tutela della privacy.

Mustafa Suleyman, CEO e cofondatore di Inflection AI, ha accolto positivamente l’annuncio definendolo un “primo passo piccolo ma positivo”, ma ha sottolineato che l’obiettivo di rendere l’IA sicura e affidabile è ancora nelle sue prime fasi e richiede ulteriori sforzi.

OpenAI ha risposto alle salvaguardie volontarie con entusiasmo, considerandole un passo importante verso una governance significativa ed efficace dell’IA a livello globale.

Tuttavia, è importante notare che questi impegni volontari non costituiscono nuove regolamentazioni e, pertanto, l’esperto Paul Barrett del NYU Stern Center for Business and Human Rights ha suggerito l’importanza che il Congresso e la Casa Bianca elaborino legislazioni per garantire trasparenza e protezione della privacy riguardo all’IA generativa e rafforzino la ricerca sui suoi rischi.

La Casa Bianca ha sottolineato che questo annuncio fa parte di un impegno più ampio per sviluppare in modo sicuro e responsabile l’intelligenza artificiale e proteggere gli americani da danni e discriminazioni. L’amministrazione sta lavorando a un ordine esecutivo e a una legislazione bipartisan per favorire l’innovazione responsabile.

Gli impegni annunciati oggi anticipano gli sforzi significativi del Senato che, a partire dall’autunno, affronterà questioni complesse riguardanti la politica dell’IA e cercherà di raggiungere un consenso sulla legislazione.

Il leader della maggioranza al Senato, Chuck Schumer, ha annunciato una serie di forum intensivi sull’intelligenza artificiale, che coinvolgerà esperti nei settori del diritto d’autore, della forza lavoro, della sicurezza nazionale, dei modelli di intelligenza artificiale ad alto rischio, dei rischi esistenziali, della privacy, della trasparenza, della spiegabilità, delle elezioni e della democrazia. Questi forum contribuiranno a gettare le basi per la politica sull’IA. Schumer ha anche presentato il suo SAFE Innovation Framework for AI Policy.

Suresh Venkatasubramanian, consulente per le politiche sull’IA della Casa Bianca e professore di informatica alla Brown University, ha elogiato gli sforzi volontari, affermando che essi aiutano le organizzazioni a comprendere come integrare la governance dell’IA, senza limitare l’innovazione. Ha anche espresso interesse per un possibile ordine esecutivo imminente, ritenendolo il potere unilaterale più concreto della Casa Bianca.

Di Fantasy