Nel mese di luglio, un’importante alleanza tra Anthropic, Google, Microsoft e OpenAI ha dato vita al “Frontier Model Forum”. Ora, in una recente rivelazione, Chris Meserole è stato ufficialmente nominato il primo direttore esecutivo del forum. Contemporaneamente, le stesse entità hanno lanciato un Fondo pionieristico per la sicurezza dell’intelligenza artificiale, stanziando un budget superiore ai $10 milioni per catalizzare la ricerca sulla sicurezza IA.

Meserole, con una solida esperienza nella sfera della politica tecnologica, guiderà la ricerca sulla sicurezza IA, garantendo allo stesso tempo lo sviluppo etico dei modelli avanzati e limitando eventuali rischi. Nel suo nuovo incarico, avrà anche il compito di delineare le migliori pratiche di sicurezza per l’IA avanzata.

Esprimendo la sua visione, Chris ha dichiarato: “L’IA potente è un tesoro per l’umanità. Ma per sfruttarne appieno i vantaggi, è essenziale capire come evolverla e testarla in sicurezza. Con il Frontier Model Forum, sono pronto a intraprendere questa missione”.

Prima di questo incarico, Meserole ha guidato l’AI and Emerging Technology Initiative alla Brookings Institution, promuovendo la governance etica dell’IA e studiando il suo impatto su aspetti come discriminazione, disuguaglianza globale e legittimità democratica.

Durante la sua carriera, ha sempre dato priorità alla sicurezza nell’ambito dell’IA, contribuendo significativamente in ambiti quali algoritmi di raccomandazione, estremismo online e sfide legate alla sorveglianza basata sull’IA. Ha anche avuto un ruolo chiave nel dialogo USA-Cina sull’IA e la sicurezza e ha partecipato al Christchurch Call Leadership Summit del 2022.

Il Frontier Model Forum, nel frattempo, serve come piattaforma per collaborare con vari stakeholder per promuovere l’IA responsabile. Con l’avanzare delle capacità IA, la necessità di ricerca sulla sicurezza diventa sempre più impellente. A questo proposito, l’AI Safety Fund è stato lanciato con il sostegno di numerose fondazioni e figure di rilievo.

L’obiettivo del fondo è sostenere i ricercatori nel loro lavoro per garantire la sicurezza dell’IA, ponendo l’accento su tecniche avanzate come il red teaming. Questo finanziamento mira a stabilire nuovi standard di sicurezza nell’IA.

Altri piani in cantiere includono un processo di divulgazione responsabile e la formazione di un comitato consultivo per il Frontier Model Forum, tratto da una varietà di background ed esperienze.

In arrivo ci sono anche un bando di gara dell’AI Safety Fund e l’annuncio di sovvenzioni. Il forum, nel frattempo, continuerà a pubblicare risultati e a lavorare con organizzazioni globali per assicurare un futuro IA sicuro e benefico per tutti.

Di Fantasy