Oggi, OpenAI ha annunciato di aver avviato la formazione del suo nuovo “modello di frontiera” e ha istituito un comitato per la sicurezza e la protezione guidato dai membri attuali del consiglio, inclusi Bret Taylor (presidente del consiglio di OpenAI e co-fondatore di Sierra AI), Adam D’Angelo (CEO di Quora), Nicole Seligman (ex vicepresidente esecutivo e Global General Counsel di Sony Corporation) e Sam Altman (CEO di OpenAI).
L’obiettivo è sviluppare un nuovo modello di intelligenza artificiale avanzato. OpenAI ha iniziato ad addestrare questo modello, sottolineando l’importanza della sicurezza e della valutazione durante questo processo.
Il nuovo comitato si occuperà principalmente di valutare e migliorare le misure di sicurezza di OpenAI nei prossimi 90 giorni. Le sue raccomandazioni saranno poi valutate dal consiglio di amministrazione. OpenAI non rilascerà il nuovo modello prima che il processo di valutazione e raccomandazione sia completo.
Tuttavia, c’è stata critica riguardo alla composizione del comitato, composto interamente da membri interni di OpenAI, il che potrebbe compromettere l’indipendenza della valutazione delle misure di sicurezza.
OpenAI ha avuto problemi in passato con il suo consiglio di amministrazione e ha subito critiche per la gestione delle questioni di sicurezza e per le decisioni aziendali.
Recentemente, OpenAI ha anche affrontato polemiche riguardo al suo ultimo modello, GPT-4, e a questioni di sicurezza legate al lavoro interno dell’azienda. Tuttavia, ha avuto successo nel coinvolgere nuovi partner e nel suscitare interesse per i suoi progetti futuri.