OpenAI ha recentemente sollecitato la formazione di una rete “Red Teaming”, un passo importante, ma non completamente inaspettato, nella sua marcia per la sicurezza e la moralità nell’intelligenza artificiale.

Se ChatGPT può essere manipolato per creare sostanze nocive o divulgare informazioni false e pregiudicate, le implicazioni etiche dell’intero modello LLM sono in gioco. In un’era in cui le imprese tecnologiche cercano di correggere tali falle, avere un team dedicato a garantire l’eticità, la sicurezza e la protezione è essenziale. Ed è qui che entra in gioco OpenAI.

Con l’obiettivo di affinare la componente etica del LLM, OpenAI sta incoraggiando gli esperti a collaborare per rafforzare la sicurezza dell’IA. Ha annunciato progetti per stabilire una rete “Red Teaming”, invitando specialisti da diversi campi a contribuire al rafforzamento dei suoi modelli. Questa mossa arriva poco dopo una sessione del Senato focalizzata sulla regolamentazione dell’IA, alla quale ha partecipato anche il CEO di OpenAI, Sam Altman.

La Rete “Red Teaming” sarà composta da individui con competenze chiave che possono assistere in fasi cruciali dello sviluppo di modelli e prodotti. Il coinvolgimento sarà flessibile, con diversi livelli di impegno in vari progetti.

Sam Altman aveva precedentemente sottolineato l’importanza dei test di sicurezza prima del rilascio di modelli come GPT-4. Paul Röttger, uno dei membri del team che ha testato il GPT-4, ha ribadito la complessità di garantire la sicurezza del modello. Il ruolo essenziale del “Red Team” è evidente anche nell’ultimo modello di generazione di immagini di OpenAI, DALL.E 3.

Tuttavia, OpenAI non è l’unica ad adottare questa strategia. Microsoft e Google hanno anch’esse discusso l’importanza del “red teaming” per i modelli linguistici di grandi dimensioni e per altri prodotti IA, sottolineando come sia cruciale per lo sviluppo responsabile e sicuro dei sistemi.

Per quanto riguarda la remunerazione, OpenAI offrirà un compenso ai membri della sua nuova rete Red Teaming, ma richiederà la firma di un accordo di riservatezza. La società ha già investito notevolmente nella sicurezza, compreso un fondo da 1 milione di dollari per sostenere la ricerca sulla sicurezza dell’IA.

In sintesi, mentre OpenAI ha precedentemente utilizzato team rossi per garantire la sicurezza dei modelli, l’ultimo annuncio rappresenta un passo verso una maggiore inclusività e collaborazione con un ampio spettro di esperti. L’obiettivo? Creare modelli più sicuri e affidabili per tutti. E le prospettive per questo impegno sembrano promettenti.

Di ihal