OpenAI ha annunciato oggi che si unirà al “comitato direttivo” del gruppo commerciale Coalition for Content Provenance and Authenticity (C2PA), fondato nel 2021 da Microsoft e Adobe insieme ad altre aziende come Arm, BBC, Intel e Truepic.

Ma perché lo fa? OpenAI vuole collaborare con altre aziende, compresi i suoi rivali, per sviluppare strumenti e tecnologie per etichettare immagini, video e altri contenuti generati dall’intelligenza artificiale, aiutando gli spettatori a risalire alla fonte e evitare confusione.

La C2PA si concentra sullo sviluppo di specifiche tecniche per stabilire la provenienza e l’autenticità dei contenuti digitali. È già stata utilizzata per creare le “Credenziali di contenuto”, una sorta di filigrana indicata da un’icona “CR” su alcune immagini, che fornisce informazioni su chi l’ha realizzata, come e quando.

OpenAI integrerà i metadati C2PA nei video creati dal suo modello di generazione video, Sora, quando sarà pubblicamente disponibile. Inoltre, l’azienda ha lanciato un programma di accesso per i ricercatori interessati a testare un classificatore binario progettato per identificare immagini generate dal suo modello DALL-E 3.

Inoltre, OpenAI e Microsoft stanno avviando un fondo per la resilienza sociale da 2 milioni di dollari per supportare l’educazione sull’IA tra gli anziani e altri che potrebbero non essere familiari con la tecnologia.

Questi sforzi mirano a etichettare e identificare in modo affidabile i contenuti generati dall’IA, ma rimane una sfida significativa, specialmente in un’era di disinformazione online. Tuttavia, OpenAI vuole essere una forza responsabile e intraprende questi passi per contribuire alla trasparenza e alla fiducia online.

Di Fantasy