OpenAI ha recentemente annunciato un programma per finanziare esperimenti volti a democratizzare le regole dell’IA. Promettono di concedere sovvenzioni del valore di $1 milione a coloro che contribuiranno in modo significativo alla risoluzione dei problemi di sicurezza legati all’IA. Mentre questa potrebbe essere considerata come la più grande offerta mai fatta da un’azienda tecnologica per “risolvere” una crisi in corso, potremmo chiederci se questa sia la prossima mossa di OpenAI per assumere un ruolo più dominante nel campo dell’IA. Allo stesso tempo, si potrebbe incolpare OpenAI se qualcosa andasse storto con ChatGPT.
L’avvento della regolamentazione dell’IA ha portato l’intelligenza artificiale ad affrontare questioni di politica e sicurezza sempre più rilevanti. In effetti, la situazione è diventata tanto critica che alcuni leader tecnologici hanno firmato una dichiarazione collaborativa per dimostrare la loro consapevolezza delle minacce poste dall’IA, paragonandole a una minaccia nucleare. Il governo è intervenuto nel processo, cercando modi per regolamentare l’IA attraverso discussioni e audizioni al Senato. Anche Sam Altman, il fondatore di OpenAI, ha accettato la creazione di un’agenzia di regolamentazione dell’IA. Ora, il passo successivo è elaborare un piano completo per gestire questa situazione.
Da quando hanno pubblicato un dettagliato blog sulla governance della superintelligenza pochi giorni dopo l’audizione al Senato, fino alla creazione di piani per democratizzare i regolamenti sull’IA, OpenAI sta facendo progressi significativi, forse addirittura superando il governo stesso. ChatGPT viene ritratto come un bambino ideale, lasciando gli altri “bambini” dell’IA nell’ombra, guidando i loro creatori e genitori ad adottare il percorso tracciato da OpenAI per il bene dell’umanità e dell’IA stessa. Tuttavia, dobbiamo chiederci se questa sia la strada giusta da seguire in primo luogo.
Solo un paio di settimane fa, Greg Brockman, co-fondatore di OpenAI, ha parlato durante l’evento AI Forward a San Francisco, del loro approccio democratico nella formulazione dei regolamenti sull’IA. Ha paragonato questo approccio a un modello simile a Wikipedia, in cui persone con diverse prospettive collaborano per raggiungere un consenso su qualsiasi argomento. Ha anche affermato che OpenAI non intende scrivere le regole da soli, ma si impegnerà in un “processo decisionale democratico” coinvolgendo persone di diverse sfere per plasmare il futuro dell’IA.
Non sorprende che, entro tre giorni dall’evento, OpenAI abbia annunciato ufficialmente il piano per ottenere “input democratici sull’IA”. In modo abile, l’azienda ha delegato il compito di regolamentare l’IA alle persone, permettendo così ad OpenAI di concentrarsi su piani futuri di espansione e sviluppo di modelli GPT più avanzati. Questo approccio “open-source” è un modo per raccogliere il feedback degli utenti e contribuire a migliorare il sistema. Considerando che ChatGPT ora consente agli utenti di bloccare l’utilizzo dei propri dati per l’addestramento del modello GPT, il piano attuale di democratizzazione aiuterà ad ottenere un feedback ancora più ampio. OpenAI ha anche menzionato nel loro annuncio che desiderano “imparare da questi esperimenti” per guidare un “processo più ampio e ambizioso in futuro”.
Sembrerebbe che, democratizzando il processo di formulazione delle regole sull’IA, OpenAI stia creando più caos e distrazione, scaricando lentamente le responsabilità future su un pubblico più ampio. Prevedendo possibili restrizioni future che potrebbero non essere nell’interesse dell’azienda, OpenAI ha annunciato questa sovvenzione per sviluppare proattivamente un piano che potrebbe essere suggerito al governo o ad altre entità come struttura regolamentare. Mentre alcuni paesi e organizzazioni stanno vietando i chatbot, un quadro creato dalle persone e da una comunità più ampia trasferisce in un certo senso la responsabilità e i rischi dall’azienda al pubblico. In ogni caso, OpenAI rimarrà indenne e alla fine emergerà come vincitore.
Sembra che l’interazione umana fornita da RLHF non sia stata sufficiente per ChatGPT di OpenAI, e ora l’azienda è alla ricerca di un coinvolgimento ancora maggiore. Con l’opzione di limitare o eliminare l’accesso ai dati degli utenti dopo l’introduzione della funzionalità “non salvare cronologia chat”, OpenAI continua a trovare modi per lavorare senza compromettere il feedback degli utenti per l’addestramento e il miglioramento del proprio modello.”