OpenAI si trova attualmente in mezzo a diverse questioni importanti. Ieri, il Washington Post ha riportato che la Federal Trade Commission sta conducendo un’indagine sul leader dell’IA generativa per possibili violazioni della legge sulla protezione dei consumatori. Inoltre, la comica e autrice Sarah Silverman ha recentemente intentato una causa contro OpenAI e Meta per la presunta violazione del copyright del suo libro umoristico di memorie intitolato “The Bedwetter: Stories of Courage, Redemption, and Pee”, pubblicato nel 2010.
Mentre le cause legali e le indagini su OpenAI continuano a susseguirsi rapidamente, con nuove versioni di prodotti come Code Interpreter per gli utenti di ChatGPT Plus che vengono costantemente rilasciate, un rapporto di Business Insider di mercoledì ha sollevato preoccupazioni riguardo al modello GPT-4 di OpenAI, che alimenta ChatGPT. Secondo il rapporto, a causa di una “riprogettazione radicale” che ha richiesto un intervento da parte del team di prodotto di OpenAI, il modello GPT-4 è diventato “più pigro e più stupido”.
Membri della comunità sul forum degli sviluppatori di OpenAI hanno espresso preoccupazioni riguardo a una presunta diminuzione della qualità del GPT-4, inclusa una riduzione delle capacità di ragionamento e logica, malfunzionamenti nell’API e risultati globalmente inferiori. Alcuni hanno ipotizzato che OpenAI potrebbe aver apportato modifiche all’algoritmo di apprendimento, ai dati di addestramento o all’infrastruttura del modello. Segnalazioni di un servizio degradato e reclami simili sono stati presenti nei post delle comunità Reddit di base, nonché nei subreddit r/OpenAI e r/ChatGPT nel corso degli ultimi mesi.
Un commentatore, che si è identificato come abbonato pagante di OpenAI, ha affermato che il GPT-4 è passato da essere un “grande assistente sous-chef” a un “lavapiatti”.
In risposta alle preoccupazioni sollevate, Peter Welinder, vicepresidente del prodotto di OpenAI, ha twittato che non solo l’azienda non ha reso il GPT-4 più stupido, ma ogni nuova versione è più intelligente di quella precedente. Ha suggerito che l’impressione di un peggioramento potrebbe essere dovuta al fatto che i problemi diventano più evidenti quando il modello viene utilizzato più intensivamente. Welinder ha invitato coloro che ritengono che il modello sia regredito a rispondere al suo tweet per consentire un’indagine più approfondita.
Mentre alcuni hanno appoggiato le dichiarazioni di Welinder, altri non sono stati d’accordo, definendo il GPT-4 semplicemente “peggiore”. Inoltre, una parte del problema risiede nel fatto che il GPT-4 rimane una “scatola nera”, quindi gli sviluppatori non sanno se siano state apportate modifiche al modello.
Questo punto è stato oggetto di critica fin dal momento del tanto atteso lancio del GPT-4 a marzo. In quel momento, molti hanno ritenuto che il rapporto tecnico di 98 pagine sullo “sviluppo del GPT-4” fosse degno di nota soprattutto per ciò che non conteneva. In una sezione intitolata “Ambito e limiti di questo rapporto tecnico”, si precisa che “a causa del panorama competitivo e delle implicazioni sulla sicurezza dei modelli su larga scala come il GPT-4, questo rapporto non fornisce ulteriori dettagli sull’architettura (inclusa la dimensione del modello), sull’hardware, sul calcolo di addestramento, sulla costruzione dei set di dati, sul metodo di addestramento o su argomenti simili”.