Dopo il recente rilascio del modello GPT-4 di OpenAI, molti critici hanno sollevato la questione del rapporto tecnico che lo ha accompagnato. Il rapporto di 98 pagine è stato criticato per la sua mancanza di dettagli tecnici, inclusi l’architettura del modello, le dimensioni, l’hardware, il metodo di addestramento e così via. Ciò ha portato molti a dubitare della trasparenza e dell’apertura di OpenAI come azienda. Inoltre, molti ritengono che il mancato rilascio di informazioni tecniche possa portare a problemi etici e di sicurezza nell’uso di modelli di intelligenza artificiale su larga scala come GPT-4.
Alcuni critici ritengono che questo atteggiamento sia diverso da quello di altre grandi aziende come Google, Microsoft e Meta, che hanno sempre rilasciato documentazione tecnica sulle loro tecnologie di intelligenza artificiale. Alcuni temono che questo atteggiamento possa creare un brutto precedente per la comunità dell’IA e possa portare a modelli di intelligenza artificiale pericolosi e difficili da controllare. Infine, alcuni critici ritengono che OpenAI debba proteggere i propri dati piuttosto che i modelli stessi, poiché i dati sono l’elemento chiave della costruzione di modelli di intelligenza artificiale efficaci.
Altri critici hanno anche sottolineato che la mancanza di informazioni tecniche sul modello GPT-4 rende difficile per altri ricercatori replicare i risultati del modello o migliorarli. Ciò potrebbe limitare la crescita e lo sviluppo dell’IA in generale. Inoltre, il fatto che OpenAI stia proteggendo il modello GPT-4 da essere copiato di nuovo, potrebbe portare alla creazione di monopoli nel settore dell’IA, limitando la concorrenza e l’innovazione.
Tuttavia, c’è anche chi difende OpenAI e il suo atteggiamento, sottolineando la necessità di proteggere i propri segreti commerciali e tecnologici per rimanere competitivi nel mercato dell’IA. Inoltre, alcune persone ritengono che l’IA sia ancora in una fase molto preliminare, e che la condivisione di tutte le informazioni tecniche potrebbe effettivamente rallentare lo sviluppo dell’IA. Questo perché potrebbe portare a una fuga di cervelli da parte delle aziende che cercano di proteggere le loro tecnologie.
In ogni caso, è evidente che l’apertura e la trasparenza saranno questioni importanti da affrontare nell’industria dell’IA nei prossimi anni. Molti ritengono che sia possibile trovare un equilibrio tra la protezione dei segreti tecnologici e l’apertura e la condivisione di informazioni tecniche che potrebbero portare a un miglioramento dell’IA e della sua applicazione nella società.
Inoltre, un’altra cosa che le aziende potrebbero fare è concentrarsi sulla costruzione di strumenti per democratizzare l’accesso ai dati. Ad esempio, potrebbero creare piattaforme di condivisione dei dati che consentano alle persone di caricare i propri dati e condividerli con altre persone. In questo modo, più persone avrebbero accesso a un’ampia gamma di dati e sarebbero in grado di costruire modelli migliori.
In generale, le aziende dovrebbero considerare l’open-source come un’opportunità, non come una minaccia. L’open-source ha il potenziale per migliorare la qualità dei modelli e aumentare l’innovazione. Le aziende dovrebbero impegnarsi a costruire modelli di alta qualità e a condividere le loro conoscenze e competenze con la comunità. In questo modo, tutti potrebbero beneficiare dei progressi nell’IA, non solo alcune aziende privilegiate.