7 Modelli Open Source di OpenAI Nonostante sia stata accusata di sfruttare la comunità open source, OpenAI ha precedentemente rilasciato diversi modelli.

Elon Musk, co-fondatore di OpenAI, l’azienda dietro ChatGPT, è stato critico riguardo alla mancata corrispondenza tra il nome dell’azienda e le sue azioni. Musk ha recentemente espresso la sua delusione su Twitter riguardo al fatto che l’azienda sia diventata “una fonte chiusa e massimamente redditizia”.

“OpenAI è stata creata come un’azienda open source (per questo l’ho chiamata “Open” AI) e senza scopo di lucro per fare da contrappeso a Google, ma ora è diventata un’azienda a sorgente chiusa e massimamente redditizia controllata effettivamente da Microsoft”, ha scritto su Twitter.

L’azienda è stata criticata in passato per la sua politica a porte chiuse, non solo dal CEO di Tesla, ma anche da numerosi esperti del settore e membri della comunità open source. OpenAI è stata accusata di sfruttare la comunità open source senza dare nulla in cambio.

Tuttavia, ora OpenAI sta cercando di abbracciare l’approccio open source. Tornando ad essere aperta con i suoi “Consistency Models”, OpenAI si posiziona per una maggiore collaborazione e contribuzione alla comunità open source.

L’azienda ha precedentemente rilasciato diversi modelli open source. Ecco alcuni modelli open source di OpenAI:

1 Evals:

OpenAI ha rilasciato un framework software chiamato Evals che permette agli utenti di valutare le prestazioni dei modelli di intelligenza artificiale. Il framework consente di individuare le carenze dei modelli e fornire feedback per indirizzare miglioramenti. Lo staff di OpenAI prenderà in considerazione queste valutazioni per migliorare i modelli futuri. Gli strumenti mirano a creare un mezzo per condividere e mettere in comune benchmark che rappresentino un ampio insieme di modalità di fallimento e compiti difficili. OpenAI prevede di concedere l’accesso a GPT-4 a coloro che contribuiscono con benchmark di alta qualità.

2 Whisper:

Nel settembre 2022, OpenAI ha introdotto un sistema di riconoscimento vocale multilingue chiamato Whisper, addestrato su 680.000 ore di dati supervisionati multilingue e multitask. Whisper utilizza un approccio end-to-end semplice implementato come un Transformer encoder-decoder e ha migliorato il riconoscimento di rumore di fondo, accenti particolari e terminologia tecnica. Non supera i modelli specializzati nelle prestazioni di LibriSpeech, ma mostra un’ottima performance zero-shot su molti dataset diversi, commettendo il 50% di errori in meno rispetto ad altri modelli. I modelli open source e il codice di inferenza permetteranno agli sviluppatori di aggiungere interfacce vocali a un insieme più ampio di applicazioni.

3 Dall-E:

DALL-E e il suo successore DALL-E 2 sono modelli di deep learning sviluppati da OpenAI che generano immagini digitali a partire da descrizioni in linguaggio naturale. DALL-E 2, progettato per generare immagini più realistiche e ad alta risoluzione, è entrato nella fase beta con inviti inviati a 1 milione di persone in lista d’attesa nel luglio 2022 e aperto a tutti nel settembre 2022. Nel novembre 2022, OpenAI ha rilasciato DALL-E 2 come API, consentendo agli sviluppatori di integrare il modello nelle loro applicazioni, e Microsoft ha presentato la loro implementazione di DALL-E 2 nella loro app Designer e nello strumento Image Creator incluso in Bing e Microsoft Edge. L’API funziona con un costo per immagine.

4 Spinning up:

Spinning Up è una risorsa educativa di OpenAI per imparare la deep reinforcement learning (deep RL), che combina il machine learning e il deep learning. Include un’introduzione alla terminologia e alla teoria del RL, un saggio su come diventare un ricercatore RL, un elenco di articoli importanti, implementazioni di codice degli algoritmi chiave ed esercizi.

5 CLIP:

CLIP di OpenAI è un modello di machine learning che utilizza descrizioni in linguaggio naturale delle immagini per svolgere compiti legati al linguaggio naturale e all’elaborazione delle immagini. Può classificare immagini, rilevare oggetti e recuperare immagini in base a prompt di testo. CLIP viene addestrato su un ampio dataset di immagini e didascalie ed è disponibile come modello open source. La sua caratteristica unica è che può funzionare bene su una varietà di compiti senza la necessità di dati di immagini annotati.

6 Jukebox:

Jukebox di OpenAI è un modello generativo che crea musica utilizzando reti neurali profonde addestrate su un ampio dataset di campioni musicali di vari generi. Può generare campioni di musica originali simili per stile e struttura a diversi tipi di musica. Jukebox può anche generare musica con testi basati su un prompt dato. Si tratta di un progetto open source utilizzato da ricercatori e musicisti in tutto il mondo per esplorare le capacità dei modelli generativi nelle arti creative.

7 Point-E:

Il GPT-3 Point-Eleven o Point-E di OpenAI è una variante ottimizzata del suo modello linguistico GPT-3 per applicazioni di intelligenza artificiale conversazionale. Utilizza una finestra di contesto più ampia e altre ottimizzazioni per migliorare la naturalezza e la coerenza delle risposte del modello nelle conversazioni. Point-E non è disponibile come modello autonomo, ma viene offerto tramite l’API GPT-3 di OpenAI, che fornisce vari servizi basati sul linguaggio, tra cui completamento del testo, risposta alle domande e intelligenza artificiale conversazionale.

Di ihal