OpenAI ha recentemente lanciato GPT-4, un modello multimodale capace di elaborare sia testo che immagini e di generare output testuali. Come i suoi predecessori, GPT-4 utilizza i transformer e viene ottimizzato tramite Reinforcement Learning from Human Feedback (RLHF) prima di essere valutato su diversi benchmark accademici e professionali.
Lo scopo principale di questi modelli è di migliorare la comprensione e la generazione del linguaggio naturale in contesti complessi e sfumati. Per valutare le sue capacità, GPT-4 è stato testato su una serie di esami umani, tra cui un esame forense simulato, ottenendo risultati migliori del 10% dei partecipanti. Questo segna un notevole progresso rispetto a GPT-3.5, che era nel 10% più basso. GPT-4 supera anche i precedenti Large Language Models (LLM) e la maggior parte dei sistemi all’avanguardia in numerosi benchmark NLP tradizionali, tra cui il Multi-task language understanding (MMLU) che copre 57 argomenti in diverse lingue, con ottime performance in italiano.
GPT-4 si distingue per essere un sistema multimodale, capace di accettare input di immagini e permettendo di svolgere compiti di visione e linguaggio. Questa funzione consente a GPT-4 di generare output testuali a partire da input misti di testo e immagini, estendendosi a input grafici come documenti, diagrammi e schermate.
Durante lo sviluppo di GPT-4, OpenAI ha impiegato sei mesi di allineamento avversario, utilizzando le lezioni apprese da ChatGPT per migliorare la fattualità, la governance e i limiti del sistema. Nonostante i progressi, GPT-4 presenta ancora delle imperfezioni.
GPT-4 presenta alcuni limiti, come “allucinazioni” di fatti e errori di ragionamento. Tuttavia, OpenAI ha ridotto notevolmente queste allucinazioni, con GPT-4 che mostra un miglioramento del 40% rispetto a GPT-3.5 nelle valutazioni di fattualità avversaria. Nonostante ciò, GPT-4 può ancora produrre risultati distorti e fornire informazioni errate con grande sicurezza.
Per testare GPT-4, OpenAI ha coinvolto oltre 50 esperti di vari settori che hanno fornito feedback per aumentare la robustezza del sistema e ridurre gli output pericolosi attraverso l’addestramento RLHF.
Attualmente, GPT-4 è disponibile tramite ChatGPT Plus e le API (con lista d’attesa), mentre la funzionalità di inserimento di immagini è limitata al partner “Be my eyes”, un’applicazione per aiutare persone non vedenti e ipovedenti. OpenAI ha anche rilasciato OpenAI Evals, un framework per valutare automaticamente le prestazioni dei modelli di intelligenza artificiale.
GPT-4 mostra miglioramenti significativi rispetto ai suoi predecessori in termini di prestazioni e capacità, sebbene persistano alcune limitazioni e rischi da affrontare. Nei prossimi giorni e settimane, assisteremo a esempi concreti di come GPT-4 verrà impiegato in vari ambiti e applicazioni.
Gli utenti di ChatGPT Plus possono ora scegliere di utilizzare GPT-4, approfittando dei suoi miglioramenti e delle sue funzionalità avanzate. Tuttavia, è importante ricordare che, nonostante i progressi, GPT-4 non è ancora perfetto e può ancora produrre risultati imprecisi o fuorvianti.
OpenAI continuerà a lavorare su GPT-4 e sui futuri modelli per migliorare ulteriormente la qualità, la sicurezza e l’utilità dei loro sistemi di intelligenza artificiale. La comunità di ricercatori e sviluppatori è inoltre invitata a condividere feedback e risultati per contribuire al miglioramento e alla crescita di questi modelli.
In conclusione, GPT-4 rappresenta un passo avanti significativo nella comprensione e generazione del linguaggio naturale, aprendo nuove opportunità e sfide nell’intelligenza artificiale. Tuttavia, è fondamentale continuare a monitorare e migliorare i modelli per garantire che le loro applicazioni siano sicure, etiche e utili per l’umanità.