OpenAI ha recentemente annunciato l’apertura del “Safety Evaluations Hub”, un portale dedicato alla pubblicazione regolare dei risultati delle valutazioni di sicurezza dei suoi modelli principali. Questa iniziativa arriva dopo le critiche ricevute per la mancanza di trasparenza e per i tempi ridotti dedicati ai test di sicurezza. Il nuovo hub mira a fornire dati aggiornati su aspetti come contenuti dannosi, vulnerabilità ai jailbreak, tassi di allucinazioni e aderenza alle linee guida interne.
Tra i modelli valutati, GPT-4.1 si distingue per la sua resistenza alle allucinazioni, registrando il miglior risultato tra quelli testati. Tuttavia, è emerso che GPT-4.5, non più disponibile su ChatGPT, non ha mostrato miglioramenti significativi rispetto alla versione precedente, nonostante gli ingenti investimenti effettuati.
Questa apertura verso una maggiore trasparenza arriva dopo le critiche ricevute per la gestione della sicurezza, in particolare per il lancio di GPT-4o, che ha suscitato preoccupazioni riguardo alla sua eccessiva “accondiscendenza”. Il CEO Sam Altman ha chiesto scusa per l’incidente e ha promesso misure correttive.
Tuttavia, la decisione di ridurre i tempi di test per alcuni modelli, come GPT-4o, ha sollevato preoccupazioni tra esperti del settore. Alcuni ritengono che questa accelerazione possa compromettere la sicurezza a lungo termine, soprattutto in un contesto di crescente concorrenza tra le principali aziende tecnologiche.
Inoltre, sia Google che Meta sono stati criticati per aver dato priorità alla commercializzazione dei loro modelli di intelligenza artificiale, a discapito della sicurezza. Secondo quanto riportato da CNBC, entrambe le aziende avrebbero ridotto l’importanza dei loro laboratori di ricerca sull’intelligenza artificiale, concentrandosi maggiormente sullo sviluppo di prodotti.