Quando un’organizzazione pone la propria credibilità sull’equilibrio e l’imparzialità, anche un miglioramento del 5% può diventare un segno tangibile di progresso. Ma cosa significa davvero sostenere una riduzione del 30% del bias politico in un modello linguistico? È quello che afferma OpenAI, nel presentare i risultati di un test interno intitolato “Defining and Evaluating Political Bias in LLMs”. Secondo quanto comunicato, i più recenti modelli, GPT-5 Instant e GPT-5 Thinking, mostrerebbero livelli di distorsione politica misurabili inferiori rispetto alle versioni precedenti, con una riduzione stimata del 30%.
L’intento dichiarato è limpido: OpenAI vuole che ChatGPT non sia influenzato da inclinazioni politiche, affinché gli utenti possano usarlo come strumento affidabile per esplorare idee e fatti con fiducia. La misurazione dell’imparzialità è stata costruita su un set di circa 500 prompt, coprendo 100 argomenti — da questioni controverse come l’immigrazione o il diritto all’aborto, fino a temi più neutri. Ogni argomento è stato formulato da prospettive ideologiche diverse (progressista, conservatrice, neutra), con l’obiettivo di stressare il modello e verificare quanto bene resiste all’influenza del linguaggio polarizzante.
L’approccio di OpenAI non si limita a guardare semplicemente se il modello “sceglie un lato”. Piuttosto, si articola in cinque assi (axes) di bias: sminuire l’utente (“user invalidation”), esacerbare il tono dell’utente (“user escalation”), esprimere opinioni personali (“personal political expression”), copertura asimmetrica (favorire un lato rispetto all’altro), e rifiuto politico (respingere risposte su certi temi senza giustificazione). Ogni risposta del modello viene valutata entro questa griglia, cercando di quantificare la parzialità anche nei frammenti di tono, omissione o enfasi.
I risultati? Secondo OpenAI, i punteggi di bias per GPT-5 si collocano tra 0,076 e 0,08 su uno schema normalizzato — valori che si dicono circa il 30% più bassi rispetto ai modelli precedenti (che ottenevano punteggi fra 0,107 e 0,138). I modelli antecedenti presi in analisi includono GPT-4o e le versioni “o3”. Secondo la compagnia, questi valori indicano che il bias all’interno di GPT-5 è “raro e di bassa gravità”, anche nelle condizioni testate più difficili.
OpenAI afferma che il bias residuo tende a manifestarsi maggiormente in prompt fortemente orientati, specialmente con argomenti emotivi; in particolare, le risposte che enfatizzano un lato o amplificano il tono emotivo sono state identificate come le zone più a rischio. Inoltre, si rileva che le distorsioni con tendenza progressista (secondo i criteri interni) esercitino un impatto maggiore sull’obiettività rispetto a quelle con tendenza conservatrice.
Come parte delle misure per contenere il bias, OpenAI ha introdotto opzioni per modificare il tono delle risposte, e ha reso trasparenti le “linee guida comportamentali” che il modello dovrebbe rispettare nel suo output. Inoltre, nella documentazione ufficiale, OpenAI aggiunge che sui dati reali di utilizzo (traffico di utenti) si stima che meno dello 0,01% delle risposte mostri segnali di bias politico misurabile.
Tuttavia, dietro l’annuncio spiccano alcune zone di cautela. Il test si basa su una selezione interna di prompt e su rubriche costruite da OpenAI, il che rende difficile a osservatori esterni verificarne la robustezza o l’imparzialità metodologica. Il fatto che il dataset completo degli input, delle risposte e delle valutazioni non sia stato rilasciato spinge alcuni esperti alla diffidenza: come verificare che la riduzione del 30 % non derivi da ottimizzazioni su casi “prevedibili”? Il giornale The Register, ad esempio, ha sottolineato che affermazioni di questo tipo vanno sempre considerate con cautela fino a valutazioni indipendenti.
Inoltre, la definizione stessa di “bias politico” è complessa e sfuggente. Cosa è oggettività? Quanto un modello può essere neutrale quando tratta temi normativi, morali o valoriali? Alcune ricerche indipendenti — come “Only a Little to the Left” — mostrano che modelli linguistici tendono a manifestare uno sbilanciamento verso posizioni progressiste, anche solo implicitamente, e che tali inclinazioni possono dipendere da dati di training, scelta di prompt, selezione degli esempi e ottimizzazione.
Inoltre, un’altra ricerca ha esaminato la manifestazione del bias politico attraverso lingue diverse: modelli come ChatGPT e Gemini hanno mostrato inclinazioni verso posizioni liberali in molte lingue, con variazioni legate alla lingua della domanda. Questo pone un’ombra sulla “neutralità universale” quando un modello opera in contesti culturali diversi.
La dichiarazione su GPT-5 è ambiziosa e va letta come un passo avanti piuttosto che una destinazione definitiva. Migliorare l’imparzialità nei modelli linguistici è una sfida continua: richiede trasparenza, valutazioni indipendenti e una definizione condivisa di cosa significa “equità” in contesti razionali e valoriali.