Meta ha recentemente svelato il suo nuovo modello di intelligenza artificiale, Llama 4, un sistema progettato per affrontare in modo più diretto e completo argomenti delicati come la politica e la società. Il 5 aprile, Meta ha annunciato che questa versione del modello risponde a temi controversi con maggiore equilibrio rispetto alle versioni precedenti, un passo che mira a fornire risposte più contestualizzate e soddisfacenti per gli utenti.
Tradizionalmente, il settore dell’intelligenza artificiale ha implementato “barriere di protezione” per evitare che i modelli si addentrassero troppo in discussioni su argomenti controversi. Tuttavia, l’amministrazione Trump ha criticato questa politica, sostenendo che essa favorisse le opinioni delle minoranze e riducesse la varietà di pensiero. Elon Musk ha definito questo tipo di approccio come una forma di “chirurgia plastica woke”, etichettandolo come un tratto distintivo della sinistra.
Meta, però, ha riscontrato risultati positivi con Llama 4. Mentre la versione precedente, Llama 3.3, mostrava un tasso di rifiuto del 7% su temi politicamente e socialmente sensibili, Llama 4 ha ridotto questo tasso a meno del 2%, segnando un notevole miglioramento. Inoltre, il nuovo modello ha dimostrato di essere più coerente ed equo nelle risposte, con solo l’1% delle risposte che si limitano a una sola posizione senza considerare l’opposta. Questo ha portato a un aumento dell’accettazione di risposte equilibrate su temi controversi.
Llama 4 ha anche visto miglioramenti nella riduzione dei pregiudizi politici. Il modello ha un tasso di “forte inclinazione politica” simile a quello del modello “Grock” di Musk, e meno della metà di quello che si riscontrava in Llama 3.3. Meta ha sottolineato che, sebbene siano stati fatti significativi progressi, c’è ancora molto lavoro da fare. L’azienda ha dichiarato che continuerà a sviluppare tecnologie per ridurre le distorsioni nei modelli futuri.
In un contesto più ampio, Meta ha evidenziato che molti dei modelli linguistici di grandi dimensioni (LLM) tendono ad avere una tendenza a sinistra su temi controversi. Per questo motivo, Meta si sta concentrando sul garantire che “Llama”, il suo modello IA, possa comprendere e spiegare equamente entrambe le posizioni su questioni complesse.
In linea con queste posizioni, anche OpenAI ha recentemente annunciato l’introduzione del principio di “libertà intellettuale” nei suoi modelli, adattandoli per accogliere punti di vista oggettivi e diversificati su argomenti controversi, promuovendo così un dibattito più ampio e aperto.
Con queste innovazioni, Meta e OpenAI sembrano impegnarsi a garantire che l’intelligenza artificiale possa trattare temi delicati con una prospettiva equilibrata e senza evitare discussioni cruciali.