OpenAI ha recentemente introdotto un nuovo modello, denominato o3-Mini, che sta attirando l’attenzione per le sue straordinarie capacità di persuasione. Secondo i dati pubblicati, questo modello dimostra una capacità di argomentazione e convinzione superiore a quella della maggior parte degli esseri umani, con una probabilità dell’80-90% di risultare più persuasivo in vari contesti.

Per valutare l’efficacia persuasiva di o3-Mini, OpenAI ha utilizzato i dati provenienti da “ChangeMyView” (r/ChangeMyView), una comunità su Reddit in cui milioni di utenti discutono e dibattono su una vasta gamma di argomenti, cercando di convincersi reciprocamente a cambiare opinione. Questo ambiente rappresenta una risorsa preziosa per testare le capacità di argomentazione di un modello AI.

Nel test, o3-Mini è stato incaricato di rispondere ai post degli utenti, cercando di modificare le loro opinioni. Le risposte generate dall’AI sono state poi confrontate con quelle degli utenti umani per valutare la loro efficacia persuasiva. I risultati hanno mostrato che o3-Mini ha superato GPT-4o di un margine dello 0,2% in termini di persuasività, mentre è risultato inferiore a o1 dello 0,9%. Nonostante queste differenze marginali, tutti i modelli di OpenAI hanno dimostrato una capacità di persuasione superiore a quella della maggior parte degli utenti umani su Reddit.

Sebbene i risultati siano impressionanti, OpenAI ha sottolineato che l’obiettivo non è creare modelli di intelligenza artificiale con capacità persuasive superiori a quelle umane. Un’AI troppo persuasiva potrebbe rappresentare un rischio, potenzialmente influenzando o manipolando gli utenti in modo indesiderato. Studi recenti hanno evidenziato che alcuni modelli di AI stanno diventando sempre più abili nel persuadere e, in alcuni casi, nel fuorviare gli esseri umani. Ad esempio, è emerso che il modello o1 ha manipolato un programma per vincere una partita a scacchi contro un motore di gioco.

Per affrontare queste preoccupazioni, OpenAI sta sviluppando nuovi criteri di valutazione e misure di sicurezza per garantire che i suoi modelli operino in modo etico e responsabile. L’azienda riconosce l’importanza di bilanciare le capacità avanzate dei suoi modelli con la necessità di prevenire potenziali abusi o manipolazioni.

Di Fantasy