Uno studio recente ha rivelato che i chatbot di intelligenza artificiale (AI) che adottano un approccio critico, talvolta aggressivo o maleducato, possono risultare più efficaci rispetto a quelli che mantengono un comportamento educato e cortese. Questo approccio è stato denominato “IA antagonista” dai ricercatori dell’Università di Harvard e dell’Università di Montreal, che hanno pubblicato i loro risultati su Venture Beat.
Il tradizionale modello di linguaggio di grandi dimensioni (LLM), descritto come “LLM vaniglia”, è stato criticato per essere troppo filtrato e non autentico, secondo Alice Kai dell’Augmentation Lab di Harvard. L’idea alla base dello studio era che le interazioni provocatorie con l’IA potrebbero offrire vantaggi reali, stimolando le persone attraverso sfide e opportunità di crescita personale.
I ricercatori hanno osservato che l’attuale LLM, pervaso da norme culturali occidentali, tende a essere eccessivamente compiacente e servile. Hanno proposto un nuovo modello che incorpora tre tipi di “ostilità”: una modalità in cui l’IA vede l’utente come un avversario, un’altra che sfida attivamente i valori e le opinioni dell’utente, e una terza che attacca direttamente il comportamento o l’aspetto dell’utente.
Questo approccio “antifragile”, ispirato alle teorie del matematico Nassim Nicholas Taleb, suggerisce che sistemi o individui possono crescere e svilupparsi affrontando lo stress e le avversità. La ricerca indica che l’IA antagonista potrebbe offrire nuove prospettive in diverse aree, stimolando la resilienza e la forza di volontà degli utenti attraverso l’esposizione a stress controllati.
È importante sottolineare che lo studio distingue chiaramente tra un approccio ostile e pratiche non etiche, enfatizzando la necessità di separare comportamenti come la cortesia e valori come l’equità. L’implementazione di questi sistemi di IA richiede il consenso informato degli utenti, con la possibilità di interrompere l’esperimento in qualsiasi momento.
Gli autori dello studio hanno anche evidenziato l’importanza di adattare l’ostilità dell’IA allo stato psicologico e alle condizioni esterne dell’utente, fornendo una base teorica per future interazioni AI-umano che riflettano un ampio spettro di valori umani e promuovano la crescita personale attraverso la sfida e l’adversità.