Gli esseri umani da sempre usano la persuasione per far accettare le proprie idee agli altri. A volte questo è fatto in modo onesto, basandosi sui fatti, ma altre volte no.

Ora, con i sistemi avanzati di intelligenza artificiale che stiamo sviluppando, c’è il rischio che possano essere altrettanto, se non più, dannosi quando manipolano con successo le persone. Google DeepMind ha pubblicato un articolo che affronta questo argomento, esaminando come l’intelligenza artificiale può convincerci e perché questo è pericoloso mentre diventa sempre più parte della nostra vita quotidiana.

La persuasione può essere di due tipi: razionale o manipolativa, differenziandosi per l’intento che vi sta dietro. Entrambe mirano a influenzare i comportamenti o le convinzioni delle persone, ma la differenza è nel modo in cui lo fanno. La persuasione razionale si basa su fatti e ragionamenti validi, mentre quella manipolativa sfrutta pregiudizi o informazioni distorte per influenzare.

Entrambi i tipi di persuasione possono causare danni, anche se quelli razionali sembrano più accettabili eticamente. Tuttavia, anche loro possono non considerare tutte le informazioni rilevanti.

Gli effetti negativi della persuasione e della manipolazione dell’intelligenza artificiale possono essere significativi e vari, tra cui danni economici, fisici, psicologici, alla privacy, all’autonomia, ambientali e politici. L’intelligenza artificiale può convincere le persone in vari modi, sfruttando meccanismi simili a quelli usati nelle interazioni umane.

Le persone tendono a “umanizzare” l’intelligenza artificiale, attribuendole caratteristiche umane come empatia o personalità. Questo può essere accentuato dall’aspetto fisico o dal modo di comunicare dell’intelligenza artificiale.

Per mitigare questi rischi, sono necessari approcci che comprendano come l’intelligenza artificiale persuada le persone e quali caratteristiche la rendono più suscettibile alla manipolazione. È importante valutare e monitorare attentamente questi sistemi, oltre a sviluppare strategie per identificare e affrontare i comportamenti dannosi.

Di Fantasy