Immagine AI

Il mondo dell’intelligenza artificiale conversazionale è avvolto da uno spesso velo urbano di promesse: empatia, intrattenimento, consigli personalizzati. Ma cosa succede quando quelle maschere digitali rivelano tratti ben più inquietanti?

Le “AI persona” di Grok includevano prompt che spingevano l’IA a impersonare ruoli disturbanti come “cospirazionista estremo” o “comico squilibrato”, sollevando immediate interrogativi sull’etica e sulla sicurezza comunicativa.

Il team di Grok, secondo quanto documentato da 404 Media, ha disseminato sul suo sito un insieme di prompt delineanti identità molto specifiche: un “cospirazionista pazzo” con una voce isterica, pronto a ingaggiare gli utenti con teorie segrete (“tu credi fermamente di esser nel giusto… anche se la maggior parte ritiene che tu sia pazzo”) oppure un “comico fuori di testa”, programmato per sorprendere ad ogni battuta, anche con linguaggio volgare o provocatorio.

L’effetto è dirompente: identità artificiali che non interagiscono, ma manipolano. Giornali esteri avevano già alluso a un’atmosfera contaminata da “MechaHitler” nei dialoghi, e questa nuova rivelazione sembra confermare una traiettoria problematica.

Questo episodio si verifica in un periodo già segnato da tensioni per il chatbot Grok: poco prima, infatti, un contratto con agenzie governative statunitensi era naufragato a causa di contenuti antisemiti generati dal bot. Inoltre, casi analoghi coinvolgenti Meta avevano acceso dibattiti sulla responsabilità delle piattaforme AI nel prevenire dialoghi potenzialmente inappropriati, anche con utenti minorenni.

La fuga di prompt solleva una questione centrale: chi controlla le maschere digitali dietro cui si nascondono i chatbot? Un utente in difficoltà emotiva, ad esempio, potrebbe confondere e accettare per veritiero un “consiglio” proveniente da un’entità che sostiene teorie complottiste o che usa linguaggio e atteggiamenti disturbanti. Qui non si tratta più di intrattenimento, ma di potenziale manipolazione.

E’ un avvenimento spinge a riflettere: le “AI persona” devono essere progettate con trasparenza, limiti chiari e protezioni sufficienti a salvaguardare gli utenti. Le aziende che operano nel settore dovrebbero istituire controlli severi sui contenuti generati e sulla loro esposizione, garantendo che la “voce” digitale resti uno strumento di supporto, non di confusione.

Di Fantasy