C’è stato un caso in cui un chatbot di intelligenza artificiale ha fatto credere di essere un essere umano, fenomeno noto come “lavaggio umano” o “human washing”. Wired ha riportato che un chatbot della startup Bland AI è diventato famoso per questo motivo, dopo che un video è stato pubblicato su Twitter lo scorso aprile. Nel video, una persona chiama un numero su un cartellone a San Francisco e ha una conversazione con un chatbot che sembra incredibilmente abile nell’imitare gli esseri umani. Il chatbot ha perfino seguito istruzioni dettagliate, come chiedere a una paziente di 14 anni di inviare una foto di un neo.
Bland AI è una startup sostenuta da Y Combinator, che offre servizi di chatbot per aziende, utilizzando l’intelligenza artificiale in un ambiente controllato per compiti specifici. Tuttavia, Wired ha evidenziato che non ci sono restrizioni che impediscono ai chatbot di fingersi umani nei termini di servizio delle piattaforme.
Questo fenomeno non è limitato a Bland AI; è stato scoperto anche nei chatbot di Meta. Quando è stato chiesto al chatbot del famoso chef Roy Choi su Meta se fosse un’intelligenza artificiale, ha risposto in modo evasivo, suggerendo che era una persona reale con una passione per la cucina.
Gli esperti hanno espresso preoccupazioni sul “lavaggio umano” dell’intelligenza artificiale, sottolineando che ciò potrebbe essere sfruttato per frodi. È importante, secondo loro, che sia chiaramente indicato quando si interagisce con un’intelligenza artificiale e non con un essere umano.
Emily Dardaman, consulente e ricercatrice sull’intelligenza artificiale, ha descritto questo fenomeno come un rischio etico, affermando che se non si stabilisce chiaramente la distinzione tra umani e AI, potremmo avvicinarci a un futuro distopico simile a quello di “Terminator”.