I chatbot AI sono stati originariamente concepiti come programmi di conversazione automatizzati, ma ora sono in grado di apprendere e sostenere conversazioni che sono quasi indistinguibili da quelle umane. Tuttavia, ci sono diversi pericoli associati ai chatbot AI.
Questi pericoli possono variare da un uso improprio da parte delle persone a reali minacce per la sicurezza informatica. Con l’aumento della dipendenza umana dalla tecnologia AI, è essenziale essere consapevoli delle possibili conseguenze dell’utilizzo di tali programmi. Ma i bot sono pericolosi?
Uno dei maggiori rischi dei chatbot AI è la tendenza a incorrere in pregiudizi dannosi. Poiché l’intelligenza artificiale stabilisce connessioni tra dati che spesso sfuggono agli esseri umani, può assorbire pregiudizi sottili e impliciti presenti nei dati di addestramento, imparando così a discriminare. Di conseguenza, i chatbot possono rapidamente imparare a generare contenuti razzisti, sessisti o discriminatori, anche se non erano presenti in modo così estremo nei dati di addestramento. Un esempio significativo è quello del robot di selezione del personale sviluppato da Amazon. Nel 2018, è emerso che Amazon aveva abbandonato un progetto di intelligenza artificiale volto a valutare i curriculum dei candidati poiché il sistema penalizzava in modo ingiusto le donne. Poiché la maggior parte dei curriculum utilizzati per l’addestramento erano di uomini, il chatbot ha appreso da solo che i candidati di sesso maschile erano da preferire, anche se ciò non era esplicitamente indicato nei dati di addestramento.
I chatbot che apprendono a comunicare in modo naturale utilizzando contenuti presenti su Internet possono mostrare pregiudizi ancora più estremi. Nel 2016, Microsoft ha lanciato un chatbot chiamato Tay, che ha appreso a imitare i post sui social media. In poche ore, il chatbot ha iniziato a inviare contenuti altamente offensivi sui social media, costringendo Microsoft a sospendere l’account rapidamente. Se le aziende non prestano attenzione durante la creazione e la distribuzione di tali chatbot, potrebbero accidentalmente causare situazioni simili. I chatbot potrebbero insultare i clienti o diffondere contenuti di parte dannosi che si supponeva dovessero evitare.
I pericoli dei chatbot AI per la tecnologia informatica possono costituire una minaccia diretta per la sicurezza delle persone e delle aziende. Una delle forme più comuni di attacchi informatici sono le truffe di phishing e vishing, in cui gli aggressori informatici si fanno passare per organizzazioni affidabili come banche o enti governativi. Le truffe di phishing di solito si svolgono tramite e-mail o messaggi di testo, in cui l’utente, facendo clic su un link, permette al malware di infiltrarsi nel sistema informatico. Una volta dentro, il virus può svolgere una vasta gamma di attività, dal furto di informazioni personali al controllo del sistema per estorcere un riscatto.
Il tasso di attacchi di phishing è in costante aumento durante e dopo la pandemia di COVID-19. Secondo l’agenzia Cybersecurity & Infrastructure Security Agency, l’84% delle persone ha fornito informazioni sensibili in risposta a messaggi di phishing o ha cliccato su un link sospetto. I phisher utilizzano la tecnologia AI dei chatbot per automatizzare la ricerca di potenziali vittime e convincerle a fare clic su link o fornire informazioni personali. I chatbot sono utilizzati da molte istituzioni finanziarie, come le banche, per semplificare l’assistenza ai clienti. I phisher che utilizzano chatbot possono imitare i prompt automatici utilizzati dalle banche per ingannare le vittime. Possono anche generare automaticamente numeri di telefono o contattare le vittime direttamente attraverso piattaforme di chat interattive.
L’avvelenamento dei dati è un nuovo tipo di attacco informatico che mira direttamente all’intelligenza artificiale. La tecnologia AI apprende dai set di dati e utilizza queste informazioni per compiere determinate attività. Ciò vale per tutti i programmi di intelligenza artificiale, indipendentemente dal loro scopo o dalle loro funzioni.
Nel caso dei chatbot AI, ciò significa che apprendono diverse risposte a possibili domande che gli utenti possono porre loro. Tuttavia, questo rappresenta anche uno dei pericoli dell’IA.
I set di dati utilizzati sono spesso fonti e risorse open source disponibili a chiunque. Sebbene le aziende di intelligenza artificiale tendano a mantenere segreti i dettagli delle loro fonti di dati, i cyber aggressori possono scoprirle e manipolare i dati stessi.
Gli aggressori informatici possono trovare modi per alterare i set di dati utilizzati per l’addestramento delle IA, consentendo loro di influenzare le decisioni e le risposte delle intelligenze artificiali. L’IA utilizzerà le informazioni dai dati manipolati ed eseguirà azioni desiderate dagli aggressori.
Ad esempio, una delle fonti di dati più comuni sono le risorse wiki come Wikipedia. Anche se i dati non provengono direttamente dagli articoli live di Wikipedia, vengono catturati in momenti specifici. Gli hacker possono trovare modi per manipolare i dati a loro vantaggio.
Nel caso dei chatbot AI, gli hacker possono corrompere i set di dati utilizzati per addestrare i chatbot che lavorano per istituzioni mediche o finanziarie. Possono manipolare i programmi dei chatbot per fornire informazioni false ai clienti, che potrebbero indurli a fare clic su link contenenti malware o siti Web fraudolenti. Una volta che l’intelligenza artificiale inizia a trarre informazioni da dati avvelenati, diventa difficile rilevare la manipolazione e può causare gravi violazioni della sicurezza informatica che passano inosservate per lungo tempo.
Questi rischi sono preoccupanti, ma non significa che i bot siano intrinsecamente pericolosi. Tuttavia, è fondamentale avvicinarsi ad essi con cautela e considerare questi pericoli durante la creazione e l’utilizzo dei chatbot.
La chiave per prevenire i pregiudizi dell’IA è monitorare attentamente il processo di addestramento. È importante addestrare i chatbot su diversi set di dati e programmarli in modo specifico per evitare di considerare fattori come razza, genere o orientamento sessuale nella loro presa di decisioni. Inoltre, è consigliabile avere un team di data scientist eterogeneo per analizzare il funzionamento interno dei chatbot e assicurarsi che non presentino alcun pregiudizio, anche se sottile.
La migliore difesa contro il phishing è la formazione. È essenziale addestrare tutti i dipendenti a riconoscere i segnali comuni degli attacchi di phishing, in modo che non cadano nelle trappole degli aggressori. Inoltre, aumentare la consapevolezza dei consumatori su questo tema può contribuire alla prevenzione di attacchi di phishing.
Per prevenire l’avvelenamento dei dati, è importante limitare l’accesso ai dati di addestramento dei chatbot. Solo le persone che ne hanno effettivamente bisogno per svolgere il proprio lavoro dovrebbero essere autorizzate ad accedere a tali dati, secondo il principio del privilegio minimo. Dopo aver implementato tali restrizioni, è fondamentale utilizzare solide misure di verifica, come l’autenticazione a più fattori o la biometria, per prevenire il rischio di hackeraggio di un account autorizzato da parte di criminali informatici.
L’intelligenza artificiale è una tecnologia straordinaria con applicazioni quasi illimitate. Tuttavia, i pericoli dell’IA possono essere oscuri. I bot sono pericolosi? Non intrinsecamente, ma i criminali informatici possono utilizzarli in modi disruptivi. Spetta agli utenti decidere come applicare questa nuova tecnologia, tenendo conto dei rischi associati e agendo con la massima cautela.