La frode nel settore dei servizi finanziari non è certo una novità, ma recentemente abbiamo assistito a un’accelerazione che merita di essere analizzata nel dettaglio. Con lo sviluppo rapido della tecnologia, i criminali hanno trovato nuovi modi per superare le barriere di conformità, scatenando una corsa agli armamenti tecnologici tra coloro che cercano di proteggere i consumatori e coloro che cercano di danneggiarli. I truffatori stanno combinando le tecnologie emergenti con la manipolazione emotiva per ingannare le persone e sottrarre loro migliaia di dollari, mettendo così a dura prova le difese delle banche nel contrastare questa minaccia in continua evoluzione.
Per fronteggiare l’epidemia di frodi in crescita, le stesse banche stanno iniziando ad adottare le nuove tecnologie. Con un’enorme quantità di dati a loro disposizione, spesso sottoutilizzati, le banche possono ora utilizzare l’intelligenza artificiale per individuare comportamenti criminali prima ancora che si verifichino, analizzando grandi set di dati.
È incoraggiante vedere che i governi di tutto il mondo stanno adottando un approccio proattivo all’IA, specialmente negli Stati Uniti e in Europa. Ad esempio, l’amministrazione Biden ha annunciato un investimento di 140 milioni di dollari nella ricerca e nello sviluppo dell’intelligenza artificiale lo scorso aprile, rappresentando un importante passo avanti. Tuttavia, non possiamo sottovalutare l’epidemia di frodi e il ruolo che questa nuova tecnologia gioca nel facilitare il comportamento criminale. È fondamentale che il governo presti attenzione a questa questione.
Le frodi hanno causato perdite per 8,8 miliardi di dollari ai consumatori nel 2022, registrando un aumento del 44% rispetto al 2021. Questo notevole aumento può essere attribuito in larga parte alla tecnologia sempre più disponibile, inclusa l’intelligenza artificiale, che i truffatori stanno imparando a manipolare.
Secondo la Federal Trade Commission (FTC), le truffe degli impostori rappresentano la forma più diffusa di frode, con perdite segnalate per 2,6 miliardi di dollari solo l’anno scorso. Le truffe degli impostori assumono diverse forme, come truffatori che fingono di rappresentare enti governativi come l’IRS o membri della famiglia che fingono di essere in difficoltà. Queste tattiche vengono utilizzate per indurre i consumatori vulnerabili a trasferire volontariamente denaro o beni.
Nel marzo di quest’anno, la FTC ha emesso un avvertimento sul fatto che i criminali stanno utilizzando registrazioni audio esistenti per clonare le voci dei parenti attraverso l’intelligenza artificiale. L’avvertimento afferma: “Non fidatevi della voce”, un severo promemoria per aiutare i consumatori a evitare di inviare denaro involontariamente ai truffatori.
I truffatori stanno adottando sempre più trucchi sofisticati e diversi tipi di frode, tra cui le truffe romantiche, continuano a rappresentare un problema significativo. Secondo un recente rapporto di Feedzai intitolato “The Human Impact of Fraud and Financial Crime on Customer Trust in Banks”, il 42% delle persone negli Stati Uniti è caduto vittima di una truffa romantica.
L’intelligenza artificiale generativa, che è in grado di generare testo, immagini e altri media in risposta alle richieste, ha consentito ai truffatori di lavorare su larga scala, trovando nuovi modi per ingannare i consumatori e ottenere il loro denaro. ChatGPT è già stato sfruttato dai truffatori, consentendo loro di creare messaggi estremamente realistici per indurre le vittime a credere di essere qualcun altro, ed è solo la punta dell’iceberg.
Man mano che l’intelligenza artificiale generativa diventa sempre più sofisticata, diventa sempre più difficile per le persone distinguere tra ciò che è reale e ciò che non lo è. Pertanto, è fondamentale che le banche agiscano rapidamente per rafforzare le proprie difese e proteggere i propri clienti.
Tuttavia, proprio come l’intelligenza artificiale può essere utilizzata come strumento criminale, può anche aiutare a proteggere i consumatori in modo efficace. Grazie alla sua capacità di analizzare grandi quantità di dati e prendere decisioni intelligenti in pochissimo tempo, l’IA può funzionare velocemente. In un momento in cui i team di conformità sono gravati di lavoro, l’intelligenza artificiale può aiutare a determinare se una transazione è fraudolenta o meno.
Le banche che adottano l’intelligenza artificiale stanno creando profili completi dei propri clienti, consentendo loro di individuare rapidamente eventuali comportamenti anomali. I dati comportamentali, come le tendenze delle transazioni o gli orari di accesso all’online banking di solito utilizzati dai clienti, possono contribuire a creare un profilo del “buon” comportamento normale di una persona.
Questo è particolarmente utile nell’individuazione delle frodi di acquisizione degli account, una tecnica utilizzata dai criminali per fingere di essere clienti legittimi e ottenere il controllo di un account per effettuare pagamenti non autorizzati. Se il truffatore si trova in un fuso orario diverso o inizia a tentare di accedere all’account in modo irregolare, l’intelligenza artificiale lo segnalerà come comportamento sospetto e genererà un rapporto di attività sospetta (SAR). L’IA può accelerare questo processo generando automaticamente i rapporti e compilando i dati, risparmiando tempo ed eliminando costi per i team di conformità.
Un’intelligenza artificiale ben addestrata può anche contribuire a ridurre i falsi positivi, che rappresentano un grande onere per le istituzioni finanziarie. I falsi positivi si verificano quando transazioni legittime vengono erroneamente contrassegnate come sospette, e ciò potrebbe comportare il blocco di una transazione o addirittura dell’account di un cliente.
Identificare erroneamente un cliente come truffatore rappresenta uno dei principali problemi affrontati dalle banche. Secondo una ricerca di Feedzai, la metà dei consumatori cambierebbe banca se una transazione legittima venisse interrotta, anche se risolta rapidamente. L’intelligenza artificiale può contribuire a ridurre questo onere creando una visione unica e migliore del cliente, in grado di valutare rapidamente la legittimità di una transazione.
Tuttavia, è fondamentale che le istituzioni finanziarie adottino l’IA in modo responsabile e senza pregiudizi. Essendo una tecnologia relativamente nuova, basata sull’apprendimento dai comportamenti esistenti, l’IA può rilevare comportamenti distorti e prendere decisioni errate che potrebbero avere un impatto negativo su banche e istituzioni finanziarie se non implementate correttamente.
Le istituzioni finanziarie hanno la responsabilità di approfondire la conoscenza dell’IA etica e responsabile e di collaborare con partner tecnologici per monitorare e mitigare i pregiudizi dell’IA, proteggendo nel contempo i consumatori dalle frodi.
La fiducia è la valuta più preziosa di una banca e i clienti desiderano sentirsi sicuri sapendo che la propria banca sta facendo tutto il possibile per proteggerli. Agendo con rapidità e responsabilità, le istituzioni finanziarie possono sfruttare l’intelligenza artificiale per costruire barriere contro i truffatori e posizionarsi al meglio per proteggere i propri clienti dalle minacce criminali in continua evoluzione.