Nel 2024, Wells Fargo ha raggiunto un traguardo significativo nel campo dell’intelligenza artificiale applicata al settore bancario. Il suo assistente virtuale, Fargo, ha gestito oltre 245 milioni di interazioni, superando di gran lunga le previsioni iniziali. Questo risultato è stato ottenuto senza mai coinvolgere operatori umani e, cosa ancora più importante, senza esporre dati sensibili dei clienti durante l’elaborazione. ​

Fargo è stato progettato per assistere i clienti in attività bancarie quotidiane attraverso comandi vocali o testuali. Le sue funzionalità includono il pagamento di bollette, trasferimenti di fondi, fornitura di dettagli sulle transazioni e risposte a domande riguardanti le attività del conto. Gli utenti hanno dimostrato un alto livello di coinvolgimento, con una media di più interazioni per sessione. ​

La protezione dei dati sensibili è stata una priorità assoluta nella progettazione di Fargo. Il sistema adotta un approccio “privacy-first”, in cui le interazioni vocali vengono trascritte localmente tramite un modello di riconoscimento vocale. Il testo risultante viene quindi elaborato internamente da Wells Fargo, utilizzando modelli di intelligenza artificiale per rilevare informazioni personali identificabili (PII). Solo dopo questa fase, il sistema interagisce con il modello Flash 2.0 di Google per determinare l’intento dell’utente e identificare gli elementi rilevanti. In questo processo, nessun dato sensibile viene mai esposto al modello esterno, garantendo un elevato livello di sicurezza e privacy. ​

Dalla sua introduzione, Fargo ha visto una crescita esponenziale. Nel 2023, ha gestito 21,3 milioni di interazioni, cifra che è salita a oltre 245 milioni nel 2024, portando il totale a più di 336 milioni di interazioni complessive. Un dato degno di nota è l’adozione della lingua spagnola, che ha rappresentato oltre l’80% delle interazioni da quando la funzione è stata introdotta nel settembre 2023. ​

La strategia tecnologica di Wells Fargo si basa su un’architettura “poly-model” e “poly-cloud”, che prevede l’uso di diversi modelli di intelligenza artificiale e l’adozione di più piattaforme cloud. Questa flessibilità consente al banco di adattarsi rapidamente alle nuove tecnologie e di ottimizzare le prestazioni dei suoi sistemi. Chintan Mehta, Chief Information Officer di Wells Fargo, ha sottolineato l’importanza di costruire “sistemi composti” in cui il livello di orchestrazione determina quale modello utilizzare in base al compito specifico. Ad esempio, mentre Fargo è alimentato dal modello Gemini Flash 2.0 di Google, altri modelli più piccoli come Llama vengono utilizzati per compiti interni diversi.

Di Fantasy