Google ha recentemente annunciato il lancio su vasta scala delle Bard Extensions, integrando l’intelligenza artificiale generativa conversazionale (GenAI) nei suoi servizi esistenti. Grazie a questa integrazione, Bard è ora in grado di utilizzare i dati personali degli utenti per svolgere una serie di attività, tra cui la gestione delle e-mail, la prenotazione di voli, la pianificazione dei viaggi e la creazione di risposte ai messaggi, e molto altro.
Dato che i servizi di Google sono già profondamente radicati nella nostra vita quotidiana, questa integrazione rappresenta un importante passo avanti nell’applicazione pratica della GenAI, offrendo modi più efficienti e produttivi per gestire le attività personali e i flussi di lavoro. Di conseguenza, con l’avvento di strumenti di intelligenza artificiale più accessibili, stiamo assistendo all’emergere di ulteriori funzionalità basate sul web che rispondono alla crescente domanda degli utenti per estensioni di produttività basate su browser.
Tuttavia, è importante che gli utenti agiscano con cautela e responsabilità. Nonostante la utilità e la produttività delle Bard Extensions e di strumenti simili, queste aperture a nuovi utilizzi dei dati personali degli utenti possono comportare potenziali vulnerabilità che mettono a rischio la privacy dei dati personali, oltre a svelare rischi ancora sconosciuti. Gli utenti interessati a utilizzare Bard o altre applicazioni GenAI per scopi produttivi dovrebbero essere ben informati sulle migliori pratiche e cercare soluzioni di sicurezza complete prima di condividere in modo indiscriminato le proprie informazioni sensibili.
Google ha dichiarato esplicitamente che il personale aziendale può esaminare le conversazioni degli utenti con Bard, che potrebbero contenere informazioni private, come informazioni finanziarie o note personali. Pertanto, gli utenti sono avvisati di non condividere dati sensibili o informazioni che non vorrebbero che il personale di Google possa vedere o utilizzare per migliorare i propri prodotti, servizi e algoritmi di apprendimento automatico.
È probabile che Google e altri provider di strumenti GenAI utilizzino i dati personali degli utenti per migliorare i propri modelli di apprendimento automatico, un passaggio essenziale per l’evoluzione della GenAI. Tuttavia, quando queste nuove informazioni provengono dagli utenti, che hanno condiviso i propri dati con un’applicazione GenAI, esiste il rischio che queste informazioni possano includere dati sensibili come password, informazioni bancarie o dettagli di contatto, che potrebbero essere integrati nei servizi Bard disponibili al pubblico.
Mentre Bard diventa sempre più integrato nell’ecosistema Google, esperti e utenti stanno ancora cercando di comprendere appieno la portata delle sue funzionalità. Tuttavia, come in ogni campo all’avanguardia dell’intelligenza artificiale, Google rilascia prodotti senza necessariamente conoscere a priori come verranno utilizzati i dati degli utenti. Recentemente, è emerso che condividere una conversazione di Bard con un amico tramite il pulsante “Condividi” potrebbe far sì che l’intera conversazione venga visualizzata nei risultati di ricerca standard di Google, rendendola accessibile a chiunque.
Nonostante l’attrattiva di migliorare l’efficienza dei flussi di lavoro, concedere a Bard o a qualsiasi altra estensione basata sull’intelligenza artificiale il permesso di eseguire attività quotidiane per conto nostro può comportare rischi imprevisti sotto forma di “allucinazioni” dell’intelligenza artificiale, ossia risultati errati o imprecisi che la GenAI è nota a volte a generare.
Per gli utenti di Google, ciò potrebbe tradursi in prenotazioni di voli errate, errori nei pagamenti delle fatture o la condivisione di documenti con persone sbagliate. L’esposizione dei dati personali a individui non autorizzati o malintenzionati, o l’invio di dati inesatti a destinatari corretti, può comportare conseguenze indesiderate, dal furto di identità e la perdita della privacy digitale, alle potenziali perdite finanziarie o all’esposizione di comunicazioni imbarazzanti.
Per gli utenti dell’IA, la migliore pratica è semplicemente quella di non condividere informazioni personali con assistenti IA ancora in fase di sviluppo. Tuttavia, questa precauzione da sola non garantisce una completa sicurezza.
La transizione verso il Software as a Service (SaaS) e le applicazioni basate sul web ha già reso il browser un obiettivo primario per gli attacchi informatici. Con l’adozione crescente di strumenti di intelligenza artificiale basati sul web, la finestra di opportunità per il furto di dati sensibili si apre ulteriormente. Poiché sempre più estensioni del browser cercano di capitalizzare sul successo della GenAI, attirando gli utenti con nuove e avanzate funzionalità, le persone devono essere consapevoli del fatto che alcune di queste estensioni potrebbero tentare di rubare informazioni o chiavi API dell’utente, soprattutto nel caso di strumenti legati a ChatGPT.
Fortunatamente, esistono già soluzioni di sicurezza per le estensioni del browser per prevenire il furto di dati. Implementando un’estensione del browser con controlli di prevenzione della perdita di dati (DLP), gli utenti possono mitigare il rischio di consentire ad altre estensioni del browser, indipendentemente dalla presenza o meno di intelligenza artificiale, di utilizzare impropriamente o condividere dati personali. Queste estensioni di sicurezza possono monitorare l’attività del browser e applicare politiche di sicurezza, riducendo il rischio che le app basate sul web catturino informazioni sensibili.
Sebbene Bard e altre estensioni simili promettano maggiore produttività e comodità, comportano significativi rischi per la sicurezza informatica. Ogni volta che sono coinvolti dati personali, esistono sempre questioni di sicurezza che gli utenti devono prendere in considerazione, soprattutto nell’ambito ancora poco conosciuto dell’intelligenza artificiale generativa.
Poiché gli utenti concedono a Bard e ad altre applicazioni basate sull’IA il permesso di agire autonomamente con dati personali sensibili, è importante mettere in atto misure di protezione per l’IA prima che i dati vengano gestiti in modo inappropriato a spese degli utenti stessi.