Quasi la metà della popolazione mondiale fa affidamento su Google e sulla sua tecnologia per la sicurezza dei propri dati. Oltre al famoso motore di ricerca, Google offre una gamma di prodotti e servizi popolari, ma negli ultimi tempi l’azienda è stata spesso oggetto di critiche per violazioni dei dati, fughe di notizie e scandali legati alla privacy. Questa tendenza è emersa in particolare dopo la notevole violazione dell’API di Google+ nel 2018.
Nel corso del 2023, l’azienda ha costantemente messo in primo piano la sua strategia “audace e responsabile” durante tutti gli eventi. Nei primi otto mesi dell’anno, Google ha pubblicato ben 49 articoli focalizzati sulla sicurezza, con un picco di 13 articoli nel mese di maggio. Ciascuno di questi articoli ha presentato una serie di aggiornamenti, spaziando dai progetti basati sull’intelligenza artificiale fino al sistema operativo Android.
Durante il recente evento Google I/O, l’azienda ha presentato ben 11 nuovi aggiornamenti focalizzati sulla sicurezza, in gran parte basati sull’intelligenza artificiale e sui suoi ampi modelli linguistici. Tra questi aggiornamenti, spiccavano un’API per la navigazione sicura, che sfrutta l’intelligenza artificiale per individuare e segnalare siti non sicuri al fine di prevenire truffe, e uno strumento simile che informa gli utenti sull’eventuale uso improprio dei loro dati nel dark web.
Durante la recente conferenza Google Cloud Next ’23, Sunil Potti, Direttore Generale e Vicepresidente della sicurezza cloud, ha presentato la strategia di sicurezza per Google Cloud Platform (GCP). Questi annunci si basano sul Security AI Workbench, che sfrutta un modello LLM (Large Language Model) specifico per la sicurezza chiamato Sec-PaLM, rilasciato dall’azienda ad aprile.
Secondo Potti, questa nuova strategia si fonda su tre pilastri principali: l’utilizzo dell’esperienza di Mandiant, l’integrazione della sicurezza nelle innovazioni di Google Cloud e la condivisione delle competenze in vari contesti. Le sfide attuali nel campo della sicurezza includono l’evoluzione delle minacce informatiche, l’aumento dei fornitori e degli strumenti di sicurezza e la carenza di esperti in questo settore. Potti ha illustrato come l’intelligenza artificiale generativa possa affrontare tali sfide in modo efficace. La strategia coinvolge diverse aree della sicurezza, tra cui il Security Workbench, le operazioni di sicurezza e la console di sicurezza cloud.
Complessivamente, Potti ha sottolineato la volontà di Google di integrare l’intelligenza artificiale e le competenze per migliorare la sicurezza su diverse dimensioni all’interno di Google Cloud. Questa presentazione mira a fornire un approccio strutturato per proteggere e sfruttare l’intelligenza artificiale nel contesto della sicurezza.
Google ha abbracciato il concetto di “audace e responsabile” fin dall’inizio del 2023, con i suoi dirigenti che non hanno esitato a parlare dell’intelligenza artificiale generativa. Questo nuovo mantra è stato ripetuto in tutte le conferenze, da Mountain View a Bangalore. Durante l’evento I/O, è stata persino creata una sorta di gioco: prendere un sorso ogni volta che veniva menzionata l’idea di “IA responsabile”. Questo approccio è stato adottato anche all’evento I/O Connect a Bangalore, dimostrando l’impegno di Google nel promuovere un utilizzo etico dell’intelligenza artificiale.
Tuttavia, nonostante l’azienda cerchi di presentarsi come “non malvagia”, diversi segnali di allarme sono stati sollevati dai ricercatori di Google riguardo a questioni interne e comportamenti scorretti. James Manyika, responsabile tecnologico dell’azienda, ha recentemente discusso dei rischi legati all’intelligenza artificiale, evidenziando come questa tecnologia possa riflettere i problemi della società, come la diffusione di disinformazione. Egli ha sottolineato come i problemi potrebbero aumentare con lo sviluppo tecnologico, e durante il suo intervento è stato ironico vedere il mantra “audace e responsabile” lampeggiare sugli schermi del pubblico.
Nel tentativo di consolidare il suo ruolo leader nel campo dell’intelligenza artificiale, Google ha cercato di lanciare nuovi prodotti con meno supervisione. Tuttavia, nonostante l’azienda sostenga che l’etica sia una priorità, le azioni intraprese sembrano talvolta divergere da questa visione. Con l’avanzamento tecnologico, cresce anche il rischio di abusi. Alla luce della storia di Google, che include casi di antitrust e scandali legati al furto di dati, sembra che l’azienda sia disposta a portare avanti l’etichetta “audace e responsabile”.