PWC mette in evidenza  

ChatGPT e l’IA generativa sono una benedizione o una maledizione per i team di sicurezza? Sebbene la capacità dell’intelligenza artificiale (AI) di generare codice dannoso ed e-mail di phishing presenti nuove sfide per le organizzazioni, ha anche aperto la porta a una serie di casi d’uso difensivi, dal rilevamento delle minacce e la guida alla risoluzione, alla protezione di Kubernetes e degli ambienti cloud . 

Nel complesso, gli analisti erano ottimisti sul fatto che i casi d’uso difensivi aumenteranno per combattere gli usi dannosi dell’IA a lungo termine. Le previsioni su come l’IA generativa avrà un impatto sulla sicurezza informatica in futuro includono: 


Utilizzo dannoso dell’IA 
La necessità di proteggere la formazione e l’output dell’IA 
Impostazione delle politiche di utilizzo dell’IA generativa 
Modernizzazione del controllo della sicurezza 
Maggiore attenzione all’igiene dei dati e alla valutazione dei bias 
Stare al passo con l’espansione dei rischi e padroneggiare le nozioni di base 
Creare nuovi posti di lavoro e responsabilità 
Sfruttare l’intelligenza artificiale per ottimizzare gli investimenti informatici 
Miglioramento dell’intelligence sulle minacce 
Prevenzione delle minacce e gestione del rischio di conformità 
Implementazione di una strategia di fiducia digitale 
Di seguito è riportata una trascrizione modificata delle loro risposte.   

1. Utilizzo dannoso dell’IA 
“Siamo a un punto di svolta quando si tratta del modo in cui possiamo sfruttare l’IA e questo cambio di paradigma ha un impatto su tutti e su tutto. Quando l’intelligenza artificiale è nelle mani di cittadini e consumatori, possono accadere grandi cose. 

“Allo stesso tempo, può essere utilizzato da attori malintenzionati per scopi nefasti, come malware e sofisticate e-mail di phishing. 

“Date le molte incognite sulle capacità e il potenziale futuri dell’IA, è fondamentale che le organizzazioni sviluppino processi solidi per costruire la resilienza contro gli attacchi informatici.

“C’è anche la necessità di una regolamentazione sostenuta da valori sociali che prevedano che questa tecnologia venga utilizzata in modo etico. Nel frattempo, dobbiamo diventare utenti intelligenti di questo strumento e considerare quali misure di salvaguardia sono necessarie affinché l’IA fornisca il massimo valore riducendo al minimo i rischi”. 

Sean Joyce, leader globale della sicurezza informatica e della privacy, leader statunitense in materia di cyber, rischio e regolamentazione, PwC US 

2. La necessità di proteggere la formazione e l’output dell’IA 
“Ora che l’IA generativa ha raggiunto un punto in cui può aiutare le aziende a trasformare il proprio business, è importante che i leader lavorino con aziende con una profonda conoscenza di come affrontare le crescenti considerazioni sulla sicurezza e sulla privacy. 

“Il motivo è duplice. In primo luogo, le aziende devono proteggere il modo in cui addestrano l’intelligenza artificiale poiché la conoscenza unica che acquisiscono dalla messa a punto dei modelli sarà fondamentale per il modo in cui gestiscono la loro attività, forniscono prodotti e servizi migliori e interagiscono con i propri dipendenti, clienti ed ecosistema. 

“In secondo luogo, le aziende devono anche proteggere i prompt e le risposte che ottengono da una soluzione di intelligenza artificiale generativa, poiché riflettono ciò che i clienti e i dipendenti dell’azienda stanno facendo con la tecnologia”. 

Mohamed Kande, vicepresidente — Co-leader delle soluzioni di consulenza negli Stati Uniti e leader della consulenza globale, PwC US 

3. Impostazione delle politiche di utilizzo dell’IA generativa 
“Molti dei casi d’uso aziendali interessanti emergono quando si considera che è possibile addestrare (perfezionare) ulteriormente i modelli di intelligenza artificiale generativa con i propri contenuti, documentazione e risorse in modo che possano operare sulle capacità uniche della propria azienda, nel proprio contesto. In questo modo, un’azienda può estendere l’IA generativa nei modi in cui lavora con la propria proprietà intellettuale e conoscenza univoche. 

“È qui che la sicurezza e la privacy diventano importanti. Per un’azienda, i modi in cui inviti l’IA generativa a generare contenuti dovrebbero essere privati ​​per la tua azienda. Fortunatamente, la maggior parte delle piattaforme di intelligenza artificiale generativa lo ha considerato fin dall’inizio e sono progettate per consentire la sicurezza e la privacy di prompt, output e messa a punto dei contenuti. 

“Tuttavia, ora tutti gli utenti lo capiscono. Pertanto, è importante per qualsiasi azienda stabilire politiche per l’uso dell’IA generativa per evitare che dati riservati e privati ​​entrino nei sistemi pubblici e stabilire ambienti sicuri e protetti per l’IA generativa all’interno della propria attività”.

Bret Greenstein, partner, dati, analisi e AI, PwC US 

4. Modernizzare il controllo della sicurezza 
“L’utilizzo dell’IA generativa per innovare l’audit ha possibilità incredibili! L’IA generativa sofisticata ha la capacità di creare risposte che tengono conto di determinate situazioni pur essendo scritte in un linguaggio semplice e di facile comprensione. 

“Ciò che questa tecnologia offre è un unico punto di accesso alle informazioni e alla guida, supportando anche l’automazione dei documenti e l’analisi dei dati in risposta a query specifiche — ed è efficiente. Questo è un vantaggio per tutti. 

“Non è difficile capire come una tale capacità possa fornire un’esperienza significativamente migliore per il nostro personale. Inoltre, un’esperienza migliore per il nostro personale offre un’esperienza migliore anche per i nostri clienti”. 

Kathryn Kaminsky, vicepresidente, co-leader delle soluzioni fiduciarie statunitensi 

5. Maggiore attenzione all’igiene dei dati e alla valutazione dei bias 
“Qualsiasi immissione di dati in un sistema di intelligenza artificiale è a rischio di potenziale furto o uso improprio. Per iniziare, l’identificazione dei dati appropriati da inserire nel sistema contribuirà a ridurre il rischio di perdita di informazioni riservate e private a causa di un attacco. 

“Inoltre, è importante esercitare un’adeguata raccolta dei dati per sviluppare prompt dettagliati e mirati che vengono inseriti nel sistema, in modo da poter ottenere risultati più preziosi. 

“Una volta che hai i tuoi risultati, rivedili con un pettine a denti fini per eventuali pregiudizi intrinseci all’interno del sistema. Per questo processo, coinvolgere un team eterogeneo di professionisti per aiutare a valutare eventuali pregiudizi. 

“A differenza di una soluzione codificata o con script, l’IA generativa si basa su modelli addestrati e pertanto le risposte che forniscono non sono prevedibili al 100%. L’output più affidabile dell’IA generativa richiede la collaborazione tra la tecnologia dietro le quinte e le persone che la sfruttano”.

Jacky Wagner, preside, sicurezza informatica, rischio e regolamentazione, PwC US 

6. Tenere il passo con l’espansione dei rischi e padroneggiare le nozioni di base 
“Ora che l’IA generativa sta raggiungendo un’adozione su larga scala, l’implementazione di solide misure di sicurezza è un must per proteggersi dagli attori delle minacce. Le capacità di questa tecnologia consentono ai criminali informatici di creare deep fake ed eseguire più facilmente attacchi di malware e ransomware e le aziende devono prepararsi a queste sfide. 

“Le misure informatiche più efficaci continuano a ricevere meno attenzione: tenendo il passo con l’igiene informatica di base e condensando i sistemi legacy tentacolari, le aziende possono ridurre la superficie di attacco per i criminali informatici. 

“Il consolidamento degli ambienti operativi può ridurre i costi, consentendo alle aziende di massimizzare l’efficienza e concentrarsi sul miglioramento delle misure di sicurezza informatica”. 

Joe Nocera, partner leader di PwC, marketing informatico, di rischio e normativo 

7. Creare nuovi posti di lavoro e responsabilità 
“Nel complesso, suggerirei alle aziende di prendere in considerazione l’adozione dell’IA generativa invece di creare firewall e resistere, ma con le opportune tutele e mitigazioni del rischio in atto. L’IA generativa ha un potenziale davvero interessante per come viene svolto il lavoro; può effettivamente aiutare a liberare tempo per l’analisi umana e la creatività. 

“L’emergere dell’IA generativa potrebbe potenzialmente portare a nuovi posti di lavoro e responsabilità legate alla tecnologia stessa e crea la responsabilità di garantire che l’IA venga utilizzata in modo etico e responsabile. 

“Richiede inoltre ai dipendenti che utilizzano queste informazioni di sviluppare una nuova abilità: essere in grado di valutare e identificare se il contenuto creato è accurato. 

“Proprio come si usa una calcolatrice per svolgere semplici attività legate alla matematica, ci sono ancora molte abilità umane che dovranno essere applicate nell’uso quotidiano dell’IA generativa, come il pensiero critico e la personalizzazione per uno scopo – in per sbloccare tutta la potenza dell’IA generativa. 

“Quindi, mentre in superficie può sembrare una minaccia nella sua capacità di automatizzare le attività manuali, può anche sbloccare la creatività e fornire assistenza, miglioramento delle competenze e opportunità di trattamento per aiutare le persone a eccellere nel proprio lavoro”.

Julia Lamm, partner per la strategia della forza lavoro, PwC US 

8. Sfruttare l’intelligenza artificiale per ottimizzare gli investimenti informatici 
“Anche in mezzo all’incertezza economica, le aziende non stanno attivamente cercando di ridurre la spesa per la sicurezza informatica nel 2023; tuttavia, i CISO devono essere parsimoniosi nelle loro decisioni di investimento. 

“Stanno affrontando pressioni per fare di più con meno, il che li porta a investire in una tecnologia che sostituisce i processi di prevenzione e mitigazione dei rischi eccessivamente manuali con alternative automatizzate. 

“Sebbene l’IA generativa non sia perfetta, è molto veloce, produttiva e coerente, con competenze in rapido miglioramento. Implementando la giusta tecnologia di rischio, come i meccanismi di apprendimento automatico progettati per una maggiore copertura e rilevamento dei rischi, le organizzazioni possono risparmiare denaro, tempo e numero di dipendenti e sono maggiormente in grado di navigare e resistere a qualsiasi incertezza che li attende”. 

Elizabeth McNichol, leader delle soluzioni tecnologiche aziendali, cyber, rischio e regolamentazione, PwC US 

9. Migliorare l’intelligence sulle minacce 
“Mentre le aziende che rilasciano funzionalità di intelligenza artificiale generativa si concentrano sulle protezioni per impedire la creazione e la distribuzione di malware, disinformazione o disinformazione , dobbiamo presumere che l’IA generativa verrà utilizzata da malintenzionati per questi scopi e stare al passo con queste considerazioni. 

“Nel 2023, ci aspettiamo di vedere ulteriori miglioramenti nell’intelligence sulle minacce e in altre capacità difensive per sfruttare l’IA generativa per sempre. L’intelligenza artificiale generativa consentirà progressi radicali nell’efficienza e nelle decisioni sulla fiducia in tempo reale; ad esempio, formando conclusioni in tempo reale sull’accesso a sistemi e informazioni con un livello di sicurezza molto più elevato rispetto ai modelli di accesso e identità attualmente utilizzati. 

“È certo che l’IA generativa avrà implicazioni di vasta portata su come opera ogni settore e azienda all’interno di quel settore; PwC ritiene che questi progressi collettivi continueranno ad essere guidati dall’uomo e alimentati dalla tecnologia, con il 2023 che mostra i progressi più accelerati che stabiliscono la direzione per i decenni a venire.

Matt Hobbs, responsabile della pratica Microsoft, PwC USA 

10. Prevenzione delle minacce e gestione del rischio di conformità
“Mentre il panorama delle minacce continua ad evolversi, il settore sanitario, un settore ricco di informazioni personali, continua a trovarsi nel mirino degli attori delle minacce. 

“I dirigenti del settore sanitario stanno aumentando i loro budget informatici e investendo in tecnologie di automazione che possono non solo aiutare a prevenire gli attacchi informatici, ma anche gestire i rischi di conformità, proteggere meglio i dati dei pazienti e del personale, ridurre i costi sanitari, eliminare le inefficienze dei processi e molto altro. 

“Mentre l’IA generativa continua ad evolversi, anche i rischi e le opportunità associati per proteggere i sistemi sanitari, sottolineando l’importanza per l’industria sanitaria di abbracciare questa nuova tecnologia, costruendo contemporaneamente le loro difese informatiche e la loro resilienza”.

Tiffany Gallagher, responsabile del rischio e della regolamentazione delle industrie sanitarie, PwC US 

11. Attuazione di una strategia di fiducia digitale 
“La velocità dell’innovazione tecnologica, come l’IA generativa, combinata con un mosaico in evoluzione di regolamentazione e l’erosione della fiducia nelle istituzioni richiede un approccio più strategico. 

“Perseguendo una strategia di fiducia digitale, le organizzazioni possono armonizzare meglio le funzioni tradizionalmente isolate come la sicurezza informatica, la privacy e la governance dei dati in un modo che consenta loro di anticipare i rischi sbloccando allo stesso tempo valore per l’azienda. 

“In sostanza, un framework di fiducia digitale identifica soluzioni al di là della conformità, dando invece priorità alla fiducia e allo scambio di valore tra organizzazioni e clienti”. 

Toby Spry, preside, rischio dati e privacy, PwC US 

Di ihal