È innegabile che l’intelligenza artificiale generativa abbia catturato l’attenzione di ogni consiglio di amministrazione e leader aziendale del paese. Ciò che una volta era considerato una tecnologia marginale, difficile da gestire e ancor più da padroneggiare, ora è diventato un elemento centrale grazie a applicazioni come ChatGPT e DALL-E. Stiamo assistendo a una diffusa adozione dell’intelligenza artificiale generativa in tutti i settori e tra tutte le fasce d’età, poiché i dipendenti scoprono come sfruttarla a loro vantaggio.
Un recente sondaggio ha rivelato che il 29% della Gen Z, il 28% della Gen X e il 27% dei Millennial utilizzano strumenti di intelligenza artificiale generativa come parte integrante del loro lavoro quotidiano. Nel 2022, l’adozione su larga scala dell’IA generativa era al 23%, e ci si aspetta che questa cifra raddoppi entro il 2025, raggiungendo il 46%.
L’intelligenza artificiale generativa è una tecnologia emergente ma in rapida evoluzione che sfrutta modelli addestrati per generare contenuti originali in varie forme, tra cui testo, immagini, video, musica e persino codice software. Grazie all’utilizzo di modelli linguistici di grandi dimensioni e vasti set di dati, questa tecnologia è in grado di creare contenuti unici quasi indistinguibili dal lavoro umano e, in molti casi, più precisi e coinvolgenti.
Tuttavia, mentre le aziende abbracciano sempre di più l’intelligenza artificiale generativa per migliorare le loro operazioni quotidiane, il ritmo di adozione e la mancanza di regolamentazione sollevano importanti preoccupazioni in materia di sicurezza informatica e conformità normativa.
Un sondaggio condotto su un campione rappresentativo ha rivelato che oltre l’80% delle persone è preoccupato per i rischi per la sicurezza associati a ChatGPT e all’intelligenza artificiale generativa, e il 52% desidera che lo sviluppo dell’IA generativa venga temporaneamente sospeso per consentire la creazione di normative adeguate. Questo sentimento è condiviso anche dalle aziende, con il 65% dei leader IT senior che non è disposto a trascurare i problemi di sicurezza derivanti da un facile accesso agli strumenti di intelligenza artificiale generativa.
Gli strumenti di intelligenza artificiale generativa dipendono dai dati. I modelli utilizzati da ChatGPT e DALL-E vengono addestrati su dati esterni o reperibili gratuitamente su Internet, ma per ottenere risultati ottimali, gli utenti spesso devono condividere dati altamente specifici, compresi dati aziendali sensibili. Questo crea molte incertezze per le imprese, con il rischio di accesso non autorizzato o divulgazione involontaria di informazioni sensibili che è implicito nell’uso di strumenti di intelligenza artificiale generativa disponibili gratuitamente.
Questo rischio, di per sé, non è necessariamente negativo, ma è essenziale affrontarlo in modo adeguato. Ad oggi, non esiste una vera e propria valutazione dell’impatto aziendale derivante dall’uso diffuso di strumenti di intelligenza artificiale generativa, e i quadri legali e normativi globali devono ancora raggiungere una maturità adeguata.
Le autorità regolatorie stanno valutando l’IA generativa in termini di privacy, sicurezza dei dati e integrità delle informazioni generate. Tuttavia, come spesso accade con le tecnologie emergenti, l’ambiente normativo per supportarne l’uso è ancora in fase di sviluppo. Mentre le aziende utilizzano queste tecnologie, è importante prendere sul serio i rischi che possono comportare.
In assenza di regolamentazione, i Chief Information Security Officer (CISO) devono assumersi la responsabilità di gestire l’uso dell’intelligenza artificiale generativa nelle loro organizzazioni. Devono capire chi utilizza la tecnologia e per quali scopi, proteggere le informazioni aziendali quando i dipendenti interagiscono con strumenti di intelligenza artificiale generativa, gestire i rischi per la sicurezza della tecnologia sottostante e bilanciare i compromessi tra sicurezza e vantaggi tecnologici.
Non è un compito facile, ma i CISO possono valutare attentamente il rischio per determinare gli esiti negativi e positivi derivanti dall’uso ufficiale o dall’utilizzo non supervisionato di questa tecnologia. Concentrandosi sulla classificazione e protezione dei dati, piuttosto che sugli strumenti stessi, i CISO avranno maggiori possibilità di mitigare i rischi.
In conclusione, l’intelligenza artificiale generativa offre opportunità di automazione e creatività senza precedenti, ma presenta anche sfide complesse in termini di sicurezza dei dati e di regolamentazione. Mentre l’ambiente normativo è in fase di sviluppo, le aziende devono assumere un approccio proattivo, definendo le proprie politiche e norme per l’uso dell’IA generativa per garantire la protezione dei dati aziendali e la sicurezza informatica complessiva. L’intelligenza artificiale generativa è un’arma a doppio taglio, e l’equilibrio tra vantaggi e rischi dipende dalla capacità delle aziende di gestirlo adeguatamente.