L’IA ha dimostrato di essere una tecnologia a valore aggiunto in tutta l’economia globale.
Mentre le aziende si sono trovate a faticare ad adattarsi agli eventi attuali negli ultimi anni, alcune di loro hanno trovato il modo di stipare il valore di mezzo decennio, nel caso di Frito-Lay, di trasformazioni digitali in un lasso di tempo molto più breve. Harris Poll e Appen hanno scoperto che i budget dell’IA sono aumentati del 55% durante la pandemia globale .
Come ogni strumento, l’intelligenza artificiale non ha un valore morale innato. L’utilità o il potenziale danno dell’IA dipende dal modo in cui il sistema “impara” e da ciò che gli umani alla fine ne fanno.
Alcuni tentativi di sfruttare l’IA, come “prevedere” il crimine prima che accada, mostrano che i modelli addestrati su dati distorti tendono a replicare le carenze umane. Finora, la formazione dell’IA utilizzando i dati del sistema giudiziario statunitense ha portato a ragionamenti sull’IA tragicamente pregiudicati .
In altri esempi, gli esseri umani scelgono modi più deliberati per sfruttare il potenziale distruttivo dell’IA. Gli hacker stanno dimostrando ancora una volta le loro tendenze innovative utilizzando l’intelligenza artificiale per migliorare la portata, l’efficacia e la redditività dei loro attacchi. E man mano che la guerra informatica diventa sempre più comune in tutto il mondo, vedremo sicuramente le applicazioni dell’IA nell’hacking svilupparsi ulteriormente.
L’IA è un’opportunità e un rischio
L’intelligenza artificiale offre un mondo di possibilità per le aziende che desiderano migliorare le strategie di previsione, ottimizzazione aziendale e fidelizzazione dei clienti. È anche una manna per coloro che intendono compromettere la sovranità digitale degli altri.
Ecco alcuni modi in cui l’intelligenza artificiale può essere suscettibile di manomissioni discrete e sforzi più evidenti per trasformarla in azioni aggressive.
1. Compromissione della logica della macchina
Il principale vantaggio dell’IA per i consumatori e le imprese commerciali è che esegue atti logici prevedibili e ripetibili senza l’interferenza umana. Questa è anche la sua più grande debolezza.
Come qualsiasi altro costrutto digitale, l’IA può essere suscettibile alla penetrazione di forze esterne. Gli hacker che accedono e compromettono la logica della macchina che alimenta l’IA potrebbero causare azioni imprevedibili o dannose. Ad esempio, un’IA incaricata del monitoraggio delle condizioni industriali potrebbe fornire letture errate o lasciare che i ping di manutenzione non vengano consegnati.
Poiché lo scopo principale degli investimenti nell’IA è eliminare l’intervento umano e l’ipotesi di risultati secondari, il danno all’infrastruttura o alla qualità del prodotto causato da un attacco di questa natura potrebbe non essere notato fino a un fallimento catastrofico.
2. Utilizzo di algoritmi di reverse engineering
Un’altra potenziale via di danno, soprattutto per quanto riguarda la proprietà intellettuale (PI) ei dati dei consumatori o commerciali, è la nozione di reverse engineering. Gli hacker possono persino rubare il codice di intelligenza artificiale stesso. Con il tempo sufficiente per studiare come funziona, potrebbero eventualmente scoprire i set di dati utilizzati per addestrare l’IA in primo luogo.
Ciò potrebbe provocare diversi risultati, il primo dei quali è l’avvelenamento da IA. Altri esempi potrebbero riguardare gli hacker che sfruttano i dati di formazione dell’IA stessi per raccogliere informazioni compromettenti su mercati, concorrenti, governi, fornitori o consumatori in generale.
3. Imparare sugli obiettivi previsti
La sorveglianza degli obiettivi è probabilmente una delle implicazioni più inquietanti dell’intelligenza artificiale che cade nelle mani degli hacker. La capacità dell’IA di trarre conclusioni sulle capacità, sulle aree di conoscenza, sul temperamento e sulla probabilità di cadere vittima di bersagli, frodi o abusi di una persona si sta rivelando particolarmente preoccupante per alcuni esperti di sicurezza informatica.
L’intelligenza artificiale può acquisire e raggiungere conclusioni sorprendentemente dettagliate su persone, team e gruppi sulla base di alcuni dei punti dati più improbabili. Un individuo “fidanzato” o “distratto” potrebbe digitare rapidamente, agitarsi con il mouse o spostarsi rapidamente tra le schede del browser. Un utente “confuso” o “titubante” può fare una pausa prima di fare clic sugli elementi della pagina o visitare più siti.
Nelle mani giuste, segnali come questi aiutano i dipartimenti delle risorse umane ad aumentare il coinvolgimento dei dipendenti o aiutano i team di marketing a perfezionare i loro siti Web e le canalizzazioni di vendita.
Per gli hacker, segnali come questi potrebbero risultare in un profilo psicologico sorprendentemente sfumato di un obiettivo previsto. I criminali informatici potrebbero essere in grado di dire sulla base di indizi invisibili agli esseri umani quali persone potrebbero essere vulnerabili a phishing, smishing, ransomware, frode finanziaria e altri tipi di danni. Potrebbe anche aiutare i cattivi attori a imparare come convincere al meglio i loro obiettivi che i loro tentativi di frode provengono da fonti legittime.
4. Sondare le vulnerabilità della rete
I professionisti della sicurezza informatica hanno pubblicato dati su 20.175 vulnerabilità di sicurezza note nel 2021 . È stato un aumento rispetto al 2020, quando c’erano 17.049 vulnerabilità di questo tipo.
Il mondo diventa sempre più interconnesso digitalmente – alcuni direbbero interdipendente – di ora in ora. Il mondo ora ospita un numero vertiginoso di reti industriali e su piccola scala, con miliardi di dispositivi connessi online e altri in arrivo. Tutto è online, dai sensori di monitoraggio delle condizioni al software di pianificazione aziendale.
L’intelligenza artificiale mostra risultati promettenti nell’aiutare i team di sicurezza informatica a sondare rapidamente le vulnerabilità di rete, software e hardware più velocemente di quanto potrebbero fare gli umani da soli. La velocità e la portata della crescita dell’infrastruttura digitale terrestre significano che è quasi impossibile cercare trilioni di righe di codice per gli exploit di sicurezza da correggere. Tutto questo deve avvenire mentre questi sistemi sono online a causa del costo dei tempi di fermo.
Se l’IA è uno strumento di sicurezza informatica qui, è anche un’arma a doppio taglio. Gli hacker possono utilizzare gli stessi meccanismi della folla IT “white hat” per svolgere lo stesso lavoro: sondare reti, software e firmware per le vulnerabilità in modo più efficiente di quanto possano fare gli specialisti IT umani.
Una corsa agli armamenti digitali
Ci sono troppe applicazioni di intelligenza artificiale nella criminalità informatica per nominarle tutte, ma eccone alcune in più:
Gli hacker potrebbero nascondere il codice AI all’interno di un’applicazione altrimenti benigna che esegue un comportamento dannoso quando rileva un trigger o una soglia predeterminati.
I modelli di intelligenza artificiale dannosi possono essere utilizzati per determinare le credenziali o le funzionalità di gestione IT monitorando l’input biometrico , come impronte digitali e riconoscimento vocale.
Anche se un tentativo di attacco informatico alla fine fallisce, gli hacker dotati di intelligenza artificiale potrebbero essere in grado di utilizzare l’apprendimento automatico per determinare cosa è andato storto e cosa potrebbero fare diversamente la prossima volta.
Sembrava che ci volesse solo una storia ben piazzata sull’hacking di una jeep mentre sta guidando per rallentare lo sviluppo di veicoli autonomi a passo d’uomo. Un hack di alto profilo in cui l’IA funge da fulcro potrebbe causare un’erosione simile nell’opinione pubblica. Alcuni sondaggi mostrano che l’americano medio è già molto dubbioso sui vantaggi dell’IA .
L’informatica onnipresente comporta rischi per la sicurezza informatica, e gli hacker white hat e black hat lo sanno. L’intelligenza artificiale può aiutare a proteggere la nostra vita online, ma è anche l’epicentro di una nuova corsa agli armamenti digitali.
Da Unite.ai