Gli esperti di intelligenza artificiale classificano i deepfake e altri 19 crimini basati sull’intelligenza artificiale in base al livello di pericolo
Un nuovo rapporto pubblicato dall’University College di Londra mirava a identificare i molti modi diversi in cui l’intelligenza artificiale potrebbe potenzialmente aiutare i criminali nei prossimi 15 anni. Il rapporto aveva 31 diversi esperti di intelligenza artificiale che adottano 20 diversi metodi di utilizzo dell’IA per eseguire crimini e classificano questi metodi in base a vari fattori. Gli esperti di intelligenza artificiale hanno classificato i crimini in base a variabili come quanto sarebbe facile commettere il crimine, il potenziale danno sociale che il crimine potrebbe causare, la quantità di denaro che un criminale potrebbe fare e quanto sarebbe difficile fermarlo. Secondo i risultati del rapporto, Deepfakes rappresentava la più grande minaccia per i cittadini rispettosi della legge e per la società in generale, poiché il loro potenziale di sfruttamento da parte di criminali e terroristi è elevato.
Gli esperti di intelligenza artificiale hanno classificato i deepfake in cima alla lista delle potenziali minacce di intelligenza artificiale perché i deepfake sono difficili da identificare e contrastare. I deepfake migliorano costantemente nell’ingannare anche gli occhi degli esperti di deepfake e anche altri metodi basati sull’intelligenza artificiale per rilevare i deepfake sono spesso inaffidabili. In termini di capacità di nuocere, i deepfake possono essere facilmente utilizzati da cattivi attori per screditare figure affidabili ed esperte o per tentare di truffare le persone fingendosi persone care o altre persone fidate. Se i deepfake sono abbondanti, le persone potrebbero iniziare a perdere la fiducia in qualsiasi supporto audio o video, il che potrebbe far loro perdere la fiducia nella validità di eventi e fatti reali.
Il dottor Matthew Caldwell, dell’UCL Computer Science, è stato il primo autore dell’articolo. Caldwell sottolinea il crescente pericolo dei deepfake poiché sempre più della nostra attività si sposta online. Come Caldwell è stato citato da UCL News:
“A differenza di molti crimini tradizionali, i crimini nel regno digitale possono essere facilmente condivisi, ripetuti e persino venduti, consentendo la commercializzazione delle tecniche criminali e la fornitura del crimine come servizio. Ciò significa che i criminali potrebbero essere in grado di esternalizzare gli aspetti più impegnativi del loro crimine basato sull’intelligenza artificiale “.
Il team di esperti ha classificato altre cinque tecnologie di intelligenza artificiale emergenti come potenziali catalizzatori di nuovi tipi di criminalità: veicoli senza conducente utilizzati come armi, attacchi hacker su sistemi e dispositivi controllati dall’intelligenza artificiale, raccolta di dati online a scopo di ricatto, basata sull’intelligenza artificiale. phishing con messaggi personalizzati e fake news / disinformazione in generale.
Secondo Shane Johnson , direttore del Dawes Center for Future Crimes presso l’UCL, l’obiettivo dello studio era identificare le possibili minacce associate alle nuove tecnologie emergenti e ipotizzare modi per anticipare queste minacce. Johnson afferma che con l’aumentare della velocità del cambiamento tecnologico, è imperativo che “anticipiamo le future minacce di criminalità in modo che i responsabili politici e le altre parti interessate con la competenza per agire possano farlo prima che si verifichino nuovi” raccolti criminali “”.
Per quanto riguarda gli altri quattordici possibili crimini nell’elenco, sono stati classificati in una delle due categorie: preoccupazione moderata e preoccupazione bassa.
I crimini di moderata preoccupazione dell’intelligenza artificiale includono l’uso improprio di robot militari, avvelenamento dei dati, droni di attacco automatizzati, attacchi informatici basati sull’apprendimento, attacchi denial of service per attività online, manipolazione dei mercati finanziari / azionari, olio di serpente (vendita di servizi fraudolenti occultati in AI / ML terminologia) e il riconoscimento facciale ingannevole.
I crimini basati sull’intelligenza artificiale a bassa preoccupazione includono la falsificazione di arte o musica, lo stalking assistito dall’intelligenza artificiale, le recensioni false scritte dall’intelligenza artificiale, l’elusione dei metodi di rilevamento dell’IA e i “robot ladri” (robot che irrompono nelle case delle persone per rubare cose).
Ovviamente, gli stessi modelli di IA possono essere utilizzati per aiutare a combattere alcuni di questi crimini. Di recente, sono stati implementati modelli di intelligenza artificiale per aiutare a rilevare schemi di riciclaggio di denaro , rilevando transazioni finanziarie sospette. I risultati vengono analizzati da operatori umani che quindi approvano o negano l’avviso e il feedback viene utilizzato per addestrare meglio il modello. Sembra probabile che il futuro comporterà che le IA si contrappongono l’una all’altra, con i criminali che cercano di progettare i loro migliori strumenti e sicurezza assistiti dall’intelligenza artificiale, forze dell’ordine e altri progettisti di IA etici che cercano di progettare i propri migliori sistemi di IA.