Home / Archive by category "Intelligenza artificiale pericolo"

Intelligenza artificiale pericolo

I deepfake negli attacchi informatici sono arrivati

I deepfake negli attacchi informatici non stanno arrivando. Sono già qui.   A marzo, l' FBI ha pubblicato un rapporto in cui dichiarava che gli attori malintenzionati quasi sicuramente sfrutteranno il "contenuto sintetico" per le operazioni di influenza informatica e straniera nei prossimi 12-18 mesi. Questo contenuto sintetico include deepfake , audio o video interamente creati o alterati dall'intelligenza artificiale o dall'apprendimento automatico per travisare in modo convincente qualcuno che fa o dice qualcosa che non è stato effettivamente fatto o detto. Abbiamo tutti sentito la storia del CEO la cui voce è stata imitata in modo abbastanza convincente da avviare un bonifico di 243.000 dollari. Ora, le costanti riunioni Zoom dell'era della forza lavoro ovunque hanno creato una grande quantità di dati audio e video che possono essere inseriti in un sistema di apprendimento automatico per creare un duplicato convincente. E gli aggressori ne hanno preso atto. La tecnologia Deepfake ha visto un drastico aumento nel dark web e sicuramente si stanno verificando attacchi.  Nel mio ruolo, lavoro a stretto contatto con i team di risposta agli incidenti e all'inizio di questo mese ho parlato con diversi CISO di importanti aziende globali dell'aumento della tecnologia deepfake di cui hanno assistito. Ecco le loro principali preoccupazioni. Dark web tutorialsFuturo registrato, una società di risposta agli incidenti, ha osservato che gli attori delle minacce si sono rivolti al dark web per offrire servizi e tutorial personalizzati che incorporano tecnologie deepfake visive e audio progettate per aggirare e sconfiggere le misure di sicurezza. Proprio come il ransomware si è evoluto in modelli ransomware-as-a-service (RaaS), stiamo vedendo che i deepfake fanno lo stesso. Questa informazione di Recorded Future dimostra come gli aggressori stiano facendo un passo avanti rispetto alle operazioni di influenza alimentate da deepfake di cui l'FBI ha avvertito all'inizio di quest'an...
Continua a Leggere

Il futuro della democrazia americana dipende dall’Intelligenza artificiale AI etica 

  All'inizio di quest'estate, la Task Force National Artificial Intelligence Research Resource (NAIRR) ha rilasciato una richiesta di informazioni (RFI) su come costruire una roadmap di implementazione per un'infrastruttura di ricerca IA condivisa. Insieme alle richieste di idee su come possedere e implementare questa agenda, ha richiesto indicazioni su come garantire al meglio la protezione della privacy, delle libertà civili e dei diritti civili in futuro. Per raggiungere questo obiettivo, le risorse per l'istruzione e la formazione al ragionamento etico basate sui valori devono essere al centro della strategia della Task Force. Qual è la posta in giocoL'approvazione da parte del Congresso del National Defense Authorization Act for Fiscal 2021 che dirige la Casa Bianca Biden per creare la Task Force NAIRR potrebbe essere consequenziale agli ideali democratici dell'America come numerose guerre, politiche e movimenti per i diritti civili nel nostro passato.  Sebbene i primi annunci pubblici della Task Force NAIRR non si riferiscano esplicitamente a governi stranieri, non commettere errori che la competizione geopolitica con Cina, Russia e altri stati-nazione incombe sull'urgenza della sua missione. Dopo il Progetto Manhattan e la corsa allo sviluppo della bomba atomica, una tecnologia non è stata così importante nel suo potenziale per rimodellare l'equilibrio di potere tra la democrazia occidentale e ciò che l'Institute for Human-Centered Artificial Intelligence di Stanford chiama " autoritarismo digitale ". Simile alla corsa agli armamenti nucleari, il percorso intrapreso dagli Stati Uniti nello sviluppo e nell'implementazione di questa tecnologia determinerà l'ambito della libertà e della qualità della vita per miliardi di persone sulla Terra. La posta in gioco è così alta. I precedenti parlano chiaro Sebbene la data di consegna dichiarata per il rapporto e la tabella di marcia della NAIRR Task Force non sia fino a novembre 2022, è importante tenere presente che g...
Continua a Leggere

L’intelligenza artificiale AI più diventa spiegabile, più facile diventa eludere le funzionalità vitali della privacy nei sistemi di apprendimento automatico

 L'intelligenza artificiale spiegabile può cedere i dati riservati più facilmente I ricercatori della National University of Singapore hanno concluso che più l'intelligenza artificiale diventa spiegabile, più facile diventerà eludere le funzionalità vitali della privacy nei sistemi di apprendimento automatico . Hanno anche scoperto che anche quando un modello non è spiegabile, è possibile utilizzare spiegazioni di modelli simili per "decodificare" dati sensibili nel modello non spiegabile. La ricerca , intitolata Exploiting Explanations for Model Inversion Attacks , evidenzia i rischi derivanti dall'utilizzo dell'opacità "accidentale" del modo in cui le reti neurali funzionano come se si trattasse di una caratteristica di sicurezza predefinita, non da ultimo perché un'ondata di nuove iniziative globali, tra cui il La bozza di regolamento sull'IA dell'Unione Europea sta caratterizzando l' IA spiegabile (XAI) come un prerequisito per l'eventuale normalizzazione dell'apprendimento automatico nella società. Nella ricerca, un'identità reale viene ricostruita con successo da dati presumibilmente anonimi relativi alle espressioni facciali, attraverso lo sfruttamento di molteplici spiegazioni del sistema di apprendimento automatico. Fonte: https://arxiv.org/pdf/2108.10800.pdfI ricercatori commentano: "L'intelligenza artificiale esplicabile (XAI) fornisce più informazioni per aiutare gli utenti a comprendere le decisioni del modello, ma questa conoscenza aggiuntiva espone ulteriori rischi per gli attacchi alla privacy. Quindi, fornire spiegazioni danneggia la privacy.' Ri-identificazione dei dati privatiI partecipanti ai set di dati di machine learning potrebbero aver acconsentito a essere inclusi assumendo l'anonimato; nel caso di informazioni di identificazione personale (PII) che finiscono nei sistemi di intelligenza artificiale tramite la raccolta di dati ad hoc (ad esempio, attraverso i social network), la partecipazione può essere tecnicamente legale, ma mette a dura p...
Continua a Leggere

DoubleVerify: la frode video delle app mobili è esplosa del 50% nell’ultimo anno

Le frodi pubblicitarie sulle applicazioni mobili sono esplose del 50% nell'ultimo anno, secondo un nuovo rapporto della società di misurazione e dati dei media DoubleVerify. Le cifre sono una delle numerose statistiche illuminanti sullo stato attuale della qualità e delle prestazioni dei media sul Web.   La pubblicità mobile è un settore caldo, con Emarketer che  prevede che la spesa pubblicitaria mobile supererà i 156 miliardi di dollari a livello globale entro il 2023. Il consumo di dispositivi mobili in tutto il mondo è aumentato vertiginosamente, in parte a causa delle persone che restano a casa durante la pandemia di coronavirus. Anche con una popolazione vaccinata in crescita e l'allentamento delle regole di blocco, le persone stanno ancora in casa e trasmettono video, giocano e fanno acquisti online utilizzando le app mobili. Di conseguenza, gli inserzionisti stanno investendo denaro nella pubblicità mobile e i truffatori si stanno muovendo con i loro clic e traffico falsi per sottrarre parte di quei dollari pubblicitari.  Sebbene il volume globale delle frodi sia rimasto complessivamente stabile (i tassi di frode post-offerta/traffico non valido sofisticato [SIVT] sono diminuiti dal 2% all'1,4% e il volume complessivo non è cambiato di anno in anno), le sacche di frode continuano ad affliggere il settore , DoubleVerify ha trovato nel suo Global Insights Report annuale. Un esempio sono le truffe che prendono di mira i video sulle app mobili. Le frodi pubblicitarie in streaming sono diventate un grosso problema, con DoubleVerify che rileva oltre 500.000 dispositivi TV collegati (CTV) falsi, dispositivi di gioco e console di streaming, al giorno. Anche i truffatori stanno cambiando tattica. L'anno scorso, le frodi bot hanno rappresentato il 78% delle violazioni di frode/SIVT su CTV. Mentre le violazioni delle frodi dei bot su CTV rimangono il tipo più comune di frode CTV, il traffico dei data center è un problema crescente. Il traffico del datacenter è un tipo ...
Continua a Leggere

Un Rapporto Rivela che in USA c’è una totale mancanza di supervisione da parte delle agenzie federali sull’uso del software di riconoscimento facciale acquistato da fornitori di terze parti. 

Tutto sbagliato con i software di riconoscimento facciale Un rapporto del GAO accende un nuovo dibattito sulla supervisione e l'uso della tecnologia di riconoscimento facciale Iprogrammi di intelligenza artificiale richiedono una supervisione? Un nuovo dibattito ha acceso dopo la pubblicazione di un rapporto del Government Accountability Office degli Stati Uniti. Rivela una totale mancanza di supervisione da parte delle agenzie federali sull'uso del software di riconoscimento facciale acquistato da fornitori di terze parti.  Il rapporto analizza in dettaglio i software utilizzati dalle agenzie federali e i dataset su cui sono formati. Venti agenzie hanno ammesso di utilizzare software di riconoscimento facciale in qualche forma senza supervisione e si sono principalmente affidate a database di immagini gestiti dal Dipartimento della Difesa e dal Dipartimento della Sicurezza Nazionale.    Queste tecnologie sono state utilizzate di recente per identificare persone su vasta scala, come i manifestanti del movimento Black Lives l'anno scorso e i rivoltosi dell'attacco a Capitol Hill quest'anno. Menziona che le agenzie non avevano idea del software che usavano o con cui avevano familiarità. Ciò amplifica i rischi per la privacy e la sicurezza inerenti all'uso di tali tecnologie.  Necessità di responsabilità e supervisioneI sistemi di riconoscimento facciale non sono accurati nel mondo reale. Può essere accurato in condizioni non vincolate, ma identificare le persone dalle telecamere stradali non è l'ideale. Il software è noto per commettere errori e identificare le persone sbagliate. Sono più inaffidabili e di parte razziale di quanto temessimo. Ad esempio, Rekognition di Amazon una volta ha identificato Oprah Winfrey come un uomo. Un altro software di riconoscimento facciale ha abbinato le immagini di 26 membri del Congresso degli Stati Uniti con una foto segnaletica di un criminale.  Un rapporto del National Institute of Standards and Technology ha trovato prove empiric...
Continua a Leggere

L’AI l’intelligenza artificiale consuma troppa energia ?

L'IA ha un problema di emissioni: è risolvibile? Il consumo totale di elettricità delle tecnologie dell'informazione e della comunicazione (TIC) rappresenterebbe il 20% della domanda globale di elettricità entro il 2030. Secondo la stima di Google Voli, un viaggio di andata e ritorno di un aereo passeggeri a pieno carico tra San Francisco e New York rilascerebbe 180 tonnellate di anidride carbonica equivalente (CO2e). Nel frattempo, le emissioni di addestramento del modello linguistico T5 da 11 miliardi di parametri di Google e GPT-3 (175 miliardi di parametri) di OpenAI si attestano rispettivamente a ~ 26%, ~ 305% del round trip. I modelli “allo stato dell'arte” richiedono una notevole quantità di risorse computazionali ed energia, portando ad alti costi ambientali. I modelli di deep learning stanno diventando più grandi di giorno in giorno. Modelli così grandi vengono regolarmente addestrati per migliaia di ore su acceleratori hardware specializzati nei data center.   Come sono aumentati i requisiti di elaborazione nell'ultimo decennio. Crediti immagine: ACML'intelligenza artificiale può abilitare città intelligenti e a basse emissioni di carbonio attraverso veicoli elettrici autonomi, ottimizzando le reti intelligenti, ecc. Tuttavia, la ricerca avanzata sull'intelligenza artificiale e la progettazione dei prodotti lasciano un'enorme impronta di carbonio. Secondo una stima del 2020 , il consumo totale di elettricità delle tecnologie dell'informazione e della comunicazione (TIC) rappresenterebbe il 20% della domanda globale di elettricità entro il 2030, da circa l'1% nel 2020. Secondo i ricercatori , la quantità di calcolo utilizzata dal più grande ML la formazione è aumentata in modo esponenziale e cresciuta di oltre 300.000 volte tra il 2012-18, che equivale a un periodo di raddoppio di 3,4 mesi. Per mettere le cose in prospettiva, la legge di Moore ha un periodo di raddoppio di 2 anni. Secondo i ricercatori di Google, i seguenti fattori influenzano l'impronta ...
Continua a Leggere

Path To AI Utopia: Sam Altman, fondatore di OpenAI e il piano “Ricchezza per tutti”

Path To AI Utopia: Sam Altman, fondatore di OpenAI, elabora un piano "Ricchezza per tutti" Se tutti possiedono una fetta della creazione di valore americana, tutti vorranno che l'America faccia meglio. Come utilizzare gli studi salariali nell'intelligenza artificiale e nella scienza dei dati?"In appena 10 anni, l'intelligenza artificiale potrebbe generare abbastanza ricchezza per pagare ogni adulto negli Stati Uniti $ 13.500 all'anno ".  Sam Altman, il co-fondatore di OpenAI, ha recentemente condiviso le sue intuizioni e alcuni avvertimenti sull'imminente rivoluzione tecnologica dell'IA che sconvolgerà "tutto". Altman crede che i programmi per computer saranno presto in grado di leggere documenti legali, dare consigli medici, lavorare in catena di montaggio, ecc. Possiamo intuire che l'ottimismo di Altman ha molto a che fare con il recente successo di GPT-3. GPT-3 da solo è stato responsabile dell'avvio di oltre una mezza dozzina di startup da un milione di dollari ed è pronto a rivoluzionare molti settori, incluso ML (si pensi: AutoML).  Nel suo blog, Altman, ha affermato che il futuro della tecnologia sarà molto più significativo della scoperta del fuoco o dell'invenzione di una ruota. Nel 2018, il CEO di Google Sundar Pichai ha affermato che l' intelligenza artificiale è più "profonda" del fuoco o dell'elettricità. Mentre la grande tecnologia ha per lo più una visione ottimistica dell'IA, la Valley ha la sua parte di Cassandre che sparano colpi di avvertimento sull'apocalisse dell'IA.  La tua esperienza necessaria! Compila il nostro veloce Sondaggio Altman ha concettualizzato un sistema tecnologico per un'equa distribuzione della ricchezza. In un certo senso, sta sostenendo un reddito di base universale (UBI). Detto questo, il reddito di base universale non è un concetto nuovo. Ma aggiungere l'intelligenza artificiale al mix può fare una grande differenza.  Hot assume UBI"Il reddito universale sarà necessario nel tempo se l'IA assumerà la maggior parte dei lavori...
Continua a Leggere

Il piano “Ricchezza per tutti” di Sam Altman ha in programma di distribuire criptovaluta gratuita a persone di tutto il mondo

 I magnati della tecnologia tra cui Elon Musk, Mark Zuckerberg e Jeff Bezos hanno dato il loro contributo a Universal Basic Income. Registrati a questo webinar: perché la modernizzazione della piattaforma dati è importante e perché ora?“Sono stato molto interessato a cose come il reddito di base universale e cosa accadrà alla ridistribuzione della ricchezza globale e come possiamo farlo meglio. C'è un modo in cui possiamo usare la tecnologia per farlo su scala globale?"  Sembra che Sam Altman abbia trovato la risposta alla sua domanda. La sua nuova startup ha in programma di distribuire criptovaluta gratuita a persone di tutto il mondo. L'ex capo di Y Combinator e co-fondatore di OpenAI è anche uno dei tre fondatori di Worldcoin. La società con sede a San Francisco sta lavorando a "una nuova valuta digitale globale che debutterà dando una quota a ogni singola persona sulla terra ". I magnati della tecnologia tra cui Elon Musk, Mark Zuckerberg e Jeff Bezos hanno dato il loro contributo a Universal Basic Income (UBI). Altman cerca di investire il suo ottimismo per una rivoluzione dell'intelligenza artificiale, in cui tutte le persone avranno accesso ai suoi soldi crittografici in una blockchain senza autorizzazione. La tua esperienza necessaria! Compila il nostro veloce Sondaggio Worldcoin ha progettato un dispositivo simile a un globo per scansionare l'iride di un individuo, creando un'identificazione univoca. L'hardware dedicato garantirà identificatori personali univoci, dopodiché la persona avrà diritto a una certa quantità in criptovaluta. Il dispositivo è un aggeggio sferico color argento, non più grande di un pallone da basket.   Secondo Worldcoin , attualmente sono in fase di test 20 dispositivi in ​​alcune città su piccola scala. Ogni dispositivo costa $ 5000. La valuta proposta da Altman, tuttavia, non è ancora pronta per la distribuzione e quindi ai volontari iniziali vengono offerte altre valute, principalmente Bitcoin, per farsi scansionare gli occhi.   W...
Continua a Leggere

L’AI l’intelligenza artificiale offensiva” per creare deepfake per le campagne di phishing 

Gli aggressori usano "l'intelligenza artificiale offensiva" per creare deepfake per le campagne di phishing  L'intelligenza artificiale consente alle organizzazioni di automatizzare le attività, estrarre informazioni e creare contenuti multimediali quasi indistinguibili dalla realtà. Ma come ogni tecnologia, l'intelligenza artificiale non è sempre sfruttata per sempre. In particolare, i cyberattaccanti possono utilizzare l'intelligenza artificiale per potenziare i propri attacchi ed espandere le proprie campagne. Un recente sondaggio pubblicato da ricercatori di Microsoft, Purdue e Ben-Gurion University, tra gli altri, esplora la minaccia di questa " IA offensiva " sulle organizzazioni. Identifica diverse funzionalità che gli avversari possono utilizzare per rafforzare i propri attacchi e classifica ciascuno in base alla gravità, fornendo approfondimenti sugli avversari.  Il sondaggio, che ha esaminato sia la ricerca esistente sull'AI offensiva sia le risposte di organizzazioni tra cui IBM, Airbus, Airbus, IBM e Huawei, identifica tre motivazioni principali per un avversario nell'usare l'AI: copertura, velocità e successo. L'intelligenza artificiale consente agli aggressori di "avvelenare" i modelli di apprendimento automatico corrompendo i loro dati di addestramento, oltre a rubare le credenziali tramite l' analisi del canale laterale . E può essere utilizzato per armare i metodi di intelligenza artificiale per il rilevamento delle vulnerabilità, i test di penetrazione e il rilevamento delle perdite di credenziali. Le principali minacce informatiche dell'IA AILe organizzazioni hanno detto ai ricercatori che considerano lo sfruttamento dello sviluppo, l'ingegneria sociale e la raccolta di informazioni come le tecnologie di intelligenza artificiale offensive più minacciose. Sono particolarmente preoccupati per l'intelligenza artificiale utilizzata per la rappresentazione, come i deepfake per perpetrare attacchi di phishing e reverse engineering che potrebbero consent...
Continua a Leggere

Il ruolo dell’AI intelligenza artificiale nel futuro della privacy dei dati 

Il potere di fare tutto online è una specie di ideale. Fare la spesa, vedere il medico tramite telemedicina: le possibilità sono infinite. Soprattutto con gli arresti degli ultimi 18 mesi, l'accesso per l'accesso istantaneo a piattaforme sia essenziali che divertenti è stato un vero toccasana. Eppure, questa realtà a portata di mano non è priva di rischi. In tandem con l'aumento delle risorse online c'è la realtà di violazioni, frodi e persino furti di identità. Finora, il 2021 ha già visto fughe di informazioni personali identificabili (PII) per milioni di utenti attraverso incidenti ben pubblicizzati, come Ubiquiti, Parler, Mimecast, Pixlr e altri. I dati personali delle persone sono stati persi, rubati, esposti e violati. Sfortunatamente, questa tendenza non è nuova e può costare alle aziende una media di 3,86 milioni di dollari per violazione , per non parlare del danno agli utenti stessi. Le persone hanno cambiato radicalmente il modo in cui interagiscono online e il tipo di servizi online che utilizzano. Poiché questo è vero, spetta alle aziende migliorare la sicurezza e proteggere la privacy degli utenti. Ma come? Per molti, la risposta sta nell'intelligenza artificiale (AI).  Alta posta in gioco per la tecnologia della privacyUno studio del 2019 di Gartner prevede che, entro il 2023, il 40% della tecnologia per la conformità alla privacy utilizzerà l'intelligenza artificiale. Si prevede che la spesa globale per gli sforzi per la privacy raggiungerà gli 8 miliardi di dollari entro il 2022. Chiaramente, i leader aziendali riconoscono che la privacy dei dati è fondamentale e una spesa essenziale. L'elevato volume di traffico e i sistemi complessi superano di gran lunga gli sforzi manuali per la sicurezza. L'unico modo per creare barricate efficaci contro gli hacker è batterli al loro stesso gioco. Tuttavia, solo perché il problema originale è complesso no...
Continua a Leggere
Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi