Home / Archive by category "Intelligenza artificiale pericolo"

Intelligenza artificiale pericolo

Le violazioni del codice sorgente hackerata da Microsoft, Nissan, Mercedes sono lezioni minacciose per le auto a guida autonoma

Se è davvero così, presumibilmente il codice sorgente alla base del software deve essere il nucleo atomico che guida questa bestia consumatrice globale. Dicevano che niente dollari significava niente Buck Rodgers, mentre l'arguzia di oggi potrebbe essere che nessun codice sorgente significa nessuna acquisizione planetaria del software arrogante (o qualcosa del genere). Lo sforzo di creare software richiede ore e ore di concentrazione laboriosa e talvolta paralizzante per stabilire tutti i passaggi e le attività scrupolosi che un sistema dovrebbe intraprendere. Gli sviluppatori di software utilizzano una varietà di linguaggi di programmazione e possono essere a volte perniciosamente criptici e succinti nella loro codifica, mentre in altri casi il codice sorgente è espresso in modo piuttosto elaborato e in qualche modo evidente in ciò che indica. Ci sono due principali campi di opposizione o punti di vista accesi su come trattare al meglio il codice sorgente. Una convinzione è che il codice sorgente dovrebbe essere tenuto vicino . Mantieni il codice sorgente proprietario, nascosto alla vista e trattalo come un profondo e oscuro segreto che può essere visto solo da coloro che hanno un bisogno assoluto di dare un'occhiata. Il pensiero su questo è che il codice sorgente è una forma di proprietà intellettuale (IP) venerata e dovrebbe essere ospitato sotto abbondanti garanzie di blocco e chiave. Ciò non è semplicemente dovuto al mantenimento delle protezioni legali (che, certamente, sembra giustificato a causa dei costi significativi coinvolti nel lavoro per creare il codice di programmazione), ma anche perché il codice sorgente potrebbe rivelare il funzionamento interno della salsa segreta o di altri elementi vitali che non dovrebbero essere ampiamente conosciute (così si crede). Nel momento in cui qualcuno sussurra o in qualche modo perde anche il più piccolo frammento del tuo codice sorgente, devi immediatamente e con una grande dimostrazione di forz...
Continua a Leggere

Attacchi informatici basati sull’intelligenza artificiale e Sistemi di sicurezza basati su AI

In che modo l'IA avrà un impatto sulla sicurezza informatica e sugli attacchi informaticiLa sicurezza informatica è destinata a diventare una delle aree più colpite dalle tecnologie di intelligenza artificiale (AI), con organizzazioni e criminali informatici che implementano l'IA a modo loro. Poiché l'IA aumenta il rischio e l'efficacia degli attacchi informatici, anche le organizzazioni devono aumentare i propri sforzi. I risultati futuri di tali attacchi dipenderanno notevolmente da chi ha una migliore conoscenza delle tecnologie di intelligenza artificiale. Ecco uno sguardo ai diversi modi in cui l'IA avrà un impatto sulla sicurezza informatica e sugli attacchi informatici: Attacchi informatici basati sull'intelligenza artificialeMan mano che diventiamo sempre più un mondo digitale, aumenta drasticamente anche il rischio di attacchi informatici basati sull'intelligenza artificiale. L'intelligenza artificiale e l'apprendimento automatico non vengono utilizzati solo dai professionisti della sicurezza IT, ma vengono implementati da attori sponsorizzati dallo stato, organizzazioni criminali informatiche e individui. Tutto ciò significa che le aziende e i governi dovranno evolvere costantemente le loro pratiche per stare al passo con la tecnologia in evoluzione. Ecco uno sguardo ad alcuni dei modi in cui l'IA viene utilizzata per alimentare gli attacchi informatici: Attacchi di ingegneria sociale: i criminali informatici utilizzano l'IA nei loro attacchi di ingegneria sociale poiché può rilevare modelli di comportamento. Questa intuizione può quindi essere utilizzata per manipolare i comportamenti, ottenere l'accesso a dati sensibili e compromettere le reti. Software mutante : l' IA può essere utilizzata per sviluppare malware mutante che evita il rilevamento modificandone la struttura. Manipolazione dei dati: la manipolazione dei dati può avere un impatto devastante sulle organizzazioni se non riescono a rilevarla. Una volta superato questo punt...
Continua a Leggere

L’AI Incident Database AIID

I fallimenti dei sistemi di intelligenza artificiale sono diventati un tema ricorrente nelle notizie di tecnologia. Algoritmi di valutazione del credito che discriminano le donne. Sistemi di visione artificiale che classificano erroneamente le persone con la pelle più scura. Sistemi di raccomandazione che promuovono contenuti violenti. Algoritmi di tendenza che amplificano le fake news. La maggior parte dei sistemi software complessi a un certo punto fallisce e devono essere aggiornati regolarmente. Abbiamo procedure e strumenti che ci aiutano a trovare e correggere questi errori. Ma gli attuali sistemi di intelligenza artificiale, per lo più dominati da algoritmi di apprendimento automatico , sono diversi dai software tradizionali. Stiamo ancora esplorando le implicazioni di applicarli a diverse applicazioni e proteggerli dal fallimento richiede nuove idee e approcci. Questa è l'idea alla base dell'AI Incident Database (AIID) , un archivio di guasti documentati dei sistemi di intelligenza artificiale nel mondo reale. Il database mira a rendere più facile vedere i guasti passati ed evitare che si ripetano. L'AIID è sponsorizzato dalla Partnership on AI (PAI), un'organizzazione che cerca di sviluppare le migliori pratiche per l'intelligenza artificiale, migliorare la comprensione pubblica della tecnologia e ridurre i potenziali danni. PAI è stata fondata nel 2016 da ricercatori di intelligenza artificiale di Apple, Amazon, Google, Facebook, IBM e Microsoft, ma da allora si è espansa fino a includere più di 50 organizzazioni membri, molte delle quali non profit. Esperienza nella documentazione dei guastiNel 2018, i membri del PAI stavano discutendo di una ricerca su una "tassonomia dei guasti dell'IA" o un modo per classificare i fallimenti dell'IA in modo coerente. Ma non esisteva una raccolta di errori dell'IA che potesse essere utilizzata per sviluppare la tassonomia. Ciò ha portato all'idea di sviluppare il database degli incidenti AI. "Conoscevo i...
Continua a Leggere

Le macchine superintelligenti AI non possono essere controllate dagli uomini secondo il Max Plank di Berlino

Un nuovo studio mostra che gli esseri umani non possono controllare macchine superintelligenti Oggi, l'intelligenza artificiale è più intelligente degli umani in compiti specifici come giocare a scacchi o risolvere l'equazione di Schrödinger. A questo ritmo, l'IA potrebbe finire come una forza al di fuori del controllo umano. Il team internazionale di ricercatori, inclusi scienziati del Center for Humans and Machines presso il Max Planck Institute for Human Development di Berlino, ha recentemente pubblicato un rapporto sul Journal of Artificial Intelligence Research. Lo studio ipotizza che gli esseri umani non sarebbero in grado di controllare "macchine superintelligenti". Oggi, l'intelligenza artificiale è più intelligente degli umani in compiti specifici come giocare a scacchi o risolvere l'equazione di Schrödinger . A questo ritmo, l'IA potrebbe finire come una forza al di fuori del controllo umano. Qui vediamo come questo gruppo di ricercatori è giunto a questa conclusione. Cosa dice la ricerca precedente?La superintelligenza è un agente ipotetico che supera l'intelligenza umana. Precedenti ricerche sull'intelligenza artificiale hanno deliberato di tenere sotto controllo le macchine superintelligenti. Lo studio ha classificato il "problema di controllo" in due categorie: capacità e motivazione. La ricerca ha proposto che limitare la capacità della macchina, ad esempio bloccandone l'accesso a Internet, potrebbe renderla significativamente meno potente. Tuttavia, questo sconfigge lo scopo stesso di farlo in primo luogo. L'altro è la motivazione, in cui addestrate il computer a fare ciò che è nel migliore interesse degli esseri umani. Tuttavia, questo metodo ha anche dei limiti, grazie all'ambiguità nella definizione dei "migliori interessi". Cosa dice il nuovo studio?Il documento attuale sostiene che portare sotto controllo il computer superintelligente sarà, in linea di principio, impossibile a causa dei limiti fondamentali inerenti al ca...
Continua a Leggere

TechXplore : L’intelligenza artificiale prevede quali utenti di Twitter pubblicheranno disinformazione prima che lo facciano effettivamente.

Il modello di intelligenza artificiale può identificare gli spargitori di disinformazione prima che agiscano Un modello di intelligenza artificiale creato dai ricercatori dell'Università di Sheffield può potenzialmente determinare quali utenti di Twitter pubblicheranno disinformazione prima che lo faccia effettivamente. Se il modello si dimostrerà affidabile, potrebbe essere utilizzato per integrare i metodi esistenti di lotta alla disinformazione sui social media. Secondo TechXplore , lo studio è stato condotto da ricercatori del Dipartimento di Informatica dell'Università di Sheffield, tra cui il dottor Nikos Aletras e Yida Mu. Lo studio è stato pubblicato sulla rivista PeerJ e descrive in dettaglio i metodi utilizzati per prevedere se un utente dei social media può diffondere disinformazione pubblicando contenuti da fonti di notizie inaffidabili. Il team di ricerca ha raccolto oltre 1 milione di tweet da oltre 6000 utenti di Twitter, tutti disponibili pubblicamente. Il team ha applicato tecniche di elaborazione del linguaggio naturale per preparare i dati per l'addestramento di un modello di intelligenza artificiale. L'intelligenza artificiale era un modello di classificazione binaria, che identificava gli utenti come suscettibili di condividere informazioni da fonti inaffidabili o improbabili. Dopo che il modello è stato addestrato sui dati, è stato in grado di raggiungere una precisione di classificazione di circa il 79,7%. Analizzando i risultati delle prestazioni del modello, i ricercatori hanno scoperto che gli utenti che utilizzavano molto un linguaggio scortese e twittavano costantemente su religione e politica avevano maggiori probabilità di pubblicare informazioni da fonti inaffidabili. In particolare, è stato fatto un uso massiccio di parole come "liberale", "media", "governo", "Israele" e "Islam". Nel frattempo, gli utenti che hanno pubblicato informazioni da fonti affidabili tendevano a utilizzare parole come "io", "voglio", "voglio", "um...
Continua a Leggere

Anonymizer : Sostituisci il tuo viso con un gemello AI per ingannare il riconoscimento facciale

Sostituisci il tuo viso con un gemello AI per ingannare il riconoscimento faccialeProva lo strumento Anonymizer per creare una faccia falsa che ti somiglia Sehai pubblicato una tua foto online negli ultimi anni, ci sono buone probabilità che Clearview AI l'abbia bevuta e aggiunta all'enorme database di riconoscimento facciale dell'azienda con oltre 3,1 miliardi di immagini. Il New York Times ha affermato che Clearview potrebbe " porre fine alla privacy come la conosciamo ". A gennaio, ho messo le mani sul mio profilo AI Clearview e il suo contenuto mi ha fatto impazzire .Una vasta gamma di legali e di sfide legislative sono state montato contro Clearview. Il mio articolo è stato citato nella storica azione legale contro la società dell'American Civil Liberties Union . Ma anche se i legislatori frenassero l'IA di Clearview, interrompere il riconoscimento facciale online è come giocare a whack-a-mole: un altro clone dell'azienda apparirà semplicemente al suo posto. Data l'ubiquità del riconoscimento facciale online, cosa possono fare i consumatori per tenere i loro volti lontani da enormi database di sorveglianza? La startup di Synthetic Content, Generated Media, pensa di avere una soluzione: sostituire la tua faccia con un fake tecnologicamente avanzato creato da una rete neurale. Il falso dà alle persone un senso per il tuo aspetto mantenendo il tuo volto anonimo.Generated Media è specializzata nella creazione di volti artificiali. Per fare ciò, utilizza una tecnologia chiamata GAN (generative adversarial networks), che mette due reti neurali in guerra l'una contro l'altra . Nel caso di Generated Media, mentre le reti si affrontano, una rete (chiamata rete generativa) diventa sempre migliore nel generare volti artificiali. La tecnologia GAN è così buona che può produrre facce false che facilmente inducono gli umani a pensare che siano reali. La società ha fatto colpo in un recente articolo del New York Times sulla tecnologia dietro i volti falsi.I GAN possono a...
Continua a Leggere

Il principale scienziato nucleare iraniano, Mohsen Fakhrizadeh, è ​​stato assassinato su un’autostrada fuori Teheran con un’arma AI di intelligenza artificiale

Uno scienziato iraniano è stato davvero assassinato con un'arma AI?Le armi assistite dall'IA stanno proliferando rapidamente Alla fine di novembre, il principale scienziato nucleare iraniano, Mohsen Fakhrizadeh, è ​​stato assassinato su un'autostrada fuori Teheran.I notiziari militari iraniani e di proprietà statale accusano Israele dell'attacco, ma affermano anche che Fakhrizadeh è stato ucciso da una mitragliatrice controllata dall'intelligenza artificiale montata su un camion Nissan. Un vice comandante delle Guardie rivoluzionarie iraniane ha descritto la mitragliatrice come "dotata di un sistema satellitare intelligente che ha ingrandito il martire Fakhrizadeh". Si conoscono poche altre informazioni.Eyewitn e sses e il concorso della famiglia dello scienziato affermano che la tecnologia AI aveva qualcosa a che fare con l'assassinio, secondo il New York Times . Invece, dicono, la storia di un uomo nero alimentato dall'intelligenza artificiale è un tentativo di salvare la faccia dopo l'incapacità dell'Iran di proteggere uno dei suoi migliori scienziati.Per quanto sorprendente possa essere, questa rubrica Internet sulla ricerca sull'IA non ha lo scoop interno sul fatto che gli assassini internazionali abbiano usato un robot. Ma possiamo far luce su quanto sia inverosimile questa affermazione basata su ciò che sappiamo sui robot militari.A differenza della maggior parte della comunità di ricerca sull'IA, desiderosa di pubblicare il suo ultimo lavoro in conferenze e archivi rivolti al pubblico come arXiv , gli appaltatori della difesa sono notoriamente segreti sui loro progetti di ricerca e sviluppo. Negli Stati Uniti, questi progetti possono essere etichettati come segreti di sicurezza nazionale per proteggersi dalle leggi sui registri pubblici . Questa pratica scappatoia viene utilizzata per nascondere quanto siano diventati sofisticati i nostri sistemi militari: infatti, solo nel 2020 sono stati spesi 76 miliardi di dollari in progetti di difesa classificati....
Continua a Leggere

UMANG il Face ID per le verifiche biometriche, ma siamo pronti?

L'app UMANG introduce Face ID per le verifiche biometriche, ma siamo pronti? L'app governativa UMANG (Unified Mobile Application for New-age Governance) vuole introdurre l'uso del riconoscimento facciale per la verifica biometrica utilizzando le funzionalità integrate di uno smartphone, secondo recenti notizie . L'app, lanciata nel 2017, è una piattaforma per usufruire di più di 2000 servizi di e-governance forniti dal governo centrale e statale. È sviluppato dal Ministero dell'elettronica e della tecnologia dell'informazione (MeitY) insieme alla National e-Governance Division (NeGD) per guidare la governance mobile in India. Quest'anno il traffico sull'app è aumentato drasticamente, soprattutto dopo la pandemia, poiché i movimenti fisici e le interazioni delle persone sono stati ridotti. L'articolo discute diversi vantaggi dell'introduzione dell'uso delle funzionalità integrate di uno smartphone come gli ID dei volti per la verifica biometrica e ciò che l'India deve considerare per la sua implementazione sicura. Vantaggi dell'utilizzo di Face ID per la verifica biometricaUMANG ha reso facile l'accesso a vari servizi di e-governance per gli utenti. Tuttavia, alcuni dei servizi che richiedono l'autenticazione biometrica richiedono che la persona acquisti un dispositivo esterno. Attualmente, ci sono meno di dieci dispositivi compatibili con l'app e costano da ₹ 2,000 a 4.000. Quindi, l'uso di un'autenticazione biometrica integrata eliminerà la dipendenza dalla disponibilità e dall'accessibilità economica di questi dispositivi. Non solo può far risparmiare tempo, ma può anche rendere disponibili i servizi nel comfort della propria casa. Ciò è particolarmente utile per le persone anziane che hanno bisogno di evitare di uscire durante la pandemia e per i lavoratori che possono utilizzare l'app in un momento a loro piacimento senza preoccuparsi di un dispositivo esterno. Allo stesso tempo, un servizio di Aadhaar Card viene aggiunto anche alla prop...
Continua a Leggere

Microsoft ACTS Anti-Corruption Technology and Solutions

Microsoft si impegna a combattere la corruzione con l'intelligenza artificiale e altre tecnologie emergenti Microsoft ha annunciato oggi il lancio di Anti-Corruption Technology and Solutions (ACTS), un'iniziativa che si dice farà leva sul cloud computing, la visualizzazione dei dati, l'intelligenza artificiale, l'apprendimento automatico e altre tecnologie nel prossimo decennio per "migliorare la trasparenza" e "rilevare e scoraggiare "Corruzione. Con ACTS, Microsoft afferma di sperare di "piegare la curva" della corruzione aiutando i governi a innovare con competenze e altre risorse. Le Nazioni Unite (ONU) riferiscono che il costo della corruzione supera i 3,6 trilioni di dollari all'anno e gli eventi globali di quest'anno hanno creato un mondo particolarmente vulnerabile alla corruzione. Come notato dal segretario generale delle Nazioni Unite Antonio Guterres, “La corruzione… è ancora più dannosa in tempi di crisi come il mondo sta vivendo ora con la pandemia Covid-19. La risposta al virus sta creando nuove opportunità per sfruttare un controllo debole e una trasparenza inadeguata, dirottando i fondi lontano dalle persone nel momento di maggior bisogno ". Microsoft afferma che negli ultimi sei mesi ha iniziato a fare investimenti a sostegno di ACTS, inclusa una partnership con la Inter-American Development (IDB) Bank per promuovere gli obiettivi di anticorruzione, trasparenza e integrità in America Latina e nei Caraibi. L'azienda ha anche stretto una partnership con IDB Transparency Fund per contribuire a portare una maggiore trasparenza nell'uso dei fondi di stimolo economico COVID-19. Separatamente, i ricercatori Microsoft hanno collaborato con la Banca mondiale per indagare sull'uso dell'IA negli sforzi anti-corruzione. I due hanno condotto esperimenti con set di dati di organizzazioni internazionali, dati sugli appalti nazionali, titolarità effettiva e altri database aziendali per rilevare modelli che suggeriscono la possibilità di comportame...
Continua a Leggere

Intel e Consilient contro le frodi finanziarie con l’apprendimento federato

Intel e Consilient uniscono le forze per utilizzare l'apprendimento federato per combattere le frodi finanziarie Consilient, una società di nuova costituzione dedicata alla creazione di un sistema di nuova generazione per l'antiriciclaggio e il contrasto al finanziamento del terrorismo (AML / CFT), ha lanciato una nuova piattaforma di apprendimento federata e sicura basata su Intel® Software Guard Extensions (Intel® SGX ). La piattaforma di intelligenza artificiale (AI) mira a prevenire la criminalità finanziaria e consentire una collaborazione sicura tra le istituzioni finanziarie, contribuendo a proteggere la privacy e proteggere i dati. Perchè importaSecondo le Nazioni Unite , tra il 2-5% del prodotto interno lordo (PIL) viene riciclato a livello globale ogni anno, il che ammonta a $ 800 miliardi - $ 2 trilioni. Riconoscendo la necessità di andare oltre un sistema di monitoraggio manuale e frammentato, Consilient ha creato una soluzione intelligente, collaborativa e sempre attiva che sfrutta l'apprendimento federato e Intel SGX per rilevare le frodi finanziarie. Automatizzando questo processo attraverso l'apprendimento federato, l'accesso a più set di dati, database e giurisdizioni viene crittografato senza mai rivelare i dati o le informazioni sensibili dei clienti alle diverse parti coinvolte. Il governo e le istituzioni finanziarie possono utilizzare questa nuova piattaforma per rilevare in modo più accurato ed efficiente le attività illecite, con tassi di falsi positivi inferiori, contribuendo a combattere la criminalità finanziaria, contrastare il riciclaggio di denaro di valore più elevato e consentire a persone e aziende legittime di gestire i rischi in modo più efficace. “Quando le banche cercano di rilevare attività illecite e fraudolente, il sistema è altamente inefficiente e inefficace, con oltre il 95% del monitoraggio delle transazioni che rende falsi positivi e le istituzioni incapaci di vedere il rischio oltre le proprie mura. Con la t...
Continua a Leggere
Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi