Home / Archive by category "Intelligenza artificiale pericolo"

Intelligenza artificiale pericolo

I rischi dell’intelligenza artificiale AI su cui dovremmo concentrarci

Questi sono i rischi dell'IA su cui dovremmo concentrarci Fin dagli albori dell'era dei computer, gli esseri umani hanno visto l'approccio dell'intelligenza artificiale (AI) con un certo grado di apprensione. Le raffigurazioni popolari dell'IA spesso coinvolgono robot assassini o sistemi onniscienti e che vedono tutto, intenzionati a distruggere la razza umana. Questi sentimenti hanno pervaso allo stesso modo i media, che tendono a salutare le scoperte nell'intelligenza artificiale con più allarme o clamore rispetto all'analisi misurata. In realtà, la vera preoccupazione dovrebbe essere se queste visioni distopiche eccessivamente drammatizzate distolgono la nostra attenzione dai rischi più sfumati, ma ugualmente pericolosi, posti dall'uso improprio delle applicazioni di intelligenza artificiale che sono già disponibili o in fase di sviluppo oggi. L'intelligenza artificiale permea la nostra vita quotidiana, influenzando i media che consumiamo, cosa acquistiamo, dove e come lavoriamo e altro ancora. Le tecnologie di intelligenza artificiale continueranno sicuramente a rivoluzionare il nostro mondo, dall'automazione delle attività di routine dell'ufficio alla risoluzione di sfide urgenti come il cambiamento climatico e la fame . Ma come dimostrano incidenti come arresti illeciti negli Stati Uniti e la sorveglianza di massa della popolazione uigura cinese , stiamo già assistendo ad alcuni impatti negativi derivanti dall'intelligenza artificiale. Incentrati sullo spingere i confini di ciò che è possibile, le aziende, i governi, i professionisti dell'IA e gli scienziati dei dati a volte non riescono a vedere come le loro scoperte potrebbero causare problemi sociali fino a quando non è troppo tardi. Pertanto, il momento di essere più intenzionali su come utilizziamo e sviluppiamo l'IA è adesso. Dobbiamo integrare le considerazioni sull'impatto etico e sociale nel processo di sviluppo sin dall'inizio, piuttosto che affrontare queste preoccupazioni dopo il fatto. E...
Continua a Leggere

Alexa e il pericolo delle abilità vulnerabili

Ecco perché è importante controllare le tue abilità di Amazon Alexa (e come farlo)Una nuova ricerca mostra potenziali vulnerabilità della privacy nelle competenze di Alexa Amazon ha sempre cercato di spingere i suoi altoparlanti intelligenti abilitati per Alexa come piattaforma, vantando il numero di "competenze" di terze parti disponibili (più di 100.000 nel conteggio più recente). Nella nostra esperienza, la maggior parte di queste abilità sono espedienti inutili; battute di una sola nota che installi e di cui ti dimentichi. Ma si scopre che potrebbero anche rappresentare una minaccia per la privacy. Il primo studio su larga scala delle vulnerabilità della privacy nell'ecosistema delle competenze di Alexa è stato condotto da ricercatori del North Carolina State e della Ruhr-University Bochum in Germania. Hanno riscontrato una serie di problemi preoccupanti, in particolare nei processi di verifica che Amazon utilizza per verificare l'integrità di ciascuna competenza. Ecco un breve riassunto dei loro risultati: Attivare l'abilità sbagliata . Dal 2017, Alexa abiliterà automaticamente le abilità se gli utenti fanno la domanda giusta (altrimenti nota come "frase di invocazione"). Ma i ricercatori hanno scoperto che nel solo negozio degli Stati Uniti c'erano 9.948 abilità con frasi di invocazione duplicate . Ciò significa che se chiedi ad Alexa "fatti spaziali", ad esempio, abiliterà automaticamente una delle numerose abilità che utilizzano questa frase. Il modo in cui viene scelta tale abilità è un mistero completo, ma potrebbe portare gli utenti ad attivare abilità sbagliate o indesiderate.Capacità di pubblicazione sotto falsi nomi . Quando installi un'abilità potresti controllare il nome dello sviluppatore per assicurarne l'affidabilità. Ma i ricercatori hanno scoperto che il processo di valutazione di Amazon per verificare che gli sviluppatori siano chi dicono di essere non è molto sicuro. Sono stati in grado di pubblicare competenze sotto i nomi di grandi...
Continua a Leggere

Cosa sono i Shadow Data i dati fantasma?

Perché le aziende dovrebbero diffidare dei dati ombra? I rischi associati ai dati shadow includono tipicamente l'esfiltrazione, l'acquisizione di account e la distruzione dei dati. Shadow IT si riferisce all'uso di sistemi informatici, software e dispositivi senza l'autorizzazione esplicita del reparto IT dell'azienda che può mettere a rischio la sicurezza dell'intero sistema. Con l'adozione diffusa di applicazioni basate su cloud, anche questo comportamento è in aumento. In alcuni casi, lo shadow IT porta alla produttività e all'innovazione, ma il rapporto rischio-rendimento non è a favore delle organizzazioni. Poi ci sono i dati sulle ombre, che rappresentano un pericolo ancora maggiore. Comporta il rischio associato a tutti i dati caricati, archiviati e condivisi tramite cloud, indipendentemente dal fatto che utilizzino percorsi consentiti. Anche se un'organizzazione dispone delle migliori policy di conformità e sicurezza, non è ancora del tutto immune dalla perdita di dati o dalle minacce di ostacolo . Anche le app comuni di collaborazione e condivisione di file come Box, Office365, DropBox, Google Drive ecc. Sono soggette a minacce di dati shadow. CauseLa parola attacchi informatici richiama alla mente intrusioni non autorizzate di terze parti nei sistemi. Ma a volte, gli attacchi informatici si verificano a seguito della fuga di informazioni dall'interno di un'organizzazione, intenzionalmente o inavvertitamente. In particolare, il rischio più significativo di dati ombra proviene da dipendenti ignari: individui che non hanno intenti dannosi ma rappresentano una minaccia condividendo eccessivamente le informazioni riservate. Accade a causa di scarsa conformità e politiche e formazione sulla governance dei dati, sicurezza inadeguata, negligenza o uso improprio non intenzionale. Secondo un rapporto Symantec , dei 758 milioni di documenti archiviati nel cloud analizzati dalla società di sicurezza informatica, il 13% è stato ampiamente condivis...
Continua a Leggere

10 modi in cui l’intelligenza artificiale AI può migliorare l’agricoltura nel 2021

10 modi in cui l'IA ha il potenziale per migliorare l'agricoltura nel 2021Il monitoraggio IoT-enabled Agricultural (IoTAg) è l'agricoltura intelligente e connessa in più rapida crescita … [+] GETTYSecondo BI Intelligence Research, la spesa globale per tecnologie e sistemi agricoli intelligenti e connessi, tra cui AI e machine learning, dovrebbe triplicare le entrate entro il 2025, raggiungendo i 15,3 miliardi di dollari.Secondo Markets & Markets, la spesa per le sole tecnologie e soluzioni di IA nell'agricoltura dovrebbe crescere da 1 miliardo di dollari nel 2020 a 4 miliardi di dollari nel 2026, raggiungendo un tasso di crescita annuale composto (CAGR) del 25,5%.Secondo PwC, il monitoraggio dell'agricoltura abilitata all'IoT (IoTAg) è il segmento tecnologico in più rapida crescita dell'agricoltura connessa e intelligente che si prevede raggiungerà i 4,5 miliardi di dollari entro il 2025.AI, machine learning (ML) e sensori IoT che forniscono dati in tempo reale per algoritmi aumentano l'efficienza agricola, migliorano i raccolti e riducono i costi di produzione alimentare. Secondo i dati di previsione delle Nazioni Unite sulla popolazione e la fame, la popolazione mondiale aumenterà di 2 miliardi di persone entro il 2050, richiedendo un aumento del 60% della produttività alimentare per nutrirla. Solo negli Stati Uniti, la coltivazione, la lavorazione e la distribuzione di cibo è un affare da 1,7 trilioni di dollari, secondo l'Economic Research Service del Dipartimento dell'Agricoltura degli Stati Uniti. AI e ML stanno già dimostrando il potenziale per aiutare a colmare il divario nel fabbisogno alimentare previsto per altri 2 miliardi di persone in tutto il mondo entro il 2050. L'agricoltura è una delle industrie più fertili per l'intelligenza artificiale e l'apprendimento automatico Immagina di avere almeno 40 processi essenziali per tenere traccia, eccellere e monitorare allo stesso tempo in una vasta area agricola spesso misurata in centinaia di ac...
Continua a Leggere

Intelligenza artificiale e fine del lavoro

Il mese prossimo Stanford ospiterà un evento denominato "Intelligence Augmentation: AI Empowering People to Solve Global Challenges". Questo titolo è significativo e tipico. L'idea che, nella migliore delle ipotesi, l'intelligenza artificiale aumenterà piuttosto che sostituire gli esseri umani è diventata una narrativa pervasiva e influente nel campo dell'intelligenza artificiale oggi. È una narrazione rassicurante. Sfortunatamente, è anche profondamente fuorviante. Se vogliamo prepararci in modo efficace all'impatto che l'intelligenza artificiale avrà sulla società nei prossimi anni, è importante per noi essere più chiari su questo tema. Non è difficile capire perché le persone sono ricettive a una visione del futuro in cui l'impatto principale dell'IA è aumentare l'attività umana. A livello elementare, questa visione lascia a noi umani il controllo, incontrastato al vertice della catena alimentare cognitiva. Non richiede riconcettualizzazioni profonde e scomode da parte nostra sul nostro posto nel mondo. L'intelligenza artificiale è, secondo questa linea di pensiero, solo uno strumento in più che abbiamo creato abilmente per semplificarci la vita, come la ruota o il motore a combustione interna. Ma l'IA non è solo uno strumento in più e per noi sono all'orizzonte scomode riconcettualizzazioni. Gli scacchi forniscono un esempio illustrativo con cui iniziare. Machine ha superato per la prima volta l'uomo negli scacchi nel 1997, quando il programma per computer Deep Blue di IBM ha sconfitto il campione mondiale di scacchi Garry Kasparov in una partita ampiamente pubblicizzata. In risposta, negli anni che seguirono, il concetto di "scacchi centauro" emerse per diventare una popolare pietra di paragone intellettuale nelle discussioni sull'IA. L'idea alla base degli scacchi centauri era semplice: mentre la migliore intelligenza artificiale poteva ora sconfiggere il miglior umano negli scacchi, un'intelligenza artificiale e un umano che lavoravano ...
Continua a Leggere

Il progresso dell’IA dipende dal fatto che utilizziamo meno dati, non di più

Nella comunità della scienza dei dati, stiamo assistendo agli inizi di un'infodemia , in cui più dati diventano una responsabilità piuttosto che una risorsa. Ci stiamo muovendo continuamente verso modelli di intelligenza artificiale sempre più affamati di dati e più costosi dal punto di vista computazionale. E questo si tradurrà in alcuni effetti collaterali dannosi e forse controintuitivi (ci arriveremo a breve). Per evitare gravi svantaggi, la comunità della scienza dei dati deve iniziare a lavorare con alcuni vincoli autoimposti: in particolare, dati e risorse di calcolo più limitati. Una pratica di dati minimi consentirà a diversi settori guidati dall'intelligenza artificiale, inclusa la sicurezza informatica, che è la mia area di interesse, di diventare più efficienti, accessibili, indipendenti e dirompenti. Quando i dati diventano una maledizione piuttosto che una benedizionePrima di andare oltre, lasciatemi spiegare il problema con la nostra dipendenza da algoritmi AI sempre più affamati di dati. In termini semplicistici, i modelli basati sull'intelligenza artificiale stanno "imparando" senza essere esplicitamente programmati per farlo, attraverso un processo di tentativi ed errori che si basa su una serie di campioni accumulati. Più punti dati hai, anche se molti di essi sembrano indistinguibili ad occhio nudo, più precisi e robusti sono i modelli basati sull'intelligenza artificiale che dovresti ottenere, in teoria. Alla ricerca di una maggiore accuratezza e bassi tassi di falsi positivi, settori come la sicurezza informatica, che un tempo era ottimista sulla sua capacità di sfruttare la quantità senza precedenti di dati seguita dalla trasformazione digitale aziendale, stanno ora affrontando una nuova serie di sfide: L'intelligenza artificiale ha una dipendenza dal computer. La paura crescente è che i nuovi progressi nella ricerca sperimentale sull'IA, che spesso richiedono formidabili set di dati supportati da un'adeguata infrastruttura...
Continua a Leggere

I robot nelle aziende peggiorano le condizioni di lavoro delle persone

Perché ho sbagliato a essere ottimista sui robot Gli esseri umani vengono schiacciati in un sistema robotico che lavora al ritmo di un robot Ero una tecno-ottimista. Pensavo che una nuova ondata di automazione potesse liberarci dal lavoro monotono o arduo. I magazzini al dettaglio online sembravano un esempio perfetto. Era un settore in espansione in cui i "raccoglitori" a basso reddito dovevano camminare fino a 15 miglia al giorno per raccogliere gli ordini dei clienti dagli scaffali, diretti e monitorati da braccialetti o cuffie. Avevo intervistato i magazzinieri che si spalmavano di vaselina i piedi con le vesciche per superare la giornata. Prima avessimo inventato i robot per eseguire questi lavori simili a quelli dei robot, pensavo, prima gli umani sarebbero stati liberi di fare qualcosa di meno cupo. Ma ora che sono arrivati ​​i robot, mi rendo conto di essermi sbagliata. L'aumento della domanda di acquisti online causato dalla pandemia ha accelerato l'automazione del magazzino. Il gruppo di ricerca Statista prevede che il mercato globale dell'automazione del magazzino aumenterà da 15 miliardi di dollari nel 2019 a 30 miliardi di dollari entro il 2026. Ma i robot non stanno sostituendo del tutto il lavoro di raccolta, perché le dita umane rimangono migliori delle macchine nel maneggiare oggetti vari. "Faccio fatica a trovare il robot che sarà in grado di gestire un sacco di gesso di Parigi, un po 'per un martello pneumatico, un bidone della spazzatura in acciaio zincato, una lama per sega e un secchio di vernice da 5 galloni", ha spiegato un responsabile del magazzino ai ricercatori dell'Università della California, Berkeley. Invece, molti lavori di magazzino stanno diventando in parte umani, in parte robot. Questo sta trasformando il lavoro, non necessariamente in meglio. Chuck è un carrello robotico autonomo che guida un raccoglitore umano attraverso un magazzino da uno scaffale all'altro. 6 River Systems, che vende o noleggia i robot a oper...
Continua a Leggere

Lettura del pensiero con l’intelligenza artificiale AI

Rilevamento del pensiero: l'intelligenza artificiale si è infiltrata nel nostro ultimo baluardo della privacy I nostri pensieri sono privati, o almeno lo erano. Nuove scoperte nel campo delle neuroscienze e dell'intelligenza artificiale stanno cambiando questa ipotesi, mentre allo stesso tempo invitano nuove domande sull'etica, la privacy e gli orizzonti dell'interazione cervello / computer. Una ricerca pubblicata la scorsa settimana dalla Queen Mary University di Londra descrive un'applicazione di una rete neurale profonda in grado di determinare lo stato emotivo di una persona analizzando i segnali wireless che vengono utilizzati come radar. In questa ricerca, i partecipanti allo studio hanno guardato un video mentre i segnali radio venivano inviati verso di loro e misurati quando si riprendevano. L'analisi dei movimenti del corpo ha rivelato informazioni "nascoste" sul cuore e sulla frequenza respiratoria di un individuo. Da questi risultati, l'algoritmo può determinare uno dei quattro tipi di emozioni di base: rabbia, tristezza, gioia e piacere. I ricercatori hanno proposto che questo lavoro potrebbe aiutare con la gestione della salute e del benessere e essere utilizzato per svolgere compiti come l'individuazione degli stati depressivi. Ahsan Noor Khan, uno studente di dottorato e primo autore dello studio, ha dichiarato: "Stiamo ora cercando di indagare su come utilizzare i sistemi esistenti a basso costo, come i router Wi-Fi, per rilevare le emozioni di un gran numero di persone riuniti, ad esempio, in un ufficio o in un ambiente di lavoro. " Tra le altre cose, questo potrebbe essere utile per i dipartimenti delle risorse umane per valutare come vengono ricevute le nuove politiche introdotte in una riunione, indipendentemente da ciò che potrebbero dire i destinatari. Al di fuori di un ufficio, la polizia potrebbe utilizzare questa tecnologia per cercare cambiamenti emotivi in ​​una folla che potrebbero portare alla violenza. Il team di ricerca pr...
Continua a Leggere

I creatori di modelli linguistici di grandi dimensioni come Google e OpenAI potrebbero non avere molto tempo per stabilire standard che affrontino in modo sufficiente il loro impatto sulla società

I ricercatori di OpenAI e Stanford chiedono un'azione urgente per affrontare i danni dei modelli linguistici di grandi dimensioni come GPT-3 I creatori di modelli linguistici di grandi dimensioni come Google e OpenAI potrebbero non avere molto tempo per stabilire standard che affrontino in modo sufficiente il loro impatto sulla società. I progetti open source che attualmente mirano a ricreare GPT-3 includono GPT-Neo, un progetto guidato da EleutherAI. Questo secondo un articolo pubblicato la scorsa settimana da ricercatori di OpenAI e della Stanford University. "I partecipanti hanno suggerito che gli sviluppatori possono avere solo un vantaggio da sei a nove mesi fino a quando gli altri non possono riprodurre i loro risultati. È stato ampiamente concordato sul fatto che coloro che sono all'avanguardia dovrebbero utilizzare la loro posizione sulla frontiera per stabilire norme responsabili nel campo emergente ", si legge nel documento. "Questo suggerisce ulteriormente l'urgenza di utilizzare l'attuale finestra temporale, durante la quale pochi attori possiedono modelli linguistici molto ampi, per sviluppare norme e principi appropriati che gli altri possano seguire". Il documento ripercorre una riunione tenutasi nell'ottobre 2020 per considerare GPT-3 e due domande urgenti: "Quali sono le capacità tecniche e i limiti dei modelli linguistici di grandi dimensioni?" e "Quali sono gli effetti sulla società dell'uso diffuso di modelli linguistici di grandi dimensioni?" I coautori del documento hanno descritto "un senso di urgenza per fare progressi prima che poi nel rispondere a queste domande". Quando la discussione tra esperti di settori come l'informatica, la filosofia e le scienze politiche si è svolta lo scorso autunno, GPT-3 era il più grande modello di linguaggio conosciuto, con 175 miliardi di parametri . Da allora, Google ha rilasciato un modello di linguaggio con trilioni di parametri . I modelli di linguaggio di grandi dimensioni vengono addestr...
Continua a Leggere

Gli uomini non sarebbero in grado di controllare l’IA AI superintelligente

I ricercatori affermano che gli esseri umani non sarebbero in grado di controllare l'IA superintelligente Chiunque sia a conoscenza dell'intelligenza artificiale (AI) ha probabilmente sentito qualche versione al riguardo, alla fine liberandosi dal controllo umano. Questo non è solo un tema dei film di fantascienza, ma piuttosto una possibilità molto forte che ha molti esperti del settore interessato. Molti di questi esperti, compresi gli scienziati, sostengono che iniziamo a prepararci per questa possibilità e ad evitarla in tutti i modi possibili. Ora, un team internazionale di ricercatori ha preso questa idea e l'ha sostenuta con calcoli teorici. Il team, che comprendeva scienziati del Center for Humans and Machines presso il Max Planck Institute for Human Development, ha utilizzato questi calcoli per dimostrare come non sarebbe stato possibile controllare un'IA superintelligente. La ricerca è stata recentemente pubblicata sul Journal of Artificial Intelligence Research . La paura per un sistema di intelligenza artificiale superintelligente ha a che fare con il fatto che un tale sistema sarebbe di gran lunga superiore agli umani. Sarebbe in grado non solo di apprendere in modo indipendente, ma potrebbe anche accedere a tutti i dati esistenti ed elaborarli in modo estremamente veloce. Un tale evento potrebbe portare l'IA superintelligente a superare tutte le macchine esistenti online, e mentre potrebbe e farebbe cose come curare le malattie e risolvere altri importanti problemi che l'umanità deve affrontare, anche il rischio che le cose vadano fuori controllo è alto. Manuel Cebrian è coautore dello studio e Leader del Digital Mobilization Group presso il Center for Humans and Machines, Max Planck Institute for Human Development. “Una macchina super intelligente che controlla il mondo sembra fantascienza. Ma esistono già macchine che eseguono determinati compiti importanti in modo indipendente senza che i programmatori comprendano appieno come ...
Continua a Leggere
Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi