Home / Intelligenza artificiale pericolo / Man mano che l’adozione dell’intelligenza artificiale accelera, ci si può fidare della tecnologia?

Man mano che l’adozione dell’intelligenza artificiale accelera, ci si può fidare della tecnologia?

DI MARK ALBERTSON

L’elenco delle preoccupazioni sull’uso dell’intelligenza artificiale sembra crescere ogni settimana che passa.

I problemi legati alla distorsione , all’uso dell’IA per video e audio profondi , disinformazione, sorveglianza governativa , sicurezza e incapacità della tecnologia di identificare correttamente gli oggetti più semplici hanno creato una cacofonia di preoccupazione per il futuro a lungo termine della tecnologia.

Una società di software ha recentemente pubblicato uno studio che mostrava che solo il 25% dei consumatori si sarebbe fidato di una decisione presa dai sistemi che utilizzano l’IA, e un altro rapporto commissionato da KPMG International ha rilevato che solo il 35% dei leader della tecnologia dell’informazione aveva un alto livello di fiducia nella propria analisi delle organizzazioni.

È un percorso accidentato per l’intelligenza artificiale poiché il mondo della tecnologia intraprende un nuovo decennio e i principali professionisti dello spazio sono ben consapevoli del fatto che la fiducia determinerà alla fine quanto ampiamente e rapidamente la tecnologia verrà adottata in tutto il mondo.

“Vogliamo costruire un ecosistema di fiducia”, ha detto Francesca Rossi , leader mondiale dell’etica AI di IBM Corp., alla conferenza digitale EmTech Digital di lunedì. “Vogliamo aumentare l’intelligenza umana, non sostituirla.”

Deepfakes in aumento
L’evento EmTech Digital, ristrutturato in una conferenza digitale di tre giorni dal MIT Technology Review dopo che i piani per tenerlo questo mese a San Francisco sono stati annullati, si è concentrato in gran parte sulla fiducia nell’intelligenza artificiale e su come l’industria tecnologica stava cercando di gestire una varietà di problemi intorno ad esso.

Uno di questi problemi è l’uso di strumenti di intelligenza artificiale per creare video o audio apparentemente autentici per ingannare gli utenti. L’uso di video deepfake è aumentato rapidamente, secondo le recenti statistiche fornite da Deeptrace, che ha riscontrato un aumento dell’84% dei contenuti video falsi rispetto a un anno fa.

“Oggi più che mai non possiamo credere a ciò che vediamo e non possiamo nemmeno credere a ciò che sentiamo”, ha dichiarato Delip Rao , vicepresidente della ricerca presso la AI Foundation, durante una presentazione EmTech martedì. “Questo sta creando una crisi di credibilità”.

Per contribuire a arginare il flusso di deepfake nel pool di contenuti, AI Foundation ha lanciato una piattaforma, Reality Defender , che utilizza metodi di rilevamento deepfake forniti da vari partner, tra cui Google LLC e Facebook Inc. Il gruppo non profit ha recentemente esteso la sua tecnologia di rilevamento per includere Campagne elettorali 2020 anche negli Stati Uniti.

“Come generazione, abbiamo consumato più media di qualsiasi generazione prima di noi e non siamo educati su come lo consumiamo”, ha detto Rao. “Non possiamo permetterci di essere compiacenti. La tecnologia dietro Deepfakes è qui per rimanere. ”

Riconoscimento facciale e sicurezza informatica
L’intelligenza artificiale è stata anche messa a fuoco per il suo uso nei sistemi di riconoscimento facciale alimentati da un significativo aumento dell’installazione di telecamere di sorveglianza a livello globale. Un recente rapporto di IHS Markit ha mostrato che la Cina è in testa al mondo con 349 milioni di telecamere di sorveglianza. Gli Stati Uniti hanno 70 milioni di telecamere, ma è vicino alla Cina su base pro capite con 4,6 persone per telecamera installate.

L’ascesa di telecamere dotate di AI e software di riconoscimento facciale ha portato allo sviluppo di un’industria di cottage su entrambi i lati dell’equazione. Una società di intelligenza artificiale cinese – SenseTime – ha affermato lo sviluppo di un algoritmo in grado di identificare una persona le cui caratteristiche facciali sono oscurate da una maschera chirurgica e utilizzare l’imaging termico per determinare la temperatura corporea.

Nel frattempo, un professore dell’Università del Maryland ha sviluppato una linea di abbigliamento , tra cui felpe con cappuccio e magliette, decorata con motivi appositamente progettati per sconfiggere i sistemi di riconoscimento delle telecamere di sorveglianza. Tutto ciò sottolinea le crescenti sfide sociali affrontate dai professionisti nel campo dell’IA.

L’altro problema complesso che colpisce l’industria dell’IA riguarda la sicurezza informatica. Man mano che l’adozione cresce e gli strumenti migliorano, l’uso dell’intelligenza artificiale non si limita agli utenti del “cappello bianco”. Gli hacker “black hat” hanno accesso anche all’intelligenza artificiale e hanno la possibilità di usarla.

Il venditore di sicurezza informatica McAfee Inc. ha riscontrato prove che gli hacker potrebbero utilizzare l’IA per identificare le vittime che potrebbero essere vulnerabili agli attacchi, secondo Steve Grobman , vicepresidente senior e responsabile della tecnologia di McAfee. Gli attori dannosi possono anche utilizzare la tecnologia per generare contenuti personalizzati come un modo per affinare le esche di phishing.

“L’intelligenza artificiale è un potente strumento sia per i difensori che per gli aggressori”, ha affermato Grobman. “L’intelligenza artificiale crea una nuova frontiera dell’efficienza per l’attaccante. Stiamo assistendo a una costante evoluzione delle tecniche di attacco. “

AI per operazioni e ricerca
I problemi di fiducia che circondano l’IA rappresentano un obiettivo importante in questo momento perché il treno AI ha lasciato la stazione e molti passeggeri sono a bordo per la corsa. L’intelligenza artificiale è diventata un elemento chiave nel miglioramento dell’efficienza operativa per molte aziende e numerosi relatori durante l’evento hanno sottolineato come le aziende impiegano la tecnologia.

Frito Lay Inc. utilizza l’intelligenza artificiale per analizzare i modelli meteorologici e gli orari scolastici per determinare quando incrementare l’inventario delle scaglie di mais sugli scaffali dei negozi. Il fornitore globale di assistenza sanitaria Novartis AG utilizza l’IA per supportare gli studi clinici e determinare i programmi di iniezione per le persone con degenerazione maculare.

E quando gli ingegneri del colosso marittimo DHL International hanno visto come l’IA poteva essere utilizzata per rilevare i gatti nei video di YouTube, si chiedevano se lo stesso approccio potesse essere adottato per ispezionare i pallet di spedizione per l’impilabilità negli aerei cargo.

“Queste sono piccole decisioni che stiamo prendendo per l’efficienza del carico su oltre 500 voli a notte”, ha affermato Ben Gesing , direttore di DHL e responsabile della ricerca sulle tendenze. “In DHL, nessuna nuova tecnologia è stata così pervasiva o in rapida crescita come l’IA.”

Forse ancora più intrigante è stata la recente notizia che Salesforce Inc. ha impiegato l’IA per intraprendere importanti ricerche sulla generazione di proteine. All’inizio di questo mese, Salesforce ha pubblicato uno studio che descriveva in dettaglio un nuovo sistema di intelligenza artificiale chiamato Proiettore che può generare proteine ​​in modo controllabile.

In una presentazione martedì, lo scienziato capo della Salesforce Richard Socher ha descritto come la società considerava l’IA come una strategia a doppio taglio. Uno è lo stato di “fantascienza”, in cui risiedono i sogni di auto a guida autonoma e grandi scoperte mediche. L’altro è lo stato di “elettricità”, che utilizza tecnologie come la comprensione del linguaggio naturale per alimentare i chatbot.

“L’IA è in questo doppio stato in questo momento”, ha detto Socher. “In Salesforce, stiamo cercando di affrontare entrambi questi stati. Credo davvero che l’IA avrà un impatto su ogni singolo settore là fuori. “

Se Socher ha ragione, allora ogni settore dovrà fare i conti con un modo per generare fiducia nel modo in cui utilizza la tecnologia. Un relatore di EmTech ha presentato i risultati di un recente studio Deloitte secondo cui solo uno su cinque CEO e dirigenti intervistati disponeva di un framework etico per l’IA.

“Ci aspettano sfide”, ha affermato Xiaomeng Lu , senior policy manager di Access Partnership. “Non possiamo scappare. Dobbiamo affrontarli a testa alta. “

L’elenco delle preoccupazioni sull’uso dell’intelligenza artificiale sembra crescere ogni settimana che passa.

I problemi legati alla distorsione , all’uso dell’IA per video e audio profondi , disinformazione, sorveglianza governativa , sicurezza e incapacità della tecnologia di identificare correttamente gli oggetti più semplici hanno creato una cacofonia di preoccupazione per il futuro a lungo termine della tecnologia.

Una società di software ha recentemente pubblicato uno studio che mostrava che solo il 25% dei consumatori si sarebbe fidato di una decisione presa dai sistemi che utilizzano l’IA, e un altro rapporto commissionato da KPMG International ha rilevato che solo il 35% dei leader della tecnologia dell’informazione aveva un alto livello di fiducia nella propria analisi delle organizzazioni.

È un percorso accidentato per l’intelligenza artificiale poiché il mondo della tecnologia intraprende un nuovo decennio e i principali professionisti dello spazio sono ben consapevoli del fatto che la fiducia determinerà alla fine quanto ampiamente e rapidamente la tecnologia verrà adottata in tutto il mondo.

“Vogliamo costruire un ecosistema di fiducia”, ha detto Francesca Rossi , leader mondiale dell’etica AI di IBM Corp., alla conferenza digitale EmTech Digital di lunedì. “Vogliamo aumentare l’intelligenza umana, non sostituirla.”

Deepfakes in aumento
L’evento EmTech Digital, ristrutturato in una conferenza digitale di tre giorni dal MIT Technology Review dopo che i piani per tenerlo questo mese a San Francisco sono stati annullati, si è concentrato in gran parte sulla fiducia nell’intelligenza artificiale e su come l’industria tecnologica stava cercando di gestire una varietà di problemi intorno ad esso.

Uno di questi problemi è l’uso di strumenti di intelligenza artificiale per creare video o audio apparentemente autentici per ingannare gli utenti. L’uso di video deepfake è aumentato rapidamente, secondo le recenti statistiche fornite da Deeptrace, che ha riscontrato un aumento dell’84% dei contenuti video falsi rispetto a un anno fa.

“Oggi più che mai non possiamo credere a ciò che vediamo e non possiamo nemmeno credere a ciò che sentiamo”, ha dichiarato Delip Rao , vicepresidente della ricerca presso la AI Foundation, durante una presentazione EmTech martedì. “Questo sta creando una crisi di credibilità”.

Per contribuire a arginare il flusso di deepfake nel pool di contenuti, AI Foundation ha lanciato una piattaforma, Reality Defender , che utilizza metodi di rilevamento deepfake forniti da vari partner, tra cui Google LLC e Facebook Inc. Il gruppo non profit ha recentemente esteso la sua tecnologia di rilevamento per includere Campagne elettorali 2020 anche negli Stati Uniti.

“Come generazione, abbiamo consumato più media di qualsiasi generazione prima di noi e non siamo educati su come lo consumiamo”, ha detto Rao. “Non possiamo permetterci di essere compiacenti. La tecnologia dietro Deepfakes è qui per rimanere. ”

Riconoscimento facciale e sicurezza informatica
L’intelligenza artificiale è stata anche messa a fuoco per il suo uso nei sistemi di riconoscimento facciale alimentati da un significativo aumento dell’installazione di telecamere di sorveglianza a livello globale. Un recente rapporto di IHS Markit ha mostrato che la Cina è in testa al mondo con 349 milioni di telecamere di sorveglianza. Gli Stati Uniti hanno 70 milioni di telecamere, ma è vicino alla Cina su base pro capite con 4,6 persone per telecamera installate.

L’ascesa di telecamere dotate di AI e software di riconoscimento facciale ha portato allo sviluppo di un’industria di cottage su entrambi i lati dell’equazione. Una società di intelligenza artificiale cinese – SenseTime – ha affermato lo sviluppo di un algoritmo in grado di identificare una persona le cui caratteristiche facciali sono oscurate da una maschera chirurgica e utilizzare l’imaging termico per determinare la temperatura corporea.

Nel frattempo, un professore dell’Università del Maryland ha sviluppato una linea di abbigliamento , tra cui felpe con cappuccio e magliette, decorata con motivi appositamente progettati per sconfiggere i sistemi di riconoscimento delle telecamere di sorveglianza. Tutto ciò sottolinea le crescenti sfide sociali affrontate dai professionisti nel campo dell’IA.

L’altro problema complesso che colpisce l’industria dell’IA riguarda la sicurezza informatica. Man mano che l’adozione cresce e gli strumenti migliorano, l’uso dell’intelligenza artificiale non si limita agli utenti del “cappello bianco”. Gli hacker “black hat” hanno accesso anche all’intelligenza artificiale e hanno la possibilità di usarla.

Il venditore di sicurezza informatica McAfee Inc. ha riscontrato prove che gli hacker potrebbero utilizzare l’IA per identificare le vittime che potrebbero essere vulnerabili agli attacchi, secondo Steve Grobman , vicepresidente senior e responsabile della tecnologia di McAfee. Gli attori dannosi possono anche utilizzare la tecnologia per generare contenuti personalizzati come un modo per affinare le esche di phishing.

“L’intelligenza artificiale è un potente strumento sia per i difensori che per gli aggressori”, ha affermato Grobman. “L’intelligenza artificiale crea una nuova frontiera dell’efficienza per l’attaccante. Stiamo assistendo a una costante evoluzione delle tecniche di attacco. “

AI per operazioni e ricerca
I problemi di fiducia che circondano l’IA rappresentano un obiettivo importante in questo momento perché il treno AI ha lasciato la stazione e molti passeggeri sono a bordo per la corsa. L’intelligenza artificiale è diventata un elemento chiave nel miglioramento dell’efficienza operativa per molte aziende e numerosi relatori durante l’evento hanno sottolineato come le aziende impiegano la tecnologia.

Frito Lay Inc. utilizza l’intelligenza artificiale per analizzare i modelli meteorologici e gli orari scolastici per determinare quando incrementare l’inventario delle scaglie di mais sugli scaffali dei negozi. Il fornitore globale di assistenza sanitaria Novartis AG utilizza l’IA per supportare gli studi clinici e determinare i programmi di iniezione per le persone con degenerazione maculare.

E quando gli ingegneri del colosso marittimo DHL International hanno visto come l’IA poteva essere utilizzata per rilevare i gatti nei video di YouTube, si chiedevano se lo stesso approccio potesse essere adottato per ispezionare i pallet di spedizione per l’impilabilità negli aerei cargo.

“Queste sono piccole decisioni che stiamo prendendo per l’efficienza del carico su oltre 500 voli a notte”, ha affermato Ben Gesing , direttore di DHL e responsabile della ricerca sulle tendenze. “In DHL, nessuna nuova tecnologia è stata così pervasiva o in rapida crescita come l’IA.”

Forse ancora più intrigante è stata la recente notizia che Salesforce Inc. ha impiegato l’IA per intraprendere importanti ricerche sulla generazione di proteine. All’inizio di questo mese, Salesforce ha pubblicato uno studio che descriveva in dettaglio un nuovo sistema di intelligenza artificiale chiamato Proiettore che può generare proteine ​​in modo controllabile.

In una presentazione martedì, lo scienziato capo della Salesforce Richard Socher ha descritto come la società considerava l’IA come una strategia a doppio taglio. Uno è lo stato di “fantascienza”, in cui risiedono i sogni di auto a guida autonoma e grandi scoperte mediche. L’altro è lo stato di “elettricità”, che utilizza tecnologie come la comprensione del linguaggio naturale per alimentare i chatbot.

“L’IA è in questo doppio stato in questo momento”, ha detto Socher. “In Salesforce, stiamo cercando di affrontare entrambi questi stati. Credo davvero che l’IA avrà un impatto su ogni singolo settore là fuori. “

Se Socher ha ragione, allora ogni settore dovrà fare i conti con un modo per generare fiducia nel modo in cui utilizza la tecnologia. Un relatore di EmTech ha presentato i risultati di un recente studio Deloitte secondo cui solo uno su cinque CEO e dirigenti intervistati disponeva di un framework etico per l’IA.

“Ci aspettano sfide”, ha affermato Xiaomeng Lu , senior policy manager di Access Partnership. “Non possiamo scappare. Dobbiamo affrontarli a testa alta. “

Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi