Home / Economia / Google e Microsoft e i rischi economici connessi ad una applicazione errata dell’intelligenza artificiale nei loro prodotti

Google e Microsoft e i rischi economici connessi ad una applicazione errata dell’intelligenza artificiale nei loro prodotti

Google e Microsoft avvertono gli investitori che una cattiva IA potrebbe danneggiare il loro marchio

Man mano che l’intelligenza artificiale diventa più comune, l’esposizione delle aziende agli aumenti degli ammortamenti algoritmici

Per le aziende come Google e Microsoft, l’intelligenza artificiale è una parte enorme del loro futuro, offre modi per migliorare i prodotti esistenti e creare flussi di entrate completamente nuovi. Ma, come rivelato dai recenti documenti finanziari, entrambe le aziende riconoscono che l’intelligenza artificiale, in particolare l’intelligenza artificiale parziale che prende decisioni sbagliate, potrebbe potenzialmente danneggiare i loro marchi e le loro attività.

Queste rivelazioni, individuate da Wired , sono state realizzate nei moduli 10-K delle società. Si tratta di documenti standardizzati che le aziende sono obbligate per legge a presentare ogni anno, offrendo agli investitori un’ampia panoramica delle loro attività e delle finanze recenti. Nel segmento intitolato “fattori di rischio”, sia Microsoft che Alphabet, la società madre di Google, hanno allevato AI per la prima volta.

Da Alphabet’s 10-K, archiviato la scorsa settimana :

“[N] nuovi prodotti e servizi, inclusi quelli che incorporano o utilizzano l’intelligenza artificiale e l’apprendimento automatico, possono sollevare nuove o esacerbare le attuali sfide etiche, tecnologiche, legali e di altro tipo, che possono influire negativamente sui nostri marchi e sulla domanda dei nostri prodotti e servizi e influire negativamente sui nostri ricavi e risultati operativi. “

E dal 10-K di Microsoft, presentato lo scorso agosto :

“Gli algoritmi di intelligenza artificiale potrebbero essere imperfetti. I set di dati potrebbero essere insufficienti o contenere informazioni distorte. Pratiche di dati inappropriate o controverse di Microsoft o di altri potrebbero compromettere l’accettazione delle soluzioni AI. Queste carenze potrebbero minare le decisioni, le previsioni o le analisi che le applicazioni AI producono, sottoponendoci a danni competitivi, responsabilità legali e danni alla marca o alla reputazione. Alcuni scenari di IA presentano problemi etici. Se abilitiamo o offriamo soluzioni di IA che sono controverse a causa del loro impatto sui diritti umani, sulla privacy, sull’occupazione o su altri problemi sociali, potremmo subire danni alla marca o alla reputazione. “

Queste rivelazioni non sono, nel complesso, sorprendentemente sorprendenti. L’idea del segmento “fattori di rischio” è quella di tenere gli investitori informati, ma anche di mitigare cause future che potrebbero accusare la gestione di nascondere potenziali problemi. Per questo motivo tendono ad essere estremamente ampi nelle loro competenze, coprendo anche i modi più ovvi in ​​cui un’azienda può sbagliare. Ciò potrebbe includere problemi come “qualcuno ha realizzato un prodotto migliore di noi e ora non abbiamo clienti” e “abbiamo speso tutti i nostri soldi quindi ora non ne abbiamo nessuno”.

Ma, come Wired’ sottolinea s Tom Simonite, è un po’ strano che queste aziende stanno solo notando AI come un fattore potenziale ora . Dopotutto, entrambi hanno sviluppato prodotti AI per anni, dall’iniziativa di auto a guida autonoma di Google, iniziata nel 2009, alla lunga esperienza di Microsoft con piattaforme di conversazione come Cortana. Questa tecnologia offre ampie opportunità di danni al marchio e, in alcuni casi, già ne ha. Ricordi quando il chatbot di Microsoft Tay è andato in onda su Twitter e ha iniziato a scatenare sciocchezze razziste in meno di un giorno? Anni dopo, è ancora regolarmente citato come esempio di IA andato male.

Tuttavia, si potrebbe anche sostenere che la consapevolezza pubblica dell’intelligenza artificiale e dei suoi potenziali effetti negativi è cresciuta enormemente nell’ultimo anno . Scandali come il lavoro segreto di Google con il Pentagono sotto Project Maven, il software di riconoscimento facciale di Amazon e l’incomparenza algoritmica di Facebook con lo scandalo di Cambridge Analytica hanno tutti messo in luce i problemi dell’IA malamente implementata. (È interessante notare che, nonostante un’esposizione simile, né Amazon né Facebook menzionano il rischio di IA nei loro ultimi 10-K.)

E Microsoft e Google stanno facendo più di molte aziende per tenersi aggiornati su questo pericolo. Microsoft, ad esempio, sta sostenendo che il software di riconoscimento facciale deve essere regolato per proteggersi da potenziali danni, mentre Google ha avviato la lenta attività di coinvolgere politici e accademici sulla governance dell’IA . Anche dare un colpo d’occhio agli investitori sembra giusto.

Lascia un commento

Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi