Watson Health e gli errori di guida semi-autonoma mostrano i pericoli di un’intelligenza artificiale troppo promettente
Questa settimana in AI, la realtà ha bussato, sia per la tecnologia sanitaria AI che per i sistemi di guida semi-autonomi. IBM ha accettato di vendere le attività della sua attività Watson Health alla società di investimento Francisco Partners, a seguito del forte calo delle prestazioni della divisione. Nel frattempo, l’Insurance Institute for Highway Safety (IIHS), un’organizzazione no-profit finanziata dal settore assicurativo, ha annunciato un nuovo programma di rating progettato per valutare in che modo i sistemi di automazione “parziali” come il pilota automatico di Tesla forniscono protezioni per prevenire l’uso improprio.
Gli sviluppi gemelli sono emblematici del problema perenne del settore dell’IA: riconoscere i limiti dell’IA. Jeffrey Funk e Gary Smith di Slate fanno un lavoro approfondito nel ricapitolare le previsioni dell’IA eccessivamente ottimistiche negli ultimi anni, inclusa la dichiarazione di Ray Kurzweil secondo cui i computer avranno un’intelligenza “a livello umano” e “la capacità di raccontare una barzelletta, essere divertenti, essere romantici , essere amorevole, essere sexy” entro il 2029.
Come confermerà qualsiasi esperto, l’IA non è affatto vicina all’avvicinarsi dell’intelligenza a livello umano, emotiva o meno. (La nuova stima di Kurzweil è del 2045.) Allo stesso modo, le auto a guida autonoma e l’assistenza sanitaria basata sull’intelligenza artificiale non hanno raggiunto le alte vette che i futuristi avevano immaginato di raggiungere. È una lezione importante per stabilire le aspettative – il futuro non è facile da prevedere, dopo tutto – ma anche un esempio di come la ricerca del profitto sovralimenti il ciclo dell’hype. Sotto la pressione per mostrare il ROI, alcune società di tecnologia sanitaria e di veicoli autonomi sono crollate sotto il peso delle loro promesse eccessive, come mostrano le notizie di questa settimana.
Cavalcando in alto la vittoria di Watson contro Jeopardy! Ken Jennings, IBM ha lanciato Watson Health nel 2015, posizionando la suite di servizi basati sull’intelligenza artificiale come il futuro dell’assistenza aumentata. L’obiettivo di vendita dell’azienda era che Watson Health potesse analizzare risme di dati medici, molto più velocemente di quanto potrebbe fare qualsiasi medico umano, apparentemente, per generare approfondimenti che migliorano i risultati sulla salute.
Secondo quanto riferito, IBM ha speso 4 miliardi di dollari per rafforzare la sua divisione Watson Health con acquisizioni, ma la tecnologia si è rivelata inefficiente nella migliore delle ipotesi e dannosa nella peggiore. Un rapporto STAT ha rilevato che la piattaforma spesso dava consigli sul trattamento del cancro scadenti e non sicuri perché i modelli di Watson Health sono stati addestrati utilizzando cartelle cliniche sintetiche errate piuttosto che dati reali dei pazienti.
La scomparsa di Watson Health può essere in parte attribuita alle mutevoli priorità del CEO di IBM Arvind Krishna , ma senza dubbio anche il crescente cinismo sulle capacità sanitarie dell’IA ha giocato un ruolo. Gli studi hanno dimostrato che quasi tutti i set di dati sulle malattie degli occhi provengono da pazienti in Nord America, Europa e Cina, il che significa che gli algoritmi di diagnosi delle malattie degli occhi sono meno sicuri di funzionare bene per i gruppi razziali dei paesi sottorappresentati. Un audit di un algoritmo del gruppo UnitedHealth ha stabilito che potrebbe sottostimare della metà il numero di pazienti neri che necessitano di maggiori cure. E un corpus di lavori in crescita suggerisce che gli algoritmi di rilevamento del cancro della pelle tendono ad essere meno precisi se usati su pazienti neri, in parte perché i modelli di intelligenza artificiale sono addestrati principalmente su immagini di pazienti di carnagione chiara.
I sistemi di guida semi-autonomi basati sull’intelligenza artificiale vengono sottoposti a un esame simile, in particolare quando le case automobilistiche aumentano il lancio di prodotti che affermano possono quasi guidare un’auto da soli. Nell’ottobre 2021, a Tesla è stato ordinato di consegnare i dati alla National Highway Traffic Safety Administration nell’ambito di un’indagine sulle auto dell’azienda che si sono schiantate contro veicoli parcheggiati. Il sospetto era che il pilota automatico di Tesla fosse responsabile, in parte o per intero, dei comportamenti pericolosi.
Non è un’ipotesi irragionevole. Alla fine dell’anno scorso, Tesla ha lanciato un aggiornamento al pilota automatico con un bug che causava l’attivazione del sistema di frenata automatica delle Tesla senza una ragione apparente. Ciò ha causato una rapida decelerazione delle auto mentre percorrevano l’autostrada, mettendole a rischio di tamponamento.
Tesla non è l’unico fornitore che ha lottato per perfezionare la tecnologia automobilistica semi-autonoma. Uno studio del 2020 che fa riflettere dell’American Automobile Association ha rilevato che la maggior parte dei sistemi semi-autonomi sul mercato, compresi quelli di Kia e BMW, hanno riscontrato problemi in media ogni otto miglia. Ad esempio, incontrando un veicolo disabile, i sistemi hanno causato una collisione il 66% delle volte.
Nel 2016, GM è stata costretta a respingere il lancio della sua funzione Super Cruise a causa di problemi non specificati. Ford ha recentemente ritardato il suo sistema BlueCruise per “semplificare” la tecnologia.
Questo ci porta alla novità di questa settimana: il programma di rating dell’Istituto di assicurazione per valutare le protezioni di sicurezza dei sistemi semi-autonomi. Il gruppo spera che incoraggerà le case automobilistiche a creare design migliori una volta che la prima serie di valutazioni, attualmente in fase di sviluppo, sarà pubblicata quest’anno.
“Il modo in cui funzionano molti di questi sistemi dà alle persone l’impressione di essere in grado di fare più di quanto non siano in realtà”, ha affermato la ricercatrice dell’Istituto di assicurazione Alexandra Mueller in una dichiarazione. “Ma anche quando i conducenti comprendono i limiti dell’automazione parziale, le loro menti possono ancora vagare. Come esseri umani, è più difficile per noi rimanere vigili quando osserviamo e aspettiamo che si verifichi un problema rispetto a quando siamo noi stessi a guidare”.
Questo è tutto per dire che l’IA, che si tratti di guida autonoma o di diagnosi di malattie, è fallibile, proprio come gli esseri umani che la progettano. Le visioni di un futuro dei Jetson potrebbero essere allettanti, ma quando sono in gioco vite umane, la storia ha dimostrato che è meglio essere eccessivamente cauti.