L’IA stupida è un rischio maggiore dell’IA forte 

L’anno è il 2052. Il mondo ha evitato la crisi climatica grazie all’adozione finalmente dell’energia nucleare per la maggior parte della produzione di energia. È ormai opinione comune che le centrali nucleari siano un problema di complessità; Three Mile Island è ora una battuta finale piuttosto che un disastro. I timori per le scorie nucleari e le esplosioni degli impianti sono stati alleviati principalmente attraverso una migliore automazione del software. Quello che non sapevamo è che il software per tutte le centrali nucleari, realizzato da pochi fornitori diversi in tutto il mondo, condivide tutti lo stesso pregiudizio. Dopo due decenni di funzionamento impeccabile, diversi impianti indipendenti si guastano tutti nello stesso anno. Il consiglio degli amministratori delegati dell’energia nucleare si è reso conto che chiunque sappia come far funzionare le centrali nucleari di classe IV è morto o in pensione. Ora dobbiamo scegliere tra modernità e rischio inaccettabile.

L’intelligenza artificiale, o IA, sta vivendo un momento. Dopo un “inverno AI” pluridecennale, l’apprendimento automatico si è risvegliato dal suo torpore per trovare un mondo di progressi tecnici come l’apprendimento per rinforzo, i trasformatori e altro ancora con risorse computazionali che ora sono completamente preparate e possono sfruttare questi progressi.

 
Presentazione Perché rendere operativa la mesh di dati è fondamentale per operare nel cloud_
L’ascesa dell’IA non è passata inosservata; in effetti, ha stimolato molto dibattito. La conversazione è spesso dominata da coloro che hanno paura dell’IA. Queste persone vanno dai ricercatori di intelligenza artificiale etica che hanno paura dei pregiudizi ai razionalisti che contemplano eventi di estinzione. Le loro preoccupazioni tendono a ruotare attorno a un’IA difficile da capire o troppo intelligente da controllare, che alla fine persegue gli obiettivi di noi, i suoi creatori. Di solito, i booster dell’IA risponderanno con una virata tecno-ottimista. Sostengono che queste preoccupazioni sono completamente sbagliate, indicando le loro stesse argomentazioni astratte e dati concreti relativi al buon lavoro che l’IA ha svolto per noi finora per implicare che continuerà a fare del bene per noi in futuro.

Entrambi questi punti di vista mancano il punto. Una forma eterea di IA forte non è ancora arrivata e probabilmente non lo sarà per un po’ di tempo. Invece, affrontiamo un rischio più grande, che è qui oggi e sta solo peggiorando: stiamo implementando molta IA prima che sia completamente cotta. In altre parole, il nostro rischio più grande non è un’IA troppo intelligente, ma piuttosto un’IA troppo stupida. Il nostro rischio più grande è come la vignetta sopra: l’IA che non è malevola ma stupida. E lo stiamo ignorando.

L’intelligenza artificiale stupida è già disponibile
L’IA stupida è un rischio maggiore dell’IA forte principalmente perché la prima esiste effettivamente, mentre non è ancora noto con certezza se la seconda sia effettivamente possibile. Forse Eliezer Yudkowsky  ha detto meglio : “il più grande pericolo dell’intelligenza artificiale è che le persone concludano troppo presto di capirlo”.

 
La vera intelligenza artificiale è in uso, dalla produzione ai servizi di traduzione. Secondo McKinsey , ben il 70% delle aziende ha dichiarato di generare entrate dall’utilizzo dell’IA. Nemmeno queste sono applicazioni banali: l’IA viene utilizzata oggi in funzioni mission-critical, funzioni che la maggior parte delle persone crede ancora erroneamente siano lontane e ci sono molti esempi.

L’esercito americano sta già dispiegando  armi autonome (nello specifico, mine quadricotteri) che non richiedono decisioni di uccisione umana, anche se non abbiamo ancora un trattato autonomo sulle armi. Amazon ha effettivamente implementato uno strumento di smistamento dei curriculum basato sull’intelligenza artificiale prima  che fosse ritirato per sessismo . Il software di riconoscimento facciale utilizzato dagli attuali dipartimenti di polizia si  traduce in arresti illeciti . I sistemi di previsione della sepsi di Epic System sono  spesso sbagliati  anche se sono in uso negli ospedali degli Stati Uniti. IBM ha persino annullato un contratto di radiologia clinica da 62 milioni di dollari perché le sue raccomandazioni erano ” non sicure e errate “.


L’ovvia obiezione a questi esempi, avanzata  da  ricercatori come Michael Jordan, è che questi sono in realtà esempi di apprendimento automatico piuttosto che di intelligenza artificiale e che i termini non dovrebbero essere usati in modo intercambiabile. L’essenza di questa critica è che i sistemi di apprendimento automatico non sono veramente intelligenti, per una serie di ragioni, come l’incapacità di adattarsi a nuove situazioni o la mancanza di solidità rispetto ai piccoli cambiamenti. Questa è una bella critica, ma c’è qualcosa di importante nel fatto che i sistemi di apprendimento automatico possono ancora funzionare bene in compiti difficili senza istruzioni esplicite. Non sono macchine ragionanti perfette, ma nemmeno noi (se lo fossimo, presumibilmente, non perderemmo mai giochi a causa di questi programmi imperfetti come AlphaGo).

Di solito, evitiamo i rischi dell’IA stupida adottando diverse strategie di test. Ma questo si rompe in parte perché stiamo testando queste tecnologie in domini meno difficili in cui la tolleranza per l’errore è maggiore e quindi stiamo implementando la stessa tecnologia in campi ad alto rischio. In altre parole, entrambi i modelli di intelligenza artificiale utilizzati per il pilota automatico di Tesla e la moderazione dei contenuti di Facebook si basano sulla stessa tecnologia di base delle reti neurali, ma sembra certamente che i modelli di Facebook siano troppo zelanti mentre i modelli di Tesla sono troppo permissivi.


Da dove viene il rischio stupido dell’IA?
Innanzitutto, c’è un rischio drammatico derivante dall’IA che si basa su una tecnologia fondamentalmente raffinata ma su un’applicazione errata completa. Alcuni campi sono completamente invasi da cattive pratiche. Ad esempio, nella ricerca sul microbioma, una  metaanalisi ha  rilevato che l’88% delle carte nel suo campione erano così imperfette da essere chiaramente inaffidabili. Questa è una preoccupazione particolare poiché l’IA diventa più ampiamente implementata; ci sono molti più casi d’uso di quante persone sappiano sviluppare con attenzione i sistemi di IA o come implementarli e monitorarli.

Un altro problema importante è la distorsione latente. Qui, “pregiudizio” non significa solo discriminazione nei confronti delle minoranze, ma pregiudizio nel senso più tecnico di un modello che mostra un comportamento inaspettato ma è sempre distorto in una direzione particolare. I pregiudizi possono provenire da molti punti, sia che si tratti di un set di allenamento scadente, di una sottile implicazione della matematica o semplicemente di un incentivo imprevisto nella funzione di fitness. Dovrebbe farci riflettere, ad esempio, sul fatto che ogni algoritmo di filtraggio dei social media crea un pregiudizio verso comportamenti oltraggiosi, indipendentemente dall’azienda, dal paese o dall’università che ha prodotto quel modello. Potrebbero esserci molti altri pregiudizi di modello che non abbiamo ancora scoperto; il grande rischio è che questi pregiudizi possano avere un lungo ciclo di feedback ed essere rilevabili solo su larga scala, il che significa che ne saremo consapevoli solo in produzione dopo che il danno è stato fatto.

 
Esiste anche il rischio che i modelli con tale rischio latente possano essere distribuiti troppo ampiamente. Percy Liang di Stanford ha  notato  che i cosiddetti “modelli fondamentali” sono ora ampiamente utilizzati, quindi se c’è un problema in un modello fondamentale può creare problemi imprevisti a valle. La vignetta dell’esplosione nucleare all’inizio di questo saggio illustra esattamente quel tipo di rischio.

Mentre continuiamo a distribuire un’IA stupida, la nostra capacità di risolverlo peggiora nel tempo. Quando il Colonial Pipeline è stato violato, il CEO  ha notato  che non potevano passare alla modalità manuale perché le persone che storicamente gestivano gli oleodotti manuali erano in pensione o morte, un fenomeno chiamato ” dedilling “. In alcuni contesti, potresti voler insegnare un’alternativa manuale, come  insegnare ai marinai militari la navigazione celeste  in caso di guasto del GPS, ma questo è altamente impossibile poiché la società diventa sempre più automatizzata: il costo alla fine diventa così alto che lo scopo dell’automazione scompare . Sempre più spesso dimentichiamo come fare ciò che una volta facevamo per noi stessi, creando il rischio di ciò che Samo Burja  chiama  “esaurimento industriale”.

 
La soluzione: non meno IA, IA più intelligente
Quindi cosa significa questo per lo sviluppo dell’IA e come dovremmo procedere?

L’IA non se ne va. In effetti, verrà solo distribuito più ampiamente. Qualsiasi tentativo di affrontare il problema dell’IA stupida deve affrontare i problemi a breve e medio termine sopra menzionati, nonché le preoccupazioni a lungo termine che risolvono il problema, almeno senza dipendere dal  deus ex machina  che è l’IA forte.

Per fortuna, molti di questi problemi sono potenziali startup di per sé. Le dimensioni del mercato dell’IA variano ma possono facilmente superare i  $ 60 miliardi e il 40% di CAGR . In un mercato così grande, ogni problema può essere un’azienda da miliardi di dollari.

Il primo problema importante è l’IA difettosa derivante da uno scarso sviluppo o implementazione che va contro le migliori pratiche. Ci deve essere una migliore formazione, sia white label per le università che come formazione professionale, e ci deve essere un’Assemblea Generale per l’IA che lo faccia. Molti problemi di base, dalla corretta implementazione della convalida k-fold all’implementazione della produzione, possono essere risolti dalle società SaaS che si occupano del lavoro pesante. Questi sono grandi problemi, ognuno dei quali merita la propria compagnia.

 
Il prossimo grande problema sono i dati. Indipendentemente dal fatto che il tuo sistema sia supervisionato o non supervisionato (o addirittura simbolico!), è necessaria una grande quantità di dati per addestrare e quindi testare i tuoi modelli. Ottenere i dati può essere molto difficile, ma lo può anche essere l’etichettatura, lo sviluppo di buone metriche per la distorsione, la certezza che siano complete e così via. Scale.ai ha già dimostrato che esiste un ampio mercato per queste aziende; chiaramente, c’è molto altro da fare, inclusa la raccolta  di dati sulle prestazioni ex post  per l’ottimizzazione e la verifica delle prestazioni del modello.

Infine, dobbiamo migliorare l’IA reale. non dobbiamo temere la ricerca e le startup che migliorano l’IA; dovremmo temere la loro assenza. I problemi principali non derivano dall’IA che è troppo buona, ma dall’IA che è troppo cattiva. Ciò significa investimenti in tecniche per ridurre la quantità di dati necessari per creare buoni modelli, nuovi modelli di base e altro ancora. Gran parte di questo lavoro dovrebbe anche concentrarsi sul rendere i modelli più controllabili, concentrandosi su aspetti come la spiegabilità e l’esaminabilità. Anche se queste saranno aziende, molti di questi progressi richiederanno una spesa in ricerca e sviluppo all’interno di aziende esistenti e borse di ricerca alle università.

ANNUNCIO
Detto questo, dobbiamo stare attenti. Le nostre soluzioni potrebbero finire per peggiorare i problemi. Il trasferimento dell’apprendimento, ad esempio, potrebbe prevenire gli errori consentendo a diversi agenti di apprendimento di condividere i propri progressi, ma ha anche il potenziale per propagare bias o errori di misurazione. Dobbiamo anche bilanciare i rischi con i benefici. Molti sistemi di intelligenza artificiale sono estremamente vantaggiosi. Aiutano i disabili a navigare per le strade, consentono una traduzione superiore e gratuita e hanno reso la fotografia del telefono migliore che mai. Non vogliamo buttare via il bambino con l’acqua sporca.

Dobbiamo anche non essere allarmisti. Spesso penalizziamo l’IA per errori ingiustamente perché è una nuova tecnologia. L’ACLU  ha scoperto che il  membro del Congresso John Lewis è stato erroneamente coinvolto in una foto segnaletica di riconoscimento facciale; Lo status di eroe americano del membro del Congresso Lewis è solitamente usato come un “gotcha” per strumenti come Rekognition, ma il tasso di errore umano per le formazioni della polizia  può arrivare fino al 39% ! È come quando le batterie di Tesla prendono fuoco; ovviamente ogni incendio è un guasto, ma  le auto elettriche prendono fuoco molto meno spesso delle auto con motore a combustione . Il nuovo può essere spaventoso, ma i luddisti non dovrebbero avere un veto sul futuro.

 
L’IA è molto promettente; dobbiamo solo rendere più semplice renderlo veramente intelligente in ogni fase del percorso, per evitare danni reali e, potenzialmente, catastrofi. Siamo arrivati ​​così lontano. Da qui, sono fiducioso che andremo solo più lontano.

Strong ai vs dumb ai

Di ihal

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi