I termini “intelligenza artificiale” e “apprendimento automatico” sono spesso usati in modo intercambiabile, ma c’è un’importante differenza tra i due. L’intelligenza artificiale è un termine generico per una serie di tecniche che consentono ai computer di apprendere e agire come esseri umani. Detto in altro modo, IA è il computer essere intelligente. L’apprendimento automatico, tuttavia, spiega come il computer diventa intelligente.

Ma c’è una ragione per cui i due sono spesso confusi: la stragrande maggioranza dell’intelligenza artificiale oggi si basa sull’apprendimento automatico. Le aziende di tutti i settori stanno dando la priorità a vari casi d’uso nelle loro organizzazioni e il sottocampo supera i finanziamenti dell’IA a livello globale con un margine significativo. Solo nel primo trimestre del 2019 sono stati stanziati ben 28,5 miliardi di dollari per la ricerca sull’apprendimento automatico . Nel complesso, si prevede che il mercato dell’apprendimento automatico crescerà da circa 1 miliardo di dollari nel 2016 a 8,81 miliardi di dollari entro il 2022. Quando VentureBeat ha raccolto i pensieri delle migliori menti del settore , avevano una serie di previsioni da condividere. Ma una conclusione è stata che l’apprendimento automatico continua a plasmare il business e la società in generale.

 
L’ascesa dell’apprendimento automatico
Mentre l’intelligenza artificiale è onnipresente oggi, ci sono stati momenti in cui si pensava che l’intero campo fosse un disastro. Dopo i progressi iniziali e un sacco di clamore a metà degli anni ’50 e ’60, le scoperte si sono bloccate e le aspettative non sono state soddisfatte. Non c’era abbastanza potenza di calcolo per dare vita al potenziale e l’esecuzione di tali sistemi costava cifre esorbitanti. Ciò ha causato il prosciugamento sia degli interessi che dei finanziamenti in quello che è stato soprannominato “l’ inverno dell’IA “.

La ricerca è poi ripresa negli anni ’80, grazie a un aumento dei fondi per la ricerca e all’espansione del toolkit algoritmico. Ma non è durato, e c’è stato un altro inverno dell’IA lungo un decennio.

Poi si sono verificati due importanti cambiamenti che hanno permesso direttamente l’IA come la conosciamo oggi. Gli sforzi dell’intelligenza artificiale si sono spostati da sistemi basati su regole a tecniche di apprendimento automatico che potrebbero utilizzare i dati per apprendere senza essere programmati esternamente. E allo stesso tempo, il World Wide Web è diventato onnipresente nelle case (e poi nelle mani) di milioni (e infine miliardi) di persone in tutto il mondo. Ciò ha creato l’esplosione dei dati e della condivisione dei dati su cui si basa l’apprendimento automatico.

Come funziona l’apprendimento automatico
L’apprendimento automatico consente a un computer di “pensare” senza essere programmato esternamente. Invece di programmarlo manualmente per svolgere compiti specifici, come nel caso dei computer tradizionali, l’apprendimento automatico ti consente invece di fornire dati e descrivere ciò che desideri che il programma faccia.

Il computer si allena con quei dati e quindi utilizza algoritmi per eseguire l’attività desiderata. Raccoglie anche più dati man mano che procede, diventando “più intelligente” nel tempo. Una parte fondamentale di come funziona tutto questo è l’etichettatura dei dati. Se si desidera un programma per ordinare le foto del gelato e della pizza ai peperoni, ad esempio, è necessario prima etichettare alcune delle foto per dare all’algoritmo un’idea dell’aspetto che hanno il gelato e la pizza ai peperoni.

Questa etichettatura è anche una differenza fondamentale tra l’apprendimento automatico e un sottoinsieme popolare nel campo, chiamato deep learning . Il deep learning non richiede alcuna etichettatura, ma si affida a reti neurali, che sono ispirate al cervello umano sia nella struttura che nel nome. Per ordinare le foto di gelato e pizza ai peperoni usando questa tecnica, devi invece fornire un set di foto significativamente più grande. Il computer quindi sottopone le foto a diversi livelli di elaborazione, che costituiscono la rete neurale, per distinguere il gelato dalla pizza ai peperoni un passo alla volta. I livelli precedenti esaminano le proprietà di base come linee o bordi tra le parti chiare e scure delle immagini, mentre i livelli successivi identificano caratteristiche più complesse come forme o persino volti.

Applicazioni
L’apprendimento automatico e i suoi sottoinsiemi sono utili per un’ampia gamma di problemi, attività e applicazioni. C’è la computer vision , che permette ai computer di “vedere” e dare un senso a immagini e video. Inoltre, l’elaborazione del linguaggio naturale (NLP) è una parte crescente dell’apprendimento automatico, che consente ai computer di estrarre il significato del testo non strutturato. C’è anche il riconoscimento vocale e vocale, che alimenta servizi come Alexa di Amazon e Siri di Apple e ha introdotto per la prima volta molti consumatori all’intelligenza artificiale.

In tutti i settori, le aziende utilizzano l’apprendimento automatico nei loro prodotti e all’interno delle loro organizzazioni. L’apprendimento automatico può semplificare, ottimizzare e migliorare le operazioni della catena di approvvigionamento , ad esempio. È anche ampiamente utilizzato per l’analisi aziendale, la sicurezza, le vendite e il marketing. L’apprendimento automatico è stato persino utilizzato per aiutare a combattere il COVID-19 . Facebook si affida all’apprendimento automatico per eliminare i contenuti dannosi. Google lo utilizza per migliorare la ricerca. E American Express ha recentemente sfruttato la NLP per i suoi chatbot del servizio clienti e per eseguire una funzionalità di ricerca predittiva all’interno della sua app. La lista potrebbe continuare all’infinito.

Limiti e sfide
Sebbene l’apprendimento automatico sia promettente e stia già avvantaggiando le aziende di tutto il mondo, ci sono sfide e problemi associati al settore. Ad esempio, l’apprendimento automatico è utile per riconoscere i modelli, ma non funziona bene quando si tratta di generalizzare la conoscenza. Per gli utenti, c’è anche il problema della ” fatica dell’algoritmo “.

Alcuni dei problemi relativi all’apprendimento automatico hanno conseguenze significative che si stanno già manifestando oggi. La mancanza di spiegabilità e interpretabilità – nota come “problema della scatola nera” – è una di queste. I modelli di apprendimento automatico creano i propri comportamenti e decisioni in modi che nemmeno i loro creatori possono capire. Ciò rende difficile correggere gli errori e garantire che le informazioni fornite da un modello siano accurate ed eque. Quando le persone hanno notato che l’algoritmo di Apple per le carte di credito offriva alle donne linee di credito significativamente più piccole rispetto agli uomini , ad esempio, l’azienda non riusciva a spiegare perché e non sapeva come risolvere il problema.

Questo è legato al problema più significativo che affligge il campo: dati e bias algoritmico. Fin dall’inizio della tecnologia, i modelli di apprendimento automatico sono stati regolarmente e principalmente costruiti su dati raccolti ed etichettati in modi distorti , a volte per scopi specificamente distorti. È stato scoperto che gli algoritmi sono spesso prevenuti contro le donne , i neri e altri gruppi etnici . I ricercatori di DeepMind di Google, uno dei migliori laboratori di intelligenza artificiale al mondo, hanno avvertito che la tecnologia rappresenta una minaccia per le persone che si identificano come queer.

Questo problema è diffuso e ampiamente noto, ma c’è resistenza a intraprendere l’azione significativa che molti nel campo chiedono sia necessaria. La stessa Google ha licenziato i co- responsabili del suo team di intelligenza artificiale etica, Timnit Gebru e Margaret Mitchell , in quello che migliaia di dipendenti dell’azienda hanno definito un “licenziamento per ritorsione”, dopo che Gebru si è rifiutato di annullare la ricerca sui rischi dell’implementazione di modelli linguistici di grandi dimensioni. E in un sondaggio tra ricercatori, leader politici e attivisti, la maggioranza ha affermato di temere che l’evoluzione dell’IA entro il 2030 continuerà a concentrarsi principalmente sull’ottimizzazione dei profitti e del controllo sociale, a scapito dell’etica. Legislazione in materia di intelligenza artificiale – in particolare usi immediatamente e ovviamente dannosi, come il riconoscimento facciale per la polizia -è oggetto di dibattito e adozione in tutto il paese . Queste deliberazioni probabilmente continueranno. E le mutevoli leggi sulla privacy dei dati influenzeranno presto la raccolta dei dati e quindi anche l’apprendimento automatico.

Di ihal