Un test di velocità AI mostra che i programmatori intelligenti possono ancora battere giganti della tecnologia come Google e Intel

C’è una narrativa comune nel mondo dell’IA che più grande è meglio. Per addestrare gli algoritmi più veloci, dicono, sono necessari i set di dati più estesi e i processori più potenti. Basta guardare l’ annuncio di Facebook la scorsa settimana che ha creato uno dei sistemi di riconoscimento degli oggetti più accurato al mondo, utilizzando un set di dati di 3,5 miliardi di immagini. (Tutto preso da Instagram, naturalmente.) Questa narrazione avvantaggia i giganti della tecnologia, aiutandoli ad attirare talenti e investimenti, ma una recente competizione AI organizzata dalla Stanford University dimostra che la saggezza convenzionale non è sempre vera. Abbastanza adatto per il campo dell’intelligenza artificiale, risulta che i cervelli possono ancora sconfiggere i muscoli .

La prova proviene dalla sfida DAWNBench, che è stata annunciata dai ricercatori di Stanford lo scorso novembre ei vincitori hanno dichiarato la scorsa settimana. Pensa a DAWNBench come un incontro di atletica per gli ingegneri della IA, con ostacoli e salto in lungo termine sostituiti da compiti come il riconoscimento degli oggetti e la comprensione della lettura. Squadre e individui provenienti da università, dipartimenti governativi e industrie hanno gareggiato per progettare i migliori algoritmi, con i ricercatori di Stanford che agivano come giudici. Ogni voce doveva soddisfare gli standard di accuratezza di base (ad esempio, riconoscendo il 93% dei cani in un determinato set di dati) ed è stato giudicato su parametri come il tempo necessario per addestrare un algoritmo e quanto costava.

Queste metriche sono state scelte per riflettere le esigenze del mondo reale dell’IA, spiegano Matei Zaharia di Stanford e Cody Coleman. “Misurando il costo […] puoi scoprire se sei un gruppo più piccolo se hai bisogno di un’infrastruttura a livello di Google per competere”, racconta Zaharia a The Verge . E misurando la velocità di allenamento, sai quanto tempo ci vuole per implementare una soluzione di intelligenza artificiale. In altre parole, queste metriche ci aiutano a giudicare se le piccole squadre possono assumere i giganti della tecnologia.

I risultati non danno una risposta semplice, ma suggeriscono che la potenza di calcolo non è l’essenza e la fine per il successo di AI. L’ingegno nel modo in cui si progettano i propri algoritmi conta almeno per lo meno. Mentre le grandi aziende tecnologiche come Google e Intel avevano spettacoli prevedibilmente forti in una serie di attività, team più piccoli (e anche singoli) si sono classificati in modo ottimale utilizzando tecniche insolite e poco conosciute.

Prendiamo, ad esempio, una delle sfide del riconoscimento degli oggetti di DAWNBench, che ha richiesto ai team di addestrare un algoritmo in grado di identificare gli elementi in un database di immagini chiamato CIFAR-10. Database come questo sono comuni nell’IA e sono usati per la ricerca e la sperimentazione. CIFAR-10 è un esempio relativamente vecchio, ma rispecchia il tipo di dati che una società reale potrebbe aspettarsi di affrontare. Contiene 60.000 piccole immagini, solo 32 pixel per 32 pixel, con ogni immagine che rientra in una delle dieci categorie come “cane”, “rana”, “nave” o “camion”.

“RISULTATI DI LIVELLO MONDIALE CHE UTILIZZANO RISORSE DI BASE”.
In classifiche di DAWNBench, i primi tre posti per più veloce e algoritmi più economici per addestrare erano tutti presi dai ricercatori affiliati a un gruppo: Fast.AI . Fast.AI non è un grande laboratorio di ricerca, ma un gruppo senza scopo di lucro che crea risorse di apprendimento ed è dedicato a rendere l’apprendimento profondo “accessibile a tutti”. Il co-fondatore, imprenditore e scienziato di dati Jeremy Howard dell’Istituto, dice a The Vergeche la vittoria dei suoi studenti era dovuta al fatto di pensare in modo creativo, e questo dimostra che chiunque può “ottenere risultati di livello mondiale usando le risorse di base”.

Howard spiega che per creare un algoritmo per risolvere CIFAR, il gruppo di Fast.AI si è rivolto a una tecnica relativamente sconosciuta nota come “super convergenza”. Questo non è stato sviluppato da un’azienda tecnologica ben finanziata o pubblicato su un grande giornale, ma è stato creato e auto-pubblicato da un singolo ingegnere di nome Leslie Smith che lavora presso il Naval Research Laboratory.

Essenzialmente, la super convergenza funziona aumentando lentamente il flusso di dati utilizzato per addestrare un algoritmo. Pensa in questo modo, se insegnassi a qualcuno a identificare gli alberi, non inizieresti a mostrare loro una foresta. Invece, avresti introdotto le informazioni lentamente, iniziando insegnando loro come appaiono le singole specie e le foglie. Questo è un po ‘una semplificazione, ma il risultato è che usando la super convergenza, gli algoritmi di Fast.ai erano notevolmente più veloci di quelli della concorrenza. Sono stati in grado di addestrare un algoritmo in grado di ordinare CIFAR con la precisione richiesta in poco meno di tre minuti. La prossima squadra più veloce che non ha usato la super convergenza ha impiegato più di mezz’ora.

Non è andato tutto veloce. In un’altra sfida che utilizza il riconoscimento degli oggetti per ordinare attraverso un database chiamato ImageNet, Google è tornato a casa, prendendo le prime tre posizioni nel tempo di allenamento e il primo e il secondo nel costo dell’allenamento. (Fast.AI ha ottenuto il terzo posto in termini di costi e il quarto posto nel tempo.) Tuttavia, gli algoritmi di Google erano tutti in esecuzione sull’hardware AI della società; chip progettati appositamente per il compito noto come unità di elaborazione del tensore o TPU. In effetti, per alcune delle attività, Google ha utilizzato quello che definisce un “pod” in TPU, ovvero 64 chip TPU in esecuzione in tandem. . Per confronto, le voci di Fast.AI utilizzavano regolarmente GPU Nvidia che funzionavano con un singolo PC standard di bog; hardware che è più facilmente accessibile a tutti.

Le unità di elaborazione del tensore di Google (o TPU) sono chip speciali disponibili solo da Google.
Foto: Google
“Il fatto che Google abbia un’infrastruttura privata in grado di addestrare le cose facilmente è interessante ma forse non del tutto pertinente”, afferma Howard. “Invece, scoprire che puoi fare più o meno la stessa cosa con una singola macchina in tre ore a $ 25 è estremamente rilevante.”

Questi risultati di ImageNet sono rivelatori proprio perché sono ambigui. Sì, l’hardware di Google ha regnato sovrani, ma è una sorpresa quando parliamo di una delle più ricche aziende tecnologiche del mondo? E sì, mentre gli studenti di Fast.AI hanno escogitato una soluzione creativa, non è che Google non fosse anche geniale. Una delle voci dell’azienda utilizzava quello che definisce ” AutoML “, un insieme di algoritmi che cercano il miglior algoritmo per un dato compito senza la direzione umana. In altre parole, IA che progetta l’intelligenza artificiale.

La sfida di comprendere questi risultati non è solo questione di scoprire chi è il migliore – hanno chiare implicazioni sociali e politiche. Ad esempio, considera la questione di chi controlla il futuro dell’intelligenza artificiale. Saranno grandi aziende tecnologiche come Amazon, Facebook e Google, che useranno l’intelligenza artificiale per aumentare il loro potere e la loro ricchezza; o i benefici saranno più equamente e democraticamente disponibili?

Per Howard, queste sono domande cruciali. “Non voglio che l’apprendimento approfondito rimanga la sede esclusiva di un piccolo numero di persone privilegiate”, dice. “Mi dà davvero fastidio parlare con i giovani praticanti e studenti, questo messaggio che essere grandi è tutto. È un ottimo messaggio per aziende come Google perché riescono a reclutare gente perché credono che se non vai su Google non puoi fare un buon lavoro. Ma non è vero. ”

IL POTERE DELL’IA SARÀ CONTROLLATO DALLA GRANDE TECNOLOGIA O DISTRIBUITO IN MODO UNIFORME?
Purtroppo, non possiamo essere indovini di IA. Nessuno può prevedere il futuro del settore esaminando le ossa della sfida DAWNBench. E infatti, se i risultati di questa competizione mostrano qualcosa, è che questo è un campo ancora molto in divenire. Gli algoritmi piccoli e agili decideranno il futuro dell’IA o saranno la potenza di calcolo? Nessuno può dire, e aspettarsi una risposta semplice sarebbe comunque irragionevole.

Zaharia e Coleman, due degli organizzatori di DAWNBench, dicono che sono contenti di vedere la competizione suscitare una tale gamma di risposte. “C’era un’enorme quantità di diversità”, afferma Coleman. “Non sono troppo preoccupato per [una società] che si occupa del settore basandosi solo su ciò che è accaduto con l’apprendimento profondo. Siamo ancora in un momento in cui c’è un’esplosione di strutture in corso [e] un sacco di condivisione di idee “.

La coppia sottolinea che, sebbene non fosse un criterio per la competizione, la maggior parte delle voci di DAWNBench erano open source. Ciò significa che il loro codice sottostante è stato pubblicato online e che chiunque può esaminarlo, implementarlo e imparare da esso. In questo modo, dicono, chiunque vinca nelle sfide di DAWNBench, tutti ne traggono beneficio.

Aggiornamento 7 maggio, 10:30 ET ET: aggiornato per chiarire che l’ingresso di Google sul concorso ImageNet in DAWNBench è stato eseguito su un pod TPU, non su un TPU singolo.

Di ihal

Lascia un commento

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi