Una tecnologia rivoluzionaria è stata sviluppata per consentire l’apprendimento diretto dei modelli di intelligenza artificiale (AI) su dispositivi edge, come gli smartphone. Questo avanzamento promette di permettere l’aggiornamento continuo dell’intelligenza artificiale direttamente sui dispositivi, senza la necessità di connettersi al cloud.
Il MIT News ha riportato che i ricercatori del MIT e del MIT-IBM Watson AI Lab hanno presentato la tecnologia denominata “Pocket Engine”, che addestra i modelli di intelligenza artificiale utilizzando dati raccolti dai dispositivi edge.
Solitamente, per migliorare le applicazioni di IA sui dispositivi edge, i dati degli utenti devono essere trasferiti su un server cloud e i modelli devono essere ottimizzati. Tuttavia, questo metodo comporta costi elevati di connessione al cloud e rischi legati alla sicurezza dei dati che potrebbero uscire dal dispositivo.
Per risolvere queste sfide, Pocket Engine aiuta i modelli di IA ad adattarsi in modo efficiente ai nuovi dati direttamente dai dispositivi edge. In particolare, identifica le parti del modello AI che richiedono aggiornamenti per migliorare la precisione, ridurre il carico computazionale e accelerare il processo di ottimizzazione.
In confronto ai metodi tradizionali, i ricercatori hanno scoperto che Pocket Engine esegue il processo fino a 15 volte più velocemente, mantenendo comunque la precisione del modello su alcune piattaforme hardware. Inoltre, questo metodo ha notevolmente migliorato le prestazioni dei chatbot IA che rispondono a domande complesse.
Il professor Song Han, docente di informatica al MIT, ha dichiarato: “Attraverso questa ottimizzazione, siamo in grado di ottenere migliori informazioni personali, risparmi sui costi, personalizzazione delle funzioni e apprendimento continuo. Tuttavia, gestire questa situazione con risorse limitate non è semplice. Con Pocket Engine, saremo in grado di eseguire l’apprendimento non solo sull’edge, ma anche sull’edge stesso.”
I modelli di IA sono costituiti da reti neurali che collegano diversi livelli per l’elaborazione dei dati e le previsioni. Durante l’inferenza, i dati di input vengono elaborati attraverso questi livelli fino alla previsione finale, e non è necessario memorizzare tutti i dati intermedi.