Meta lancia PyTorch Live per creare esperienze mobili basate sull’intelligenza artificiale
 
Unisciti ai leader del gioco, insieme a GamesBeat e Facebook Gaming, per il loro secondo Summit annuale di GamesBeat e Facebook Gaming | GamesBeat: Into the Metaverse 2 il prossimo 25-27 gennaio 2022. Scopri di più sull’evento. 

 
Durante la conferenza del PyTorch Developer Day, Meta (precedentemente Facebook) ha annunciato PyTorch Live, un insieme di strumenti progettati per semplificare le esperienze basate sull’intelligenza artificiale per i dispositivi mobili. PyTorch Live offre un unico linguaggio di programmazione, JavaScript, per creare app per Android e iOS, nonché un processo per la preparazione di modelli di machine learning personalizzati da utilizzare dalla più ampia comunità PyTorch.

“La missione di PyTorch è accelerare il percorso dalla prototipazione della ricerca alla distribuzione in produzione. Con il crescente ecosistema di apprendimento automatico mobile, questo non è mai stato più importante di prima”, ha detto un portavoce a VentureBeat via e-mail. “Con l’obiettivo di ridurre l’attrito per gli sviluppatori mobili nella creazione di nuove soluzioni basate sull’apprendimento automatico, presentiamo PyTorch Live: uno strumento per creare, testare e (in futuro) condividere demo di intelligenza artificiale sul dispositivo basate su PyTorch”.

 
“Dai dati alla conoscenza”. In che modo l’organizzazione dei dati mediante LC:NC può ridurre drasticamente la complessità tecnica della derivazione della conoscenza dai dati._
 
PyTorch, che Meta ha rilasciato pubblicamente a gennaio 2017, è una libreria di machine learning open source basata su Torch, un framework di calcolo scientifico e un linguaggio di script a sua volta basato sul linguaggio di programmazione Lua. Sebbene TensorFlow sia in circolazione da un po’ più a lungo (da novembre 2015), PyTorch continua a vedere una rapida diffusione nella comunità di data science e sviluppatori. L’anno scorso, secondo il rapporto Octoverse di GitHub del 2018 , ha rivendicato uno dei primi posti per progetti open source in rapida crescita e Meta ha recentemente rivelato che nel 2019 il numero di contributori sulla piattaforma è cresciuto di oltre il 50% anno su anno fino a quasi 1.200.

PyTorch Live si basa su PyTorch Mobile , un runtime che consente agli sviluppatori di passare dall’addestramento di un modello alla distribuzione rimanendo all’interno dell’ecosistema PyTorch e alla libreria React Native per la creazione di interfacce utente visive. PyTorch Mobile potenzia l’inferenza sul dispositivo per PyTorch Live.

 

PyTorch Mobile è stato lanciato nell’ottobre 2019, in seguito al rilascio precedente di Caffe2go , una versione ottimizzata per CPU e GPU mobile del framework di apprendimento automatico Caffe2 di Meta. PyTorch Mobile può essere avviato con il proprio runtime ed è stato creato partendo dal presupposto che qualsiasi cosa uno sviluppatore voglia fare su un dispositivo mobile o edge, lo sviluppatore potrebbe anche voler fare su un server.

 
“Ad esempio, se vuoi mostrare un modello di app mobile che funziona su Android e iOS, ci sarebbero voluti giorni per configurare il progetto e creare l’interfaccia utente. Con PyTorch Live, dimezza i costi e non è necessario avere esperienza di sviluppatore Android e iOS”, ha dichiarato l’ingegnere del software Meta AI Roman Radle in un video preregistrato condiviso con VentureBeat prima dell’annuncio di oggi.

Strumenti integrati
PyTorch Live viene fornito con un’interfaccia a riga di comando (CLI) e un’API di elaborazione dati. La CLI consente agli sviluppatori di configurare un ambiente di sviluppo mobile e avviare progetti di app mobili. Per quanto riguarda l’API di elaborazione dati, prepara e integra modelli personalizzati da utilizzare con l’API PyTorch Live, che possono quindi essere integrati in app mobili basate su AI per Android e iOS.

In futuro, Meta prevede di consentire alla comunità di scoprire e condividere modelli e demo di PyTorch tramite PyTorch Live, oltre a fornire un’API di elaborazione dati più personalizzabile e supportare domini di apprendimento automatico che funzionano con dati audio e video.

 

“Questo è il nostro approccio iniziale per rendere più facile per gli [sviluppatori] creare app mobili e mostrare modelli di apprendimento automatico alla comunità”, ha continuato Radle. “È anche un’opportunità per fare un ulteriore passo avanti costruendo una fiorente comunità [di] ricercatori e sviluppatori di dispositivi mobili [che] condividono e utilizzano modelli mobili pilota e si impegnano in conversazioni tra loro”.

 

Di ihal