Google introduce importanti aggiornamenti alla sua piattaforma Vertex AI
 
Al vertice di Google Cloud Applied ML di oggi , il gigante della ricerca e dell’IT aziendale ha rivelato un nuovo gruppo di funzionalità di prodotto e partnership tecnologiche progettate per aiutare gli utenti a creare, distribuire, gestire e mantenere in produzione modelli di machine learning (ML) in modo più rapido ed efficiente. 

L’ambiente di sviluppo dell’IA dell’azienda, Vertex AI , lanciato un anno fa alla conferenza Google I/O 21, è la base per tutti gli aggiornamenti. Questa è una piattaforma ML gestita progettata per consentire agli sviluppatori di accelerare la distribuzione e la manutenzione dei loro modelli di intelligenza artificiale.

 
Servizio di previsione di Google 
Una nuova aggiunta centrale a Vertex AI è il suo servizio di previsione. Secondo Surbhi Jain, Product Manager AI di Google Vertex, le sue caratteristiche includono quanto segue:

Prediction Service, un nuovo componente integrato di Vertex AI: “Quando gli utenti hanno un modello di machine learning addestrato e sono pronti per iniziare a soddisfare le richieste da esso, è qui che entra in uso. L’idea è di renderlo assolutamente senza soluzione di continuità per consentire sicurezza e scalabilità. Vogliamo rendere conveniente l’implementazione di un modello ML in produzione, indipendentemente da dove il modello è stato addestrato”, ha affermato Jain. 
Un servizio completamente gestito: “Il costo complessivo del servizio è basso perché Vertex AI è un servizio completamente gestito. Ciò significa che eleviamo il carico operativo su di te. La scalabilità automatica senza interruzioni riduce la necessità di sovradimensionare l’hardware”, ha affermato Jain. 
Una varietà di tipi di VM e GPU con Prediction Service: consente agli sviluppatori di scegliere l’hardware più conveniente per un determinato modello. “Inoltre, abbiamo molte ottimizzazioni proprietarie nel nostro back-end che riducono ulteriormente i costi rispetto all’open source . Abbiamo anche profonde integrazioni che sono costruite con altre parti della piattaforma”, ha affermato Jain.
Accesso pronto all’uso in Stackdriver : l’integrazione integrata per la registrazione richiesta-risposta in BigQuery sono componenti predefiniti per distribuire modelli dalle pipeline su base regolare, ha affermato Jain. “Ciò che comprende un servizio di previsione è anche intelligenza e assertività, il che significa che offriamo capacità per tenere traccia di come sta andando il modello una volta distribuito in produzione, ma anche capire perché sta facendo determinate previsioni”, ha affermato Jain. (Per contesto: Google Stackdriver è un servizio di gestione dei sistemi di cloud computing freemium, richiesto per la carta di credito. Fornisce dati diagnostici e sulle prestazioni agli utenti del cloud pubblico.)
Sicurezza e conformità integrate: “Puoi distribuire i tuoi modelli nel tuo perimetro sicuro. Il nostro strumento di controllo dell’integrazione PCSA (analisi della sicurezza pre-chiusura) ha accesso ai tuoi endpoint e i tuoi dati sono sempre protetti. Infine, con gli endpoint privati, Prediction Service introduce meno di due millisecondi di latenza di sovraccarico”, ha affermato Jain.
Più capacità e strumenti
Altre nuove funzionalità aggiunte di recente a Vertex AI includono quanto segue: 

Il runtime di TensorFlow ottimizzato è stato rilasciato per l’anteprima pubblica che consente di servire modelli TensorFlow a basso costo e a latenza inferiore rispetto ai contenitori di servizio TensorFlow predefiniti open source. Il runtime TensorFlow ora ottimizzato consente agli utenti di sfruttare alcune delle tecnologie proprietarie e delle tecniche di ottimizzazione dei modelli utilizzate internamente da Google, ha affermato Jain.
Google ha anche lanciato routine di previsione personalizzate in anteprima privata, rendendo la pre-elaborazione dell’input del modello e la post-elaborazione dell’output del modello facile come scrivere una funzione Python, ha affermato Jain. “L’abbiamo anche integrato con Vertex SDK, che consente agli utenti di creare i propri container personalizzati con i propri predittori personalizzati, senza dover scrivere un server modello o avere una conoscenza significativa di Docker. Consente inoltre agli utenti di testare le immagini costruite localmente molto facilmente. Insieme a questo, abbiamo anche lanciato il supporto per CO che ospita i modelli TensorFlow sulla stessa macchina virtuale. Anche questo è in anteprima privata al momento”, ha detto Jain. 
Altre note di notizie:

Google ha rilasciato Vertex AI Training Reduction Server , che supporta sia Tensorflow che PyTorch. Training Reduction Server è progettato per ottimizzare la larghezza di banda e la latenza della formazione distribuita multinodo su GPU Nvidia. Google afferma che ciò riduce significativamente il tempo di formazione richiesto per carichi di lavoro linguistici di grandi dimensioni, come BERT, e consente ulteriormente la parità dei costi tra diversi approcci. In molti scenari aziendali mission-critical, un ciclo di formazione ridotto consente ai data scientist di addestrare un modello con prestazioni predittive più elevate entro i limiti di una finestra di distribuzione. 
L’azienda ha lanciato un’anteprima di Vertex AI Tabular Workflows , che include un Glassbox e una pipeline AutoML gestita che consente di vedere e interpretare ogni fase del processo di creazione e distribuzione del modello. Apparentemente, gli utenti possono addestrare set di dati di oltre un terabyte senza sacrificare l’accuratezza, selezionando e scegliendo quali parti del processo desiderano che AutoML gestisca, rispetto a quali parti che desiderano progettare autonomamente. Glassbox è una società di software che vende software e servizi di analisi della riproduzione delle sessioni.
Google ha annunciato un’anteprima di Serverless Spark su Vertex AI Workbench . Ciò consente ai data scientist di avviare una sessione spark serverless all’interno dei propri notebook e sviluppare codice in modo interattivo.
I dati del grafico di Google
Nello spazio dei dati dei grafici, Google ha introdotto una partnership di dati con Neo4j che collega i modelli di machine learning basati su grafici. Ciò consente ai data scientist di esplorare, analizzare e progettare funzionalità dai dati connessi in Neo4j e quindi distribuire modelli con Vertex AI, il tutto all’interno di un’unica piattaforma unificata. Con Neo4j Graph Data Science e Vertex AI, i data scientist possono estrarre più potere predittivo dai modelli utilizzando input basati su grafici e arrivare alla produzione più rapidamente in casi d’uso come rilevamento di frodi e anomalie, motori di raccomandazione, customer 360, logistica e altro ancora.

 
Google Vertex AI è stato integrato da diversi mesi anche con il produttore di database di grafici TigerGraph ; è una parte fondamentale dell’offerta di Machine Learning (ML) Workbench dell’azienda.

Infine, Google ha evidenziato la sua partnership con Labelbox , che mira ad aiutare i data scientist a utilizzare dati non strutturati per costruire modelli di machine learning più efficaci su Vertex AI. 

Google afferma che Vertex AI richiede circa l’80% in meno di righe di codice per addestrare un modello rispetto alle piattaforme della concorrenza , consentendo a data scientist e ingegneri ML di tutti i livelli di esperienza la capacità di implementare operazioni di apprendimento automatico (MLops) per creare e gestire in modo efficiente progetti ML in tutto l’intero ciclo di vita dello sviluppo.

Vertex compete nello stesso mercato di Matlab, Alteryx Designer, IBM SPSS Statistics, RapidMiner Studio, Dataiku e DataRobot Studio, secondo Gartner Research .

Di ihal