Una grande novità sull’intelligenza artificiale (AI) è stata annunciata durante il Google I/O di oggi: il lancio del modello di linguaggio di grandi dimensioni PaLM 2. Tuttavia, questa non è stata l’unica novità AI presentata all’evento.
Google sta anche implementando una serie di aggiornamenti e miglioramenti alla tecnologia di machine learning (ML) open source per il crescente ecosistema TensorFlow. TensorFlow è un progetto open source guidato da Google che fornisce strumenti di ML per aiutare gli sviluppatori a creare e allenare modelli.
Durante il Google I/O, Google ha introdotto la sua nuova tecnologia chiamata DTensor. Questa tecnologia introduce nuove tecniche di parallelismo nell’addestramento di modelli di ML, migliorando l’efficienza e la scalabilità dell’addestramento.
Un componente fondamentale dell’ecosistema TensorFlow è la suite di API Keras, che fornisce una serie di funzionalità di deep learning basate sul linguaggio di programmazione Python, oltre alla tecnologia di base di TensorFlow. Google ha annunciato due nuovi strumenti Keras: KerasCV per applicazioni di visione artificiale (CV) e KerasNLP per l’elaborazione del linguaggio naturale (NLP).
“Gran parte di ciò su cui ci concentriamo riguardo agli strumenti e allo spazio open source riguarda lo sviluppo di nuove capacità, efficienza e prestazioni”, ha dichiarato Alex Spinelli, vicepresidente della gestione dei prodotti di Google per l’apprendimento automatico, a VentureBeat. “Naturalmente, Google realizzerà anche prodotti fantastici e sorprendenti nell’ambito dell’AI e del ML, ma vogliamo anche creare un effetto a catena che porti benefici a tutti, quindi ci impegniamo molto sul fronte degli strumenti open source e nel supporto agli sviluppatori in generale”.
TensorFlow rimane il “centro di lavoro” per il machine learning in Google. In un’epoca in cui i modelli di linguaggio di grandi dimensioni (LLM) sono molto popolari, Spinelli ha sottolineato l’importanza di avere gli strumenti di addestramento di ML adeguati.
“TensorFlow è ancora il pilastro del machine learning”, ha affermato. “È ancora l’infrastruttura fondamentale [all’interno di Google] che supporta molti dei nostri sviluppi nell’ambito del machine learning”.
Per soddisfare le crescenti esigenze di addestramento dei modelli di ML, gli aggiornamenti di DTensor forniranno una maggiore “potenza”. DTensor introduce nuove funzionalità di parallelizzazione per ottimizzare i flussi di lavoro di addestramento.
Spinelli ha sottolineato che il machine learning sta diventando sempre più esigente in termini di dati e risorse di calcolo. Pertanto, è estremamente importante trovare modi per migliorare le prestazioni al fine di elaborare più dati e supportare modelli sempre più complessi. I nuovi aggiornamenti di Keras forniranno ancora più potenza, con componenti modulari che consentiranno agli sviluppatori di creare le proprie capacità di visione artificiale e di elaborazione del linguaggio naturale.
Ancora più potenza arriverà a TensorFlow grazie alla nuova tecnologia chiamata JAX2TF. JAX è un framework di ricerca per l’intelligenza artificiale ampiamente utilizzato da Google come libreria computazionale per costruire tecnologie come il chatbot Bard AI. Con JAX2TF, i modelli scritti in JAX saranno più facilmente utilizzabili nell’ecosistema TensorFlow.
“Una delle cose che ci entusiasma è vedere come queste tecnologie si diffonderanno nei prodotti e come la comunità degli sviluppatori prospererà”, ha affermato Spinelli.
Anche se TensorFlow rappresenta il fulcro degli sforzi di machine learning di Google, non è l’unica libreria di machine learning open source disponibile.
Negli ultimi anni, il framework open source PyTorch, originariamente creato da Facebook (ora Meta), ha guadagnato sempre più popolarità. Nel 2022, Meta ha contribuito a PyTorch con la Linux Foundation, creando la nuova PyTorch Foundation, un’iniziativa multi-stakeholder con un modello di governance aperto.
Spinelli ha sottolineato che l’obiettivo di Google è quello di supportare la scelta degli sviluppatori quando si tratta di strumenti di machine learning. Ha anche evidenziato che TensorFlow non è solo un framework di machine learning, ma un intero ecosistema di strumenti che possono supportare la formazione e lo sviluppo di una vasta gamma di casi d’uso e scenari di implementazione.
“Queste sono le stesse tecnologie che Google utilizza per costruire l’apprendimento automatico”, ha affermato Spinelli. “Penso che offriamo una soluzione molto competitiva per la costruzione di sistemi ad alte prestazioni su larga scala, garantendo che funzionino su tutte le infrastrutture del futuro”.
Al contrario di Meta, Google non ha intenzione di creare un’organizzazione indipendente come la Fondazione TensorFlow.
“Siamo soddisfatti del modo in cui TensorFlow si è sviluppato e di come viene gestito”, ha affermato Spinelli. “Siamo molto entusiasti dei fantastici aggiornamenti che stiamo presentando in questo momento”.