Home / deep learning apprendimento profondo / Spell piattaforma operativa che fornisce gli strumenti necessari per addestrare modelli di intelligenza artificiale basati su algoritmi di deep learning

Spell piattaforma operativa che fornisce gli strumenti necessari per addestrare modelli di intelligenza artificiale basati su algoritmi di deep learning

Spell svela la piattaforma per le operazioni di deep learning per ridurre i costi di formazione sull’IA 

Spell ha presentato oggi una piattaforma operativa che fornisce gli strumenti necessari per addestrare modelli di intelligenza artificiale basati su algoritmi di deep learning.

Le piattaforme attualmente utilizzate per addestrare i modelli di intelligenza artificiale sono ottimizzate per algoritmi di apprendimento automatico. I modelli di intelligenza artificiale basati su algoritmi di deep learning richiedono la propria piattaforma di operazioni di deep learning (DLOps), ha detto a VentureBeat Tim Negris, capo del marketing di Spell.

 
La piattaforma Spell automatizza l’intero flusso di lavoro di deep learning utilizzando strumenti sviluppati dall’azienda per aiutare le organizzazioni a creare e addestrare modelli di intelligenza artificiale per applicazioni di visione artificiale e riconoscimento vocale che richiedono algoritmi di deep learning.

Radici profonde
Gli algoritmi di deep learning fanno risalire la loro discendenza alle reti neurali in un campo di apprendimento automatico che struttura gli algoritmi in strati per creare una rete neurale in grado di apprendere e prendere decisioni intelligenti da sola. Gli artefatti e i modelli creati utilizzando algoritmi di deep learning, tuttavia, non si prestano alle stesse piattaforme utilizzate per gestire le operazioni di apprendimento automatico (MLOps), ha affermato Negris.

Un modello di intelligenza artificiale basato su algoritmi di deep learning può richiedere il monitoraggio e la gestione di centinaia di esperimenti con migliaia di parametri che coprono un gran numero di unità di elaborazione grafica (GPU), ha osservato Negris. La piattaforma Spell risponde specificamente alla necessità di gestire, automatizzare, orchestrare, documentare, ottimizzare, distribuire e monitorare i modelli di deep learning durante l’intero ciclo di vita, ha affermato. “I team di data science devono essere in grado di spiegare e riprodurre i risultati del deep learning”, ha aggiunto Negris.

Sebbene la maggior parte delle piattaforme MLOps esistenti non sia adatta alla gestione di algoritmi di deep learning, Negris ha affermato che la piattaforma Spell può essere utilizzata anche per gestire modelli di intelligenza artificiale basati su algoritmi di apprendimento automatico. Spell non fornisce alcuno strumento per gestire il ciclo di vita di tali modelli, ma i team di data science possono aggiungere il proprio framework di terze parti per la loro gestione alla piattaforma Spell.

La piattaforma Spell riduce anche i costi richiamando automaticamente le istanze spot che i provider di servizi cloud rendono disponibili per un periodo di tempo limitato quando possibile, ha affermato Negris. Questa capacità può ridurre il costo totale dell’addestramento di un modello di intelligenza artificiale fino al 66%, ha aggiunto. Ciò è significativo perché il costo dell’addestramento di modelli di intelligenza artificiale basati su algoritmi di deep learning può in alcuni casi raggiungere milioni di dollari.

Un approccio ibrido
Col tempo, la maggior parte delle applicazioni di intelligenza artificiale sarà costruita utilizzando un mix di algoritmi automatici e di deep learning. Infatti, poiché la costruzione di modelli di intelligenza artificiale utilizzando algoritmi di apprendimento automatico diventa più automatizzata, molti team di data science trascorreranno più tempo a costruire modelli di intelligenza artificiale sempre più complessi basati su algoritmi di deep learning. Anche il costo della creazione di modelli di intelligenza artificiale basati su algoritmi di deep learning dovrebbe diminuire costantemente man mano che le GPU distribuite in un ambiente IT locale o accessibili tramite un servizio cloud diventano più convenienti.

Nel frattempo, Negris ha affermato che mentre i flussi di lavoro per la creazione di modelli di intelligenza artificiale convergeranno, è improbabile che gli approcci tradizionali alla gestione dei processi di sviluppo delle applicazioni basati su piattaforme DevOps vengano estesi per incorporare modelli di intelligenza artificiale. La continua riqualificazione dei modelli di intelligenza artificiale soggetti a deriva non si presta ai processi più lineari che vengono impiegati oggi per costruire e distribuire applicazioni tradizionali, ha affermato.

Tuttavia, tutti i modelli di intelligenza artificiale che vengono addestrati alla fine devono trovare la loro strada in un’applicazione distribuita in un ambiente di produzione. La sfida che molte organizzazioni devono affrontare oggi è allineare la velocità con cui vengono sviluppati i modelli di intelligenza artificiale con il ritmo più veloce con cui le applicazioni vengono ora distribuite e aggiornate.

In un modo o nell’altro, è solo questione di tempo prima che ogni applicazione, a vari livelli, incorpori uno o più modelli di intelligenza artificiale. Il problema in futuro è trovare un modo per ridurre il livello di attrito che si verifica ogni volta che un modello di intelligenza artificiale deve essere distribuito all’interno di un’applicazione.

 

Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi