Ora Apple presenta una piattaforma AI senza codice
 
Trinity è composto da pipeline di dati, un sistema di gestione degli esperimenti, un’interfaccia utente e un kernel di deep learning containerizzato.
 
Recentemente, i ricercatori Apple , tra cui CV Krishnakumar Iyer, Feili Hou, Henry Wang, Yonghong Wang, Kay Oh, Swetava Ganguli, Vipul Pandey, hanno sviluppato Trinity, una piattaforma AI senza codice per set di dati spaziali complessi. 

La piattaforma consente ai ricercatori di apprendimento automatico e agli specialisti geospaziali non tecnici di sperimentare segnali e set di dati specifici del dominio per risolvere varie sfide. Adatta set di dati spazio-temporali complessi per adattarsi a modelli di apprendimento profondo standard, in questo caso, reti neurali convoluzionali  (CNN) e formulare problemi disparati in modo standard, ad es. segmentazione semantica.

Compila il sondaggio: utilizzo della scienza comportamentale per analizzare il comportamento dei clienti

“Crea un vocabolario condiviso che porta a una migliore collaborazione tra esperti di dominio, ricercatori di machine learning, data scientist e ingegneri. Attualmente, l’attenzione si concentra sulla segmentazione semantica, ma è facilmente estendibile ad altre tecniche come la classificazione, la regressione e la segmentazione delle istanze “, secondo il documento.

Sfide
Con l’aumento dei dispositivi intelligenti, viene generato e catturato un volume elevato di dati contenenti informazioni georeferenziate. Le tecniche ML sono ora entrate nel dominio geospaziale, inclusa l’analisi delle immagini iperspettrali, l’ interpretazione delle immagini satellitari ad alta risoluzione . Tuttavia, l’implementazione di tali soluzioni è ancora limitata a causa di sfide specifiche, quali:

L’elaborazione di grandi volumi di informazioni spazio-temporali e l’applicazione di soluzioni ML richiede competenze specializzate e quindi ha un’elevata barriera di ingresso, che impedisce agli specialisti del dominio non tecnici di risolvere i problemi da soli.
La soluzione è diversa in quanto i dati delle aree residenziali saranno molto diversi da quelli commerciali, dando luogo a flussi di lavoro di pre-elaborazione, post-elaborazione, distribuzione del modello e manutenzione non standard.
Gli ingegneri elaborano i dati mentre gli scienziati eseguono esperimenti per diversi problemi e comportano un sacco di avanti e indietro. Ciò ostacola la capacità di collaborare.
Trinity affronta queste sfide: 

Portare le informazioni in set di dati spazio-temporali disparati in un formato standard applicando complesse trasformazioni di dati a monte. 
Standardizzare la tecnica di risoluzione di problemi disparati per evitare soluzioni eterogenee.
Fornire un ambiente privo di codice facile da usare per una rapida sperimentazione, abbassando così la barra per l’ingresso.
Consente la prototipazione rapida, la sperimentazione rapida e riduce i tempi di produzione standardizzando la creazione e l’implementazione del modello. 

Stack tecnologico
Trinity è composto da pipeline di dati, un sistema di gestione degli esperimenti, un’interfaccia utente e un kernel di deep learning containerizzato.

L’archivio delle funzionalità della piattaforma è gestito in S3 (Simple Server Storage). I dati intermedi, gli input e le previsioni elaborate vengono archiviati in un file system distribuito (HDFS). I metadati relativi agli esperimenti, comprese le versioni dei modelli, sono archiviati in un’istanza di un DB PostgreSQL in esecuzione su un’infrastruttura cloud interna.
Cluster di elaborazione interni che ospitano GPU e CPU.
La formazione viene containerizzata utilizzando Docker e orchestrata da Kubernetes in esecuzione sul cluster GPU per la portabilità e il confezionamento. Le previsioni distribuite su larga scala vengono eseguite su cluster di CPU orchestrati da YARN.
Tensorflow 2.1.0 per l’addestramento di modelli di deep learning. Spark on Yarn per la preelaborazione dei dati, l’elaborazione dei canali, la gestione delle etichette, ecc.
Il kernel di deep learning è il cuore della piattaforma e incapsula le architetture di reti neurali per la segmentazione semantica e fornisce l’addestramento del modello, la valutazione, la gestione delle metriche e l’inferenza. Il kernel è attualmente implementato in TensorFlow ma può essere facilmente sostituito con altri framework. 

Di ihal