Home / APP Ai / Nvidia: i ricercatori addestrano l’intelligenza artificiale AI per premiare i cani per aver risposto correttamente ai comandi

Nvidia: i ricercatori addestrano l’intelligenza artificiale AI per premiare i cani per aver risposto correttamente ai comandi

Nvidia: i ricercatori addestrano l’IA per premiare i cani per aver risposto ai comandi

I ricercatori della Colorado State University Jason Stock e Tom Cavey hanno pubblicato un documento su un sistema di intelligenza artificiale che premia i cani per fare trucchi.

Gli studenti laureati in informatica hanno addestrato reti di classificazione delle immagini per determinare se un cane è seduto, in piedi o sdraiato. Se un cane risponde a un comando adottando la postura corretta, la macchina eroga un premio.

Gli studenti hanno utilizzato una piattaforma AI edge di Nvidia Jetson per il riconoscimento di trucchi e dolcetti in tempo reale. Stock e Cavey vedono il loro prototipo di sistema come l’aiuto di un addestratore di cani – gestisce i dolcetti – o un modo per insegnare ai cani a comportarsi meglio a casa.

“Abbiamo dimostrato il potenziale per un futuro prodotto di uscire da questo”, ha detto Stock in una dichiarazione.

I ricercatori avevano bisogno di immagini di cani che mostrassero le tre posture specificate. Hanno trovato i set di dati Stanford Dogs, con oltre 20.000 immagini di varie dimensioni che raffigurano cani in molte posizioni. Le immagini richiedevano una pre-elaborazione, quindi hanno scritto un programma per etichettarle rapidamente.

In una e-mail a VentureBeat, Nvidia ha detto: “Non funziona ancora da remoto; al momento è di persona. Ma sarebbe una configurazione facile per renderlo un sistema remoto. Potresti pensarlo come un sistema, o IP, per la licenza di dispositivi come Furbo . I ricercatori vedono molte possibili applicazioni ma non si sono ancora impegnati in nulla. “

Per perfezionare il modello, i ricercatori hanno applicato le funzionalità dei cani da ImageNet per consentire l’apprendimento del trasferimento. Successivamente, hanno applicato tecniche di post-formazione e ottimizzazione per aumentare la velocità e ridurre le dimensioni del modello.

Per le ottimizzazioni, hanno attinto al kit di sviluppo software Jetpack di Nvidia su Jetson, che è una piattaforma AI leggera per droni e altri sistemi. Offre un modo semplice per far funzionare le cose rapidamente e per accedere alle librerie TensorRT e cuDNN, ha affermato Stock. Le librerie di ottimizzazione Nvidia TensorRT hanno offerto “miglioramenti significativi in ​​termini di velocità”, ha aggiunto.

Attingendo al sistema informatico dell’università, Stock ha addestrato il modello durante la notte su due unità di elaborazione grafica (GPU) Nvidia RTX 6000 da 24 GB.

Modelli distribuiti su Henry
I ricercatori hanno testato i loro modelli su Henry, il pastore australiano di Cavey. Il modello ha raggiunto una precisione fino al 92% nei test e ha dimostrato la capacità di effettuare inferenze in frazioni di secondo a quasi 40 fotogrammi al secondo.

Utilizzando Jetson Nano, il sistema prende decisioni in tempo reale sui comportamenti del cane e rafforza le azioni positive con un premio, trasmettendo un segnale per rilasciare una ricompensa.

“Abbiamo esaminato Raspberry Pi e Coral, ma nessuno dei due era adeguato, e la scelta era ovvia per noi di utilizzare Jetson Nano”, ha detto Cavey.

L’intelligenza artificiale spiegabile aiuta a fornire trasparenza sulla composizione delle reti neurali. Sta diventando sempre più comune nel settore dei servizi finanziari come un modo per comprendere i modelli fintech. Stock e Cavey hanno incluso l’interpretazione del modello nel loro articolo per fornire un’IA spiegabile per l’industria degli animali domestici.

Lo fanno con le immagini dei video che mostrano l’analisi della postura. Un set di immagini si basa su GradCAM, una tecnica comune per visualizzare dove è focalizzato un modello di rete neurale convoluzionale. Un altro set di immagini spiega il modello toccando Gradienti integrati, che aiuta ad analizzare i pixel.

I ricercatori hanno affermato che era importante creare una componente affidabile ed etica del sistema di intelligenza artificiale per formatori e utenti generici. Altrimenti, non c’è modo di spiegare la metodologia, se dovesse essere messa in discussione.

“Possiamo spiegare cosa sta facendo il nostro modello e questo potrebbe essere utile a determinati stakeholder, altrimenti come puoi sostenere ciò che il tuo modello sta realmente imparando?” Disse Cavey.

Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi