Home / Archive by category "deep learning apprendimento profondo"

deep learning apprendimento profondo

I Robot Danzanti che insegnano a loro stessi a camminare attraverso l’apprendimento per rinforzo

Il robot insegna a se stesso a camminare attraverso l'apprendimento per rinforzo Mentre Boston Dynamics e i robot danzanti di solito ricevono la maggior parte dell'attenzione, ci sono alcuni importanti sviluppi in atto dietro le quinte che non ricevono una copertura sufficiente. Uno di questi sviluppi proviene da un laboratorio di Berkeley, dove un robot di nome Cassie è stato in grado di insegnare a se stesso a camminare attraverso l' apprendimento per rinforzo . Dopo tentativi ed errori, la coppia di gambe robotiche ha imparato a navigare in un ambiente simulato prima di essere messa alla prova nel mondo reale. Inizialmente, il robot ha dimostrato la capacità di camminare in tutte le direzioni, camminare mentre si accovaccia, riposizionarsi quando viene spinto fuori equilibrio e adattarsi a diversi tipi di superfici. Mentre i robot come quelli di Boston Dynamics sono estremamente impressionanti e stupiscono quasi tutti coloro che li guardano, ci sono alcuni fattori chiave. In particolare, questi robot sono programmati a mano e coreografati per ottenere il risultato, ma questo non è il metodo preferito nelle situazioni del mondo reale. Al di fuori del laboratorio, i robot devono essere robusti, resilienti, flessibili e molto altro ancora. Inoltre, devono essere in grado di affrontare e gestire situazioni impreviste, il che può essere fatto solo consentendo loro di gestire tali situazioni da soli. https://youtu.be/goxCjGPQH7U Zhongyu Li faceva parte del team che lavorava su Cassie presso l'Università di Berkeley. "Questi video possono indurre alcune persone a credere che questo sia un problema risolto e facile", dice Li. "Ma abbiamo ancora molta strada da fare per far funzionare e vivere in modo affidabile i robot umanoidi in ambienti umani". Apprendimento per rinforzo per un controllo della locomozione parametrizzato robusto di robot bipedi Insegnamento rafforzativoPer creare un tale robot, il team di Berkeley si è basato sull'apprendi...
Continua a Leggere

Phrasee lancia l’ottimizzazione della lingua in tempo reale basata sul deep learning

Phrasee , leader nell'ottimizzazione del linguaggio del marchio, ha annunciato oggi Phrasee X, la prima tecnologia che consente ai professionisti del marketing di ottimizzare automaticamente il linguaggio in tempo reale. L'introduzione di Phrasee X fa entrare Phrasee nel mercato della customer experience (CX) da $ 8,5 miliardi come l'unica tecnologia che consente ai marchi di rispondere ai clienti in modo più agile e personale, testando e aggiornando continuamente il loro linguaggio di marketing in ogni fase del percorso del cliente. Phrasee X utilizza tecniche avanzate di apprendimento automatico per ottimizzare il linguaggio del marchio in tempo reale, con un solo clic. Si basa sulla generazione del linguaggio naturale e sulle capacità di apprendimento profondo di Phrasee per migliorare la sua piattaforma SaaS basata sull'intelligenza artificiale. È un "punto di svolta" e consente ai marchi di generare, ottimizzare, automatizzare e analizzare il linguaggio nella propria voce di marca. Marchi globali tra cui Domino's, eBay, Groupon, FARFETCH e Walgreens si affidano alla piattaforma di Phrasee per generare il linguaggio del marchio. Con lo sviluppo di Phrasee X, saranno in grado di testare più messaggi contemporaneamente per identificare il linguaggio con le migliori prestazioni, migliorando la copia con ogni invio per fornire il contenuto giusto negli ambienti digitali - ogni volta - per aumentare il coinvolgimento e i tassi di conversione. La tecnologia è stata creata per integrarsi perfettamente con i più grandi attori della tecnologia di marketing CX, tra cui Adobe e Salesforce. Phrasee X alimenterà i prodotti esistenti e la roadmap futura di Phrasee, che consentiranno alle aziende di attrarre, coinvolgere, reagire e convertire i clienti con un linguaggio ottimizzato. "Il nostro rapporto con Phrasee va sempre più rafforzandosi", ha affermato Marissa Contreras, Direttore, Retention Marketing & Marketing Operations, Sephora. "La tecnologia ...
Continua a Leggere

La rete neurale profonda può eseguire lo screening per malattie della pelle sul laptop

Una nuova architettura di rete neurale profonda in grado di fornire una diagnosi precoce della sclerosi sistemica (SSc) è stata segnalata dal presidente fondatore del dipartimento di ingegneria biomedica presso l'Università di Houston. La SSc è una rara malattia autoimmune che causa pelle e organi interni induriti o fibrosi. La rete proposta è implementata con un computer portatile standard e può immediatamente riconoscere le differenze tra le immagini di pelle sana e la pelle con SSc. La ricerca è stata pubblicata su IEEE Open Journal of Engineering in Medicine and Biology . Metin Akay è professore di ingegneria biomedica alla John S. Dunn Endowed Chair. "Il nostro studio preliminare, inteso a dimostrare l'efficacia dell'architettura di rete proposta, è promettente nella caratterizzazione di SSc", afferma Akay. "Riteniamo che l'architettura di rete proposta possa essere facilmente implementata in un contesto clinico, fornendo uno strumento di screening semplice, economico e accurato per SSc". SSc e diagnosi precoceÈ estremamente importante che la SSc venga diagnosticata precocemente, ma spesso è difficile da ottenere. Vari studi dimostrano che il coinvolgimento degli organi potrebbe avvenire molto prima del previsto, nella fase iniziale della malattia. Poiché è così difficile anche per i medici dei centri esperti diagnosticare precocemente e determinare l'entità della progressione della malattia, ci sono spesso lunghi ritardi nella terapia e nel trattamento. Addestrare il sistemaIl deep learning mette gli algoritmi in livelli, chiamati rete neurale artificiale , che possono prendere le proprie decisioni. I ricercatori si sono proposti di accelerare il processo di apprendimento, quindi hanno addestrato la nuova rete utilizzando i parametri di MobileNetV2, un'applicazione di visione mobile. È pre-addestrato con 1,4 milioni di immagini dal set di dati ImageNet. Il tempo di formazione è durato solo meno di cinque ore. "Scansionando le im...
Continua a Leggere

I sistemi di intelligenza artificiale potrebbero preferire il linguaggio umano invece dei dati numerici

Una nuova ricerca proveniente dalla Columbia Engineering suggerisce che i sistemi di intelligenza artificiale (AI) preferiscono il linguaggio umano invece dei dati numerici come 1 e 0. Il nuovo studio è del professore di ingegneria meccanica Hod Lipson e del dottorando Boyuan Chen, e ha dimostrato che i sistemi di intelligenza artificiale potrebbero raggiungere livelli di prestazioni più elevati se programmati con file audio in linguaggio umano. In un confronto fianco a fianco, i ricercatori hanno scoperto che una rete neurale addestrata da file audio ha raggiunto livelli di prestazioni più elevati nell'identificazione degli oggetti, rispetto all'altra rete programmata con semplici input binari. Lipson è un professore di innovazione di James e Sally Scapa e membro del Data Science Institute della Columbia . "Per capire perché questa scoperta è significativa, è utile capire come vengono solitamente programmate le reti neurali e perché l'uso del suono della voce umana è un esperimento radicale", ha detto. L'uso di numeri binari è compatto e preciso, mentre il linguaggio umano è più complesso e non binario quando viene catturato in un file digtal. I programmatori di solito non si discostano dai numeri quando sviluppano una rete neurale poiché è altamente efficiente. Il team ha intrapreso questa ricerca dopo aver pensato che le reti neurali non stiano raggiungendo il loro pieno potenziale e credevano che avrebbero potuto essere più veloci e migliori se fossero state addestrate con la voce umana e parole specifiche. https://youtu.be/Iq2YjHCAPRQ Formazione delle retiQuando testano una nuova tecnica di apprendimento automatico , i ricercatori di intelligenza artificiale spesso addestrano una rete neurale per riconoscere oggetti e animali specifici in una raccolta di fotografie. Il team, che comprendeva Chen, Lipson, Yu Li e Susan Raghupathi, ha organizzato un esperimento controllato per testare la loro ipotesi e ha creato due nuove reti neura...
Continua a Leggere

Principali difetti riscontrati nell’apprendimento automatico per la diagnosi COVID-19

Una coalizione di ricercatori di intelligenza artificiale e professionisti sanitari in campi come malattie infettive, radiologia e ontologia ha riscontrato diverse carenze comuni ma gravi con l'apprendimento automatico realizzato per la diagnosi o la prognosi COVID-19. Dopo l'inizio della pandemia globale, startup come DarwinAI , grandi aziende come Nvidia e gruppi come l'American College of Radiology hanno lanciato iniziative per rilevare COVID-19 da scansioni TC, raggi X o altre forme di imaging medico. La promessa di tale tecnologia è che potrebbe aiutare gli operatori sanitari a distinguere tra polmonite e COVID-19 o fornire più opzioni per la diagnosi del paziente. Alcuni modelli sono stati persino sviluppati per prevedere se una persona morirà o avrà bisogno di un ventilatore sulla base di una TAC. Tuttavia, i ricercatori affermano che sono necessari importanti cambiamenti prima che questa forma di apprendimento automatico possa essere utilizzata in un contesto clinico. I ricercatori hanno valutato più di 2.200 articoli e, attraverso un processo di rimozione di duplicati e titoli irrilevanti, hanno ridotto i risultati a 320 articoli sottoposti a una revisione del testo completo per verificarne la qualità. Infine, 62 articoli sono stati ritenuti idonei a far parte di ciò a cui gli autori si riferiscono come una revisione sistematica della ricerca pubblicata e dei preprint condivisi su archivi di documenti di ricerca aperti come arXiv, bioRxiv e medRxiv. Di questi 62 documenti inclusi nell'analisi, circa la metà non ha tentato di eseguire la convalida esterna dei dati di addestramento, non ha valutato la sensibilità o la robustezza del modello e non ha riportato i dati demografici delle persone rappresentate nei dati di addestramento. Anche i set di dati "Frankenstein", del tipo realizzato con immagini duplicate ottenute da altri set di dati, sono risultati essere un problema comune e solo uno su cinque modelli di diagnosi o prognosi COVID-...
Continua a Leggere

Gli acceleratori di inferenza e addestramento di intelligenza artificiale di Habana Labs per fornire un calcolo AI ad alte prestazioni e alta efficienza nel suo supercomputer Voyager

GLI Acceleratori IA di Habana Labs da utilizzare nel supercomputer Voyager Il San Diego Supercomputer Center (SDSC) dell'UC San Diego ha selezionato gli acceleratori di inferenza e addestramento di intelligenza artificiale (AI) di Habana Labs per fornire un calcolo AI ad alte prestazioni e alta efficienza nel suo supercomputer Voyager . Habana Labs è uno sviluppatore leader di acceleratori di apprendimento profondo appositamente progettati . Supercomputer VoyagerIl supercomputer Voyager scalerà la capacità di addestramento dell'IA con l'esclusiva tecnologia di interconnessione di Habana, in particolare 336 processori Gaudi. Questi processori sono particolarmente adatti per il ridimensionamento di grandi applicazioni di addestramento per supercomputer e Gaudi è l'unico processore AI nel settore in grado di integrare nativamente dieci porte Ethernet da 100 Gigabit di RoCE v2 su chip. Ciò consente flessibilità di scalabilità e aiuta a evitare colli di bottiglia del throughput, che possono limitare la capacità di scalabilità. Oltre a questo, il sistema Voyager contiene anche 16 processori Habana Goya, che vengono utilizzati per alimentare i modelli di inferenza AI. Amitava Majumdar è a capo della divisione Data Enables Scientific Computing di SDSC e investigatrice principale per il progetto Voyager. "Con soluzioni innovative ottimizzate per operazioni di deep learning e carichi di lavoro di intelligenza artificiale, gli acceleratori Habana sono la scelta ideale per alimentare l'imminente ricerca sull'intelligenza artificiale di Voyager", ha affermato Majumdar. "Non vediamo l'ora di collaborare con Habana, Intel e Supermicro per portare questa classe di capacità di elaborazione straordinariamente efficiente al programma Voyager, dando ai ricercatori accademici l'accesso a uno dei sistemi focalizzati sull'intelligenza artificiale più capaci oggi disponibili". Le prestazioni e l'efficienza nelle operazioni di intelligenza artificiale sono aumentate con la f...
Continua a Leggere

Una rete di intelligenza artificiale del MIT per resistere agli esempi contraddittori

Il team di ricerca del MIT progetta una rete di intelligenza artificiale per resistere agli esempi contraddittori Un team di ricercatori del MIT ha sviluppato un algoritmo di apprendimento profondo inteso ad aiutare le IA a far fronte a esempi "contraddittori", che possono indurre un'IA a fare previsioni sbagliate e ad eseguire azioni sbagliate. L'algoritmo progettato dal team del MIT può aiutare i sistemi di intelligenza artificiale a mantenere la loro precisione ed evitare di commettere errori di fronte a punti dati confusi. I sistemi di intelligenza artificiale analizzano le caratteristiche di input di un evento per decidere come rispondere a quell'evento. Un'IA responsabile della manovra di un veicolo autonomo deve prendere i dati dalle telecamere del veicolo e decidere cosa fare in base ai dati contenuti in quelle immagini. Tuttavia, c'è la possibilità che i dati dell'immagine analizzati dall'intelligenza artificiale non siano una rappresentazione accurata del mondo reale. Un problema tecnico nel sistema della fotocamera potrebbe alterare alcuni pixel, portando l'IA a trarre conclusioni errate sulla linea di condotta appropriata. Gli "input del contraddittorio" sono come illusioni ottiche per un sistema di intelligenza artificiale. Sono input che confondono in qualche modo un'intelligenza artificiale. Gli input contraddittori possono essere creati con l'obiettivo esplicito di far commettere errori a un'intelligenza artificiale, rappresentando i dati in un modo che induce l'IA a credere che i contenuti di un esempio siano una cosa invece di un'altra. Ad esempio, è possibile creare un esempio contraddittorio per un sistema di visione artificiale apportando lievi modifiche alle immagini di gatti, facendo sì che l'IA classifichi erroneamente le immagini come monitor di computer. Il team di ricerca del MIT ha progettato un algoritmo per proteggere dagli esempi contraddittori lasciando che il modello mantenga un certo "scetticismo" sugli input che riceve. ...
Continua a Leggere

I ricercatori scoprono che i modelli di linguaggio di grandi dimensioni hanno difficoltà con la matematica

La matematica è il fondamento di innumerevoli scienze, che ci consente di modellare cose come orbite planetarie, movimento atomico, frequenze dei segnali, ripiegamento delle proteine ​​e altro ancora. Inoltre, è un valido banco di prova per la capacità di risolvere i problemi, perché richiede che i risolutori di problemi analizzino una sfida, scelgano buoni metodi e li concatenino per produrre una risposta. È rivelatore, quindi, che per quanto sofisticati come i modelli di apprendimento automatico siano oggi, anche i modelli all'avanguardia fanno fatica a rispondere correttamente alla maggior parte dei problemi di matematica. Un nuovo studio pubblicato dai ricercatori dell'Università della California, Berkeley, rileva che i modelli di linguaggio di grandi dimensioni, tra cui GPT-3 di OpenAI, possono completare solo il 2,9% -6,9% dei problemi da un set di dati di oltre 12.500. I coautori ritengono che saranno probabilmente necessari nuovi progressi algoritmici per fornire ai modelli capacità di problem solving più forti. Ricerche precedenti hanno dimostrato l'utilità dell'IA che ha una solida conoscenza dei concetti matematici. Ad esempio, OpenAI ha recentemente introdotto GPT-f, un prover automatizzato e un assistente di prova per il linguaggio di formalizzazione Metamath. GPT-f ha trovato nuove prove brevi che sono state accettate nella libreria Metamath principale, la prima volta che un sistema basato sull'apprendimento automatico ha fornito prove che sono state adottate da una comunità matematica formale. Da parte sua, Facebook afferma anche di aver sperimentato con successo algoritmi di intelligenza artificiale per la risoluzione di matematica. In un post sul blog lo scorso gennaio, i ricercatori dell'azienda hanno affermato di aver insegnato a un modello per visualizzare complesse equazioni matematiche "come una sorta di linguaggio e quindi [trattare] le soluzioni come un problema di traduzione". “Mentre la maggior parte delle altre attività basat...
Continua a Leggere

MIT Mirai l’intelligenza artificiale che predice chi si ammalerà di cancro

MIT Mirai: robusti strumenti di intelligenza artificiale per predire il cancro futuro I ricercatori hanno creato un algoritmo di valutazione del rischio che mostra prestazioni coerenti tra i set di dati di Stati Uniti, Europa e Asia. Per contrarre il cancro prima, dobbiamo prevedere chi lo contrarrà in futuro. La natura complessa della previsione del rischio è stata rafforzata dagli strumenti di intelligenza artificiale (AI), ma l'adozione dell'IA in medicina è stata limitata dalle scarse prestazioni su nuove popolazioni di pazienti e dall'incuria verso le minoranze razziali. Due anni fa, un team di scienziati del MIT Science s’Computer e Intelligence Laboratory Artificiale (CSAIL) e Jameel Clinic (J-Clinic) ha dimostrato un sistema di apprendimento profondo per predire il rischio di cancro utilizzando mammografia solo un paziente. Il modello ha mostrato una promessa significativa e persino una migliore inclusività: era ugualmente accurato sia per le donne bianche che per quelle nere, il che è particolarmente importante dato che le donne nere hanno il 43% in più di probabilità di morire di cancro al seno. Ma per integrare i modelli di rischio basati su immagini nelle cure cliniche e renderli ampiamente disponibili, i ricercatori affermano che i modelli necessitavano sia di miglioramenti algoritmici che di convalida su larga scala in diversi ospedali per dimostrare la loro robustezza. A tal fine, hanno adattato il loro nuovo algoritmo "Mirai" per catturare i requisiti unici della modellazione del rischio. Mirai modella congiuntamente il rischio di un paziente su più punti temporali futuri e può opzionalmente beneficiare di fattori di rischio clinici come l'età o la storia familiare, se disponibili. L'algoritmo è progettato anche per produrre previsioni coerenti con variazioni minori negli ambienti clinici, come la scelta della macchina per mammografia. https://youtu.be/pCGnRDf0Fmo Potrebbero essere utilizzati strumenti di intelligenza artifici...
Continua a Leggere

I ricercatori di intelligenza artificiale sviluppano una rete neurale spiegabile per scoprire le regole genomiche

Un team di ricercatori ha recentemente creato una rete neurale spiegabile destinata ad aiutare i biologi a scoprire le misteriose regole che governano il codice del genoma umano. Il team di ricerca ha addestrato una rete neurale su mappe delle interazioni proteina-DNA, consentendo all'IA di scoprire come determinate sequenze di DNA regolano determinati geni. I ricercatori hanno anche reso il modello spiegabile, in modo da poter analizzare le conclusioni del modello e determinare come sequenziare i motivi per regolare i geni. Uno dei grandi misteri della biologia è il codice di regolazione del genoma. È noto che il DNA è composto da quattro basi nucleotidiche: adenina, guanina, timina e citosina, ma non è noto come queste coppie di basi vengano utilizzate per regolare l'attività. Le quattro basi nucleotidiche codificano le istruzioni per costruire le proteine, ma controllano anche dove e come vengono espressi i geni (come producono le proteine ​​in un organismo). Particolari combinazioni e disposizioni delle basi creano sezioni di codice regolatorio che si legano a segmenti di DNA, e non si sa esattamente cosa siano queste combinazioni. Un team interdisciplinare di informatici e biologi ha deciso di risolvere questo mistero creando una rete neurale spiegabile. Il team di ricerca ha creato una rete neurale che hanno soprannominato "Base Pair Network" o "BPNet". Il modello utilizzato da BPNet per generare previsioni può essere interpretato per identificare i codici normativi. Ciò è stato ottenuto prevedendo come le proteine ​​chiamate fattori di trascrizione si legano alle sequenze di DNA. I ricercatori hanno eseguito una serie di esperimenti e una modellazione computerizzata completa per determinare come i fattori di trascrizione e il DNA fossero legati insieme, sviluppando una mappa dettagliata fino al livello delle singole basi nucleotidiche. Le rappresentazioni dettagliate del fattore di trascrizione-DNA consentono ai ricercatori di creare strumenti i...
Continua a Leggere
Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi