Home / Archive by category "ML Machine Learning"

ML Machine Learning

L’intelligenza artificiale stima la vera povertà globale grazie al ML machine learning

Stima del vero stato di povertà globale con il machine learningMappa della povertà attraverso l'apprendimento automaticoUna collaborazione di UoC Berkeley, Stanford University e Facebook offre un quadro più approfondito e granulare dell'attuale stato di povertà in e attraverso le nazioni, attraverso l'uso dell'apprendimento automatico . La ricerca , intitolata Micro-Estimates of Wealth for all Low-and Middle-Income Countries , è accompagnata da un sito web beta che consente agli utenti di esplorare in modo interattivo lo stato economico assoluto e relativo di aree a grana fine e sacche di povertà a basso e medio paesi a reddito. Mappa interattiva della povertà nel mondo attraverso l'apprendimento automatico Il framework incorpora dati da immagini satellitari, mappe topografiche, reti di telefonia mobile e dati aggregati anonimi da Facebook, ed è verificato in base a ampi sondaggi faccia a faccia, allo scopo di riportare disparità di ricchezza relativa in una regione, piuttosto che stime assolute di reddito . Il sistema è stato adottato dal governo della Nigeria come base per la gestione dei programmi di protezione sociale e funziona in tandem con il quadro esistente della Banca Mondiale, il National Social Safety Nets Project ( NASSP ). A febbraio ai primi beneficiari del regime è stato versato un trasferimento in contanti di 5000 naira nigeriane, una prestazione pagabile fino a sei mesi, fino al raggiungimento della soglia di un milione di naira. Il documento afferma che la povertà dei dati fornisce un notevole contributo alla distribuzione errata degli aiuti in paesi con risorse minime per la raccolta di dati o infrastrutture limitate, e che anche un fattore di segnalazione errata politicamente motivato (un problema non limitato ai paesi a basso reddito) . Registrazione dei "poveri non segnalati"Le simulazioni dei ricercatori sui dati hanno dimostrato che, in base alle normative esistenti per l'allocazione delle risorse di aiuto, la distribu...
Continua a Leggere

Tre tecniche di machine learning per preservare la privacy : Apprendimento federato, Privacy differenziale, Crittografia omomorfica

Tre tecniche di machine learning per preservare la privacy che risolvono il problema più importante di questo decennio La privacy dei dati, secondo gli esperti in un'ampia gamma di domini, sarà la questione più importante di questo decennio . Ciò è particolarmente vero per l'apprendimento automatico (ML) in cui gli algoritmi vengono alimentati con risme di dati. Tradizionalmente, le tecniche di modellazione ML si basavano sulla centralizzazione dei dati da più origini in un unico data center. Dopo tutto, i modelli ML raggiungono il massimo della loro potenza quando hanno accesso a enormi quantità di dati. Tuttavia, questa tecnica comporta una serie di sfide per la privacy. L'aggregazione di dati diversi da più fonti è oggi meno fattibile a causa di preoccupazioni normative come HIPAA, GDPR e CCPA. Inoltre, la centralizzazione dei dati aumenta la portata e la portata dell'uso improprio dei dati e delle minacce alla sicurezza sotto forma di fughe di dati. Per superare queste sfide, sono stati sviluppati diversi pilastri dell'apprendimento automatico per la conservazione della privacy (PPML) con tecniche specifiche che riducono il rischio per la privacy e garantiscono che i dati rimangano ragionevolmente sicuri. Ecco alcuni dei più importanti: Apprendimento federatoL'apprendimento federato è una tecnica di formazione ML che capovolge il problema dell'aggregazione dei dati. Invece di aggregare i dati per creare un singolo modello ML, l'apprendimento federato aggrega i modelli ML stessi. Ciò garantisce che i dati non lascino mai la posizione di origine e consente a più parti di collaborare e creare un modello ML comune senza condividere direttamente i dati sensibili. Funziona così. Si inizia con un modello ML di base che viene quindi condiviso con ogni nodo client. Questi nodi eseguono quindi l'addestramento locale su questo modello utilizzando i propri dati. Gli aggiornamenti del modello vengono periodicamente condivisi con il nodo coordinatore, che li e...
Continua a Leggere

Miglioramenti nelle immagini generate sinteticamente (GAN)

Chirurgia plastica per volti generati da GANMiglioramenti nelle immagini generate sinteticamente (GAN)Una nuova ricerca dalla Corea del Sud promette di migliorare la qualità dei dati sintetici sui volti creati dai GAN (Generative Adversarial Networks). Il sistema è in grado di identificare artefatti di immagine prodotti da processi GAN, e di rimediarli, fino al punto di sostituire i capelli che erano oscurati da una cuffia, sostituire parti del viso del tutto mancanti nell'originale, e rimuovere occlusioni come mani e occhiali da sole , e funziona bene anche sulla produzione scenica e architettonica. Gli approcci più recenti per migliorare la qualità delle immagini generate dal GAN ​​hanno assunto la posizione che gli artefatti sono un rischio professionale del processo, trattando la metodologia come una `` forza della natura '' e i risultati più psichedelici o aberrazionali che può produrre come un inevitabile sottoprodotto. Invece, la ricerca sudcoreana propone di `` correggere '' le immagini colpite in un modo che non interferisca con la continua catena generativa, identificando le sfaccettature che stanno causando artefatti e riducendo o eliminando la loro influenza nella rete GAN in un luogo semi-supervisionato. livello che supera ed estende i meccanismi di autocorrezione nativi nell'architettura GAN. Per il progetto, è stato necessario creare un set di dati di immagini etichettati a mano ampiamente applicabili che erano gravemente influenzati dagli artefatti GAN. Inizialmente, i ricercatori hanno utilizzato Frechet Inception Distance ( FID ), una metrica che valuta la qualità dell'output GAN confrontando le caratteristiche nelle immagini, come unità qualificante. Le 10.000 immagini con i punteggi FID più alti su una serie di 200.000 immagini sono state utilizzate come "unità artefatto" discrete. Successivamente i ricercatori hanno etichettato a mano 2.000 immagini generate, classificandole come "normali" o affette da artefatti FID. Quindi è stato ...
Continua a Leggere

Lettura labiale con visemi e machine learning

Una nuova ricerca della School of Computer Engineering di Teheran offre un approccio migliore alla sfida di creare sistemi di apprendimento automatico in grado di leggere le labbra. Il documento , intitolato Lip Reading Using Viseme Decoding , riporta che il nuovo sistema ottiene un miglioramento del 4% nel tasso di errore delle parole rispetto ai migliori modelli precedenti simili. Il sistema risolve la generale mancanza di dati utili sull'addestramento in questo settore mappando i visemi al contenuto di testo derivato dai sei milioni di campioni nel set di dati OpenSubtitles dei titoli dei film tradotti. Un visema è l'equivalente visivo di un fonema, effettivamente una mappatura audio> immagine che può costituire una "caratteristica" in un modello di apprendimento automatico. I ricercatori hanno iniziato stabilendo il tasso di errore più basso sui set di dati disponibili e sviluppando sequenze di visemi da procedure di mappatura stabilite. A poco a poco, questo processo sviluppa un lessico visivo di parole, sebbene sia necessario definire le probabilità di accuratezza per parole diverse che condividono un visema (come "cuore" e "arte"). Quando due parole identiche danno come risultato lo stesso visema, viene selezionata la parola che ricorre più di frequente. Il modello si basa sul tradizionale apprendimento da sequenza a sequenza aggiungendo una fase di elaborazione secondaria in cui i visemi vengono previsti dal testo e modellati in una pipeline dedicata: Il modello è stato applicato senza contesto visivo rispetto al set di dati LRS3-TED , rilasciato dall'Università di Oxford nel 2018, con il peggior tasso di errore delle parole (WER) ottenuto un rispettabile 24,29%. La ricerca di Teheran include anche l'uso di un convertitore da grafema a fonema . In un test contro la ricerca di Oxford del 2017 Lip Reading Sentences In The Wild (vedi sotto), il metodo Video-To-Viseme ha raggiunto un tasso di errore di parole del 62,3%, rispetto a...
Continua a Leggere

L’intelligenza artificiale nella mostra “Machine Memories: Space” dell’artista Refik Anadol

Gli esseri umani, che vivono alla giornata e prendono decisioni istantaneamente, sono diventati sempre più dipendenti dagli algoritmi durante la pandemia, poiché le macchine trasformano tutte le loro inclinazioni in previsioni. L'artista Refik Anadol ha portato una diversa interpretazione artistica a questa dipendenza con la sua mostra d'arte “Machine Memories: Space”, che ha recentemente aperto nella metropoli turca di Istanbul. La mostra personale di Anadol ha anche attirato la grande attenzione delle grandi aziende tecnologiche di tutto il mondo. Il responsabile del Media Lab del Massachusetts Institute of Technology (MIT), Türk Telekom, ha descritto i criteri di successo come "un impatto". Al quarto piano, la mostra accompagna gli appassionati d'arte in un viaggio con dati di diverse forme. Al piano più basso, immagini e colori scorrono come se si muovessero all'interno di un tunnel di dati. Poi, all'ultimo piano, si incontrano le origini del racconto del viaggio. In oltre 3 milioni di foto, vieni introdotto alle forme in cui Refik Anadolu dipinge i ricordi delle macchine che hanno appreso la superficie di Marte con pennellate di intelligenza artificiale (AI) sotto forma di fluidodinamica. Durante la realizzazione delle sue opere d'arte, Anadol lavora con scienziati che esplorano lo spazio utilizzando i telescopi della Stazione Spaziale Internazionale (ISS), Hubble e Magdalena Ridge Observatory (MRO) e ingegneri che sviluppano algoritmi GAN (Generative Adversarial Networks). Tratta le immagini ottenute dai telescopi utilizzati dagli scienziati per esplorare lo spazio con i dati come "memorie di macchine". Ci sono alcuni dettagli che Anadol sottolinea in ciascuna delle sue mostre. In primo luogo, utilizza solo dati pubblici, non dati personali. Pur dichiarando le fonti degli algoritmi utilizzati con il suo pubblico, condivide anche le sue scoperte tramite algoritmi GAN attraverso il viaggio AI con forme artistiche sotto forma di fluidodinamica. ...
Continua a Leggere

ElectrifAi annuncia la collaborazione con Inspur

ElectrifAi, una delle aziende leader a livello mondiale nei modelli di intelligenza artificiale pratica (AI) e machine learning (ML) preconfigurati, ha annunciato oggi la sua collaborazione con Inspur, fornitore leader di soluzioni server per il cloud computing, data center iperscalabili e AI. I server Inspur AI (modello: NF5280M5) vengono utilizzati per elaborare e archiviare i dati per il potente prodotto per il benessere degli animali di ElectrifAi, AnimalAi, sviluppato per aiutare a prevenire l'abuso di animali nell'industria del bestiame. L'NF5280M5 è dotato di 2 processori scalabili Intel Xeon e ospita 4 schede acceleratrici GPU a doppia larghezza in uno chassis 2U per offrire densità e accelerazione ad alte prestazioni per carichi di lavoro AI ad alta intensità. "Per uno dei nostri clienti, 60 telecamere sono installate in una fattoria molto grande. Utilizzando i robusti server di Inspur, i dati delle telecamere vengono archiviati in modo ottimale, l'elaborazione è semplice e veloce e AnimalAi è in grado di eseguire l'apprendimento automatico a livello locale e in modo molto efficiente con una connessione continua e affidabile ", ha affermato Gregg McNulty, CIO di ElectrifAi. Oltre ad essere ad alte prestazioni, la soluzione NF5280M5 di Inspur è anche molto conveniente. ElectrifAi ha acquistato sei server da Inspur per alimentare AnimalAi e quattro server aggiuntivi per i data scientist di ElectrifAi da utilizzare per altri progetti. Con questa espansione, ElectrifAi può trasferire questi risparmi sui costi ai suoi clienti. Con l'intenzione di espandere le operazioni degli Stati Uniti oltre la costa occidentale, Inspur mira a fornire a molte più aziende l'accesso ai propri server all'avanguardia. Con capacità di prestazioni eccezionali e durata in ambienti di data center estremi, i server Inspur aumentano il potenziale di elaborazione dell'IA per consentire soluzioni aziendali veloci e potenti. "Le migliori soluzioni server di Inspur massimizzano...
Continua a Leggere

Pinterest rende pubbliche l’intelligenza artificiale e le tecnologie di apprendimento automatico che utilizza per combattere i contenuti dannosi sulla sua piattaforma

Pinterest descrive in dettaglio l'IA che alimenta la moderazione dei contenuti Pinterest questa mattina ha tolto il sipario all'intelligenza artificiale e alle tecnologie di apprendimento automatico che utilizza per combattere i contenuti dannosi sulla sua piattaforma. Sfruttando algoritmi per rilevare automaticamente contenuti per adulti, attività che incitano all'odio, disinformazione medica, farmaci, violenza grafica e altro ancora prima che venga segnalato, la società afferma che i rapporti che violano le norme per impressione sono diminuiti del 52% dall'autunno 2019, quando le tecnologie sono state introdotte per la prima volta . E i rapporti sui contenuti di autolesionismo sono diminuiti dell'80% da aprile 2019. Una delle sfide nella creazione di modelli di machine learning multi-categoria per la sicurezza dei contenuti è la scarsità di dati etichettati, costringendo gli ingegneri a utilizzare modelli più semplici che non possono essere estesi a input multi-modello. Pinterest risolve questo problema con un sistema addestrato su milioni di Pin revisionati da persone, costituito sia da segnalazioni degli utenti che da campionamenti proattivi basati su modelli dal suo team di operazioni Trust and Safety, che assegna categorie e interviene in caso di violazione dei contenuti. L'azienda utilizza anche un modello di Pin addestrato utilizzando una rappresentazione matematica e compatibile con il modello dei Pin in base alle loro parole chiave e immagini, aggregata con un altro modello per generare punteggi che indicano quali bacheche Pinterest potrebbero essere in violazione. “Abbiamo migliorato le informazioni derivate dal riconoscimento ottico dei caratteri sulle immagini e abbiamo implementato una versione online, quasi in tempo reale, del nostro sistema. Un'altra novità è il punteggio delle bacheche e non solo dei Pin ", ha detto a VentureBeat via e-mail Vishwakarma Singh, capo del team di apprendimento automatico per la fiducia e la sicurezza di Pinter...
Continua a Leggere

La nuova teoria dell’apprendimento automatico ML solleva interrogativi sulla natura stessa della scienza

Un nuovo algoritmo informatico, o insieme di regole, che predice accuratamente le orbite dei pianeti nel sistema solare potrebbe essere adattato per prevedere e controllare meglio il comportamento del plasma che alimenta gli impianti di fusione progettati per raccogliere sulla Terra l'energia di fusione che alimenta il sole e stelle. L'algoritmo, ideato da uno scienziato del Princeton Plasma Physics Laboratory ( PPPL ) del Dipartimento dell'Energia degli Stati Uniti (DOE) , applica l'apprendimento automatico, la forma di intelligenza artificiale (AI) che apprende dall'esperienza, per sviluppare le previsioni. "Di solito in fisica si fanno osservazioni, si crea una teoria basata su quelle osservazioni e poi si usa quella teoria per prevedere nuove osservazioni", ha detto il fisico del PPPL Hong Qin, autore di un articolo che descrive il concetto in Scientific Reports . "Quello che sto facendo è sostituire questo processo con un tipo di scatola nera in grado di produrre previsioni accurate senza utilizzare una teoria o una legge tradizionale". Qin (pronunciato Chin ) ha creato un programma per computer in cui ha inserito i dati dalle osservazioni passate delle orbite di Mercurio, Venere , Terra, Marte , Giove e il pianeta nano Cerere. Questo programma, insieme a un programma aggiuntivo noto come "algoritmo di servizio", ha quindi effettuato previsioni accurate delle orbite di altri pianeti nel sistema solare senza utilizzare le leggi di movimento e gravitazione di Newton. “In sostanza, ho aggirato tutti gli ingredienti fondamentali della fisica. Vado direttamente dai dati ai dati ", ha detto Qin. "Non vi è alcuna legge della fisica nel mezzo." Il programma non viene eseguito accidentalmente su previsioni accurate. "Hong ha insegnato al programma il principio sottostante utilizzato dalla natura per determinare le dinamiche di qualsiasi sistema fisico", ha detto Joshua Burby, un fisico presso il Los Alamos National Laboratory del DOE che ha conseguito il d...
Continua a Leggere

AI e ML non sono la stessa cosa. Ecco perché

In generale, l'intelligenza artificiale può essere divisa in due: IA ristretta e IA generale. La quarta rivoluzione industriale è alle porte. L'evoluzione umana è entrata in una nuova fase sulla scia di progressi tecnologici mozzafiato. Il professor Klaus Schwab, nel suo libro fondamentale, La quarta rivoluzione industriale, parla dell'offuscamento dei confini tra le sfere fisica, digitale e biologica. La quarta rivoluzione industriale si occupa di come tecnologie come l'intelligenza artificiale, l'apprendimento automatico e l'Internet delle cose cambiano il modo in cui viviamo e interagiamo con il mondo e tra di noi. Termini come AI e ML sono molto diffusi e talvolta vengono usati in alternativa. La vaghezza nelle definizioni, le aziende tecnologiche che mettono in atto le loro capacità abilitate da aziende di PR troppo zelanti e giornalisti incapaci che legittimano l'uso intercambiabile senza controllo dei fatti, ecc., Hanno portato alla confusione. Sebbene le due tecnologie siano strettamente correlate, non sono la stessa cosa. Cos'è l'intelligenza artificiale?John McCarthy, il padre dell'intelligenza artificiale, e Marvin Minskey hanno portato la rispettabilità all'IA come disciplina accademica attraverso il loro lavoro pionieristico. I primi stimoli dell'intelligenza artificiale moderna possono essere fatti risalire al laboratorio di Dartmouth del 1956. Luminari come Ray Solomonff, Herbert Simon, John Nash, Marvin Minsky hanno partecipato al seminario che è durato dalle sei alle otto settimane. Marvin Minsky ha scritto: "Entro una generazione, il problema della creazione di 'intelligenza artificiale' sarà sostanzialmente risolto" All'epoca, l' intelligenza artificiale era descritta come qualsiasi attività eseguita da una macchina che avrebbe richiesto l'intelligenza umana. Nel corso degli anni, questa definizione si è ampliata fino a includere la capacità della macchina di generalizzare e applicare il proprio apprendimento per eseguire attiv...
Continua a Leggere

Perché le strategie di ML machine learning falliscono

La maggior parte delle aziende sta lottando per sviluppare strategie di intelligenza artificiale funzionanti, secondo un nuovo sondaggio del fornitore di servizi cloud Rackspace Technology. Il sondaggio, che include 1.870 organizzazioni in una varietà di settori, tra cui produzione, finanza, vendita al dettaglio, governo e sanità, mostra che solo il 20% delle aziende ha iniziative mature di intelligenza artificiale / apprendimento automatico. Gli altri stanno ancora cercando di capire come farlo funzionare. Non c'è dubbio sulle promesse dell'apprendimento automatico in quasi tutti i settori. Costi inferiori, maggiore precisione, migliore esperienza del cliente e nuove funzionalità sono alcuni dei vantaggi dell'applicazione di modelli di apprendimento automatico alle applicazioni del mondo reale. Ma l'apprendimento automatico non è una bacchetta magica. E poiché molte organizzazioni e aziende stanno imparando, prima di poter applicare la potenza del machine learning alla tua attività e alle tue operazioni, devi superare diversi ostacoli. Tre sfide chiave che le aziende devono affrontare quando integrano le tecnologie di intelligenza artificiale nelle loro operazioni riguardano le aree delle competenze, dei dati e della strategia e il sondaggio di Rackspace offre un quadro chiaro del motivo per cui la maggior parte delle strategie di apprendimento automatico fallisce. L'apprendimento automatico riguarda i datiI modelli di machine learning vivono su risorse di calcolo e dati. Grazie a una varietà di piattaforme di cloud computing, l'accesso all'hardware necessario per addestrare ed eseguire modelli di intelligenza artificiale è diventato molto più accessibile e conveniente. Ma i dati continuano a rimanere un ostacolo importante nelle diverse fasi della pianificazione e dell'adozione di una strategia di intelligenza artificiale. Il 34% degli intervistati nel sondaggio di Rackspace ha dichiarato che la scarsa qualità dei dati è la ragione principale del ...
Continua a Leggere
Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi