Home / Archive by category "ML Machine Learning"

ML Machine Learning

Uno studio del MIT con ML l’apprendimento automatico misura la distorsione delle informazioni nelle principali testate giornalistiche Americane

MIT: misurare la distorsione dei media nelle principali testate giornalistiche con l'apprendimento automatico Uno studio del MIT ha utilizzato tecniche di apprendimento automatico per identificare frasi distorte in circa 100 dei più grandi e influenti organi di informazione negli Stati Uniti e oltre, tra cui 83 delle pubblicazioni di notizie cartacee più influenti. È uno sforzo di ricerca che mostra la strada verso sistemi automatizzati che potrebbero potenzialmente autoclassificare il carattere politico di una pubblicazione e offrire ai lettori una visione più profonda della posizione etica di uno sfogo su argomenti che potrebbero appassionare. Il lavoro è incentrato sul modo in cui gli argomenti vengono affrontati con formulazioni particolari, come l' immigrazione irregolare | Immigrato clandestino , feto | bambino non ancora nato , manifestanti | anarchici . Il progetto ha utilizzato tecniche di elaborazione del linguaggio naturale (NLP) per estrarre e classificare tali istanze di linguaggio "caricato" (partendo dal presupposto che termini apparentemente più "neutrali" rappresentino anche una posizione politica) in una mappatura ampia che rivela pregiudizi di sinistra e di destra su oltre tre milioni di articoli provenienti da circa 100 testate giornalistiche, risultando in un panorama navigabile di pregiudizi delle pubblicazioni in questione. Il documento proviene da Samantha D'Alonzo e Max Tegmark del Dipartimento di Fisica del MIT e osserva che una serie di recenti iniziative sul "controllo dei fatti", sulla scia di numerosi scandali di "fake news", possono essere interpretate come ipocrite e utili al cause di interessi particolari. Il progetto ha lo scopo di fornire un approccio più basato sui dati per studiare l'uso del pregiudizio e del linguaggio "influente" in un contesto di notizie apparentemente neutrale. Elaborazione PNLI dati di origine dello studio sono stati ottenuti dal database open source Newspaper3K e comprendevano 3.078.624 articoli ottenuti da...
Continua a Leggere

MLOps i vantaggi

Ottieni il massimo vantaggio dall'intelligenza artificiale aziendale con MLOps - Thought Leaders   Un sondaggio di Gartner alla fine del 2020 ha rilevato che il 75% degli intervistati prevede di continuare o avviare nuove iniziative di intelligenza artificiale nel prossimo anno. Allo stesso tempo, gli analisti di Gartner hanno anche scoperto che una delle difficoltà più significative nel trasferire le iniziative di intelligenza artificiale nella produzione è l'incapacità per quelle organizzazioni di riconnettere quegli investimenti al valore aziendale. Inoltre, è ampiamente stimato che la maggior parte dei progetti AI/ML fallirà. E questo fatto può rendere ancora più difficile ottenere il buy-in dall'alto su questi investimenti. È qui che MLOps – Machine Learning Operations – può svolgere un ruolo chiave. L'attuale panorama MLL'apprendimento automatico offre profonde possibilità per le organizzazioni, ma la realtà è che arrivare a tali possibilità può essere costoso e richiedere molto tempo. Quindi, mentre l'interesse per l'implementazione del machine learning è elevato, l'effettiva implementazione della produzione rimane bassa. L'ostacolo principale nel portare le soluzioni in produzione non è la qualità dei modelli, ma piuttosto la mancanza di infrastrutture in atto per consentire alle aziende di farlo. Il ciclo di vita dello sviluppo per l'apprendimento automatico è fondamentalmente diverso dal ciclo di vita dello sviluppo software tradizionale. Negli ultimi 20 anni, le persone hanno, per la maggior parte, capito cosa serve per il software tradizionale per passare dallo sviluppo alla produzione. Comprendono il calcolo, il middleware, il networking, l'archiviazione e altri elementi necessari per garantire il corretto funzionamento dell'app. Sfortunatamente, la maggior parte sta cercando di utilizzare lo stesso ciclo di vita di sviluppo software (SDLC) per il ciclo di vita di sviluppo di machine learning (MLLC). Tuttavia, il machine learning rappresenta un signific...
Continua a Leggere

Le reti neurali aiutano a rimuovere le nuvole dalle immagini aeree

Sono quelle cose che a prima vista sembrano inutili, ma se poi ti capita di doverlo fare eviti di elencare l'intero calendario dei Santi Ricercatori e scienziati della Divisione di energia sostenibile e ingegneria ambientale dell'Università di Osaka sono stati in grado di rimuovere digitalmente le nuvole dalle immagini aeree utilizzando le reti generative avversarie (GAN). Con i dati risultanti, potrebbero generare automaticamente set di dati accurati per creare maschere di immagini.  La ricerca è stata pubblicata su Advanced Engineering Informatica .  Il team ha messo due reti di intelligenza artificiale (AI) l'una contro l'altra per migliorare la qualità dei dati e non ha richiesto immagini precedentemente etichettate. Secondo il team, questi nuovi sviluppi potrebbero essere utilizzati in campi come l'ingegneria civile, dove la tecnologia di visione artificiale è importante. Machine Learning per la riparazione delle immaginiL'apprendimento automatico viene spesso utilizzato per riparare le immagini oscurate, come le immagini aeree di edifici oscurati dalle nuvole. Questa attività può essere eseguita manualmente, ma richiede tempo e non è efficace quanto gli algoritmi di apprendimento automatico. Anche quegli algoritmi già disponibili richiedono un ampio set di immagini di addestramento, quindi è fondamentale far progredire ulteriormente la tecnologia. Questo è ciò che hanno fatto i ricercatori dell'Università di Osaka quando hanno applicato le reti generative avversarie. Una rete è la "rete generativa" e propone immagini ricostruite senza le nuvole. Questa rete è messa contro una "rete discriminatoria", che si basa su una rete neurale convoluzionale per distinguere tra le immagini riparate digitalmente e le immagini reali senza nuvole. Man mano che le reti procedono attraverso questo processo, entrambe migliorano sempre di più, il che consente loro di creare immagini altamente realistiche con le nuvole cancellate digitalmente.  Kazunosuke Ikeno è il primo autore d...
Continua a Leggere

Exploit Prediction Scoring System (EPSS) il modello ML open source per prevedere gli exploit di vulnerabilità

Questo modello ML open source ti aiuterà a prevedere gli exploit di vulnerabilità  .  La gestione delle vulnerabilità è notoriamente difficile . La maggior parte delle aziende affronta il campo minato delle minacce senza una strategia chiara su dove iniziare ad applicare le patch e su cosa necessita di priorità. Li conduce in una caccia all'oca selvaggia e inefficiente.  La ricerca mostra che le organizzazioni hanno solo la capacità di rimediare al 5-20% delle migliaia di vulnerabilità note ogni mese. Fortunatamente, solo il 2-5% di queste vulnerabilità viene sfruttato in natura. Ciò significa che la maggior parte delle organizzazioni può tenere il passo con le vulnerabilità più rischiose, purché sappiano quali sono rischiose e preferibilmente prima dell'evento di sfruttamento. Un gruppo di esperti di sicurezza di interesse speciale, di cui sono un co-creatore unito ad altri 38 esperti, ha sviluppato uno strumento gratuito e open source, chiamato Exploit Prediction Scoring System (EPSS) per affrontare questo problema. Abbiamo presentato per la prima volta EPSS alla conferenza Black Hat 2019 e, a partire dalla prossima settimana, aggiungeremo il punteggio in tempo reale delle vulnerabilità e delle esposizioni comuni (CVE) man mano che vengono annunciate. Quindi, invece di aspettare settimane per vedere se una vulnerabilità viene sfruttata, questo strumento può servire come previsione per il potenziale di una vulnerabilità da sfruttare. Ciò consentirà agli utenti di ottenere informazioni immediate senza dover raccogliere dati su un CVE altrove. EPSS utilizza un approccio open source e basato sui dati per quantificare il rischio di una particolare vulnerabilità, in modo da sapere esattamente quali richiedono l'attenzione più urgente. Il gruppo di interesse speciale EPSS continuerà a migliorare questo modello scalabile e ad aggiungere nuove fonti di dati. EPSS ha prodotto punteggi di rischio per tutti gli oltre 71.000 CVE pubblicati dal 2017 e ora può aiutare i team di ...
Continua a Leggere

Le cose da fare e da non fare nel Machine learning o apprendimento automatico

Le cose da fare e da non fare della ricerca sull'apprendimento automatico  L'apprendimento automatico sta diventando uno strumento importante in molti settori e campi della scienza. Ma la ricerca ML e lo sviluppo del prodotto presentano diverse sfide che, se non affrontate, possono portare il tuo progetto nella direzione sbagliata. In un  articolo  pubblicato di recente sul server di prestampa arXiv, Michael Lones, professore associato presso la School of Mathematical and Computer Sciences, Heriot-Watt University, Edimburgo, fornisce un elenco di cose da fare e da non fare per la ricerca sull'apprendimento automatico.  Il documento, che Lones descrive come "lezioni apprese durante la ricerca sul machine learning nel mondo accademico e durante la supervisione degli studenti che svolgono ricerche sul machine learning", copre le sfide delle diverse fasi del ciclo di vita della ricerca sull'apprendimento automatico. Sebbene rivolte ai ricercatori accademici, le linee guida del documento sono utili anche per gli sviluppatori che stanno creando modelli di apprendimento automatico per applicazioni del mondo reale . Ecco le mie conclusioni dal documento, anche se consiglio a chiunque sia coinvolto nella ricerca e nello sviluppo dell'apprendimento automatico di leggerlo per intero. Presta particolare attenzione ai datiI modelli di machine learning  vivono e prosperano sui dati. Di conseguenza, in tutto il documento, Lone ribadisce l'importanza di prestare maggiore attenzione ai dati in tutte le fasi del ciclo di vita del machine learning. Devi stare attento a come raccogli e prepari i tuoi dati e come li usi per addestrare e testare i tuoi modelli di machine learning. Nessuna quantità di potenza di calcolo e tecnologia avanzata può aiutarti se i tuoi dati non provengono da una fonte affidabile e non sono stati raccolti in modo affidabile. E dovresti anche usare la tua due diligence per verificare la provenienza e la qualità dei tuoi dati. "Non dare per scontato che, poiché u...
Continua a Leggere

Che cos’è l’apprendimento federato?

  Una delle sfide chiave del machine learning è la necessità di grandi quantità di dati. La raccolta di set di dati di addestramento per i modelli di apprendimento automatico comporta rischi per la privacy, la sicurezza e l'elaborazione che le organizzazioni preferirebbero evitare.  Una tecnica che può aiutare ad affrontare alcune di queste sfide è "l' apprendimento federato ". Distribuendo l'addestramento dei modelli tra i dispositivi degli utenti, l'apprendimento federato consente di sfruttare l'apprendimento automatico riducendo al minimo la necessità di raccogliere i dati degli utenti. Apprendimento automatico basato su cloudIl processo tradizionale per lo sviluppo di   applicazioni di apprendimento automatico consiste nel raccogliere un grande set di dati, addestrare un modello sui dati ed eseguire il modello addestrato su un server cloud che gli utenti possono raggiungere tramite diverse applicazioni come ricerca web, traduzione, generazione di testo e  immagini elaborazione . Ogni volta che l'applicazione desidera utilizzare il modello di apprendimento automatico, deve inviare i dati dell'utente al server in cui risiede il modello. In molti casi, l'invio di dati al server è inevitabile. Ad esempio, questo paradigma è inevitabile per i sistemi di raccomandazione dei contenuti perché parte dei dati e dei contenuti necessari per l'inferenza del machine learning risiede sul server cloud. Ma in applicazioni come il completamento automatico del testo o il riconoscimento facciale, i dati sono locali per l'utente e il dispositivo. In questi casi, sarebbe preferibile che i dati rimangano sul dispositivo dell'utente anziché essere inviati al cloud. Fortunatamente, i progressi nell'intelligenza  artificiale perimetrale  hanno permesso di evitare l'invio di dati utente sensibili ai server delle applicazioni. Conosciuto anche come  TinyML , questa è un'area di ricerca attiva e cerca di creare modelli di apprendimento automatico che si adattano a smartphone e altri disposi...
Continua a Leggere

Al NAIST di Nara hanno sviluppato un algoritmo di apprendimento automatico ML in grado di prevedere con precisione la posizione delle proteine ​​​​correlate all’actina

L'algoritmo di apprendimento automatico può prevedere dove vanno le proteine  I ricercatori del Nara Institute of Science and Technology (NAIST) hanno sviluppato un algoritmo di apprendimento automatico in grado di prevedere con precisione la posizione delle proteine ​​​​correlate all'actina, che è una parte cruciale dello scheletro cellulare. L'algoritmo può prevedere la posizione delle proteine ​​in base alla posizione effettiva dell'actina.  Lo studio è stato pubblicato su Frontiers in Cell and Developmental Biology .  L'importanza dell'actinaL'actina è fondamentale per fornire forma e struttura alle cellule e svolge un ruolo nella formazione dei lamellipodi durante il movimento cellulare. I lamellipodi sono strutture a forma di ventaglio che consentono alle cellule di "camminare" in avanti e contengono varie proteine ​​che si legano all'actina per mantenere le cellule in movimento. Shiro Suetsugu è l'autore principale dello studio e ha avuto l'idea durante una conversazione con Yoshinobu Sato presso il Data Science Center di NAIST.  "Mentre l'intelligenza artificiale è stata utilizzata in precedenza per prevedere la direzione della migrazione cellulare basata su una sequenza di immagini, finora non è stata utilizzata per prevedere la localizzazione delle proteine", afferma Suetsugu. “Abbiamo quindi cercato di progettare un algoritmo di apprendimento automatico in grado di determinare dove appariranno le proteine ​​nella cellula in base alla loro relazione con altre proteine”. Sviluppo del sistema di intelligenza artificialeI ricercatori hanno addestrato un sistema di intelligenza artificiale (AI) per prevedere dove sarebbero le proteine ​​associate all'actina nella cellula. Lo hanno fatto mostrando le immagini AI delle cellule con le proteine ​​etichettate con marcatori fluorescenti, che indicavano al sistema dove si trovavano. Il sistema è stato quindi alimentato con immagini in cui è stata etichettata solo l'actina ed è stato chiesto di individuare le protei...
Continua a Leggere

Spell piattaforma operativa che fornisce gli strumenti necessari per addestrare modelli di intelligenza artificiale basati su algoritmi di deep learning

Spell svela la piattaforma per le operazioni di deep learning per ridurre i costi di formazione sull'IA  Spell ha presentato oggi una piattaforma operativa che fornisce gli strumenti necessari per addestrare modelli di intelligenza artificiale basati su algoritmi di deep learning. Le piattaforme attualmente utilizzate per addestrare i modelli di intelligenza artificiale sono ottimizzate per algoritmi di apprendimento automatico. I modelli di intelligenza artificiale basati su algoritmi di deep learning richiedono la propria piattaforma di operazioni di deep learning (DLOps), ha detto a VentureBeat Tim Negris, capo del marketing di Spell.  La piattaforma Spell automatizza l'intero flusso di lavoro di deep learning utilizzando strumenti sviluppati dall'azienda per aiutare le organizzazioni a creare e addestrare modelli di intelligenza artificiale per applicazioni di visione artificiale e riconoscimento vocale che richiedono algoritmi di deep learning. Radici profondeGli algoritmi di deep learning fanno risalire la loro discendenza alle reti neurali in un campo di apprendimento automatico che struttura gli algoritmi in strati per creare una rete neurale in grado di apprendere e prendere decisioni intelligenti da sola. Gli artefatti e i modelli creati utilizzando algoritmi di deep learning, tuttavia, non si prestano alle stesse piattaforme utilizzate per gestire le operazioni di apprendimento automatico (MLOps), ha affermato Negris. Un modello di intelligenza artificiale basato su algoritmi di deep learning può richiedere il monitoraggio e la gestione di centinaia di esperimenti con migliaia di parametri che coprono un gran numero di unità di elaborazione grafica (GPU), ha osservato Negris. La piattaforma Spell risponde specificamente alla necessità di gestire, automatizzare, orchestrare, documentare, ottimizzare, distribuire e monitorare i modelli di deep learning durante l'intero ciclo di vita, ha affermato. "I team di data science devono essere in grado di spiegare e...
Continua a Leggere

Cerebrus di Cadence Design Systems il machine learning nella progettazione di chip 

Cadence Design Systems lancia il machine learning Cerebrus per la progettazione di chip  Era solo questione di tempo prima che il machine learning trasformasse il mondo della progettazione dei chip. Cadence Design Systems , che crea strumenti di progettazione utilizzati dagli ingegneri per creare chip, lo sta utilizzando per rendere gli ingegneri di chip molto più produttivi con il suo strumento di apprendimento automatico Cerebrus Intelligent Chip Explorer . L'automazione della progettazione dei chip (automazione della progettazione elettronica, o EDA) si è evoluta per decenni, con una gerarchia di strumenti che operano a diversi livelli di astrazione. Cadence è nata nel 1988 con l'obiettivo di utilizzare i vantaggi dell'informatica per progettare la prossima generazione di chip di elaborazione. Ma gli ingegneri hanno trovato sempre più difficile stare al passo con gli intricati progetti di chip che hanno miliardi di interruttori on-off, doppiati transistor. Il processo di progettazione è diventato come cercare di tenere traccia di tutte le formiche del pianeta.  Con l'apprendimento automatico, Cadence Design Systems è stata in grado di aggiungere un ulteriore livello di automazione agli strumenti di automazione della progettazione che gli ingegneri utilizzano da molti anni, ha affermato Kam Kittrell, direttore senior del gruppo di gestione dei prodotti nel Digital & Signoff Group di Cadence. in un'intervista con VentureBeat. I risultati sono davvero fantastici. Con l'apprendimento automatico, l'azienda può ottenere una produttività 10 volte migliore per ingegnere utilizzando gli strumenti di progettazione. E possono ottenere miglioramenti del 20% in più di potenza, prestazioni e area del chip. Questo è un enorme guadagno che potrebbe in definitiva rendere ogni chip più conveniente, affidabile e più veloce di quanto sarebbe stato altrimenti, ha detto Kittrell. Ciò potrebbe significare miliardi di dollari risparmiati. Questo tipo di aumento della produttività è ...
Continua a Leggere

WebGraph il metodo di Machine Learning apprendimento automatico per bloccare gli annunci in base al comportamento del browser

Un metodo di apprendimento automatico per bloccare gli annunci in base al comportamento del browser locale  Ricercatori in Svizzera e negli Stati Uniti hanno ideato un nuovo approccio di apprendimento automatico per il rilevamento del materiale pubblicitario del sito Web basato sul modo in cui tale materiale interagisce con il browser, anziché analizzarne il contenuto o il comportamento della rete, due approcci che si sono rivelati inefficaci nel a lungo termine di fronte al cloaking CNAME  Soprannominato WebGraph , il framework utilizza un approccio di blocco degli annunci AI basato su grafici per rilevare contenuti promozionali concentrandosi su tali attività essenziali di pubblicità di rete - inclusi tentativi di telemetria e archiviazione del browser locale - che l'unica tecnica di elusione efficace sarebbe quella di non condurre queste attività . Sebbene gli approcci precedenti abbiano raggiunto tassi di rilevamento leggermente più elevati rispetto a WebGraph, tutti sono inclini a tecniche evasive, mentre WebGraph è in grado di avvicinarsi al 100% di integrità di fronte alle risposte contraddittorie, comprese le risposte ipotizzate più sofisticate che possono emergere di fronte a questo nuovo metodo di blocco degli annunci. Il documento è guidato da due ricercatori dello Swiss Federal Institute of Technology, in concerto con ricercatori dell'Università della California, Davis e dell'Università dell'Iowa. Oltre AdGraphIl lavoro è uno sviluppo di un'iniziativa di ricerca del 2020 con il browser Brave chiamato AdGraph , che ha caratterizzato due dei ricercatori del nuovo documento. AdGraph si basa su funzionalità di contenuto (pubblicità) , derivate dall'analisi degli URL, come chiave per il rilevamento di materiale commerciale. Tuttavia, queste caratteristiche rappresentano un singolo potenziale punto di errore per gli avversari che cercano di rilevare la presenza di sistemi di rilevamento degli annunci e di formulare metodi per evitarli. Questa dipendenza dall...
Continua a Leggere
Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi