Home / Archive by category "Software"

Software

Software open source per aiutare i ricercatori di intelligenza artificiale a ridurre l’impronta di carbonio

Un gruppo di ricercatori internazionali di IA e data scientist ha collaborato alla progettazione di software in grado di stimare l'impronta di carbonio delle operazioni di calcolo. Il pacchetto software open source, chiamato CodeCarbon, è stato progettato da un consorzio di società di intelligenza artificiale e data science. La speranza è che il software consentirà e incentiverà i programmatori a rendere il loro codice più efficiente e ridurre la quantità di CO2 generata dall'uso delle risorse informatiche. Secondo ITP , il nuovo pacchetto software CodeCarbon è stato sviluppato da un team di gruppi di ricerca AI guidati dalla società di ricerca AI Mila, insieme a Comet.ml, Haverford College in Pennsylvania e GAMMA. Il software non solo stima la quantità di CO2 prodotta dall'uso delle risorse di calcolo, ma fornisce anche agli sviluppatori consigli per ridurre la loro impronta di carbonio. L'addestramento di modelli di IA può richiedere molta energia. Come spiegato da ArsTechnica , i ricercatori dell'Università del Massachusetts Amherst hanno stimato il costo totale della creazione e dell'addestramento di determinati modelli di IA e il team ha scoperto che l'addestramento della rete del linguaggio naturale BERT una volta generava approssimativamente la stessa quantità di carbonio di un volo di andata e ritorno tra San Francisco e New York. York. Nel frattempo, addestrare il modello più volte fino a quando non viene ottimizzato potrebbe generare tanta CO2 quanto 315 passeggeri diversi che prendono lo stesso volo. Perché esattamente i modelli di intelligenza artificiale consumano così tanta energia e generano così tanta CO2 come sottoprodotto? Parte della risposta sta nel modo in cui i modelli di intelligenza artificiale vengono addestrati e ottimizzati. Per ottenere anche piccoli miglioramenti rispetto agli algoritmi all'avanguardia esistenti, i ricercatori di intelligenza artificiale potrebbero addestrare il loro modello migliaia di volte, apportando lievi ...
Continua a Leggere

I migliori 8 software di antifrode del 2021

Mentre ogni anno si assiste ad alcune importanti attività fraudolente che hanno fatto notizia, il blocco della pandemia e l'esplosione digitale hanno costretto quest'anno a sperimentare alcune delle violazioni significative che le aziende hanno dovuto affrontare. In un articolo, abbiamo anche annotato alcune delle più grandi violazioni del 2020 che hanno allarmato le aziende. Con il caos creato dalla pandemia, mentre ci spostiamo nel prossimo anno, le aziende stanno ora uscendo dai loro tradizionali sistemi di prevenzione delle frodi e stanno cercando di adottare software avanzati per combattere gli hacker opportunisti e le loro sofisticate tattiche di frode. Questo articolo elenca i primi otto software di prevenzione delle frodi di questo tipo che le aziende possono cercare nel 2021. ClearSaleClearSale è una soluzione completa per la prevenzione delle frodi di eCommerce che sfrutta l'intelligenza artificiale, tecniche statistiche avanzate e un team di analisti di frodi specializzati per fornire il risultato ai propri clienti. La soluzione completa consente alle aziende di affrontare gli storni di addebito e i falsi rifiuti, garantendo la massimizzazione dei ricavi e la creazione di una migliore esperienza del cliente. L'azienda possiede un algoritmo statistico proprietario che analizza gli ordini dei clienti per rilevare modelli di frode comuni. Inoltre, l'algoritmo può essere personalizzato con regole antifrode progettate specificamente per una particolare attività e sono state integrate con una piattaforma di apprendimento automatico per adattarsi a tattiche fraudolente uniche. Caratteristiche principali: Riduci drasticamente gli storni di addebito e praticamente zero falsi rifiutiProtezione dallo storno di addebito basata sulle prestazioni KPIConformità a tutte le leggi e i regolamenti sulla protezione dei datiDashboard online trasparente e intuitivo e report personalizzati AdvaSmartAdvaSmart di AdvaRisk è un software di prevenzione delle fr...
Continua a Leggere

TechXplore : L’intelligenza artificiale prevede quali utenti di Twitter pubblicheranno disinformazione prima che lo facciano effettivamente.

Il modello di intelligenza artificiale può identificare gli spargitori di disinformazione prima che agiscano Un modello di intelligenza artificiale creato dai ricercatori dell'Università di Sheffield può potenzialmente determinare quali utenti di Twitter pubblicheranno disinformazione prima che lo faccia effettivamente. Se il modello si dimostrerà affidabile, potrebbe essere utilizzato per integrare i metodi esistenti di lotta alla disinformazione sui social media. Secondo TechXplore , lo studio è stato condotto da ricercatori del Dipartimento di Informatica dell'Università di Sheffield, tra cui il dottor Nikos Aletras e Yida Mu. Lo studio è stato pubblicato sulla rivista PeerJ e descrive in dettaglio i metodi utilizzati per prevedere se un utente dei social media può diffondere disinformazione pubblicando contenuti da fonti di notizie inaffidabili. Il team di ricerca ha raccolto oltre 1 milione di tweet da oltre 6000 utenti di Twitter, tutti disponibili pubblicamente. Il team ha applicato tecniche di elaborazione del linguaggio naturale per preparare i dati per l'addestramento di un modello di intelligenza artificiale. L'intelligenza artificiale era un modello di classificazione binaria, che identificava gli utenti come suscettibili di condividere informazioni da fonti inaffidabili o improbabili. Dopo che il modello è stato addestrato sui dati, è stato in grado di raggiungere una precisione di classificazione di circa il 79,7%. Analizzando i risultati delle prestazioni del modello, i ricercatori hanno scoperto che gli utenti che utilizzavano molto un linguaggio scortese e twittavano costantemente su religione e politica avevano maggiori probabilità di pubblicare informazioni da fonti inaffidabili. In particolare, è stato fatto un uso massiccio di parole come "liberale", "media", "governo", "Israele" e "Islam". Nel frattempo, gli utenti che hanno pubblicato informazioni da fonti affidabili tendevano a utilizzare parole come "io", "voglio", "voglio", "um...
Continua a Leggere

KAUST : IA per tracciare materiali sostenibili

L'apprendimento automatico e la progettazione di esperimenti possono essere combinati per identificare il metodo più sostenibile per lo sviluppo di materiali avanzati. vedere di più. L'apprendimento automatico potrebbe insegnarci come rendere la produzione di materiali più pulita e sostenibile adottando una visione olistica per identificare il metodo di produzione più ecologico, suggeriscono i ricercatori di KAUST. La ricerca della sostenibilità significa che gli scienziati di tutto il mondo stanno sviluppando materiali avanzati per aiutare ad affrontare i problemi, tra cui la cattura del carbonio, la desalinizzazione dell'acqua e lo stoccaggio di energia, afferma Rifan Hardian, un postdoc nel laboratorio di Gyorgy Szekely. "Sebbene questi materiali mostrino prestazioni promettenti, i materiali stessi sono spesso prodotti in modi insostenibili - utilizzando condizioni difficili, solventi tossici e processi ad alta intensità energetica che generano rifiuti eccessivi - creando potenzialmente più problemi ambientali di quanti ne risolvano", afferma Hardian. In collaborazione con Xiangliang Zhang e il suo team, Szekely e Hardian hanno studiato un approccio più sostenibile allo sviluppo dei materiali, chiamato design of experiment (DoE). "A differenza degli approcci convenzionali all'ottimizzazione dei materiali, che variano un fattore alla volta, DoE è un approccio sistematico che consente di variare simultaneamente più fattori", afferma Hardian. Teoricamente, DoE consente di ottimizzare contemporaneamente variabili quali la scelta del reagente e del solvente, il tempo di reazione e la temperatura di reazione. La procedura riduce il numero di esperimenti condotti e potenzialmente identifica anche il modo più ecologico possibile per realizzare un materiale. Tuttavia, è difficile ottimizzare ogni variabile per identificare il miglior protocollo di reazione da dati sperimentali così scarsi. "È qui che entra in gioco l'apprendimento automatico", dichiara Hardian. ...
Continua a Leggere

NVIDIA MONAI

NVIDIA lancia il framework MONAI per accelerare l'intelligenza artificiale nel settore sanitario Nel tentativo di accelerare l'intelligenza artificiale nel settore sanitario, NVIDIA ha lanciato MONAI , un Medical Open Network for AI, un framework open source ottimizzato per il dominio per la sanità. Secondo il rilascio ufficiale di NVIDIA , MONAI è ora pronto per la produzione con l'imminente rilascio del framework applicativo Clara dell'azienda per la sanità e le scienze della vita basate sull'intelligenza artificiale. Il framework, MONAI, è un framework basato su PyTorch che è stato introdotto nell'aprile 2020 ed è già stato adottato da alcuni dei principali istituti di ricerca sanitaria. Questo framework migliora l'utilizzo dell'intelligenza artificiale per l'imaging medico. Questo viene fatto con la gestione dei dati specifici del settore, implementazioni di riferimento riproducibili di approcci all'avanguardia e flussi di lavoro di formazione ad alte prestazioni. MONAI è stato rilasciato come parte dell'offerta Clara aggiornata e verrà fornito con oltre 20 modelli pre-addestrati, inclusi quelli sviluppati di recente per la pandemia COVID. Viene inoltre fornito con le ultime ottimizzazioni di formazione sulle GPU NVIDIA DGX A100 che forniscono un'accelerazione fino a sei volte nei tempi di consegna della formazione. Alla domanda sulla nuova versione, il dott.Jayashree Kalpathy-Cramer, il direttore del laboratorio QTIM presso l'Athinoula A. Martinos Center for Biomedical Imaging presso MGH ha dichiarato ai media che la struttura sta attualmente diventando una chiave nel settore sanitario aprendo il modo per una più stretta collaborazione tra data scientist e clinici. NVIDIA ritiene che l'adozione di MONAI sia stata straordinaria da parte dell'ecosistema sanitario. È un dato di fatto, DKFZ, King'sKing's College London, Mass General, Stanford e Vanderbilt sono tra coloro che hanno adottato questo framework AI da NVIDIA per l'imaging. Dalle competizi...
Continua a Leggere

Come Netflix ha retto all’aumento di traffico dovuto alla Pandemia

La tecnologia alla base della progressiva riduzione del carico di Netflix Ad aprile 2020, il servizio di streaming basato su abbonamento Netflix ha registrato 16 milioni di nuove registrazioni, a causa di blocchi a livello nazionale in diversi paesi a causa della paura del coronavirus. Nonostante l'aumento, si può aver osservato che non si è verificata un'interruzione significativa, paralizzando lo streaming regolare . Netflix, attraverso un blog , ha descritto in dettaglio una tecnologia di riduzione del carico progressiva basata sulle priorità per migliorare l'esperienza del cliente sulla piattaforma offrendo servizi ininterrotti. Questa tecnologia ha un filtro di "limitazione della priorità" denominato Zuul che può eliminare le richieste del server non necessarie ogni volta che si verifica un problema sul back-end. Eliminazione progressiva del carico prioritaria con ZuulIl sovraccarico del traffico può verificarsi a causa di diversi motivi, ad esempio l'attivazione di più tentativi da parte dei client, un servizio di dimensioni inferiori, un problema di rete o un problema tecnico con il provider di servizi cloud. Tenendo presenti queste cause, Netflix ha deciso di rendere la piattaforma più affidabile: assegnando priorità alle richieste su più tipi di dispositivi, limitando progressivamente le richieste e convalidando le ipotesi di Chaos Testing. Zuul assegna la priorità al traffico in base a quanto un utente ne ha bisogno per la riproduzione. Netflix si è concentrato su tre fattori - throughput, funzionalità e criticità - per classificare il traffico delle richieste in: NON_CRITICO: i log e le richieste in background sono alcuni degli esempi di questo tipo di traffico, che non influisce sulla riproduzione ma ha un throughput elevato che contribuisce principalmente al caricamento nel sistema.DEGRADED_EXPERIENCE: a differenza di NON_CRITICAL, questo tipo di traffico influisce sull'esperienza dell'utente; tuttavia, non la capacità di giocare. Entra in ...
Continua a Leggere

Apache Airflow 2.0

Rilasciato Apache Airflow 2.0: nuovo scheduler, API Full Rest e altro Microsoft aggiunge l'hindi al suo servizio di analisi del testo per rafforzare il supporto dell'analisi del sentimentW3SchoolsApache Airflow, uno dei sistemi di gestione del flusso di lavoro open source di tendenza tra gli sviluppatori, è una piattaforma per creare, pianificare e monitorare in modo programmatico i flussi di lavoro. Recentemente, il team di Airflow ha svelato la nuova versione di questa piattaforma, che è Apache Airflow 2.0. L'anno scorso, la Apache Software Foundation (ASF) ha annunciato Apache Airflow come il progetto di primo livello (TLP). Con modifiche sostanziali rispetto alla versione precedente, la versione 2.0 di Airflow è arrivata con un aggiornamento significativo. Per iniziare a utilizzare Airflow 2.0, è necessario seguire alcuni prerequisiti, ad esempio se gli utenti utilizzano Python 2.7 , devono migrare a Python 3.6+. Inoltre, quando l'utente utilizza l'ultima versione di Airflow 1.10, può utilizzare il comando airflow upgrade-check per vedere se può migrare alla nuova versione di Airflow. Prima di immergerti negli aggiornamenti significativi, lascia che ti guidiamo prima attraverso le basi di AirFlow. Dietro le basiCreato da Airbnb, Apache Airflow è una piattaforma open source per creare, programmare e monitorare in modo programmatico i flussi di lavoro. La piattaforma è un sistema di pianificazione e automazione del flusso di lavoro flessibile e scalabile per la creazione e la gestione di pipeline di elaborazione di Big Data di centinaia di petabyte. È un motore di flusso di lavoro che esegue diverse attività, come la gestione della pianificazione e l'esecuzione di lavori e pipeline di dati, la gestione dell'allocazione di risorse scarse, fornisce meccanismi per monitorare lo stato dei lavori e il ripristino da errori e altro ancora. Ci sono quattro componenti chiave di Airflow, che sono: Server Web: è la GUI, che rimane sotto il cofano di un'...
Continua a Leggere

Klio l’open source di Spotify

Spotify Open-Sources Klio, un framework AI per algoritmi audio di nuova generazione Di recente, Spotify ha reso open source un framework AI alla conferenza della International Society for Music Information Retrieval del 2020, nota come Klio . Klio è un ecosistema che consente agli sviluppatori di elaborare file audio o qualsiasi altro file binario su qualsiasi scala. Costruito da Spotify, Klio gestisce sistemi di intelligenza audio su larga scala sulla piattaforma di musica digitale e viene utilizzato da team di ingegneri e ricercatori audio per aiutare a sviluppare e implementare algoritmi audio di nuova generazione. Dietro Klio Klio è basato su Apache Beam e i lavori sono pipeline di dati supponenti in Python. Ottimizzato per l'elaborazione di file audio e binari, l'obiettivo di questo framework è creare pipeline di dati più intelligenti per l'audio. Spotify ha creato Klio come framework standardizzato per l'esecuzione dell'analisi audio, consentendo ai team di condividere una base utile comune invece di duplicare il lavoro degli altri. Klio riduce il carico tecnico operativo e di backend su questi team, consentendo loro di concentrarsi sull'elaborazione, sull'apprendimento automatico e su altri lavori algoritmici. Klio è pensato per l'elaborazione dei media e può essere utilizzato su un'infrastruttura cloud o localmente sul proprio computer. Klio concentra Beam sull'analisi, la manipolazione e la trasformazione di grandi media binari (ad esempio immagini, audio, video) in cui il contenuto nella sua forma nativa non può realmente adattarsi o essere analizzato in un database in alcun modo significativo. L'ecosistema Klio è costituito da più pacchetti Python separati . Oltre ai pacchetti interni, ci sono alcuni pacchetti rivolti all'utente, che sono klio-cli, klio e klio-audio. Klio Pipelines Una pipeline Klio utilizza gli identificatori di riferimento ai file audio dagli input degli eventi. Scarica quei file su macchine worker, esegue algorit...
Continua a Leggere

I 5 principali casi d’uso di Edge Computing

L'edge computing fa parte di una topologia di elaborazione distribuita che avvicina il calcolo e l'archiviazione dei dati a dove vengono raccolti anziché a una posizione centrale situata a migliaia di chilometri. O come dice Gartner, "vicino al limite, dove le cose e le persone producono o consumano quelle informazioni". A causa di questo edge computing ha un vantaggio rispetto al cloud computing in cui i dati vengono inviati a un grande data center situato in una posizione centralizzata, lontano dalla fonte. La crescita esponenziale dei dispositivi IoT , che sono connessi a Internet sia per la ricezione che per l'archiviazione dei dati, è ciò che ha spinto lo sviluppo dell'edge computing. La premessa di base dell'edge computing offre numerosi vantaggi quali latenza ridotta, maggiore sicurezza e privacy dei dati, prestazioni delle applicazioni robuste e reattive, costi operativi ridotti e scalabilità migliorata. Con i nuovi sviluppi in questa forma di elaborazione, ha stabilito la sua importanza per l'utilizzo in diversi settori, alcuni dei quali sono elencati di seguito: Veicoli autonomi L'avvento di tecnologie nuove e in evoluzione ha presentato sfide più recenti come il ritardo nell'elaborazione dei dati, il trasferimento dei dati nei veicoli connessi, il processo decisionale in loco e affidabile e l'elaborazione di grandi quantità di dati. C'è stata una maggiore attenzione sullo sfruttamento delle capacità di edge computing per affrontare tali sfide, rispetto ad altri metodi computazionali convenzionali. I dati raccolti dall'accelerometro e dal girometro dei veicoli possono essere calcolati alla fonte utilizzando l'edge computing , per generare allarmi corrispondenti, come nei casi di accelerazione improvvisa, frenata istantanea e incidente automobilistico, al fine di mantenere standard di guida sicura. Inoltre, il sistema di monitoraggio del conducente abilitato per l'edge computing avviserà i conducenti in caso di interruzioni momentanee (vol...
Continua a Leggere

I 10 database più utilizzati dagli sviluppatori nel 2020

10 database più utilizzati dagli sviluppatori nel 2020 Un giornalista tecnico che ama scrivere di machine learning e … Quest'anno, lo Stack Overflow Developer Survey ha intervistato circa 65.000 sviluppatori, dove hanno votato i loro linguaggi di programmazione di uso quotidiano, gli strumenti di riferimento, le librerie e altro ancora. Secondo il sondaggio, MySQL ha mantenuto il primo posto, seguito da PostgreSQL e Microsoft SQL Server. Di seguito, abbiamo elencato i primi 10 database del sondaggio più utilizzati dagli sviluppatori in tutto il mondo nel 2020. (I database sono ordinati in base alle loro classifiche). MySQL Rango: 1 Informazioni su: MySQL è uno dei più popolari sistemi di gestione di database SQL Open Source. Sviluppato da Oracle, MySQL Database Software è un sistema client / server costituito da un server SQL multithread che supporta diversi back-end, diversi programmi client e librerie, strumenti di amministrazione e un'ampia gamma di API (application programming interface). PostgreSQL Rango: 2 Informazioni su: PostgreSQL è un potente sistema di database relazionale a oggetti open source che include alcune funzionalità chiave come affidabilità, robustezza delle funzionalità e prestazioni. Utilizza ed estende il linguaggio SQL combinato con molte funzionalità che archiviano e ridimensionano in modo sicuro i carichi di lavoro dei dati più complicati. PostgreSQL è dotato di molte funzionalità volte ad aiutare gli sviluppatori a creare applicazioni. Consente agli amministratori di proteggere l'integrità dei dati e creare ambienti a tolleranza di errore e aiutare a gestire i dati. Microsoft SQL Server Rango: 3 Informazioni su: Microsoft SQL Server è un sistema di gestione di database relazionali sviluppato da Microsoft. SQL Server 2019 include una serie di funzionalità intuitive, come ottenere informazioni dettagliate da tutti i dati eseguendo query su dati relazionali, non relazionali, strutturati e non s...
Continua a Leggere
Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi