Home / Archive by category "Software"

Software

Lost Tapes of the 27 Club : un algoritmo di intelligenza artificiale ha creato “nuovi” Jimi Hendrix e Nirvana

Abbiamo sentito canzoni generate dall'intelligenza artificiale imitare il lavoro di AC / DC, Metallica e altri. Ora il software di intelligenza artificiale ha generato "nuove" tracce di Jimi Hendrix e dei Nirvana, insieme ad altri artisti e band con membri morti all'età di 27 anni, per aumentare la consapevolezza dell'importanza del supporto per la salute mentale tra musicisti e membri dell'industria musicale . La canzone di Hendrix, You're Gonna Kill Me, e la traccia dei Nirvana, Drowned In the Sun, fanno parte di un nuovo progetto dell'organizzazione con sede a Toronto, Over the Bridge, che ha messo insieme una compilation, tutte create tramite intelligenza artificiale , nello stile dei musicisti morti all'età di 27 anni. L'uscita, intitolata Lost Tapes of the 27 Club, include anche brani nello stile dei Doors e di Amy Winehouse, tutti realizzati tramite il programma AI di Google Magenta, che analizza il lavoro precedente di un artista per imparare a comporre come loro. Un programma AI aggiuntivo è stato utilizzato per creare i testi. L'algoritmo di intelligenza artificiale ha ascoltato hook isolati, ritmi, riff di chitarra, cambi di accordi, assoli, melodie e testi di un massimo di 30 canzoni di ogni artista, e poi "imparato" dalla musica, generando una serie di informazioni sonore completamente nuove. "Abbiamo preso da 20 a 30 brani di ciascuno dei nostri artisti come file MIDI e li abbiamo suddivisi in solo il gancio, l'assolo, la melodia vocale o la chitarra ritmica e li abbiamo inseriti uno alla volta", ha spiegato Sean O'Connor, che è su è il consiglio di amministrazione di Over the Bridge e lavora anche come direttore creativo per l'agenzia pubblicitaria Rethink, in un'intervista a Rolling Stone. "Se metti intere canzoni, il programma inizia a diventare davvero confuso su come [dovrebbe] suonare. Ma se hai solo un mucchio di riff, verranno pubblicati circa cinque minuti di nuovi riff scritti da AI, il 90% dei quali è davvero brutto e inascol...
Continua a Leggere

XAI dell’Università di Toronto e LG : i ricercatori sviluppano un algoritmo di intelligenza artificiale “spiegabile”

I ricercatori dell'Università di Toronto e LG AI Research hanno sviluppato un algoritmo di intelligenza artificiale (XAI) "spiegabile" che può aiutare a identificare ed eliminare i difetti negli schermi di visualizzazione. Il nuovo algoritmo, che ha sovraperformato approcci comparabili sui benchmark di settore, è stato sviluppato attraverso una collaborazione di ricerca sull'IA in corso tra LG e U of T che è stata ampliata nel 2019 con un focus sulle applicazioni AI per le aziende. I ricercatori affermano che l'algoritmo XAI potrebbe essere potenzialmente applicato in altri campi che richiedono una finestra sul modo in cui l'apprendimento automatico prende le sue decisioni, inclusa l'interpretazione dei dati dalle scansioni mediche. "La spiegabilità e l'interpretabilità riguardano il rispetto degli standard di qualità che ci siamo prefissati come ingegneri e sono richiesti dall'utente finale", afferma Kostas Plataniotis, professore presso il dipartimento di ingegneria elettrica e informatica di Edward S. Rogers Sr. presso la Facoltà di Applied Scienza e ingegneria. "Con XAI, non esiste una" taglia unica ". Devi chiedere per chi lo stai sviluppando. È per un altro sviluppatore di machine learning? O è per un dottore o un avvocato? " Il team di ricerca comprendeva anche Mahesh Sudhakar, neolaureato alla U of T Engineering e il candidato al master Sam Sattarzadeh, nonché ricercatori guidati da Jongseong Jang presso LG AI Research Canada, parte del braccio di ricerca e sviluppo globale dell'azienda. XAI è un campo emergente che affronta i problemi con l'approccio "scatola nera" delle strategie di apprendimento automatico. In un modello a scatola nera, un computer potrebbe ricevere una serie di dati di addestramento sotto forma di milioni di immagini etichettate. Analizzando i dati, l'algoritmo impara ad associare alcune caratteristiche dell'input (immagini) a determinati output (etichette). Alla fine, può attaccare correttamente etichette a immagini c...
Continua a Leggere

IDMT-ISAAC : controllo della qualità acustica con l’aiuto dell’intelligenza artificiale

Gli scienziati del Fraunhofer Institute hanno sviluppato un software per il controllo della qualità che consente agli utenti senza conoscenze di intelligenza artificiale di trarre vantaggio dall'IA. Sebbene possano portare grandi vantaggi nel lavoro quotidiano, molte piccole e medie imprese (PMI) evitano le applicazioni basate sull'intelligenza artificiale. Ma l'IA offre molto potenziale, soprattutto nel controllo della qualità. Tuttavia, l'addestramento dei modelli è difficile e difficilmente fattibile senza conoscenze matematiche, poiché ci sono innumerevoli parametri che possono entrare in tale analisi. E una volta appreso un algoritmo di intelligenza artificiale, viene addestrato solo sulle specifiche apprese. Se la progettazione di un prodotto o la geometria di un componente viene successivamente modificata anche leggermente, l'algoritmo lo riconosce come un errore e l'IA deve essere riqualificata. I ricercatori dell'Istituto Fraunhofer per la tecnologia dei media digitali IDMT a Ilmenau, in Germania, hanno ora sviluppato il software "IDMT-ISAAC", che può essere utilizzato anche senza una conoscenza approfondita dell'IA. IDMT-ISAAC è l'acronimo di Industrial Sound Analysis for Automated Quality Control. "Vogliamo consentire alle PMI di adattare e personalizzare autonomamente gli algoritmi di intelligenza artificiale", afferma Judith Liebetrau, leader del gruppo di applicazioni multimediali industriali presso Fraunhofer IDMT. "Possono applicare IDMT-ISAAC ai propri dati audio, riqualificarli e quindi ottenere risultati rapidi e affidabili e supporto decisionale per la loro garanzia di qualità". IDMT-ISAAC si affida all'acustica per l'analisi, poiché in molti casi è possibile rilevare i difetti solo dal suono del processo. Per addestrare l'IA, gli scienziati utilizzano i dati acustici registrati dai processi di saldatura. L'IA analizza i rumori tipici che si verificano e trae conclusioni sulla qualità del rispettivo cordone di saldatura dai dati audio. ...
Continua a Leggere

I ricercatori di Facebook AI presentano un progetto di intelligenza artificiale che apprende dai video

Gli sviluppatori di Facebook stanno realizzando un progetto di intelligenza artificiale chiamato "Learning from Videos", in grado di apprendere dai video disponibili pubblicamente. Il progetto utilizza dati audio, testuali e visivi disponibili e aggiunge al suo contenuto lessicale di utenti di tutto il mondo. Il progetto AI si concentra sulla fornitura di una raccomandazione sui contenuti per gli utenti, sull'applicazione delle politiche sui contenuti e sul miglioramento della capacità dell'intelligenza artificiale di apprendere come gli esseri umani. Si ritiene che il progetto di cui sopra sia in grado di riconoscere qualsiasi contenuto video. Il decennio ha visto progressi significativi nei sistemi di intelligenza artificiale nel riconoscimento della parola, del linguaggio e della vista. A causa di quanto sopra, l'intelligenza artificiale fa molto meno affidamento sui set di dati acquisiti per costruire la propria base di conoscenze. Gli sviluppatori di Facebook si sono concentrati sull'utilizzo di "Learning from Videos" per consentire alla piattaforma di assorbire una vasta gamma di dati da diverse regioni e culture in tutto il mondo. Con questo, il team non vede l'ora di creare un progetto AI in grado di anticipare le abitudini degli utenti durante la navigazione sulla piattaforma Facebook. Il team degli sviluppatori ha adottato una politica sulla privacy trasparente per quanto riguarda i contenuti degli utenti per garantire l'implementazione etica di Learning from Videos. Gli sviluppatori di Facebook hanno confermato che i creatori di contenuti si sentono sicuri utilizzando questa nuova funzionalità implementando la fiducia degli utenti e le linee guida sulla sicurezza. I prodotti di Intelligenza Artificiale semi e autogestiti hanno già portato un grande successo per Facebook. Si ritiene che i prodotti per l'apprendimento autogestito abbiano mostrato una riduzione del 20% degli errori di riconoscimento vocale. I sottotitoli automatici potrebbero esser...
Continua a Leggere

Intelligenza artificiale e revisione dei contenuti dei social media

Le piattaforme online interattive sono diventate parte integrante della nostra vita quotidiana. Sebbene i contenuti generati dagli utenti, liberi dai tradizionali vincoli editoriali, abbiano stimolato vivaci comunicazioni online, migliorato i processi aziendali e ampliato l'accesso alle informazioni, ha anche sollevato questioni complesse su come moderare i contenuti online dannosi. Poiché il volume dei contenuti generati dagli utenti continua a crescere, è diventato sempre più difficile per le società di Internet e di social media tenere il passo con le esigenze di moderazione delle informazioni pubblicate sulle loro piattaforme. Le misure di moderazione dei contenuti supportate dall'intelligenza artificiale (AI) sono emerse come strumenti importanti per affrontare questa sfida. Che tu stia gestendo una piattaforma di social media o un sito di e-commerce, ridurre al minimo i contenuti dannosi è fondamentale per l'esperienza dell'utente. Tali contenuti dannosi possono includere qualsiasi cosa, dai post che promuovono la violenza agli abusi sui minori. In effetti, la gamma e l'ambito dei potenziali contenuti dannosi si sono dimostrati troppo ampi per essere esaminati dai moderatori umani in modo completo. I sistemi di intelligenza artificiale, progettati per rispecchiare il modo in cui gli esseri umani pensano ed elaborano le informazioni, potrebbero essere in grado di migliorare la velocità e l'accuratezza di questo processo. La tecnologia AI può acquisire grandi set di dati e insegnare alle macchine a identificare modelli o fare previsioni su determinati input. In definitiva, questa capacità consente ai computer di riconoscere e filtrare determinate parole o immagini con maggiore efficienza di quanto gli esseri umani possano elaborare queste informazioni. Come ulteriore vantaggio, questo riduce o potrebbe potenzialmente eliminare la necessità per i moderatori umani di essere direttamente esposti a contenuti dannosi. Sebbene i sistemi di intelligenza artifici...
Continua a Leggere

Pinterest rende pubbliche l’intelligenza artificiale e le tecnologie di apprendimento automatico che utilizza per combattere i contenuti dannosi sulla sua piattaforma

Pinterest descrive in dettaglio l'IA che alimenta la moderazione dei contenuti Pinterest questa mattina ha tolto il sipario all'intelligenza artificiale e alle tecnologie di apprendimento automatico che utilizza per combattere i contenuti dannosi sulla sua piattaforma. Sfruttando algoritmi per rilevare automaticamente contenuti per adulti, attività che incitano all'odio, disinformazione medica, farmaci, violenza grafica e altro ancora prima che venga segnalato, la società afferma che i rapporti che violano le norme per impressione sono diminuiti del 52% dall'autunno 2019, quando le tecnologie sono state introdotte per la prima volta . E i rapporti sui contenuti di autolesionismo sono diminuiti dell'80% da aprile 2019. Una delle sfide nella creazione di modelli di machine learning multi-categoria per la sicurezza dei contenuti è la scarsità di dati etichettati, costringendo gli ingegneri a utilizzare modelli più semplici che non possono essere estesi a input multi-modello. Pinterest risolve questo problema con un sistema addestrato su milioni di Pin revisionati da persone, costituito sia da segnalazioni degli utenti che da campionamenti proattivi basati su modelli dal suo team di operazioni Trust and Safety, che assegna categorie e interviene in caso di violazione dei contenuti. L'azienda utilizza anche un modello di Pin addestrato utilizzando una rappresentazione matematica e compatibile con il modello dei Pin in base alle loro parole chiave e immagini, aggregata con un altro modello per generare punteggi che indicano quali bacheche Pinterest potrebbero essere in violazione. “Abbiamo migliorato le informazioni derivate dal riconoscimento ottico dei caratteri sulle immagini e abbiamo implementato una versione online, quasi in tempo reale, del nostro sistema. Un'altra novità è il punteggio delle bacheche e non solo dei Pin ", ha detto a VentureBeat via e-mail Vishwakarma Singh, capo del team di apprendimento automatico per la fiducia e la sicurezza di Pinter...
Continua a Leggere

Software open source per aiutare i ricercatori di intelligenza artificiale a ridurre l’impronta di carbonio

Un gruppo di ricercatori internazionali di IA e data scientist ha collaborato alla progettazione di software in grado di stimare l'impronta di carbonio delle operazioni di calcolo. Il pacchetto software open source, chiamato CodeCarbon, è stato progettato da un consorzio di società di intelligenza artificiale e data science. La speranza è che il software consentirà e incentiverà i programmatori a rendere il loro codice più efficiente e ridurre la quantità di CO2 generata dall'uso delle risorse informatiche. Secondo ITP , il nuovo pacchetto software CodeCarbon è stato sviluppato da un team di gruppi di ricerca AI guidati dalla società di ricerca AI Mila, insieme a Comet.ml, Haverford College in Pennsylvania e GAMMA. Il software non solo stima la quantità di CO2 prodotta dall'uso delle risorse di calcolo, ma fornisce anche agli sviluppatori consigli per ridurre la loro impronta di carbonio. L'addestramento di modelli di IA può richiedere molta energia. Come spiegato da ArsTechnica , i ricercatori dell'Università del Massachusetts Amherst hanno stimato il costo totale della creazione e dell'addestramento di determinati modelli di IA e il team ha scoperto che l'addestramento della rete del linguaggio naturale BERT una volta generava approssimativamente la stessa quantità di carbonio di un volo di andata e ritorno tra San Francisco e New York. York. Nel frattempo, addestrare il modello più volte fino a quando non viene ottimizzato potrebbe generare tanta CO2 quanto 315 passeggeri diversi che prendono lo stesso volo. Perché esattamente i modelli di intelligenza artificiale consumano così tanta energia e generano così tanta CO2 come sottoprodotto? Parte della risposta sta nel modo in cui i modelli di intelligenza artificiale vengono addestrati e ottimizzati. Per ottenere anche piccoli miglioramenti rispetto agli algoritmi all'avanguardia esistenti, i ricercatori di intelligenza artificiale potrebbero addestrare il loro modello migliaia di volte, apportando lievi ...
Continua a Leggere

I migliori 8 software di antifrode del 2021

Mentre ogni anno si assiste ad alcune importanti attività fraudolente che hanno fatto notizia, il blocco della pandemia e l'esplosione digitale hanno costretto quest'anno a sperimentare alcune delle violazioni significative che le aziende hanno dovuto affrontare. In un articolo, abbiamo anche annotato alcune delle più grandi violazioni del 2020 che hanno allarmato le aziende. Con il caos creato dalla pandemia, mentre ci spostiamo nel prossimo anno, le aziende stanno ora uscendo dai loro tradizionali sistemi di prevenzione delle frodi e stanno cercando di adottare software avanzati per combattere gli hacker opportunisti e le loro sofisticate tattiche di frode. Questo articolo elenca i primi otto software di prevenzione delle frodi di questo tipo che le aziende possono cercare nel 2021. ClearSaleClearSale è una soluzione completa per la prevenzione delle frodi di eCommerce che sfrutta l'intelligenza artificiale, tecniche statistiche avanzate e un team di analisti di frodi specializzati per fornire il risultato ai propri clienti. La soluzione completa consente alle aziende di affrontare gli storni di addebito e i falsi rifiuti, garantendo la massimizzazione dei ricavi e la creazione di una migliore esperienza del cliente. L'azienda possiede un algoritmo statistico proprietario che analizza gli ordini dei clienti per rilevare modelli di frode comuni. Inoltre, l'algoritmo può essere personalizzato con regole antifrode progettate specificamente per una particolare attività e sono state integrate con una piattaforma di apprendimento automatico per adattarsi a tattiche fraudolente uniche. Caratteristiche principali: Riduci drasticamente gli storni di addebito e praticamente zero falsi rifiutiProtezione dallo storno di addebito basata sulle prestazioni KPIConformità a tutte le leggi e i regolamenti sulla protezione dei datiDashboard online trasparente e intuitivo e report personalizzati AdvaSmartAdvaSmart di AdvaRisk è un software di prevenzione delle fr...
Continua a Leggere

TechXplore : L’intelligenza artificiale prevede quali utenti di Twitter pubblicheranno disinformazione prima che lo facciano effettivamente.

Il modello di intelligenza artificiale può identificare gli spargitori di disinformazione prima che agiscano Un modello di intelligenza artificiale creato dai ricercatori dell'Università di Sheffield può potenzialmente determinare quali utenti di Twitter pubblicheranno disinformazione prima che lo faccia effettivamente. Se il modello si dimostrerà affidabile, potrebbe essere utilizzato per integrare i metodi esistenti di lotta alla disinformazione sui social media. Secondo TechXplore , lo studio è stato condotto da ricercatori del Dipartimento di Informatica dell'Università di Sheffield, tra cui il dottor Nikos Aletras e Yida Mu. Lo studio è stato pubblicato sulla rivista PeerJ e descrive in dettaglio i metodi utilizzati per prevedere se un utente dei social media può diffondere disinformazione pubblicando contenuti da fonti di notizie inaffidabili. Il team di ricerca ha raccolto oltre 1 milione di tweet da oltre 6000 utenti di Twitter, tutti disponibili pubblicamente. Il team ha applicato tecniche di elaborazione del linguaggio naturale per preparare i dati per l'addestramento di un modello di intelligenza artificiale. L'intelligenza artificiale era un modello di classificazione binaria, che identificava gli utenti come suscettibili di condividere informazioni da fonti inaffidabili o improbabili. Dopo che il modello è stato addestrato sui dati, è stato in grado di raggiungere una precisione di classificazione di circa il 79,7%. Analizzando i risultati delle prestazioni del modello, i ricercatori hanno scoperto che gli utenti che utilizzavano molto un linguaggio scortese e twittavano costantemente su religione e politica avevano maggiori probabilità di pubblicare informazioni da fonti inaffidabili. In particolare, è stato fatto un uso massiccio di parole come "liberale", "media", "governo", "Israele" e "Islam". Nel frattempo, gli utenti che hanno pubblicato informazioni da fonti affidabili tendevano a utilizzare parole come "io", "voglio", "voglio", "um...
Continua a Leggere

KAUST : IA per tracciare materiali sostenibili

L'apprendimento automatico e la progettazione di esperimenti possono essere combinati per identificare il metodo più sostenibile per lo sviluppo di materiali avanzati. vedere di più. L'apprendimento automatico potrebbe insegnarci come rendere la produzione di materiali più pulita e sostenibile adottando una visione olistica per identificare il metodo di produzione più ecologico, suggeriscono i ricercatori di KAUST. La ricerca della sostenibilità significa che gli scienziati di tutto il mondo stanno sviluppando materiali avanzati per aiutare ad affrontare i problemi, tra cui la cattura del carbonio, la desalinizzazione dell'acqua e lo stoccaggio di energia, afferma Rifan Hardian, un postdoc nel laboratorio di Gyorgy Szekely. "Sebbene questi materiali mostrino prestazioni promettenti, i materiali stessi sono spesso prodotti in modi insostenibili - utilizzando condizioni difficili, solventi tossici e processi ad alta intensità energetica che generano rifiuti eccessivi - creando potenzialmente più problemi ambientali di quanti ne risolvano", afferma Hardian. In collaborazione con Xiangliang Zhang e il suo team, Szekely e Hardian hanno studiato un approccio più sostenibile allo sviluppo dei materiali, chiamato design of experiment (DoE). "A differenza degli approcci convenzionali all'ottimizzazione dei materiali, che variano un fattore alla volta, DoE è un approccio sistematico che consente di variare simultaneamente più fattori", afferma Hardian. Teoricamente, DoE consente di ottimizzare contemporaneamente variabili quali la scelta del reagente e del solvente, il tempo di reazione e la temperatura di reazione. La procedura riduce il numero di esperimenti condotti e potenzialmente identifica anche il modo più ecologico possibile per realizzare un materiale. Tuttavia, è difficile ottimizzare ogni variabile per identificare il miglior protocollo di reazione da dati sperimentali così scarsi. "È qui che entra in gioco l'apprendimento automatico", dichiara Hardian. ...
Continua a Leggere
Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi