Home / Archive by category "AI tecnologia"

AI tecnologia

FakeTagger per etichettare le foto ed evitare i deepfake

Identificazione delle origini dati deepfake con il tagging basato sull'intelligenza artificiale  Una collaborazione tra ricercatori in Cina, Singapore e Stati Uniti ha prodotto un sistema resiliente per "etichettare" le foto dei volti in modo così robusto che i marcatori identificativi non vengono distrutti durante un processo di formazione deepfake , aprendo la strada a affermazioni sulla proprietà intellettuale che potrebbero intaccare il capacità dei sistemi di generazione di immagini sintetiche di "anonimizzare" dati di origine illegittimamente raschiati. Il sistema, denominato FakeTagger , utilizza un processo di codifica/decodifica per incorporare informazioni ID visivamente indistinguibili nelle immagini a un livello sufficientemente basso da interpretare le informazioni iniettate come dati essenziali delle caratteristiche facciali, e quindi passare intatte attraverso processi di astrazione , allo stesso modo , ad esempio, come dati dell'occhio o della bocca. Una panoramica dell'architettura FakeTagger. I dati di origine vengono utilizzati per generare una caratteristica facciale "ridondante", ignorando gli elementi di sfondo che verranno mascherati attraverso un tipico flusso di lavoro deepfake. Il messaggio è recuperabile all'altro capo del processo, e identificabile attraverso un apposito algoritmo di riconoscimento.La ricerca proviene dalla School of Cyber ​​Science and Engineering di Wuhan, dal Key Laboratory of Aerospace Information Security and Trusted Computing presso il Ministero della Pubblica Istruzione cinese, dal Gruppo Alibaba negli Stati Uniti, dalla Northeastern University di Boston e dalla Nanyang Technological University di Singapore. I risultati sperimentali con FakeTagger indicano un tasso di reidentificazione fino a quasi il 95% attraverso quattro tipi comuni di metodologie deepfake: identity swap (es. DeepFaceLab , FaceSwap ); rievocazione del volto; modifica degli attributi; e sintesi totale. Difetti del rilevamento dei deepfakeAnche se...
Continua a Leggere

Il linguaggio generato dall’intelligenza artificiale sta inquinando le pubblicazioni scientifiche

Il linguaggio generato dall'intelligenza artificiale sta iniziando a inquinare la letteratura scientifica Ricercatori di Francia e Russia hanno pubblicato uno studio che indica che l'uso di generatori di testo probabilistici basati sull'intelligenza artificiale come GPT-3 sta introducendo "linguaggio torturato", citazioni di letteratura inesistente e riutilizzo di immagini ad hoc e non accreditato in canali precedentemente rispettabili per la pubblicazione di nuova letteratura scientifica. Forse la cosa più preoccupante è che i documenti studiati contengano anche contenuti scientificamente imprecisi o non riproducibili presentati come i frutti di una ricerca obiettiva e sistematica, indicando che i modelli di linguaggio generativo vengono utilizzati non solo per rafforzare le limitate competenze in inglese degli autori dei documenti, ma in realtà per fare il duro lavoro richiesto (e, invariabilmente, per farlo male). Il rapporto , intitolato Frasi torturate: uno stile di scrittura dubbio emergente nella scienza , è stato compilato dai ricercatori del Dipartimento di informatica dell'Università di Tolosa e dal ricercatore di Yandex Alexander Magazinov, attualmente all'Università di Tel Aviv. Lo studio si concentra in particolare sulla crescita di pubblicazioni scientifiche senza senso generate dall'intelligenza artificiale presso l'Elsevier Journal Microprocessors and Microsystems . Con qualsiasi altro nomeI modelli di linguaggio autoregressivo come GPT-3 sono addestrati su elevati volumi di dati e sono progettati per parafrasare, riassumere, raccogliere e interpretare tali dati in modelli di linguaggio generativo coeso che sono in grado di riprodurre modelli di linguaggio e scrittura naturali, pur mantenendo l'originale intenzione dei dati di allenamento. Poiché tali framework sono spesso puniti nella fase di addestramento del modello per offrire un rigurgito diretto e "non assorbito" dei dati originali, cercano inevitabilmente sinonimi, anche per frasi ben cons...
Continua a Leggere

La tecnologia “Neuroprotesi vocale” ridà la parola al paziente con grave paralisi

In un altro importante sviluppo nelle protesi di intelligenza artificiale (AI), i ricercatori dell'Università della California a San Francisco hanno sviluppato con successo una "neuroprotesi vocale" che ha parzialmente ripristinato la parola a un uomo con grave paralisi. La nuova tecnologia lo ha aiutato a parlare in frasi quando traduceva i segnali dal suo cervello al tratto vocale. Le parole sono poi apparse come testo su uno schermo.  Il lavoro ha coinvolto il primo partecipante a una sperimentazione di ricerca clinica ed è stato parte di un più ampio corpus di lavoro svolto da oltre dieci anni dal neurochirurgo UCSF Edward Chang, MD, che ha cercato di sviluppare una tecnologia che consente alle persone con la paralisi per comunicare anche quando non sono in grado di parlare da soli.  Lo studio è stato pubblicato il 15 luglio sul New England Journal of Medicine .  Primo sistema del suo genereChang è la Joan and Sanford Weill Chair of Neurological Surgery presso UCSF e Jeanne Robertson Distinguished Professor. È anche autore senior dello studio.  "Per quanto ne sappiamo, questa è la prima dimostrazione di successo della decodifica diretta di parole complete dall'attività cerebrale di qualcuno che è paralizzato e non può parlare", ha detto Chang. "Mostra una forte promessa di ripristinare la comunicazione attingendo al meccanismo vocale naturale del cervello". Il lavoro in questo campo ruota tradizionalmente attorno al ripristino della comunicazione attraverso approcci basati sull'ortografia per scrivere le lettere una per una nel testo. Tuttavia, il nuovo studio si concentra sulla traduzione di segnali che sono effettivamente destinati a controllare i muscoli del sistema vocale per pronunciare le parole. Questo è diverso dal lavoro tradizionale, che si concentra sui segnali che muovono il braccio o la mano.  Secondo Chang, il nuovo approccio sfrutta gli aspetti naturali e fluidi del discorso e potrebbe portare a molti più progressi in questo settore. Ha anche affe...
Continua a Leggere

L’intelligenza artificiale porta promesse e pericoli alla gestione delle relazioni con i clienti il CRM vive e muore grazie ai dati

  L'intelligenza artificiale si sta rivelando molto preziosa quando viene applicata a funzioni prevedibili e meccaniche. A prima vista, questo potrebbe non sembrare l'ideale per la gestione delle relazioni con i clienti (CRM), ma mantenere i clienti felici richiede molto lavoro noioso. Nel mondo sempre più digitale di oggi, il CRM vive e muore grazie ai dati, non solo alla quantità di dati raccolti, ma anche alla qualità di tali dati, che può essere ottenuta solo con analisi e interpretazioni all'avanguardia. Ma i volumi di oggi sono semplicemente troppo da gestire per gli analisti umani (almeno in modo tempestivo), quindi le piattaforme CRM di ogni tipo stanno iniziando a incorporare l'intelligenza artificiale per gestire il carico.  Dati sbagliati, decisioni sbagliateSecondo la società di analisi di marketing MarTech Series, la gestione dei dati difettosa è un fattore chiave nei risultati scadenti delle relazioni con i clienti, con oltre l'85% degli agenti di vendita che la cita come causa di errori imbarazzanti . Ogni giorno vengono creati fino a 2,5 quintilioni di byte di dati, il 90% dei quali non strutturati, quindi il semplice compito di contestualizzare tutti questi dati è funzionalmente impossibile senza AI. E l'intelligenza artificiale può essere integrata direttamente nei flussi di lavoro CRM per gestire le attività noiose che la maggior parte delle persone non vuole comunque svolgere e di solito non può fare a meno di introdurre numerosi errori. Allo stesso tempo, l'intelligenza artificiale può essere addestrata a comunicare direttamente con i clienti, tramite testo o voce, per rispondere a semplici domande o reclami facilmente risolvibili. Per quanto controintuitivo possa sembrare, è probabile che l'IA produca un approccio al CRM più personalizzato di quanto sia attualmente possibile. L'intelligenza artificiale può assemblare e valutare la cronologia digitale di un cliente, inclusi acquisti, e-mail e altri eventi, per determinare le sue esigenze e il su...
Continua a Leggere

L’intelligenza artificiale in grado di capire se una persona è ubriaca o drogata sulla base delle immagini a infrarossi degli occhi.

Determinazione dell'intossicazione con l'analisi dell'apprendimento automatico degli occhi  Ricercatori provenienti da Germania e Cile hanno sviluppato un nuovo framework di apprendimento automatico in grado di valutare se una persona è ubriaca, sulla base di immagini a infrarossi dei suoi occhi. La ricerca è finalizzata allo sviluppo di sistemi in tempo reale "fitness for duty" in grado di valutare la prontezza di un individuo a svolgere compiti critici come guidare o utilizzare macchinari, e utilizza un nuovo rilevatore di oggetti addestrato ai graffi in grado di individuare componenti dell'occhio di un soggetto da una singola immagine e valutarli rispetto a un database che include immagini di occhi intossicati e non intossicati. Inizialmente il sistema acquisisce e individua un'immagine di ciascun occhio con il framework di rilevamento degli oggetti You-Only-Look-Once ( YOLO ). Successivamente, vengono utilizzate due reti ottimizzate per scomporre le immagini oculari in regioni semantiche: la rete di attenzione Criss Cross (CCNet) rilasciata nel 2020 dalla Huazhong University of Science and Technology e l' algoritmo di segmentazione DenseNet10 , anch'esso sviluppato da molti dei ricercatori del nuovo articolo in Cile. I due algoritmi utilizzano rispettivamente solo 122.514 e 210.732 parametri: un esborso frugale, rispetto ad alcuni dei set di funzionalità più grandi in modelli simili, e in controtendenza rispetto alla tendenza generale verso volumi di dati più elevati nei framework ML. Banca dati degli ubriachiPer informare il quadro di apprendimento automatico, i ricercatori hanno sviluppato un database originale con 266 soggetti intossicati e 765 soggetti sobri. Campioni dal database ottenuto di soggetti intossicati e non intossicati.I soggetti dovevano stare di fronte a due telecamere Iritech originarie , la gamma Gemini/Venus, per affrontare il dispositivo e per essere ripresi sobri. Successivamente hanno consumato 200 ml di alcol e sono stati nuovamente catt...
Continua a Leggere

I ricercatori del MIT hanno sviluppato una singola rete neurale profonda (DNN) per alimentare i veicoli autonomi.

I ricercatori del MIT sviluppano un'unica rete neurale profonda per veicoli autonomi  Il rapido sviluppo della tecnologia dei sensori e dell'elaborazione del software ha consentito l'autonomia dei camion, migliorando le operazioni della flotta diminuendo i tempi di fermo, riducendo i costi del personale, gli incidenti e le vittime. Secondo Fortune Business Insights , il mercato globale dei veicoli autonomi dovrebbe raggiungere 2.013,34 milioni di dollari, crescendo a un CAGR del 12,6% entro il 2027.  Basandosi su questo business in forte espansione, NVIDIA ha creato soluzioni end-to-end per veicoli autonomi definiti da software (AV) per il settore dei trasporti, consentendo il miglioramento e l'implementazione continui tramite aggiornamenti via etere. Inoltre, fornisce tutto il necessario per sviluppare AV su larga scala. Migliorando la tecnologia di NVIDIA, i ricercatori del MIT hanno recentemente sviluppato una singola rete neurale profonda (DNN) per veicoli a motore autonomo. Hanno utilizzato NVIDIA DRIVE AGX Pegasus per aiutare a gestire la rete del veicolo, che ha aiutato a elaborare grandi quantità di dati LiDAR in tempo reale. Di solito, un sensore AV genera fino a 1,6 petabyte di dati del sensore da una flotta di 50 veicoli in sole sei ore. Per una navigazione sicura, le auto a guida autonoma devono interpretare questi dati in tempo reale. Tuttavia, a causa della difficoltà di elaborare questo enorme volume di dati utilizzando un singolo DNN, la maggior parte delle tecniche impiega diverse reti e mappe ad alta definizione. Questa combinazione consente a un AV di determinare rapidamente la sua posizione nello spazio e riconoscere altri utenti della strada e segnali stradali. Sebbene questa strategia garantisca la ridondanza e la diversità necessarie per una guida autonoma sicura, è difficile da implementare in luoghi non mappati. Inoltre, i sistemi AV che si basano sul rilevamento lidar devono elaborare oltre due milioni di punti nel loro ambiente ogni second...
Continua a Leggere

L’intelligenza artificiale accelera il processo di terapia con cellule staminali

L'intelligenza artificiale accelera il processo di terapia con cellule staminali La terapia con cellule staminali è esplosa in popolarità negli ultimi anni data la sua incredibile capacità di agire come medicina rigenerativa. Tuttavia, i ricercatori e i medici hanno dovuto tradizionalmente valutare la qualità delle cellule staminali osservando ogni singola cellula al microscopio, il che rappresenta una delle principali limitazioni ai possibili progressi. I ricercatori giapponesi hanno ora trovato un modo per accelerare l'intero processo utilizzando l'intelligenza artificiale (AI). Lo studio è stato pubblicato a febbraio su Stem Cells . Nello studio, i ricercatori della Tokyo Medical and Dental University (TMDU) hanno sviluppato un sistema di intelligenza artificiale chiamato DeepACT, in grado di identificare cellule staminali della pelle sane e produttive. Può farlo con lo stesso livello di precisione di un essere umano. Possibilità di cellule staminali Poiché le cellule staminali sono in grado di svilupparsi in vari tipi diversi di cellule mature, possono aiutare a far crescere nuovi tessuti quando un individuo soffre di una lesione o di una malattia. Ad esempio, le cellule staminali dei cheratinociti (pelle) possono essere utilizzate per trattare malattie ereditarie della pelle e possono consentire la crescita di interi strati di pelle per riparare ustioni di grandi dimensioni.  Takuya Hirose è uno degli autori principali dello studio. “Le cellule staminali dei cheratinociti sono uno dei pochi tipi di cellule staminali adulte che crescono bene in laboratorio. I cheratinociti più sani si muovono più rapidamente delle cellule meno sane, quindi possono essere identificati dall'occhio usando un microscopio", afferma Takuya Hirose. "Tuttavia, questo metodo richiede tempo, lavoro intenso e soggetto a errori". Per aggirare questo metodo che richiede tempo, i ricercatori hanno deciso di sviluppare un sistema in grado di identificare e monitorare automaticamente il movimen...
Continua a Leggere

Un nuovo algoritmo di deep learning consente ai droni e ai sistemi autonomi di riconoscere dove si trovano osservando il terreno che li circonda

L'algoritmo consente la navigazione visiva relativa al terreno nei veicoli autonomi  Un nuovo algoritmo di deep learning sviluppato dai ricercatori del California Institute of Technology (Caltech) consente ai sistemi autonomi di riconoscere dove si trovano osservando il terreno che li circonda. Per la prima volta in assoluto, questa tecnologia può funzionare indipendentemente dai cambiamenti stagionali del terreno. La ricerca è stata pubblicata il 23 giugno sulla rivista Science Robotics dall'American Association for the Advancement of Science (AAAS). Navigazione visiva relativa al terrenoIl processo è chiamato navigazione relativa al terreno visivo (VTRN) ed è stato sviluppato per la prima volta negli anni '60. I sistemi autonomi possono localizzarsi tramite VTRN confrontando il terreno vicino con immagini satellitari ad alta risoluzione. Tuttavia, l'attuale generazione di VTRN richiede che il terreno che sta osservando corrisponda strettamente alle immagini nel database. Qualsiasi alterazione del terreno, come neve o foglie che cadono, può causare il guasto del sistema a causa di immagini non corrispondenti. Ciò significa che i sistemi VTRN possono essere facilmente confusi a meno che non ci sia un database delle immagini del paesaggio in ogni condizione immaginabile.  Il team coinvolto in questo progetto proviene dal laboratorio di Soon-Jo Chung, Bren Professor di Sistemi aerospaziali e di controllo e dinamici e ricercatore al JPL. Il team ha utilizzato il deep learning e l'intelligenza artificiale (AI) per rimuovere i contenuti stagionali che possono essere fastidiosi per i sistemi VTRN.  https://youtu.be/U5Kr0YI3sec Anthony Fragoso è docente e scienziato del personale, nonché autore principale del documento Science Robotics. “La regola generale è che entrambe le immagini, quella del satellite e quella del veicolo autonomo, devono avere lo stesso contenuto affinché le tecniche attu...
Continua a Leggere

“Pensatori e innovatori”: un’intervista a Marcus Du Sautoy

La serie "Thinkers and Innovators" esplora la scienza e la filosofia del cervello e della mente con alcuni dei più importanti esperti di lungimiranza del mondo. Esplora anche le tecnologie utilizzate per lo studio e l'interfaccia con il cervello, nonché le tecnologie motivate dal cervello, come l'apprendimento automatico e l'intelligenza artificiale.  Marcus du Sautoy è professore di matematica e Charles Simonyi professore di Public Understanding of Science presso l'Università di Oxford. È ampiamente conosciuto per il suo lavoro volto a educare e divulgare la scienza e la matematica a un pubblico generale. Ha scritto numerosi libri popolari, tra cui "The Creativity Code - Art and Innovation in the Age of AI" e "The Great Unknown - Seven Journeys to the Frontiers of Science". È anche conduttore di numerosi documentari per la BBC. La ricerca del Professor du Sautoy si concentra sulla teoria dei numeri, utilizzando una vasta gamma di argomenti come la teoria dei modelli, la geometria algebrica e i metodi analitici. Ha numerosi premi e riconoscimenti, tra cui essere stato eletto Fellow della Royal Society nel 2016 e insignito del prestigioso Berwick Prize dalla London Mathematical Society nel 2001. Hai riflettuto molto sulla creatività e su cosa significa per gli umani – e per il cervello umano – rispetto a cosa significa per macchine e algoritmi. Perché è stato di tale interesse? Credo che la matematica sia altamente creativa, quindi volevo sapere se una macchina potesse davvero fare quello che faccio. Mi sono ritrovato in un comitato della Royal Society ad esplorare l'impatto che l'apprendimento automatico avrebbe avuto sulla società nei prossimi dieci anni, ma questo è stato a un punto in cui se avessi detto l'apprendimento automatico a qualcuno gli sarebbe andato dritto . Ci sono alcuni algoritmi molto interessanti e potenti là fuori. Abbiamo ricevuto materiale così interessante da diverse aree della società. Ad esempio, in medicina sta avendo un impatto enorme, anc...
Continua a Leggere

Il Progetto Tivoli di Google il nuovo Duolingo ?

È la risposta di Tivoli Google a Duolingo? Il modello linguistico basato sull'intelligenza artificiale Tivoli aiuterà gli utenti a imparare le lingue straniere attraverso  Dall'introduzione di Google Translate 13 anni fa, metodologie come la traduzione automatica neurale, i paradigmi basati sulla riscrittura e l'elaborazione su dispositivo hanno portato a miglioramenti verificabili nell'accuratezza della traduzione. Gli sviluppi dell'azienda hanno notevolmente migliorato l'esperienza dell'utente nelle 108 lingue supportate da Google Translate, con una traduzione media di 150 miliardi di parole al giorno. Le innovazioni nella traduzione di Google non sono avvenute grazie a un singolo progresso tecnologico, ma piuttosto a causa dell'uso di vari approcci tecnici volti a fornire traduzioni a bassa e alta risorsa, qualità generale e velocità di elaborazione complessiva. Translate ha aumentato una media di cinque o più punti in tutte le lingue, sette o più nelle 50 lingue con le risorse più basse da maggio 2019 a maggio 2020, come valutato da valutazioni umane e BLEU, un punteggio basato sulla somiglianza tra la traduzione di un sistema e le traduzioni di riferimento umano. Inoltre, Google ha scoperto che il problema delle allucinazioni della traduzione automatica è stato ridotto, rendendo più facile per gli utenti fidarsi maggiormente delle traduzioni automatiche. Alla conferenza degli sviluppatori dell'azienda il mese scorso, Google I/O 2021 , l'azienda ha presentato LaMDA , un nuovo modello linguistico per le applicazioni di dialogo. L'applicazione ha dimostrato il potere rivoluzionario dell'intelligenza artificiale (AI) nell'apprendimento delle lingue. Alla conferenza, il CEO di Google, Sundar Pichai, ha spiegato come l'elaborazione del linguaggio naturale e i modelli di trasformazione abbiano raggiunto numerosi risultati e come Google abbia cercato incessantemente di migliorarlo.  Lavorando ulteriormente su questa idea, Google ha recentemente annunciato un modello di...
Continua a Leggere
Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi