Home / Archive by category "Programmazione"

Programmazione

Come funzione il motore di raccomandazione e l’algoritmo di Tik Tok ?

Dentro il motore di raccomandazione avvincente di TikTok I design incentrati sull'utente sono al centro della crescente popolarità di TikTok Apartire da dicembre 2020, TikTok ha superato Facebook diventando l'app più scaricata. Il patrimonio netto stimato del suo fondatore Zhang Yiming è di 35,6 miliardi di dollari . Con TikTok, sta cercando di "combinare la potenza dell'intelligenza artificiale con la crescita di Internet mobile per rivoluzionare il modo in cui le persone consumano e ricevono informazioni".  Tiktok è passata da un'app per la sincronizzazione labiale a un'app virale con oltre 800 milioni di utenti attivi a velocità di curvatura. Ora, ogni utente trascorre in media 52 minuti al giorno sull'app. “Quando apri TikTok e atterri nel tuo feed For You, ti viene presentato un flusso di video curati in base ai tuoi interessi, rendendo facile trovare contenuti e creatori che ami. Questo feed è alimentato da un sistema di raccomandazione che fornisce contenuti a ciascun utente che potrebbero essere di interesse per quel particolare utente", secondo il blog di TikTok.   In questo articolo, diamo uno sguardo più da vicino agli algoritmi basati sul coinvolgimento di TikTok.  I design incentrati sull'utente sono al centro della crescente popolarità di TikTok. La piattaforma consiglia contenuti in base alle interazioni passate dell'utente. L'algoritmo AI di TikTok è un matchmaker iper efficiente che collega i contenuti con il pubblico a cui è destinato.  L'algoritmo AI inserisce i "video guardati" in diverse categorie e il meccanismo di follow-up traccia i comportamenti degli utenti per ulteriori verifiche, fornendo eventualmente consigli esatti.  CostruzioniIl sistema ciclico di TikTok funziona in due passaggi. Innanzitutto, TikTok tagga il contenuto. Il modello AI viene utilizzato per rivedere il contenuto pubblicato sull'app e, se è contrassegnato come insensibile, viene passato per una revisione umana. Una volta che il contenuto supera questa fase, viene inviato...
Continua a Leggere

Quanto è stato davvero utile il premio Netflix?

 In che modo le organizzazioni sfruttano l'analisi per creare una forza lavoro esperta di datiNel 2006, il popolare servizio di streaming Netflix ha lanciato un concorso da 1 milione di dollari, invitando ricercatori, studenti e matematici a tentare di migliorare l'algoritmo di raccomandazione di Netflix. Le regole per la competizione erano costruire un algoritmo che battesse Cinematch, l'algoritmo di base di Netflix del 10 percento. Oggi, molte persone mettono in dubbio l'utilità di questa competizione e dei concorsi algoritmici aperti nel suo insieme.  Il Premio NetflixL'ex direttore tecnico di Netflix Xavier Amatriain crede che nel 2006 non esistesse Kaggle e l'open source quando è stato introdotto il Premio Netflix. E l'intelligenza artificiale (AI) era a malapena rilevante come lo sono oggi. Considerando questo, il Premio Netflix deve essere sembrata una brillante opportunità per molti programmatori. Il set di formazione consisteva di circa 100 milioni di punti dati, tra cui un utente, un film, una data e una valutazione da una a cinque stelle. I partecipanti hanno anche avuto accesso a un set di dati di convalida pubblico più piccolo noto come "probe", che aveva circa 1,5 milioni di punti dati senza alcuna valutazione. Infine, i partecipanti avevano due serie di test che nascondevano loro le valutazioni. Quindi, per testare il proprio algoritmo, dovrebbero sottoporre le loro previsioni a un test quiz, dopo di che otterrebbero indietro l'accuratezza misurata in un Root Mean Squared Error (RSME). Tuttavia, i premi annuali di progresso e il primo premio sono stati misurati rispetto a un set di test diverso.  Dopo circa tre anni di intensa collaborazione, Pragmatic Chaos di BellKor ha vinto il primo premio di 1 milione di dollari. Il team era ibrido , composto da KorBell (un gruppo di ricercatori della società di telecomunicazioni AT&T, che ha anche vinto il primo Progress Prize nel 2007, una pietra miliare nella competizione), il team austriaco Big Chaos e il...
Continua a Leggere

Accordo NVIDIA e Google Cloud e il primo laboratorio AI-On-5G al mondo cosa significano

Il primo laboratorio AI-On-5G al mondo: cosa aspettarsi? NVIDIA e Google Cloud hanno annunciato una partnership per stabilire il primo laboratorio AI-on-5G al mondo. NVIDIA ha recentemente annunciato la creazione del primo Open Innovation Lab AI-on-5G in collaborazione con Google Cloud . Ha lo scopo di assistere gli attori del settore e i partner di software di intelligenza artificiale nello sviluppo, nel test e nell'adozione di soluzioni per aiutare a migliorare le infrastrutture cittadine, le fabbriche e altre applicazioni 5G e AI. I laboratori consentiranno alle aziende di utilizzare la  piattaforma Anthos di Google Cloud e le piattaforme hardware e software di elaborazione accelerata di NVIDIA per elaborare i dati e implementare l'intelligenza artificiale. Ciò consentirebbe alle aziende di aumentare le proprie prestazioni, ridurre i costi, aumentare la sicurezza e l'affidabilità. Cos'è la piattaforma Anthos?Anthos è una piattaforma applicativa gestita che estende i servizi Google Cloud e le pratiche di progettazione all'ambiente in modo che gli utenti possano modernizzare le applicazioni più velocemente e ottenere coerenza nel funzionamento. Caratteristiche principali di Anthos: Anthos consente agli utenti di eseguire cluster Kubernetes in ambienti cloud o on- premise .Integra la sicurezza in ogni fase del ciclo di vita dell'applicazione, dallo sviluppo al funzionamento. In tal modo, Anthos può utilizzare una strategia di sicurezza di difesa in profondità che incorpora controlli completi che abbracciano tutti i modelli di distribuzione delle applicazioni.Anthos Service Mesh aiuta i team operativi e di sviluppo a gestire e salvaguardare il traffico tra i servizi durante il monitoraggio, la risoluzione dei problemi e il miglioramento delle prestazioni delle applicazioni. Gli autori possono essere eseguiti senza un livello hypervisor sull'infrastruttura virtualizzata esistente e sui sistemi bare metal .Inoltre, Anthos supporta i server con accelerazione GPU NVIDIA,...
Continua a Leggere

21 modi in cui i gemelli digitali medici trasformeranno l’assistenza sanitaria

Il settore sanitario sta iniziando ad adottare i gemelli digitali per migliorare la medicina personalizzata, le prestazioni dell'organizzazione sanitaria e nuovi farmaci e dispositivi. Sebbene le simulazioni siano in circolazione da un po' di tempo, i gemelli digitali medici di oggi rappresentano un'importante novità. Questi gemelli digitali possono creare modelli utili basati su informazioni provenienti da dispositivi indossabili, omici e record dei pazienti per collegare i punti tra i processi che abbracciano pazienti, medici e organizzazioni sanitarie, nonché produttori di farmaci e dispositivi. È ancora agli inizi, ma il campo dei gemelli digitali si sta espandendo rapidamente in base ai progressi nei feed di dati in tempo reale, nell'apprendimento automatico e nell'AR/VR. Di conseguenza, i gemelli digitali potrebbero cambiare drasticamente il modo in cui diagnostichiamo e trattiamo i pazienti e aiutano a riallineare gli incentivi per migliorare la salute. Alcuni sostenitori paragonano lo stato attuale dei gemelli digitali a dove si trovava il progetto del genoma umano 20 anni fa, e potrebbe richiedere uno sforzo simile su larga scala per prendere forma pienamente. Un team di ricercatori svedesi ha recentemente scritto: "Data l'importanza del problema medico, il potenziale dei gemelli digitali merita sforzi di ricerca concertati su una scala simile a quelli coinvolti nell'HGP".  Sebbene un simile sforzo di "colpo di luna" potrebbe non essere immediatamente avviato, ci sono molti indicatori che i gemelli digitali stanno guadagnando terreno in medicina. Qui vengono presentati 21 modi in cui i gemelli digitali stanno iniziando a plasmare l'assistenza sanitaria oggi, suddivisi grosso modo in medicina personalizzata, miglioramento delle organizzazioni sanitarie e sviluppo e sviluppo di farmaci e dispositivi medici. In effetti, molti tipi di gemelli digitali abbracciano più casi d'uso e persino categorie; sono questi casi d'uso tra domini che costituiscono uno dei pri...
Continua a Leggere

Come la programmazione autonoma di OpenAI e GitHub Copilot influenzerà i programmatori e l’industria del software

Cosa significa "programmatore di coppia AI" di OpenAI e GitHub per l'industria del software  OpenAI ha ancora una volta fatto notizia, questa volta con Copilot , uno strumento di programmazione basato sull'intelligenza artificiale creato congiuntamente con GitHub. Costruito sulla base di GPT-3 , il famoso modello linguistico di OpenAI, Copilot è uno strumento di completamento automatico che fornisce suggerimenti pertinenti (e talvolta lunghi) durante la scrittura del codice. Copilot è attualmente disponibile per selezionare i candidati come estensione in Visual Studio Code, lo strumento di programmazione di punta di Microsoft, la società madre di GitHub.  Sebbene il generatore di codice basato sull'intelligenza artificiale sia ancora in fase di sviluppo, fornisce alcuni suggerimenti interessanti sul business dei modelli linguistici di grandi dimensioni e sulle direzioni future dell'industria del software. Non è l'uso previsto per GPT-3Il sito web ufficiale di Copilot lo descrive come un "programmatore di coppia AI" che suggerisce "intere righe o intere funzioni direttamente all'interno del tuo editor". A volte, è sufficiente fornire una firma o una descrizione della funzione per generare un intero blocco di codice.  Dietro Copilot c'è un modello di deep learning chiamato Codex, che è fondamentalmente una versione speciale di GPT-3 ottimizzata per le attività di programmazione. Il funzionamento dello strumento è molto simile a GPT-3: richiede un prompt come input e genera una sequenza di byte come output. Qui, il prompt (o il contesto) è il file del codice sorgente su cui stai lavorando e l'output è il suggerimento del codice che ricevi. La cosa interessante in tutto questo sono le svolte inaspettate che può prendere la gestione dei prodotti AI. Secondo CNBC : "... quando OpenAI stava per addestrare per la prima volta [GPT-3], la start-up non aveva intenzione di insegnargli come aiutare a programmare, ha detto [OpenAI CTO Greg] Brockman. Era inteso più come un modell...
Continua a Leggere

Un team di ricercatori della Carnegie Mellon University ha sviluppato un nuovo metodo per valutare sperimentalmente come i genitori alterano il loro linguaggio quando parlano ai bambini a seconda di ciò che questi già sanno

Una nuova ricerca sul modo in cui i bambini imparano la lingua può aiutare il campo dell'apprendimento automaticoUn team di ricercatori della Carnegie Mellon University ha sviluppato un nuovo metodo per valutare sperimentalmente come i genitori alterano il loro linguaggio quando parlano ai bambini a seconda di ciò che questi già sanno. Il modello è il primo del suo genere.  I ricercatori hanno scoperto che i genitori hanno strutture precise dei modelli linguistici dei loro figli e questi sono usati per sintonizzare la propria lingua quando parlano con i bambini.  La ricerca è stata pubblicata sulla rivista Psychological Science . Sintonizzazione della lingua per i bambiniDaniel Yurovsky è assistente professore di psicologia alla Carnegie Mellon University.  "Sappiamo da anni che i genitori parlano ai bambini in modo diverso rispetto agli altri adulti in molti modi, ad esempio semplificando il loro discorso, duplicando le parole e allungando i suoni delle vocali", ha detto Yurovsky. "Questa roba aiuta i bambini a prendere piede nella lingua, ma non sapevamo se i genitori cambiassero il loro modo di parlare mentre i bambini stanno acquisendo la lingua, dando ai bambini un input linguistico che è 'giusto' per imparare la cosa successiva." Secondo il team, gli adulti parlano ai bambini più lentamente e con un tono più alto, e si affidano anche a enunciazioni esagerate, ripetizioni e linguaggio semplificato. Oltre a tutto ciò, gli adulti usano anche le domande per valutare la comprensione di un bambino e l'intero modello cambia man mano che aumenta la fluidità linguistica del bambino. Yurovsky dice che questo è simile a come uno studente progredisce quando impara la matematica a scuola. "Quando vai a scuola, inizi con l'algebra e poi prendi la geometria piana prima di passare al calcolo", ha detto Yurovsky. “Le persone parlano ai bambini usando lo stesso tipo di struttura senza pensarci. Stanno monitorando quanto il loro bambino conosce il linguaggio e modificando il mod...
Continua a Leggere

I 10 set di dati più popolari su Kaggle

 Le piattaforme di hackathon di machine learning e data science come Kaggle e MachineHack sono banchi di prova per gli appassionati di AI/ML per esplorare, analizzare e condividere dati di qualità.  Tuttavia, trovare un set di dati adatto può essere complicato. Secondo il sito Web di Kaggle, sono disponibili oltre 50.000 set di dati pubblici e 400.000 taccuini pubblici. Ogni giorno viene caricato un nuovo set di dati su Kaggle. Ogni set di dati è una piccola comunità in cui è possibile discutere i dati, trovare il codice pubblico pertinente o creare i propri progetti nei kernel. A volte, puoi anche trovare notebook con algoritmi che risolvono il problema di previsione in un set di dati specifico.    Ecco alcuni dei set di dati più popolari su Kaggle. Rilevamento frodi con carta di creditoQuesto set di dati aiuta le aziende e i team a riconoscere le transazioni fraudolente con carta di credito. Il set di dati contiene le transazioni effettuate dai titolari di carte di credito europee nel settembre 2013. Il set di dati presenta i dettagli di 284.807 transazioni, di cui 492 frodi, avvenute in due giorni. Di recente, ha rilasciato un simulatore per i dati delle transazioni come parte del manuale pratico sull'apprendimento automatico per il rilevamento delle frodi con carta di credito .  Database di calcio europeoÈ il set di dati calcistico definitivo per l'analisi dei dati e l'apprendimento automatico. Il set di dati contiene più di 25.000 partite, più di 10.000 giocatori, 11 paesi europei con il loro campionato di punta, stagioni dal 2008 al 2016, attributi di giocatori e squadre provenienti dalla serie di videogiochi FIFA di EA Sports, inclusi aggiornamenti settimanali, formazione della squadra e formazione della squadra ( Coordinate X, Y), quote scommesse fino a 10 fornitori, eventi dettagliati delle partite (tipi di gol, calcio d'angolo, possesso, falli, ecc.) per oltre 10.000 partite. Prezzi dell'avocadoIl set di dati mostra i dati storici sui prezzi dell'avocado e...
Continua a Leggere

PyTorch leader con la spinta di Facebook e Microsoft

 PyTorch , il software di deep learning e intelligenza artificiale creato da Facebook, si è evoluto in un framework maturo. Gli ingegneri dell'apprendimento automatico lo utilizzano per creare sistemi di visione artificiale, intelligenza artificiale conversazionale e personalizzazione e consigli. Microsoft ha stretto una partnership con Facebook per estendere PyTorch per l'esecuzione nel cloud attraverso l'integrazione con Azure ML.      PyTorch è nato su Facebook nel 2018 come framework unificato di machine learning. È stato creato come successore di Caffe2 , uno dei famosi framework ML per la creazione di modelli di deep learning. I ricercatori di Facebook hanno preso in prestito i concetti da altri framework popolari come Lua Torch, Chainer e HIPS Autograd per rendere PyTorch un toolkit robusto. Uno degli obiettivi del progetto era unificare le capacità di ricerca e produzione di PyTorch in un'unica struttura.  Allontanandosi da Caffe2 e standardizzandosi in PyTorch, Facebook non solo ha ridotto l'infrastruttura e il carico di progettazione associati alla manutenzione di due interi sistemi, ma ha anche creato un framework unificato utile sia internamente che all'interno della comunità open source.   PyTorch ha consentito agli ingegneri ML di distribuire nuovi modelli di intelligenza artificiale in pochi minuti anziché in settimane. Secondo Facebook, ogni giorno vengono eseguiti oltre 4.000 modelli PyTorch, con oltre 1700 modelli di inferenza in esecuzione.  Ecco alcuni modi interessanti in cui PyTorch viene utilizzato dagli sviluppatori di Facebook e Instagram:   PyTorch Mobile , un framework ML compatto per Android e iOS, alimenta le esperienze AR di Facebook basate su dispositivi Oculus Quest e Portal. Le versioni mobili di Facebook, Instagram e Messenger si affidano a PyTorch per migliorare l'esperienza dell'utente.PyTorch alimenta i sistemi di personalizzazione e raccomandazione di Instagram. Un modello di intelligenza artificiale suggerisce nuovi contenuti t...
Continua a Leggere

HuBERT o Hidden Unit BERT : l’ultimo approccio di Facebook all’apprendimento della rappresentazione vocale autogestito

 Facebook AI Research (FAIR) ha pubblicato un documento di ricerca che introduce Hidden Unit BERT (HuBERT), il loro ultimo approccio per l'apprendimento delle rappresentazioni vocali auto-supervisionate . Secondo FAIR, le tecniche auto-supervisionate per il riconoscimento vocale sono attualmente limitate a causa di tre fattori: primo, la presenza di più unità sonore in ciascuna enunciazione in ingresso; in secondo luogo, l'assenza di lessici delle unità sonore in ingresso durante la fase di pre-formazione; e, infine, l'osservazione che le unità sonore hanno lunghezze variabili senza segmentazione esplicita.  Per affrontare questo problema, HuBERT utilizza un algoritmo di clustering k-means offline e apprende la struttura del suo input (parlato) prevedendo il cluster giusto per i segmenti audio mascherati. FAIR afferma che la semplicità e la stabilità di HuBERT lo rendono facilmente implementabile per casi d'uso in PNL e ricerca vocale. HuBERT si ispira al metodo DeepCluster di FAIR per l'apprendimento visivo auto-supervisionato. DeepCluster è un metodo di clustering introdotto nel 2018 che apprende i parametri di una rete neurale e la loro assegnazione di cluster, dopodiché raggruppa queste funzionalità utilizzando un algoritmo di clustering standard, chiamato k-means. HuBERT beneficia ulteriormente delle rappresentazioni dell'encoder bidirezionale dei trasformatori ( BERT ) di Google sfruttando il suo metodo di perdita di previsione mascherata sulle sequenze per mostrare la natura sequenziale del parlato. Un modello BERT utilizza funzioni vocali continue mascherate per prevedere assegnazioni di cluster predeterminate. Questa perdita predittiva viene applicata solo sulle regioni mascherate, consentendo al modello di apprendere rappresentazioni di alto livello di input non mascherati per dedurre correttamente i target delle aree mascherate. Come funziona HuBERT?Il modello HuBERT apprende modelli acustici e linguistici da questi input continui. Per questo, il modello ...
Continua a Leggere

Linux Foundation presenta Open Voice Network (OVN)per l’adozione di standard per gli assistenti vocali

L'iniziativa della Linux Foundation sostiene gli standard aperti per gli assistenti vocali Le organizzazioni stanno iniziando a sviluppare, progettare e gestire i propri sistemi di assistente vocale basati sull'intelligenza artificiale , indipendenti da piattaforme come Siri e Alexa. La transizione è guidata dal desiderio di gestire l'intera esperienza dell'utente e integrare l'assistenza vocale in più processi aziendali e ambienti del marchio, dai call center ai negozi. In un recente sondaggio condotto su 500 responsabili delle decisioni IT e aziendali negli Stati Uniti, Francia, Germania e Regno Unito, il 28% degli intervistati ha affermato di utilizzare tecnologie vocali e l'84% prevede di utilizzarle nel prossimo anno. Per supportare l'evoluzione, la Linux Foundation ha lanciato oggi Open Voice Network (OVN) , un'alleanza che sostiene l'adozione di standard aperti nelle app di assistenza vocale in automobili, smartphone, dispositivi domestici intelligenti e altro ancora. Con i membri fondatori Target, Schwarz Gruppe, Wegmans Food Markets, Microsoft, Veritone, Deutsche Telekom e altri, l'obiettivo dell'OVN, proprio come l' iniziativa di interoperabilità vocale di Amazon, è standardizzare lo sviluppo e l'uso di sistemi di assistenza vocale e agenti conversazionali che utilizzano tecnologie compreso il riconoscimento vocale automatico, l'elaborazione del linguaggio naturale, la gestione avanzata dei dialoghi e l'apprendimento automatico.  L'OVN è emerso da una ricerca condotta tra il 2016 e il 2018 sull'impatto dell'assistenza vocale sui settori della vendita al dettaglio, dei beni di consumo e del marketing da parte dell'Auto-ID Laboratory del MIT, Capgemini e Intel. È stata annunciata per la prima volta come Open Voice Initiative nel 2019, ma si è ampliata in modo significativo poiché la pandemia di COVID-19 ha spinto le aziende ad abbracciare la trasformazione digitale. "Ci si aspetta che la voce sia un'interfaccia primaria per il mondo digitale, che connette gl...
Continua a Leggere
Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi