Home / Archive by category "Programmazione"

Programmazione

Analisi delle serie temporali: tecnica per l’ispezione di diversi set di dati

Analisi delle serie temporali: una tecnica utile per l'ispezione di diversi set di datiNel mondo moderno di oggi, il campo della scienza dei dati e dell'apprendimento automatico ha registrato grandi progressi. L'analisi delle serie temporali è un meccanismo ampiamente utilizzato nella scienza dei dati per analizzare i dati e ricavare intuizioni significative. È considerato un insieme di punti dati derivati ​​in base a una particolare sequenza temporale. Il tempo è generalmente ripartito equamente in modo che i dati ottenuti possano essere analizzati con facilità. Viene generalmente ottenuto settimanalmente, mensilmente o annualmente in base al tipo e alla struttura dei dati. L'analisi delle serie temporali è un metodo per ispezionare e studiare i dati delle serie temporali. Dopo aver studiato il set di dati, i professionisti della scienza dei dati possono trarne conclusioni significative, che li aiuterebbero a risolvere problemi più grandi. Importanza dell'analisi delle serie temporali:Il tempo è un fattore che aiuta a differenziare i cambiamenti che si verificano nella natura di un particolare set di dati in punti diversi. Un set di dati di serie temporali è costituito da dati che dipendono completamente dal tempo osservato. Pertanto, questo può aiutare i data scientist a pianificare attività future. Questa pianificazione viene eseguita sulla base delle prestazioni di un particolare set di dati degli anni precedenti. Per rendere possibile ciò, è importante raccogliere i dati in un formato di serie temporali. I dati vengono quindi analizzati e vengono formati vari modelli. Questi modelli vengono quindi utilizzati per prevedere i valori e derivare i risultati noti come previsione delle serie temporali. Sia l'analisi delle serie temporali che le previsioni sono i due obiettivi fondamentali di una serie temporale. Entrambe queste tecniche sono ugualmente importanti per aiutare a comprendere meglio le serie temporali. Esempi classici di una serie storica...
Continua a Leggere

Che cos’è il clustering K-Means?

Il clustering K-means è un algoritmo di apprendimento non supervisionato e, tra tutti gli algoritmi di apprendimento non supervisionato , il clustering K-means potrebbe essere il più utilizzato, grazie alla sua potenza e semplicità. Come funziona esattamente il clustering K-means? La risposta breve è che il clustering K-means funziona creando un punto di riferimento (un centroide) per un numero desiderato di classi e quindi assegnando i punti dati ai cluster di classi in base al punto di riferimento più vicino. Anche se questa è una definizione rapida per il clustering K-means, prendiamoci un po 'di tempo per approfondire il clustering K-means e ottenere una migliore intuizione di come funziona. Definizione di clusteringPrima di esaminare gli algoritmi esatti utilizzati per eseguire il clustering K-means, prendiamoci un po 'di tempo per definire il clustering in generale. I cluster sono solo gruppi di elementi e il raggruppamento consiste semplicemente nel mettere elementi in quei gruppi. Nel senso della scienza dei dati , gli algoritmi di clustering mirano a fare due cose: Assicurati che tutti i punti dati in un cluster siano il più simili possibile tra loro.Assicurati che tutti i punti dati nei diversi cluster siano il più possibile dissimili tra loro.Gli algoritmi di raggruppamento raggruppano gli elementi in base a una metrica di somiglianza. Questo viene spesso fatto trovando il "centroide" dei diversi gruppi possibili nel set di dati, anche se non esclusivamente. Esistono diversi algoritmi di clustering, ma l'obiettivo di tutti gli algoritmi di clustering è lo stesso, determinare i gruppi intrinseci a un set di dati. K-Means ClusteringK-Means Clustering è uno dei tipi di algoritmi di clustering più vecchi e più comunemente usati e funziona in base alla quantizzazione vettoriale . C'è un punto nello spazio selezionato come origine, quindi i vettori vengono disegnati dall'origine a tutti i punti dati nel set di dati. In generale, il cluste...
Continua a Leggere

Google ha addestrato un modello di linguaggio AI con trilioni di parametri

I parametri sono la chiave degli algoritmi di apprendimento automatico. Sono la parte del modello che viene appresa dai dati di addestramento storici. In generale, nel dominio del linguaggio, la correlazione tra il numero di parametri e la sofisticazione ha retto molto bene. Ad esempio, GPT-3 di OpenAI, uno dei più grandi modelli di linguaggio mai addestrati su 175 miliardi di parametri, può fare analogie primitive, generare ricette e persino completare il codice di base. In quello che potrebbe essere uno dei test più completi di questa correlazione fino ad oggi, i ricercatori di Google hanno sviluppato e confrontato tecniche che sostengono hanno permesso loro di addestrare un modello linguistico contenente più di un trilione di parametri. Dicono che il loro modello da 1,6 trilioni di parametri, che sembra essere il più grande delle sue dimensioni fino ad oggi, ha raggiunto una velocità fino a 4 volte superiore rispetto al precedente modello linguistico sviluppato da Google (T5-XXL). Come notano i ricercatori in un documento che descrive in dettaglio il loro lavoro, la formazione su larga scala è un percorso efficace verso modelli potenti. Architetture semplici, supportate da grandi set di dati e conteggi di parametri, superano algoritmi molto più complicati. Ma sebbene sia efficace, la formazione su larga scala è estremamente intensiva dal punto di vista computazionale. Ecco perché i ricercatori hanno perseguito quello che chiamano Switch Transformer, una tecnica "scarsamente attivata" che utilizza solo un sottoinsieme dei pesi di un modello, oi parametri che trasformano i dati di input all'interno del modello. Switch Transformer si basa su un mix di esperti, un paradigma del modello di intelligenza artificiale proposto per la prima volta all'inizio degli anni '90. Il concetto approssimativo è quello di mantenere più esperti, o modelli specializzati in compiti diversi, all'interno di un modello più grande e avere una "rete di gating" che sceglie qual...
Continua a Leggere

Che cos’è il potenziamento del gradiente?

Un tipo comune di modello di apprendimento automatico che è riuscito a essere estremamente utile nelle competizioni di scienza dei dati è un modello di aumento del gradiente. L'aumento del gradiente è fondamentalmente il processo di conversione di modelli di apprendimento deboli in modelli di apprendimento forti. Ma come si ottiene esattamente questo? Diamo uno sguardo più da vicino agli algoritmi di aumento del gradiente e comprendiamo meglio come un modello di aumento del gradiente converte gli studenti deboli in studenti forti. Definizione del potenziamento del gradienteQuesto articolo ha lo scopo di darti una buona intuizione su cosa sia l'aumento del gradiente, senza molte interruzioni della matematica che sta alla base degli algoritmi. Una volta che hai apprezzato il modo in cui l'aumento del gradiente opera a un livello elevato, sei incoraggiato ad andare più a fondo ed esplorare la matematica che lo rende possibile. Cominciamo definendo cosa significa "stimolare" uno studente. Gli studenti deboli vengono convertiti in studenti forti adattando le proprietà del modello di apprendimento. Esattamente quale algoritmo di apprendimento viene potenziato? I modelli di potenziamento funzionano aumentando un altro modello di apprendimento automatico comune, un albero decisionale. Un modello di albero decisionale funziona suddividendo un set di dati in porzioni sempre più piccole e, una volta che i sottoinsiemi non possono essere ulteriormente suddivisi, il risultato è un albero con nodi e foglie. I nodi in un albero decisionale sono i punti in cui le decisioni sui punti dati vengono prese utilizzando diversi criteri di filtro. Le foglie in un albero decisionale sono i punti dati che sono stati classificati. Gli algoritmi dell'albero decisionale possono gestire dati sia numerici che categoriali e le suddivisioni dell'albero si basano su variabili / caratteristiche specifiche. Un tipo di algoritmo di potenziamento è l' algoritmo AdaBoost . Gli al...
Continua a Leggere

Covarianza contro correlazione:

Covarianza vs. correlazione: comprensione di due diversi concetti relativi alla scienza dei dati La scienza dei dati ha molti termini intercambiabili. È la scienza dell'analisi e della comprensione dei dati per fornire una migliore soluzione a un problema esistente. Può fornire previsioni accurate delle tendenze e delle azioni future, rendendolo il campo più popolare e di tendenza del mondo di oggi. La scienza dei dati utilizza una combinazione di algoritmi, intelligenza artificiale e statistiche per comprendere il comportamento dei dati. Comprendere i dati per prevedere i risultati futuri è l'obiettivo principale della scienza dei dati. Tutti gli algoritmi ei programmi di machine learning si basano su relazioni statistiche. La statistica può essere considerata la base della scienza dei dati. StatisticheLa statistica è una branca della matematica che si occupa dell'analisi dei dati. Le definizioni e le tecniche standard vengono utilizzate nelle statistiche per comprendere e analizzare il comportamento dei dati. Queste tecniche nella fase avanzata diventano i blocchi per gli algoritmi di apprendimento automatico. Il concetto più comune e utilizzato di frequente nelle statistiche è la varianza. La varianza è la variazione di ciascuna voce nel set di dati dalla media del set di dati. La varianza definisce la divergenza e gli schermi ampi del set di dati riguardo alla sua media o media. La varianza è ampiamente utilizzata per misurare le anomalie nei dati. Covarianza e correlazione vengono utilizzate in modo intercambiabile nelle statistiche. Troviamo spesso questi due termini nelle statistiche. In questo campo, dove le persone parlano della relazione tra due diversi set di dati, i termini covarianza e correlazione hanno una relazione simbiotica. La covarianza definisce la variazione tra due variabili, mentre la correlazione definisce la relazione tra due variabili indipendenti. La scienza dei dati utilizza regolarmente entrambi i concetti. La covarianza viene...
Continua a Leggere

Data Science contro Machine Learning contro AI Deep Learning: qual è la differenza?

Nel mondo di oggi, è facile perdersi nella semantica e soprattutto per chi è nuovo nel campo dell'analisi dei dati, sembra di essere bombardato da una storia infinita di gerghi. Tra questi gerghi, i più comunemente usati e spesso confusi sono Data Science, Machine Learning e AI Deep Learning. Secondo gli espertiIsaac Newton ha detto "Se ho visto oltre è stando sulle spalle di Giants ". Prima di elaborare le differenze ovvie e sfumate tra questi tre campi nella sezione successiva , consentitemi di fornirvi alcuni estratti e citazioni di autori che hanno scritto libri, articoli e svolto ricerche in questi campi. Scienza dei datiSecondo Tom Fawcett, nel suo libro "Data Science for Business", afferma che "la Data Science coinvolge principi, processi e tecniche per comprendere i fenomeni tramite l'analisi (automatizzata) dei dati". Aggiunge inoltre che "l'ingegneria e l'elaborazione dei dati sono fondamentali" e "per comprendere la scienza dei dati e il business basato sui dati è importante comprendere le differenze". Quindi spiega come le tecnologie di ingegneria dei dati aiutano e assistono il campo della scienza dei dati ma non devono essere confuse con le "tecnologie della scienza dei dati". Prende l'esempio delle tecnologie Big Data come Hadoop e MongoDB e chiarisce che si tratta di mere tecnologie di elaborazione dati per dati che sono enormi in quantità e non devono essere confusi con Data Science. La sovrapposizione tra Data Science e ML è menzionata da Chikio Hayashi in "What is Data Science? Concetti fondamentali e un esempio euristico "in cui ha citato la Data Science come " concetto per unificare statistiche, analisi dei dati, apprendimento automatico e metodi correlati ". Apprendimento automaticoOra, con un'idea di cosa sia la Data Science, capiamo cosa significa ML per gli esperti. Il machine learning in parole molto semplici, come affermato da Aurélien Géron in "Hands-On Machine Learning with Scikit-Learn and TensorFlow" è semp...
Continua a Leggere

Come il cervello legge il codice del computer e la rete a domanda multipla

I neuroscienziati acquisiscono informazioni su come il cervello legge il codice del computer I neuroscienziati del Massachusetts Institute of Technology (MIT) hanno acquisito informazioni preziose su come il cervello legge il codice del computer. Hanno scoperto che invece di fare affidamento sulle regioni del cervello coinvolte nell'elaborazione del linguaggio, viene attivata la "rete a domanda multipla". Questa rete è anche responsabile di compiti cognitivi complessi come problemi matematici. È facile capire perché si potrebbe pensare che le aree coinvolte nell'elaborazione del linguaggio siano le stesse per la programmazione del computer, poiché i due compiti sono simili in vari modi. Ad esempio, la codifica del computer richiede anche l'apprendimento di nuovi simboli e termini, che devono poi essere organizzati in modo che la macchina sappia cosa fare. Anche il codice del computer deve essere estremamente chiaro, consentendo ai programmatori di comprenderlo. Nonostante ciò, le cose diventano ancora più complesse in quanto la lettura del codice del computer con la rete a domanda multipla non richiede le stesse esigenze cognitive della matematica. Anna Ivanova è una studentessa laureata del MIT e l'autore principale dello studio. “La comprensione del codice del computer sembra essere una cosa sua. Non è la stessa cosa della lingua e non è la stessa della matematica e della logica ", dice Ivanova. La ricerca ha coinvolto anche l'autrice senior Evelina Fedorenko, professore associato di neuroscienze e membro del McGovern Institute for Brain Research, nonché ricercatori del Computer Science and Artificial Intelligence Laboratory del MIT e della Tufts University. Il documento è stato pubblicato su eLife questo mese. Il lavoro di Fedorenko si concentra sulle funzioni che si basano sulla rete linguistica del cervello, che si trova nell'emisfero sinistro del cervello. Alcuni dei suoi lavori precedenti hanno dimostrato che la rete linguistica sembr...
Continua a Leggere

Stima della posa dell’IA nell’applicazione di fitness

La stima della posa umana si riferisce a una tecnologia - abbastanza nuova, ma in rapida evoluzione - che gioca un ruolo significativo nelle applicazioni di fitness e danza, permettendoci di posizionare i contenuti digitali nel mondo reale. In breve, il concetto di stima della posa umana è una tecnologia basata sulla visione artificiale in grado di rilevare ed elaborare la postura umana. La parte più importante e centrale di questa tecnologia è la modellazione del corpo umano. Tre modelli corporei sono i più importanti all'interno degli attuali sistemi di stima della posa umana: basato sullo scheletro, sul contorno e sul volume. Modello basato su scheletroQuesto modello è costituito da una serie di articolazioni (punti chiave), come ginocchia, caviglie, polsi, gomiti, spalle e l'orientamento degli arti del corpo. Questo modello si distingue per la sua flessibilità e come tale è adatto per la stima della posa umana sia tridimensionale che bidimensionale. Con la modellazione tridimensionale, la soluzione utilizza un'immagine RGB e trova le coordinate X, Y e Z dei giunti. Con la modellazione bidimensionale, è la stessa analisi di un'immagine RGB, ma utilizzando le coordinate X e Y. Modello basato sui contorniQuesto modello utilizza i contorni del busto e degli arti del corpo, nonché la loro larghezza ruvida. Qui, la soluzione prende la sagoma del telaio del corpo e rende le parti del corpo come rettangoli e confini all'interno di quel quadro. Modello basato sul volumeQuesto modello utilizza generalmente una serie di scansioni tridimensionali per catturare la forma del corpo e la converte in una struttura di forme e mesh geometriche. Queste forme creano una serie 3D di pose e rappresentazioni del corpo. Come funziona la stima della posa umana in 3DLe applicazioni per il fitness tendono a fare affidamento sulla stima tridimensionale della posa umana. Per queste app, maggiori sono le informazioni sulla posa umana, meglio è. Con questa tecnica, l'utente...
Continua a Leggere

Come creare un sistema di trading basato su AI intelligenza artificiale completamente automatizzato con Python

Come creare un sistema di trading basato su IA completamente automatizzato con PythonProgetto end-to-end: ottieni i dati, addestra il modello, effettua l'ordine, ricevi una notifica Un paio di settimane fa ero casualmente chiacchierando con un amico, maschere, distanza sociale, la solita st u FF. Mi stava dicendo come stava cercando, e cito, di disintossicarsi dall'app del broker che stava usando. Gli ho chiesto il significato della parola disintossicazione in questo particolare contesto, preoccupandomi che potesse andare in rovina, ma no: mi ha detto che faceva costantemente trading. "Se un particolare titolo è salito da più di un'ora circa e sono già oltre la soglia di profitto dell'1%, allora vendo", ha detto, "tra le altre regole personali che ho seguito". Tralasciando il lieve aspetto pseudoscientifico di quelle regole, ho capito cosa intendesse per disintossicazione: seguirle implicava controllare il telefono un numero di volte astronomicamente elevato.Quindi ho iniziato a chiedermi: sarebbe possibile automatizzare l'insieme di regole che questo ragazzo ha in mente? E in realtà - sarebbe possibile automatizzare un insieme di regole più sano, quindi lascio che il sistema faccia il trading per me? Dato che stai leggendo questo, presumo che tu sia stato catturato dal titolo, quindi probabilmente hai già indovinato che la risposta è sì. Analizziamo questo, ma prima di tutto: il tempo è oro e non voglio fare clickbait con nessuno. Questo è quello che faremo:Ottieni dati granulari sui prezzi delle azioni in tempo reale: idealmente, a intervalli di un minuto. Più ricco è, meglio è: useremo Yahoo! Finanziamenti per questo, ulteriori dettagli da seguire.Invece di una serie di regole personali , aggiungeremo un tocco di intelligenza artificiale al sistema. Divulgazione completa: non sono affatto un esperto nell'analisi delle serie temporali, ci sono già molti tutorial su come addestrare le reti neurali al commercio e non voglio davvero ingegnerizzare troppo in un si...
Continua a Leggere

Le previsioni del tempo con l’AI l’intelligenza artificiale e il modello meteorologico

Il modello meteorologico AI utilizza 7.000 volte meno energia rispetto ai modelli tradizionali La previsione del tempo è uno dei compiti cruciali che i nostri computer più potenti svolgono. Richiede milioni di calcoli e macchine enormi che risolvono equazioni, che aiutano a prevedere condizioni come temperatura, vento e pioggia. È anche uno strumento fondamentale per prevedere grandi eventi meteorologici, che possono sconvolgere intere regioni ed economie. Il campo delle previsioni meteorologiche continua a migliorare rapidamente man mano che la nostra tecnologia si evolve, diventando più precisa ed efficiente. Un nuovo lavoro derivante da una collaborazione tra l'Università di Washington e Microsoft Research dimostra come l'intelligenza artificiale (AI) possa essere utilizzata per queste previsioni esatte. La nuova tecnologia analizza i modelli meteorologici passati per prevedere eventi futuri e lo fa in modo più efficiente rispetto ai modelli attuali. Con ulteriori progressi, potrebbe anche raggiungere un punto in cui è molto più preciso anche dei modelli odierni. Nuovo modello meteorologico globaleIl nuovo modello meteorologico globale utilizza i dati meteorologici degli ultimi 40 anni per fare le sue previsioni, che è diverso da altri che utilizzano calcoli fisici. Il nuovo modello è semplice e basato sui dati e può simulare i modelli meteorologici per un intero anno, essendo applicato in tutto il mondo. È sia più veloce che efficiente quanto i modelli attuali, cosa che ottiene attraverso passaggi ripetuti con ciascuna previsione La ricerca è stata pubblicata nel Journal of Advances in Modeling Earth Systems. Jonathan Weyn è l'autore principale della ricerca. "L' apprendimento automatico sta essenzialmente facendo una versione glorificata del riconoscimento dei modelli", ha detto Weyn. "Vede uno schema tipico, riconosce come si evolve di solito e decide cosa fare in base agli esempi che ha visto negli ultimi 40 anni di dati". Il nuovo model...
Continua a Leggere
Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi