Home / Archive by category "ML Machine Learning"

ML Machine Learning

Google ha addestrato un modello di linguaggio AI con trilioni di parametri

I parametri sono la chiave degli algoritmi di apprendimento automatico. Sono la parte del modello che viene appresa dai dati di addestramento storici. In generale, nel dominio del linguaggio, la correlazione tra il numero di parametri e la sofisticazione ha retto molto bene. Ad esempio, GPT-3 di OpenAI, uno dei più grandi modelli di linguaggio mai addestrati su 175 miliardi di parametri, può fare analogie primitive, generare ricette e persino completare il codice di base. In quello che potrebbe essere uno dei test più completi di questa correlazione fino ad oggi, i ricercatori di Google hanno sviluppato e confrontato tecniche che sostengono hanno permesso loro di addestrare un modello linguistico contenente più di un trilione di parametri. Dicono che il loro modello da 1,6 trilioni di parametri, che sembra essere il più grande delle sue dimensioni fino ad oggi, ha raggiunto una velocità fino a 4 volte superiore rispetto al precedente modello linguistico sviluppato da Google (T5-XXL). Come notano i ricercatori in un documento che descrive in dettaglio il loro lavoro, la formazione su larga scala è un percorso efficace verso modelli potenti. Architetture semplici, supportate da grandi set di dati e conteggi di parametri, superano algoritmi molto più complicati. Ma sebbene sia efficace, la formazione su larga scala è estremamente intensiva dal punto di vista computazionale. Ecco perché i ricercatori hanno perseguito quello che chiamano Switch Transformer, una tecnica "scarsamente attivata" che utilizza solo un sottoinsieme dei pesi di un modello, oi parametri che trasformano i dati di input all'interno del modello. Switch Transformer si basa su un mix di esperti, un paradigma del modello di intelligenza artificiale proposto per la prima volta all'inizio degli anni '90. Il concetto approssimativo è quello di mantenere più esperti, o modelli specializzati in compiti diversi, all'interno di un modello più grande e avere una "rete di gating" che sceglie qual...
Continua a Leggere

Le 25 migliori startup di machine learning da tenere d’occhio nel 2021 secondo Crunchbase

Ci sono un numero record di 9.977 startup e aziende di machine learning in Crunchbase oggi, un aumento dell'8,2% rispetto alle 9.216 startup elencate nel 2020 e un aumento del 14,6% rispetto alle 8.705 elencate nel 2019.Secondo Crunchbase, le aziende legate all'intelligenza artificiale (AI) e all'apprendimento automatico (ML) hanno ricevuto un finanziamento record di 27,6 miliardi di dollari nel 2020.Di quelle startup di intelligenza artificiale e machine learning che ricevono finanziamenti dal 1 ° gennaio 2020, il 62% sono seed round, il 31% venture round in fase iniziale e il 6,7% round venture capital in fase avanzata.Secondo Crunchbase, il round di finanziamento medio delle startup di AI e machine learning è stato di 4,4 milioni di dollari e la media era di 29,8 milioni di dollari nel 2020.Per tutto il 2020, le società di venture capital hanno continuato ad espandersi in nuovi mercati globali, con le startup di Londra, New York, Tel Aviv, Toronto, Boston, Seattle e Singapore che hanno ricevuto maggiori finanziamenti. Delle 79 località di avvio di AI e ML più popolari, 15 si trovano nella San Francisco Bay Area, rendendo quella regione sede del 19% delle startup che hanno ricevuto finanziamenti nell'ultimo anno. La regione israeliana di Tel Aviv ha 37 startup che hanno ricevuto finanziamenti di venture capital nell'ultimo anno, comprese quelle lanciate a Herzliya, una regione della città nota per la sua solida startup e cultura imprenditoriale. Per ulteriori ricerche di mercato sull'intelligenza artificiale e sull'apprendimento automatico, consulta il riepilogo delle previsioni di machine learning e delle stime di mercato, 2020 . Il grafico seguente mette a confronto le prime 10 località più popolari per le startup AI e ML a livello globale sulla base dei dati di Crunchbase a partire da oggi: Augury - Augury combina i dati di monitoraggio in tempo reale dai macchinari di produzione con algoritmi di intelligenza artificiale e apprendimento automatico...
Continua a Leggere

Modelli di machine learning generativi e discriminativi

Alcuni modelli di apprendimento automatico appartengono alle categorie di modelli "generativi" o "discriminatori". Ma qual è la differenza tra queste due categorie di modelli? Cosa significa per un modello essere discriminatorio o generativo? La risposta breve è che i modelli generativi sono quelli che includono la distribuzione del set di dati, restituendo una probabilità per un dato esempio. I modelli generativi vengono spesso utilizzati per prevedere cosa accade dopo in una sequenza. Nel frattempo, i modelli discriminativi vengono utilizzati per la classificazione o per la regressione e restituiscono una previsione basata sulla probabilità condizionata. Esploriamo più in dettaglio le differenze tra modelli generativi e discriminativi, in modo da poter capire veramente cosa separa i due tipi di modelli e quando ogni tipo dovrebbe essere utilizzato. Modelli generativi e discriminativiEsistono diversi modi per classificare un modello di apprendimento automatico. Un modello può essere classificato come appartenente a diverse categorie come: modelli generativi, modelli discriminanti, modelli parametrici, modelli non parametrici, modelli basati su alberi o modelli non basati su alberi. Questo articolo si concentrerà sulle differenze tra modelli generativi e modelli discriminativi. Inizieremo definendo modelli sia generativi che discriminanti, quindi esploreremo alcuni esempi di ciascuno. Modelli generativiI modelli generativi sono quelli incentrati sulla distribuzione delle classi all'interno del set di dati. Gli algoritmi di machine learning in genere modellano la distribuzione dei punti dati. I modelli generativi si basano sulla ricerca di probabilità congiunte, creando punti in cui una data caratteristica di input e un output / etichetta desiderato esistono contemporaneamente. I modelli generativi sono tipicamente impiegati per stimare probabilità e verosimiglianza, modellando punti dati e discriminando tra classi in base a queste probabilità. Po...
Continua a Leggere

I migliori corsi e le migliori certificazioni TensorFlow

Le migliori certificazioni TensorFlow TensorFlow è un popolare framework open source di machine learning utilizzato per addestrare reti neurali per una serie di attività. È uno dei framework più richiesti disponibili ed è fondamentale per apprendere come applicare le capacità di apprendimento automatico per costruire e addestrare modelli. Ecco uno sguardo alle migliori certificazioni TensorFlow sul mercato: Certificato professionale per sviluppatori TensorFlow DeepLearning.AI (Coursera)Questa è una delle migliori certificazioni TensorFlow disponibili, utile per coloro che desiderano apprendere le competenze necessarie per sviluppare modelli potenti. Questo pratico programma di certificazione professionale consiste in quattro corsi che ti insegnano come creare applicazioni scalabili basate sull'intelligenza artificiale. Al termine del programma, saprai come migliorare le prestazioni della rete utilizzando le convoluzioni, addestrarlo per identificare le immagini del mondo reale e insegnare alle macchine come comprendere, analizzare e rispondere al linguaggio umano. Ecco alcuni degli aspetti chiave di questa certificazione: Gestisci dati di immagini del mondo realePrevenire l'eccessivo adattamento, inclusi aumento e abbandonoUsa TensorFlow per sviluppare sistemi di elaborazione del linguaggio naturaleApplica RNN, GRU e LSTM mentre utilizzi i repository di testo per addestrarli16 incarichi di programmazione PythonDurata: 4 mesi per completare, 5 ore / settimana TensorFlow per intelligenza artificiale, machine learning e deep learning (Coursera)Questo programma è rivolto agli sviluppatori di software con una precedente esperienza nella codifica che stanno cercando di sviluppare queste abilità. I corsi dimostrano le tecniche per implementare i principi fondamentali del machine learning e del deep learning con TensorFlow. Il programma è anche utile per imparare a costruire modelli scalabili che possono essere utilizzati per affrontare i problemi del mo...
Continua a Leggere

Melinda il set di dati per addestrare i sistemi di intelligenza artificiale nella cura degli studi biologici

I ricercatori rilasciano il set di dati Melinda per addestrare i sistemi di intelligenza artificiale all'analisi dei metodi di studio La cura degli studi biologici è un processo importante ma laborioso eseguito dai ricercatori nei settori delle scienze della vita. Tra gli altri compiti, i curatori devono riconoscere i metodi sperimentali, identificando i protocolli sottostanti che mettono in rete le cifre pubblicate negli articoli di ricerca. In altre parole, i "biocuratori" devono prendere in considerazione cifre, didascalie e altro e prendere decisioni su come sono stati derivati. Ciò richiede un'etichettatura attenta, che non scala bene quando gli esperimenti classificano il totale in centinaia o migliaia. Alla ricerca di una soluzione, i ricercatori dell'Università della California, Los Angeles; l'Università della California meridionale; Intuit; e la Chan Zuckerberg Initiative ha sviluppato un set di dati chiamato Multimodal Biomedical Experiment Method Classification ("Melinda" in breve) contenente 5.371 record di dati etichettati, tra cui 2.833 cifre da documenti biomedici accoppiati con didascalie di testo corrispondenti. L'idea era di vedere se i modelli di apprendimento automatico all'avanguardia potevano curare studi e revisori umani confrontando quei modelli su Melinda. L'identificazione automatica dei metodi negli studi pone delle sfide ai sistemi di intelligenza artificiale. Uno è fondare i concetti visivi sul linguaggio; la maggior parte degli algoritmi multimodali si basa su moduli di rilevamento di oggetti per la messa a terra di concetti visivi e linguistici di granularità più fine. Tuttavia, poiché richiede uno sforzo extra da parte degli esperti e quindi è più costoso, le immagini scientifiche spesso mancano di annotazioni di oggetti di verità fondamentale. Ciò danneggia le prestazioni dei modelli di rilevamento pre-addestrati perché le etichette sono il modo in cui imparano a fare classificazioni. MELINDA In Melinda, ogni data ent...
Continua a Leggere

KAUST : IA per tracciare materiali sostenibili

L'apprendimento automatico e la progettazione di esperimenti possono essere combinati per identificare il metodo più sostenibile per lo sviluppo di materiali avanzati. vedere di più. L'apprendimento automatico potrebbe insegnarci come rendere la produzione di materiali più pulita e sostenibile adottando una visione olistica per identificare il metodo di produzione più ecologico, suggeriscono i ricercatori di KAUST. La ricerca della sostenibilità significa che gli scienziati di tutto il mondo stanno sviluppando materiali avanzati per aiutare ad affrontare i problemi, tra cui la cattura del carbonio, la desalinizzazione dell'acqua e lo stoccaggio di energia, afferma Rifan Hardian, un postdoc nel laboratorio di Gyorgy Szekely. "Sebbene questi materiali mostrino prestazioni promettenti, i materiali stessi sono spesso prodotti in modi insostenibili - utilizzando condizioni difficili, solventi tossici e processi ad alta intensità energetica che generano rifiuti eccessivi - creando potenzialmente più problemi ambientali di quanti ne risolvano", afferma Hardian. In collaborazione con Xiangliang Zhang e il suo team, Szekely e Hardian hanno studiato un approccio più sostenibile allo sviluppo dei materiali, chiamato design of experiment (DoE). "A differenza degli approcci convenzionali all'ottimizzazione dei materiali, che variano un fattore alla volta, DoE è un approccio sistematico che consente di variare simultaneamente più fattori", afferma Hardian. Teoricamente, DoE consente di ottimizzare contemporaneamente variabili quali la scelta del reagente e del solvente, il tempo di reazione e la temperatura di reazione. La procedura riduce il numero di esperimenti condotti e potenzialmente identifica anche il modo più ecologico possibile per realizzare un materiale. Tuttavia, è difficile ottimizzare ogni variabile per identificare il miglior protocollo di reazione da dati sperimentali così scarsi. "È qui che entra in gioco l'apprendimento automatico", dichiara Hardian. ...
Continua a Leggere

Il GPT-2 contro il modello in lingua cinese

GPT-2 vs modello in lingua cinese: come è stato addestrato quest'ultimo Questa startup con sede a Bangalore utilizza l'IA generativa per creare video dal testo In un recente sviluppo, i ricercatori cinesi hanno creato un gigantesco modello di linguaggio che può essere paragonato a GPT-2 in termini di numero di parametri su cui è addestrato. Il modello linguistico sviluppato dai ricercatori della Tsinghua University e dell'Accademia di intelligenza artificiale di Pechino si è allenato su circa 2,6 miliardi di parametri con 100 GB di dati cinesi. Per impostare il contesto, GPT-2 è stato addestrato su circa 1,5 miliardi di parametri. Il modello linguistico pre-addestrato cinese o CPM, come viene chiamato il modello linguistico, è disponibile in diverse dimensioni, mostrando un aumento delle capacità con un aumento delle dimensioni del modello. I ricercatori hanno affermato che si tratta del più grande modello linguistico pre-addestrato cinese, in grado di eseguire un'ampia gamma di compiti di PNL. Sebbene i dati da 100 GB siano relativamente bassi rispetto ai dati di addestramento da 570 GB di GPT -3, i risultati sono stati abbastanza soddisfacenti ei ricercatori mirano a ottenere una maggiore scalabilità in futuro. La tecnologia alla base del CPM e come si differenzia dai modelli GPTSebbene GPT-3 sia stato un risultato enorme per i ricercatori e abbia visto l'applicabilità in vari campi, l'applicazione di GPT-3 per affrontare le attività di PNL cinese è rimasta una grande sfida. È perché il corpus formativo di GPT-3 è principalmente inglese - quasi il 93% - ei parametri non sono disponibili pubblicamente. Per superare questa sfida primaria, i ricercatori hanno iniziato a formarsi sui dati cinesi per renderli più rilevanti per loro. Con i loro continui sforzi, i ricercatori sono riusciti a facilitare diversi compiti di PNL cinese: conversazione, comprensione della lingua, generazione di saggi, per citarne alcuni. In effetti, mostra che CPM raggiunge ott...
Continua a Leggere

I ricercatori cinesi creano un super computer quantistico pilotato da un circuito ottico

Un team di ricercatori di vari istituti di ricerca in tutta la Cina ha recentemente dimostrato la supremazia quantistica grazie a un computer quantistico fotonico. Un articolo recentemente pubblicato dalla rivista Science descrive il computer quantistico come "Jiuzhang". Come riportato da WordsSideKick.com , il computer quantistico, progettato principalmente dai ricercatori dell'Università di Scienza e Tecnologia, è sostanzialmente più potente del computer quantistico progettato da Google nel 2019. Nel 2019, Google ha affermato di aver progettato il primo computer in assoluto per raggiungere la "supremazia quantistica", che fa riferimento all'uso di computer basati su quantum per superare gli attuali supercomputer tradizionali. Secondo quanto riferito, Jiuzhang è circa 10 miliardi di volte più veloce del computer quantistico progettato da Google. Negli ultimi anni, la Cina ha fatto massicci investimenti nell'area dell'informatica quantistica, finanziando la ricerca presso il National Laboratory for Quantum Information Sciences della nazione per circa $ 10 miliardi di dollari. Inoltre, la Cina è attualmente uno dei leader mondiali nel networking quantistico. Il networking quantistico utilizza la meccanica quantistica per codificare i dati mentre vengono trasmessi su lunghe distanze. I computer quantistici sfruttano le proprietà uniche delle particelle quantistiche per ottenere prestazioni migliori rispetto ai computer tradizionali. I computer classici possono elaborare solo i dati che esistono in uno dei due diversi stati. I bit in questo sistema binario utilizzano uno e zero per rappresentare i dati ed è intrinsecamente limitato rispetto ai bit quantistici (qubit), che possono esistere in più di due stati contemporaneamente. Questa proprietà consente ai computer quantistici di gestire problemi più complessi ed elaborare attività molto più rapidamente rispetto ai migliori supercomputer odierni. È stato a lungo teorizzato che i computer quantistici po...
Continua a Leggere

Presupposti comuni sui malfunzionamenti dell’apprendimento automatico machine learning ML potrebbero essere errati

Presupposti comuni sui malfunzionamenti dell'apprendimento automatico potrebbero essere errati Le reti neurali profonde sono uno degli aspetti più fondamentali dell'intelligenza artificiale (AI), in quanto vengono utilizzate per elaborare immagini e dati attraverso la modellazione matematica. Sono responsabili di alcuni dei più grandi progressi nel campo, ma presentano anche malfunzionamenti in vari modi. Questi malfunzionamenti possono avere un impatto da piccolo a inesistente, come una semplice identificazione errata, a uno più drammatico e mortale, come un malfunzionamento della guida autonoma. Una nuova ricerca proveniente dall'Università di Houston suggerisce che le nostre ipotesi comuni su questi malfunzionamenti potrebbero essere sbagliate, il che potrebbe aiutare a valutare l'affidabilità delle reti in futuro. Il documento è stato pubblicato su Nature Machine Intelligence a novembre. "Esempi di contraddittorio"L'apprendimento automatico e altri tipi di intelligenza artificiale sono fondamentali in molti settori e compiti, come i sistemi bancari e di sicurezza informatica. Secondo Cameron Buckner, professore associato di filosofia presso la UH, ci deve essere una comprensione dei fallimenti causati da "esempi contraddittori". Questi esempi di contraddittorio si verificano quando un sistema di rete neurale profonda giudica erroneamente le immagini e altri dati quando incontra informazioni al di fuori degli input di addestramento che sono stati utilizzati per sviluppare la rete. Gli esempi di contraddittorio sono rari poiché molte volte vengono creati o scoperti da un'altra rete di apprendimento automatico. "Alcuni di questi eventi contraddittori potrebbero invece essere artefatti, e abbiamo bisogno di sapere meglio cosa sono per sapere quanto siano affidabili queste reti", ha scritto Buckner. Buckner sta dicendo che il malfunzionamento potrebbe essere causato dall'interazione tra i modelli effettivi coinvolti e ciò che la rete si propone ...
Continua a Leggere

Machine learning e Intelligenza artificiale e gli investimenti nel 2021

Investire è parte integrante dell'attività bancaria ed è anche la parte più rischiosa. C'è un modo per proteggere i tuoi beni da rischi ingiustificati e aumentare l'efficienza di ogni nuovo investimento? Sì, l'apprendimento automatico e l'intelligenza artificiale nel settore bancario stanno spingendo i suoi confini, rendendolo ancora più promettente, redditizio, intelligente e sicuro. In questo articolo, esamineremo il futuro di queste tecnologie per il settore fintech e ci concentreremo sull'uso dell'IA e del machine learning per la gestione degli investimenti. Intelligenza artificiale nel settore bancario 2021: cosa aspettarsiAd oggi, l'intelligenza artificiale nel settore bancario è una delle tecnologie più promettenti da utilizzare per scopi diversi. A causa delle grandi opportunità di personalizzazione, analisi dei dati e diverse capacità di risoluzione delle attività, nonché del prezzo accessibile da implementare, l'uso dell'IA e dell'apprendimento automatico nel settore bancario è un'altra tendenza fintech che si sta evolvendo, secondo questa infografica. Apprendimento automatico nei vantaggi bancariQuesto rapido e, soprattutto, pervasivo aumento del valore dell'intelligenza artificiale e dell'apprendimento automatico per il settore bancario ha solide basi, poiché queste tecnologie promettono vantaggi completamente nuovi e altamente efficaci. Analisi avanzata dei dati . In precedenza, le banche erano costrette ad analizzare i dati con accesso limitato alle informazioni. Ad esempio, quando un cliente arriva con una richiesta di emettere un prestito, la decisione è stata presa solo sulla base delle dichiarazioni dei redditi, delle attività e passività correnti del cliente e della sua storia creditizia. Al momento, l'intelligenza artificiale in ambito bancario permette di analizzare enormi quantità di informazioni, fino alla richiesta dell'utente nei social network, per prendere decisioni più competenti e meno rischiose.Il vantaggio all'avanguardia...
Continua a Leggere
Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi