Andrew Ng critica la cultura dell’overfitting nel machine learning

Andrew Ng, una delle voci più influenti nel machine learning dell'ultimo decennio, sta attualmente esprimendo preoccupazioni sulla misura in cui il settore enfatizza le innovazioni nell'architettura del modello rispetto ai dati e, in particolare, la misura in cui consente ai risultati `` overfitting '' di essere rappresentato come soluzioni o progressi generalizzati. Si tratta di critiche radicali all'attuale cultura dell'apprendimento automatico, emanate da una delle sue più alte autorità, e hanno implicazioni per la fiducia in un settore afflitto dai timori per un terzo crollo della fiducia delle imprese nello sviluppo dell'IA in uno spazio di sessant'anni. Ng, professore all'università di Stanford, è anche uno dei fondatori di deeplearning.ai, ea marzo ha pubblicato una missiva sul sito dell'organizzazione che riassumeva un suo discorso recente fino a un paio di raccomandazioni fondamentali: In primo luogo, la comunità di ricerca dovrebbe smetterla di lamentarsi del fatto che la pulizia dei dati rappresenta l'80% delle sfide nell'apprendimento automatico e andare avanti con il lavoro di sviluppo di metodologie e pratiche MLOps robuste. In secondo luogo, dovrebbe allontanarsi dalle "vittorie facili" che possono essere ottenute adattando eccessivamente i dati a un modello di apprendimento automatico, in modo che funzioni bene su quel modello ma non riesca a generalizzare o a produrre un modello ampiamente distribuibile. Accettare la sfida dell'architettura e della cura dei dati"Il mio punto di vista", ha scritto Ng. "è che se l'80% del nostro lavoro è la preparazione dei dati, garantire la qualità dei dati è il lavoro importante di un team di machine learning." Lui continua: "Piuttosto che contare sugli ingegneri per cercare il modo migliore per migliorare un set di dati, spero che possiamo sviluppare strumenti MLOps che aiutano a rendere la creazione di sistemi di intelligenza artificiale, inclusa la creazione di set di dati di alta qualità, ...
Continua a Leggere

Per vendere l’intelligenza artificiale servono modelli semplici di utilizzo

Modelli di intelligenza artificiale in vendita, un altro passo nella diffusione dell'accessibilità dell'IA Un messaggio regolare in questa colonna è che l'intelligenza artificiale (AI) non si diffonderà ampiamente fino a quando non sarà più facile da usare rispetto al requisito di avere programmatori in grado di lavorare a livello di modello. Quella sfida non verrà risolta all'istante e sta cambiando lentamente. Sebbene la conoscenza tecnica sia ancora troppo spesso richiesta, ci sono modi in cui è possibile abbreviare i tempi di sviluppo. Un modo che sta accadendo è stato la maggiore disponibilità di modelli predefiniti. Qualche anno fa, un CEO della tecnologia amava parlare dell '"esplosione cambriana" dei modelli di apprendimento profondo, come se molti modelli rappresentassero un vero progresso nel mondo degli affari. Non è così. Ciò che conta è la disponibilità di modelli utili utili per il business. Nel significato usuale del cliché, il paradigma 80/20 è ancora importante per gli affari. Mentre un gran numero di modelli potrebbe interessare gli accademici, un sottoinsieme molto più piccolo fornirà un valore significativo alle persone che tentano di ottenere informazioni nel mondo reale. Nel tentativo di aiutare le aziende a non dover ricreare la ruota, ElectrifA i ha costruito un corpo di modelli di intelligenza artificiale che possono essere chiamati dalle applicazioni. Questi modelli vengono identificati in base al caso d'uso, quindi gli sviluppatori possono restringere rapidamente le opzioni e scegliere di testare i modelli vicini all'uso necessario. Sono venuto a conoscenza della società per la prima volta quando ha emesso un comunicato stampa sull'ingresso nel mercato su Amazon SageMaker. Sono anche su Google Cloud Marketplace. Avendo lavorato con altre aziende utilizzando i mercati delle principali fonti, ero curioso. Sebbene ci siano ancora domande a lungo termine su tali mercati, incluso il modo in cui le acquisizioni di società potrebbero...
Continua a Leggere

Microsoft Godiva

Microsoft propone GODIVA, un framework di machine learning da testo a video Una collaborazione tra Microsoft Research Asia e la Duke University ha prodotto un sistema di machine learning in grado di generare video esclusivamente da un prompt di testo, senza l'utilizzo di GAN (Generative Adversarial Networks). Il progetto si intitola GODIVA (Generating Open-DomaIn Videos from nAtural Descriptions) e si basa su alcuni degli approcci utilizzati dal sistema di sintesi di immagini DALL-E di OpenAI, rivelato all'inizio di quest'anno. GODIVA utilizza il modello VQ-VAE (Vector Quantised-Variational AutoEncoder) introdotto per la prima volta dai ricercatori del progetto DeepMind di Google nel 2018 e anche un componente essenziale nelle capacità di trasformazione di DALL-E. VQ-VAE è stato utilizzato in numerosi progetti per generare il video previsto , in cui l'utente fornisce un numero iniziale di frame e richiede al sistema di generare frame aggiuntivi: Tuttavia, gli autori del nuovo articolo affermano che GODIVA rappresenta la prima implementazione di puro text-to-video (T2V) che utilizza VQ-VAE piuttosto che i risultati più irregolari che i progetti precedenti hanno ottenuto con i GAN. Punti seme in Text-To-VideoSebbene la presentazione sia a corto di dettagli sui criteri in base ai quali vengono creati i frame di origine, GODIVA sembra evocare immagini seme dal nulla prima di estrapolarle in frame video a bassa risoluzione. Una rappresentazione colonnare del sistema tridimensionale dell'attenzione sparsa che alimenta GODIVA per le attività da testo a immagine. L'auto-regressione è prevista attraverso quattro fattori: testo di input, posizionamento relativo con il frame precedente (simile a SPADE di NVIDIA e altri metodi che si basano o si evolvono oltre gli approcci del flusso ottico), stesse righe sullo stesso frame e stesse colonne sullo stesso colonna.Una rappresentazione colonnare del sistema tridimensionale dell'attenzione sparsa che alimenta G...
Continua a Leggere

Smarter AI più intelligente ?

Intelligenza artificiale più intelligente nominata da ABI Research in New ReportSmarter AI , leader nelle telecamere AI e nel software di abilitazione con AI di precisione per dati e decisioni affidabili, è stata recentemente nominata dalla società di consulenza di mercato globale ABI Research in un rapporto . Secondo il rapporto, l'intelligenza artificiale per ADAS, monitoraggio della cabina e DMS sta alimentando "il 29% di CAGR nelle spedizioni di soluzioni video entro il 2026, generando ricavi che superano gli 8 miliardi di dollari". Il rapporto analizza la crescente domanda di telematica video AI e qual è la causa di ciò e fornisce un rapporto di analisi delle applicazioni approfondito. Il rapporto di analisi include le telecamere definite dal software di Smarter AI, i suoi vari modelli e sviluppatori AI e le distribuzioni globali. Annunci recenti di partnershipSmarter AI ha anche recentemente annunciato diverse partnership con sviluppatori di modelli AI per la telematica video commerciale, tra cui Brodmann17, Cochl, Edgetensor, General Magic, Irida Labs, Jungo Connectivity e PathPartner. Susan Beardslee è Principal Analyst, Freight Transportation & Logistics di ABI Research. “Le misure normative stanno portando più tecnologia nelle flotte. L'enorme crescita dell'e-commerce sta anche rafforzando le consegne dell'ultimo miglio e i conducenti associati, molti senza precedenti esperienze di guida commerciale ", spiega Beardslee. "Tutti questi fattori stanno guidando la domanda di dash cam, sistemi di monitoraggio del conducente, telecamere esterne e soluzioni ADAS". Fotocamere e implementazioni di intelligenza artificiale più intelligentiLe telecamere definite dal software di Intelligenza artificiale più intelligenti scalano i casi d'uso delle telecamere separando i pannelli video, AI e dell'applicazione. Ciò viene fatto perché ogni caso d'uso della fotocamera richiede modelli e programmazione AI univoci. Tutto ciò consente agli utenti di progra...
Continua a Leggere

PanGu-Alpha l’equivalente in lingua cinese di GPT-3 di Huawei

Huawei ha addestrato l'equivalente in lingua cinese di GPT-3 Per la maggior parte dell'anno, il GPT-3 di OpenAI è rimasto tra i più grandi modelli di linguaggio AI mai creati, se non il più grande del suo genere. Tramite un'API, le persone lo hanno utilizzato per scrivere automaticamente e-mail e articoli , riassumere testo, comporre poesie e ricette, creare layout di siti Web e generare codice per l'apprendimento approfondito in Python. Ma GPT-3 ha dei limiti chiave, primo fra tutti il ​​fatto che è disponibile solo in inglese. Il set di dati di 45 terabyte su cui il modello è stato addestrato attingeva esclusivamente da fonti in lingua inglese. Questa settimana, un team di ricerca della società cinese Huawei ha spiegato in dettaglio quello che potrebbe essere l'equivalente in lingua cinese di GPT-3. Chiamato PanGu-Alpha (PanGu-α stilizzato) , il modello da 750 gigabyte contiene fino a 200 miliardi di parametri - 25 milioni in più rispetto a GPT-3 - ed è stato addestrato su 1,1 terabyte di ebook in lingua cinese, enciclopedie, notizie, social media, e pagine web. Il team afferma che il modello raggiunge prestazioni "superiori" nelle attività in lingua cinese che comprendono il riepilogo del testo, la risposta alle domande e la generazione di dialoghi. Huawei afferma che sta cercando un modo per consentire agli istituti di ricerca e alle aziende senza scopo di lucro di accedere a modelli PanGu-α pre-addestrati, rilasciando il codice, il modello e il set di dati o tramite API. Architettura familiareNell'apprendimento automatico, i parametri sono la parte del modello che viene appresa dai dati di addestramento storici. In generale, nel dominio del linguaggio, la correlazione tra il numero di parametri e la sofisticazione ha retto molto bene. I modelli di linguaggio di grandi dimensioni come GPT-3 di OpenAI imparano a scrivere testo simile a quello umano interiorizzando miliardi di esempi dal Web pubblico. Attingendo a fonti come ebook, Wikipedia e piat...
Continua a Leggere

Google Meet con nuove funzionalita di AI intelligenza artificiale

Google lancia nuove funzionalità basate sull'intelligenza artificiale per Meet Google ha annunciato oggi una serie di aggiornamenti a Google Meet, tra cui un'interfaccia utente aggiornata, funzionalità basate sull'intelligenza artificiale e strumenti che mirano a rendere le riunioni più coinvolgenti. Tra i punti salienti c'è una modalità di risparmio dati che limita l'utilizzo dei dati sulle reti mobili e Autozoom, che utilizza l'intelligenza artificiale per ingrandire e posizionare i partecipanti davanti alle loro telecamere. La pandemia ha aumentato l' utilizzo della chat video . Secondo un sondaggio di Commercial Integrator, l' 83% delle aziende con oltre 250 dipendenti acquisterà probabilmente strumenti di videochiamata nel prossimo futuro . A sottolineare la tendenza, Meet ha avuto oltre 50 milioni di utenti a maggio 2020, un aumento del 900% rispetto allo scorso marzo. La nuova funzione Risparmio dati di Meet, che verrà lanciata questo mese, limita automaticamente l'utilizzo dei dati sui dispositivi mobili e su altre reti con limitazioni di larghezza di banda. Arriverà insieme ai miglioramenti alla modalità di scarsa illuminazione per Meet, una capacità che sfrutta l'intelligenza artificiale per illuminare i video in ambienti scarsamente illuminati. Precedentemente disponibile solo per smartphone e tablet, la modalità in condizioni di scarsa illuminazione funzionerà presto sul web, rilevando quando gli utenti sono sottoesposti e migliorando la qualità per migliorare la loro visibilità. Nel frattempo, Autozoom, che arriverà per i clienti a pagamento di Google Workspace nei prossimi mesi, è una funzionalità che utilizza l'intelligenza artificiale per ingrandire e posizionare gli utenti direttamente nella fotocamera. Lo zoom automatico si riadatta in modo intelligente mentre gli utenti si spostano, assicurando che rimangano nell'inquadratura, afferma Google. Miglioramenti dell'interfacciaOltre a Risparmio dati, modalità in condizioni di scarsa ill...
Continua a Leggere

Secomdo Juniper Networks solo il 6% delle aziende usa l’AI intelligenza artificiale

Secondo uno studio, solo il 6% delle aziende ha adottato l'IA In un nuovo sondaggio condotto su oltre 700 dirigenti C-suite e responsabili delle decisioni IT che esaminano l'adozione dell'IA nell'azienda, Juniper Networks ha rilevato che il 95% degli intervistati ritiene che la propria organizzazione trarrebbe vantaggio dall'incorporare l'IA nelle proprie operazioni quotidiane. Tuttavia, solo il 6% degli intervistati ha riferito di aver adottato soluzioni basate sull'intelligenza artificiale nella propria azienda. I risultati concordano con altri sondaggi che mostrano che, nonostante l'entusiasmo per l'IA, le aziende faticano a implementare servizi basati sull'intelligenza artificiale nella produzione. L'utilizzo dell'IA da parte delle imprese è cresciuto del 270% negli ultimi anni, secondo quanto riportato di recente da Gartner , mentre Deloitte afferma che il 62% degli intervistati al suo studio aziendale dell'ottobre 2018 ha adottato una qualche forma di AI , rispetto al 53% del 2019. Ma l'adozione no hanno sempre successo, come ti dirà circa il 25% delle aziende che hanno visto fallire metà dei loro progetti di intelligenza artificiale. Secondo il sondaggio Juniper, le principali sfide intorno all'IA rimangono l'acquisizione, l'elaborazione e la gestione dei dati. In altre tendenze dello stack tecnologico, il 39% degli intervistati ha affermato che era probabile che raccogliesse dati di telemetria per migliorare la "user experience" AI incorporata nei prodotti, mentre il 34% ha notato che le funzionalità degli strumenti AI sono le più critiche per consentire l'adozione dell'IA. Juniper è il secondo rapporto recente che aggancia i problemi dei dati come motivo per cui le organizzazioni non riescono a distribuire con successo l'IA. I data scientist trascorrono la maggior parte del loro tempo a pulire e organizzare i dati , secondo un sondaggio del 2016 di CrowdFlower. E gli intervistati dell'ultimo rapporto trimestrale sullo stato della cultura dei da...
Continua a Leggere

Vectra AI raccoglie 130 milioni di dollari

La piattaforma di sicurezza informatica basata sull'intelligenza artificiale Vectra AI raccoglie 130 milioni di dollari Vectra AI, startup di sicurezza informatica con sede a San Jose, in California, ha annunciato oggi di aver raccolto 130 milioni di dollari in un round di finanziamento che stima la società a 1,2 miliardi di dollari. Vectra afferma che l'investimento alimenterà la crescita dell'azienda attraverso l'espansione in nuovi mercati e paesi. Secondo Markets and Markets , il segmento SOAR (security orchestration, automation, and response) dovrebbe raggiungere $ 1,68 miliardi di valore quest'anno, guidato da un aumento delle violazioni e degli incidenti di sicurezza e dalla rapida implementazione e sviluppo di soluzioni basate su cloud. Le violazioni dei dati hanno esposto 4,1 miliardi di record nella prima metà del 2019, ha rilevato la sicurezza basata sul rischio . Questo potrebbe essere il motivo per cui il 68% dei leader aziendali in un recente sondaggio di Accenture ha affermato di ritenere che i rischi per la sicurezza informatica stiano aumentando. Vectra è stata fondata nel 2012 da Hitesh Sheth e l'azienda fornisce servizi di rilevamento e risposta di rete basati sull'intelligenza artificiale. La piattaforma di Vectra invia metadati arricchiti di sicurezza a data lake e sistemi SIEM (Security Information and Event Management) mentre archivia e analizza le minacce in questi dati arricchiti. I suddetti metadati sono di ampia portata ma includono pattern, precursori, punteggi dell'account, ricerche salvate, punteggi dell'host e campagne. Viene estratto da sensori e motori di elaborazione distribuiti in ambienti cloud, dove i sensori registrano le metriche dal traffico e acquisiscono registri e altri segnali esterni. L'intelligenza artificiale è un componente fondamentale della suite di prodotti Vectra. Gli algoritmi individuano e avvisano i team IT di comportamenti anomali da dispositivi compromessi nei metadati del traffico di rete e in...
Continua a Leggere

Xilinx Kria ™ di SOM (Adaptive System-On-Modules)

Xilinx presenta il portafoglio Kria di moduli adattivi System-on-Modules per accelerare l'innovazione e le applicazioni di intelligenza artificiale all'edge Le schede integrate pronte per la produzione e il kit per sviluppatori a basso costo accelerano i cicli di progettazione per una rapida implementazione; I prodotti iniziali si rivolgono alle applicazioni AI per la visione nelle città e nelle fabbriche intelligenti Xilinx, Inc. (NASDAQ: XLNX) ha presentato oggi il portafoglio Kria ™ di SOM (Adaptive System-On-Modules), schede embedded small form factor pronte per la produzione rapida implementazione in applicazioni edge-based. Abbinati a uno stack software completo e ad applicazioni accelerate di livello di produzione predefinite, i SOM adattivi di Kria sono un nuovo metodo per portare il calcolo adattivo all'IA e agli sviluppatori di software. Il primo prodotto disponibile nel portafoglio Kria SOM, Kria K26 SOM , si rivolge specificamente alle applicazioni AI di visione nelle città intelligenti e nelle fabbriche intelligenti. La roadmap di Xilinx® SOM include una gamma completa di prodotti, da SOM a costi ottimizzati per applicazioni con dimensioni e costi limitati a moduli a prestazioni più elevate che offriranno agli sviluppatori una maggiore capacità di elaborazione in tempo reale per watt. "L'ingresso di Xilinx nel fiorente mercato SOM si basa sulla nostra evoluzione oltre il business a livello di chip iniziato con le nostre schede Alveo per il data center e continua con l'introduzione di soluzioni complete a livello di scheda per sistemi embedded", ha affermato Kirk Saban, vicepresidente , Product and Platform Marketing presso Xilinx. "Il portafoglio Kria SOM espande la nostra portata di mercato in più applicazioni edge e renderà la potenza dell'hardware adattabile accessibile a milioni di sviluppatori di software e AI". Secondo i rapporti del settore, il mercato SOM cresce di circa l'11% all'anno e si prevede che i ricavi totali del mercat...
Continua a Leggere

INTELLIGENS Intelligenza artificiale e produzione di whisky

Quel bicchiere di whisky pregiato che sorseggi alla fine di una lunga giornata? Potrebbe essere stato creato con l'aiuto dell'IA. Mackmyra , una premiata distilleria svedese, ha lanciato Intelligens, il primo whisky al mondo creato utilizzando un programma di intelligenza artificiale . Mackmyra ha collaborato con la società tecnologica finlandese Fourkind per sviluppare un sistema di intelligenza artificiale che aumenta e automatizza alcune delle attività del mastro miscelatore della distilleria, responsabile del gusto del whisky e dello sviluppo del prodotto. I mastri frullatori passano il loro tempo meticolosamente a degustare e sperimentare per creare i migliori sapori possibili e questo processo può richiedere molto tempo. Mackmyra voleva che l'apprendimento automatico operasse la sua magia nel setacciare enormi quantità di dati per trovare nuove combinazioni. Fourkind ha creato il proprio sistema di intelligenza artificiale utilizzando Machine Learning Studio e Microsoft Azure, quindi ha alimentato i set di dati di sistema che includevano: ● Ricette di whisky esistenti di Mackmyra ● Informazioni sulla botte di legno (ciascuna botte conferisce al whisky un sapore distinto) ● Valutazioni dei consumatori ● Dati di vendita ● Valutazioni di esperti di whisky Il sistema AI ha analizzato 70 milioni di possibili combinazioni e ha creato un framework per la creazione di nuove ricette innovative che hanno un ottimo sapore. Dopo il primo lotto di ricette, il master blender di Macmyra, Angela D'Orazio, ha fornito feedback in modo che il sistema AI potesse saperne di più sulle combinazioni di whisky che funzionano per la tavolozza e vendono bene sul mercato. In ogni round, la distilleria ha ridotto le proprie opzioni e aumentato la qualità delle ricette. Alla fine del processo, D'Orazio ha selezionato la ricetta n. 36 come scelta finale per il loro nuovo prodotto innovativo. L'intelligenza artificiale non può sostituire il tocco u...
Continua a Leggere