Home / Articles posted byihal

Author: ihal

Come fare un prodotto GPT-3

Cosa serve per creare un prodotto GPT-3 Quando Open-AI ha introdotto GPT-3 l'anno scorso, è stato accolto con molto entusiasmo. Poco dopo il rilascio di GPT-3, le persone hanno iniziato a utilizzare l'enorme modello di linguaggio per scrivere automaticamente e-mail e articoli , riassumere testo, comporre poesie, creare layout di siti Web e generare codice per l'apprendimento profondo in Python. C'era l'impressione che tutti i tipi di nuove attività sarebbero emerse oltre a GPT-3. Otto mesi dopo, GPT-3 continua a essere un impressionante esperimento scientifico nella ricerca sull'intelligenza artificiale. Ma resta da vedere se GPT-3 sarà una piattaforma per democratizzare la creazione di applicazioni basate sull'intelligenza artificiale. Certo, una tecnologia dirompente potrebbe richiedere più tempo per creare un mercato sostenibile, e GPT-3 non ha precedenti sotto molti aspetti. Ma gli sviluppi fino ad ora mostrano che coloro che trarranno il massimo vantaggio da GPT-3 sono le aziende che detengono già gran parte del potere nell'IA , non quelle che vogliono iniziare da zero. GPT-3 da un punto di vista scientificoPer quanto riguarda la ricerca sull'elaborazione del linguaggio naturale, GPT-3 non è una svolta. Come altri modelli linguistici basati esclusivamente sull'apprendimento profondo, lotta con il buon senso e non è bravo a gestire la conoscenza astratta. Ma è comunque notevole e mostra che puoi ancora spostare l'ago sulla PNL creando reti neurali ancora più grandi e alimentando loro più dati rispetto a prima. GPT-3 ha superato il suo predecessore in termini di dimensioni di oltre due ordini di grandezza ed è stato addestrato su almeno 10 volte più dati. Il risultato è stato un modello linguistico in grado di eseguire l'apprendimento zero e pochi colpi. Ciò significa essenzialmente che è possibile utilizzare GPT-3 per molte applicazioni senza scrivere alcun codice, senza spendere tempo e risorse costose per riqualificarlo e senza apportare modifi...
Continua a Leggere

Nvidia lancia il programma di certificazione per le piattaforme AI

Come l'open banking sta guidando un'enorme innovazioneScopri come le fintech e le FI lungimiranti stanno accelerando i prodotti finanziari personalizzati attraverso API ricche di dati. Nvidia ha lanciato oggi un programma di certificazione formale per i sistemi basati su unità di processore grafiche (GPU) distribuite in ambienti IT locali dai suoi partner OEM. L'iniziativa Nvidia-Certified Systems arriva in un momento in cui i modelli AI stanno iniziando a essere addestrati e distribuiti ai margini della rete piuttosto che addestrati solo nel cloud. I partecipanti iniziali al programma includono Dell Technologies, Hewlett-Packard Enterprise (HPE), Super Micro, Gigabyte e Inspur Technologies. Ciascuno dei sistemi forniti da questi fornitori incorpora sia le GPU Nvidia che gli switch di archiviazione che l'azienda ha acquisito con l' acquisizione di Mellanox . I sistemi certificati avranno diritto al supporto di Nvidia che verrà fornito tramite i partner OEM dell'azienda. La formazione dei modelli di intelligenza artificiale si sta avvicinando all'edge della rete perché le organizzazioni IT aziendali si stanno rendendo conto che non appena diventano disponibili nuove fonti di dati, non è pratico riqualificare completamente un modello di intelligenza artificiale nel cloud e quindi aggiornare un motore di inferenza in esecuzione sull'edge. Le organizzazioni dovranno essere in grado di aggiornare i modelli di intelligenza artificiale mentre eseguono, ad esempio, un'applicazione che incorpora la visione artificiale ai margini della rete, ha affermato Adel El Hallak, dirigente di Nvidia. "Devi essere in grado di portare il modello nel luogo in cui si svolge l'azione", ha detto El Hallak. Nvidia cita American Express come un esempio di organizzazione che sta già impiegando modelli di intelligenza artificiale in tempo reale per identificare le frodi, mentre Ford sta incorporando dati nei modelli di intelligenza artificiale in tempo reale per testare le au...
Continua a Leggere

Ukko raccoglie 40 milioni di dollari per affrontare le allergie alimentari con l’IA

Ukko , un'azienda biotecnologica di 30 dipendenti che utilizza l'intelligenza artificiale per studiare soluzioni per allergie e sensibilità alimentari, ha raccolto oggi $ 40 milioni in un round di serie B guidato da Bayer's Leaps di Bayer. Ukko afferma che il nuovo finanziamento consentirà di entrare in studi clinici con una terapia sperimentale per le allergie alle arachidi, accelerando allo stesso tempo lo sviluppo del suo glutine sintetico per le persone celiache e altri disturbi. Le intolleranze e le sensibilità alimentari sono estremamente comuni e sembrano essere in aumento. Si pensa infatti che fino al 20% della popolazione mondiale possa avere almeno un'intolleranza alimentare. Secondo una stima , circa dal 6% al 7% della popolazione degli Stati Uniti potrebbe essere sensibile al glutine, ad esempio, il che significa che circa 20 milioni di persone solo negli Stati Uniti potrebbero avere la condizione. Questo potrebbe essere il motivo per cui il mercato globale della diagnosi e del trattamento delle allergie alimentari dovrebbe crescere a un tasso di crescita annuale composto del 5,10% per raggiungere 1,83 miliardi entro il 2023, secondo Market Research Future. Ukko, con sede a Palo Alto, in California, cofondato nel 2016 dal laureato del MIT Anat Binur e Yanay Ofran, ex ricercatore della Columbia University, mira ad applicare le tecnologie di apprendimento automatico in immunologia, biologia computazionale e ingegneria delle proteine ​​per sviluppare nuovi approcci al trattamento sensibilità alimentare. La startup sta attualmente costruendo una mappa della struttura molecolare delle allergie e dei disturbi alimentari, che si dice le consentirà di ingegnerizzare le proteine ​​alimentari, eliminando la loro allergenicità e mantenendo intatte le caratteristiche biochimiche e nutrizionali "buone". “[Ukko] analizza milioni di anticorpi dal sangue di persone con allergie. I nostri algoritmi utilizzano [questi] dati per prevedere cosa nella proteina ...
Continua a Leggere

Un nuovo modello per valutare le istruzioni di navigazione generate dall’intelligenza artificiale

Un fiorente sottocampo dell'IA si concentra sull'utilizzo di modelli per migliorare le prestazioni dei robot che seguono le istruzioni fornite dalle persone. Questi modelli generano indicazioni (ad es. "Salite le scale ed entrate nella prima stanza a sinistra") che apparentemente migliorano le prestazioni di navigazione dei robot in ambienti simulati e reali. Ma uno studio coautore dei ricercatori di Google rileva che i modelli funzionano solo leggermente meglio delle tecniche basate su modelli che non si basano sull'intelligenza artificiale. Inoltre, i coautori affermano che i benchmark del linguaggio naturale tra cui BLEU, ROUGE, METEOR e CIDEr sono inefficaci per valutare la qualità delle istruzioni di navigazione che i modelli generano. I robot che seguono le istruzioni in linguaggio naturale potrebbero essere utili in una serie di contesti, come il magazzino industriale, dove i lavoratori potrebbero non avere le mani libere per il controllo dell'uomo. Sono anche un potenziale adattamento per strutture di assistenza come le case di cura, dove i pazienti e gli operatori sanitari potrebbero istruire i robot a eseguire compiti con comandi verbali. L'ex CEO di Misty Robotics, Tim Enwall, ha previsto che ogni casa e ogni ufficio avrà un robot entro 20 anni. D'altra parte, realisti come Ken Goldberg, professore all'Università della California, Berkeley, prevedono che passeranno 5-10 anni prima di vedere un robot domestico prodotto in serie che può rimorchiare dopo i bambini, ordinare mobili, preparare i pasti e svolgere altre faccende domestiche. I coautori di Google affermano che i loro esperimenti mostrano che gli sforzi per migliorare i generatori di istruzioni di navigazione sono stati ostacolati dalla mancanza di metriche di valutazione adeguate. Con l'eccezione di SPICE, un benchmark per i sottotitoli di imaging proposto per la prima volta dai ricercatori affiliati alla Australian National University e alla Macquarie University, i coautori hanno scoperto ...
Continua a Leggere

I robot di Starship arrivano ad un milione di consegne

I robot di consegna di Starship completano un milione di consegne per diventare la seconda compagnia di trasporti autonoma Starship, una società statunitense / estone che fornisce consegne urgenti tramite piccoli robot a guida autonoma sui marciapiedi, ha annunciato oggi di aver completato oltre un milione di consegne robotiche (e 1,5 milioni di miglia senza pilota) ai clienti paganti, una pietra miliare ineguagliata da qualsiasi altra azienda e che li colloca solo dietro Waymo nello spazio di trasporto autonomo quando si tratta di operazioni di produzione. (Come importante dichiarazione di non responsabilità, sono stato un consulente strategico di Starship durante la sua crescita iniziale e, sebbene non ne sia più compensato, rimango un azionista. Anche se dovresti considerare questo pregiudizio nella lettura di questo articolo, tuttavia credo che questa pietra miliare sia importante negli annali del trasporto robotico degno di segnalazione.) Molte squadre stanno affrontando il problema della costruzione di veicoli robotici per trasportare passeggeri e consegnare merci. Ciò avviene a molti livelli, dai camion merci automatizzati, ai veicoli di transito, ai robotaxi, ai piccoli robot per le consegne su strada e un numero sorprendentemente elevato di robot più piccoli che utilizzano marciapiedi e percorsi piuttosto che le corsie preferenziali. Questo problema è notevolmente più semplice: le velocità sono inferiori, i robot sono più piccoli e l'ambiente, sebbene piuttosto complesso, non ha automobili. Le squadre hanno affrontato questo problema perché può essere risolto prima del problema della guida su strade generali. Starship è stata la prima società di questo tipo, fondata nel 2014, e ha iniziato le consegne commerciali ai clienti paganti nel 2018. I robot Starship sono piccoli e leggeri e quindi intrinsecamente molto meno pericolosi - anche se uno dovesse colpire qualcosa o qualcuno, il rischio di danni e la lesione è estremamente piccola. Alcuni rob...
Continua a Leggere

Product Discovery Solutions for Retail di Google Cloud

In che modo le soluzioni di Product Discovery di Google basate sull'intelligenza artificiale stanno migliorando il campo di gioco. Product Discovery Solutions for Retail di Google Cloud è una raccolta degli algoritmi di intelligenza artificiale all'avanguardia abbinati all'infrastruttura scalabile della piattaforma Google Cloud. Google Cloud ha annunciato una nuova suite, nota come Product Discovery Solutions for Retail . La nuova suite è progettata per aiutare i rivenditori a migliorare le loro capacità di e-commerce e offrire esperienze di consumo altamente personalizzate. Il settore della vendita al dettaglio è impegnato nella migrazione alle piattaforme cloud negli ultimi dieci anni. Tuttavia, poiché lo shopping online sta guadagnando slancio, i rivenditori devono affrontare problemi nell'incorporare miglioramenti nella tecnologia di e-commerce. "Man mano che il passaggio all'online continua, esperienze di acquisto più intelligenti e personalizzate saranno ancora più fondamentali per i rivenditori per superare la concorrenza", ha affermato Carrie Tharp, Vice President Retail and Consumer di Google Cloud. "I rivenditori hanno un disperato bisogno di modelli operativi agili alimentati da infrastrutture cloud e tecnologie come l'intelligenza artificiale e l'apprendimento automatico per soddisfare le esigenze del settore di oggi. Siamo orgogliosi di collaborare con rivenditori in tutto il mondo e portare avanti le nostre offerte di Product Discovery per aiutarli ad avere successo ", ha aggiunto. Product Discovery Solutions for Retail di Google Cloud è una raccolta degli algoritmi di intelligenza artificiale all'avanguardia abbinati all'infrastruttura scalabile della piattaforma Google Cloud. La suite include quanto segue: Nel 2019, Google ha lanciato Recommendations AI in versione beta alla conferenza Cloud Next. Raccomandazioni AI è un servizio completamente gestito, creato per aiutare le aziende orientate al dettaglio a fornire consigli perso...
Continua a Leggere

Google LEAF

I ricercatori propongono LEAF, un frontend per lo sviluppo di algoritmi di classificazione AI Nell'apprendimento automatico, i banchi di filtri mel - rappresentazioni del suono fisse e ingegnerizzate a mano - vengono spesso utilizzati per addestrare algoritmi che classificano il suono. Decenni dopo la progettazione dei banchi di filtri mel, la ricerca mostra che esibiscono proprietà matematiche desiderabili per l'apprendimento della rappresentazione; in altre parole, rappresentano forti caratteristiche audio. Ma il design dei banchi di filtri mel è anche viziato da bias, e questi bias possono essere dannosi per le attività che richiedono una risoluzione a grana fine alle alte frequenze. In un passo verso un'alternativa AI-forward, i ricercatori di Google hanno sviluppato LEAF , un frontend che scompone i banchi di filtri mel in diversi componenti - filtraggio, raggruppamento e compressione / normalizzazione - per creare modelli di classificazione audio apparentemente con pregiudizi minimi. I ricercatori affermano che LEAF può apprendere un singolo set di parametri che supera i banchi di filtri mel, suggerendo che può essere utilizzato per attività di classificazione audio di uso generale. LEAF ha implicazioni nel mondo reale dato che il mercato globale del riconoscimento del suono è stato valutato a $ 66,5 milioni nel 2018, secondo Grand View Research . Oltre al riconoscimento vocale e vocale, il senso dell'udito è diventato essenziale nell'IA; il suono consente all'IA di comprendere il contesto e distinguere tra i vari eventi che si verificano in un ambiente. Ad esempio, in caso di intrusione, un sistema di gestione degli eventi con una tecnologia di rilevamento del suono alimentata dall'intelligenza artificiale potrebbe accendere le luci e riprodurre musica ad alto volume per scoraggiare una violazione, oltre a inviare avvisi ai proprietari di case. LEAF potrebbe semplificare la creazione di questo tipo di prodotti senza dover creare minuziosamente rappr...
Continua a Leggere

Kili Technology presenta la piattaforma di annotazione dei dati per migliorare l’intelligenza artificiale e raccoglie 7 milioni di dollari

La scarsa qualità dei dati grezzi o non categorizzati può essere un grosso ostacolo per le aziende che vogliono costruire un'intelligenza artificiale di alta qualità che abbia un impatto significativo sul loro business. L'organizzazione di dati non strutturati come immagini e audio può rappresentare un ostacolo particolarmente scoraggiante in questo senso. Oggi, Kili Technology , con sede a Parigi, ha presentato il suo servizio che consente alle aziende di annotare dati grezzi come video, immagini aeree di droni, contratti ed e-mail. La piattaforma collaborativa dell'azienda consente ai dipendenti di rendere più efficiente il processo di etichettatura dei dati. La società ha anche affermato di aver raccolto il suo primo finanziamento esterno in un round guidato da Serena Capital ed e.ventures, che ha investito insieme a business angels come il CEO di Datadog Olivier Pomel, il CEO dell'Algolia Nicolas Dessaigne e i fondatori di PeopleDoc Stanislas de Bentzmann e Gus Robertson . Dopo un rapido avvio, l'azienda ha piani ambiziosi per espandere la propria portata internazionale. "La missione è semplicissima", ha affermato François-Xavier Leduc, CEO e cofondatore di Kili. "Per costruire l'intelligenza artificiale, hai bisogno di tre cose. Hai bisogno della potenza di calcolo che puoi acquistare facilmente su Amazon, hai bisogno di un algoritmo che sia disponibile come open source e hai bisogno di set di formazione. Stiamo creando un ponte tra i dati grezzi e ciò che è necessario per costruire un'IA su larga scala per le aziende. La nostra missione è aiutare i nostri clienti a trasformare questi dati grezzi in dati di addestramento in modo che possano scalare le applicazioni AI sulle loro sfide interne per risolvere i loro problemi ". L'azienda fa parte di un settore dell'annotazione dei dati competitivo e in rapida evoluzione. Dataloop lo scorso anno ha raccolto 16 milioni di dollari per i suoi strumenti di annotazione dei dati. SuperAnnotate ha raccolto...
Continua a Leggere

Run: AI raccoglie 30 milioni di dollari

Run: AI , una startup che sviluppa software di orchestrazione e virtualizzazione per carichi di lavoro AI, ha annunciato oggi di aver raccolto 30 milioni di dollari. L'azienda afferma che utilizzerà l'investimento per finanziare l'espansione e il reclutamento a livello globale. I modelli di intelligenza artificiale sono fantastici: dopotutto, sono al centro di tutto, dagli assistenti vocali ai sistemi di raffreddamento. Ma ciò che non è eccezionale è il tempo e lo sforzo necessari per perfezionarli. I set di dati acquisiti dagli algoritmi di produzione comprendono centinaia (o milioni) di campioni e richiedono PC potenti fino a settimane per l'elaborazione. Le nuove tecniche promettono di accelerare l'addestramento del modello, ma non tutte sono generalizzabili. È questa sfida perenne che ha ispirato Omri Geller, Ronen Dar e Meir Feder a fondare Run: AI , un fornitore di software che sviluppa una piattaforma che accelera autonomamente lo sviluppo dell'IA. Esegui: il software di AI crea un livello di astrazione che analizza le caratteristiche computazionali dei carichi di lavoro di IA e utilizza algoritmi basati su grafici per ridurre al minimo i colli di bottiglia, ottimizzando efficacemente i carichi di lavoro per un'esecuzione più rapida e semplice. Esegui: l'IA alloca anche questi carichi di lavoro in modo tale da massimizzare tutte le risorse disponibili, tenendo conto di fattori come la larghezza di banda della rete, le risorse di calcolo, i costi, la pipeline e le dimensioni dei dati. Sotto il cofano, Run: AI "scompone" matematicamente i modelli di IA in più frammenti che vengono eseguiti in parallelo, un approccio che ha l'ulteriore vantaggio di ridurre l'utilizzo della memoria hardware. Ciò a sua volta consente a modelli che altrimenti sarebbero vincolati da limitazioni hardware (principalmente memoria GPU) di funzionare senza ostacoli. Run: AI afferma che i suoi clienti vedono aumentare l'utilizzo della GPU dal 25% al ​​75% in media. Dar e Gell...
Continua a Leggere

OpenCV AI Competition 2021 il concorso

OpenCV apre un concorso da $ 400.000 per risolvere i problemi del mondo reale con l'IA spaziale Ad un certo punto in un futuro non troppo lontano, l'abbinamento di telecamere con rilevamento della profondità e intelligenza artificiale consentirà ai computer di comprendere veramente il mondo fisico , una visione che ricercatori e aziende hanno impiegato anni a lavorare per trasformare in realtà. Oggi, la libreria open source di visione artificiale OpenCV ha annunciato che festeggia il suo 20 ° anniversario con un concorso globale progettato per stimolare innovazioni pratiche nell'intelligenza artificiale spaziale e assegnerà 1.200 telecamere con rilevamento della profondità e premi in denaro per aiutare i partecipanti a prototipare i loro progetti. Supportato da Intel e Microsoft Azure , il concorso OpenCV AI si compone di due fasi: la fase 1 richiede che un team identifichi un problema di intelligenza artificiale del mondo reale che può essere risolto in un periodo di tre mesi con l'ultima telecamera di profondità di inferenza neurale di OpenCV, OAK-D . Nella fase 2, ciascuno dei 210 migliori team riceverà 4 o 10 telecamere OAK-D, oltre a 100 ore di tempo di elaborazione Azure NC6 gratuito, accesso a Dev Cloud di Intel e supporto OpenCV Slack, il tutto allo scopo di risolvere il problema dell'IA identificato. OpenCV assegnerà premi da $ 5.000 a $ 20.000 ai primi tre progetti a livello globale, più tre premi regionali da $ 2.000 a $ 5.000 in ciascuna delle sei regioni della competizione e $ 2.000 premi regionali di voto popolare. La competizione OpenCV è significativa per i responsabili delle decisioni tecniche perché offre ai team aziendali e di formazione l'opportunità di sviluppare applicazioni pratiche di visione artificiale con hardware, software e potenzialmente supporto monetario da molte delle organizzazioni più importanti del settore dei CV. Per molti team, la concorrenza offrirà hardware OAK-D e servizi Azure sufficienti per avviare e avviare un i...
Continua a Leggere
Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi