Home / Archive by category "APP Ai"

APP Ai

Nvidia Omniverse

Nvidia rivela Omniverse Enterprise per la simulazione di prodotti e mondi Nvidia ha annunciato che Omniverse , un ambiente virtuale che l'azienda descrive come un "metaverso" per gli ingegneri, sarà disponibile come servizio aziendale entro la fine dell'anno. Il CEO Jensen Huang ha mostrato una demo dell'Omniverse , in cui gli ingegneri possono lavorare sui progetti in un ambiente virtuale, come parte del discorso alla GPU Technology Conference di Nvidia , un evento virtuale che si terrà online questa settimana. Ho anche moderato un pannello sull'impianto idraulico per il metaverso con un numero di partecipanti aziendali. Huang ha affermato che l'Omniverse è costruito sull'intero corpus di lavoro di Nvidia, consentendo alle persone di simulare mondi virtuali 3D condivisi che obbediscono ai mondi della fisica. "Il metaverso della fantascienza è vicino", ha detto in un discorso programmatico. "Una delle parti più importanti di Omniverse è che obbedisce alle leggi della fisica." L'Omniverse è uno strumento virtuale che consente agli ingegneri di collaborare. È stato ispirato dal concetto di fantascienza del metaverso , l'universo di mondi virtuali tutti interconnessi, come nei romanzi come Snow Crash e Ready Player One . Il progetto è iniziato anni fa come progetto proprietario di Nvidia chiamato Holodeck , dal nome della simulazione di realtà virtuale in Star Trek. Ma si è trasformato in uno sforzo più ambizioso a livello di settore basato sull'impianto idraulico reso possibile dalla tecnologia Universal Scene Description (USD) sviluppata da Pixar per realizzare i suoi film. Nvidia ha speso anni e centinaia di milioni di dollari nel progetto, ha dichiarato Richard Kerris, direttore generale dei media e dell'intrattenimento di Nvidia, in una conferenza stampa. Omniverse ha debuttato in versione beta a dicembre. Da allora, più di 17.000 utenti l'hanno testato e ora la società sta rendendo l'Omniverse disponibile come servizio in abbonamento per le azi...
Continua a Leggere

Nvidia Jarvis

Nvidia lancia il framework AI conversazionale Jarvis in disponibilità generale Al suo GTC 2021, Nvidia ha annunciato questa mattina la disponibilità generale del suo framework Jarvis, che fornisce agli sviluppatori modelli di intelligenza artificiale pre-addestrati e strumenti software per creare esperienze di conversazione interattive. Nvidia afferma che i modelli Jarvis, che sono diventati disponibili per la prima volta nel maggio 2020 in anteprima, offrono riconoscimento vocale automatico, nonché comprensione della lingua, traduzioni linguistiche in tempo reale e funzionalità di sintesi vocale per agenti di conversazione. L'ubiquità degli smartphone e delle app di messaggistica, stimolata dalla pandemia, ha contribuito alla maggiore adozione delle tecnologie di conversazione. Il 56% delle aziende ha dichiarato ad Accenture in un sondaggio che i bot conversazionali e altre esperienze stanno determinando l'interruzione del proprio settore. E uno studio di Twilio ha mostrato che 9 consumatori su 10 vorrebbero l'opzione di utilizzare la messaggistica per contattare un'azienda. Sfruttando l'accelerazione della GPU, la pipeline di Jarvis può essere eseguita in meno di 100 millisecondi e distribuita nel cloud, in un data center o sull'edge. Il framework include modelli addestrati su oltre 1 miliardo di pagine di testo e oltre 60.000 ore di parlato che possono essere regolate, ottimizzate, messe a punto con dati personalizzati e adattate a diverse attività, settori e sistemi. T-Mobile è tra i primi utenti di Jarvis e Jarvis, che supporta cinque lingue tra cui inglese, cinese e giapponese, ha collezionato più di 45.000 download da quando è diventato disponibile all'inizio dello scorso anno. Secondo Nvidia, il gigante delle telecomunicazioni sta utilizzando il framework per aiutare a risolvere i problemi del servizio clienti in tempo reale. Anche prima della pandemia, gli agenti autonomi stavano per diventare la regola piuttosto che l'eccezione, in parte pe...
Continua a Leggere

Grid.ai lancia la piattaforma per l’addestramento su larga scala di modelli di intelligenza artificiale sul cloud

Grid.ai ha annunciato oggi la disponibilità generale di Grid, una nuova piattaforma che consente a ricercatori e data scientist di addestrare modelli di intelligenza artificiale nel cloud. L'azienda afferma che Grid consente lo sviluppo e la formazione "su larga scala" senza richiedere competenze avanzate nell'ingegneria dell'apprendimento automatico. I professionisti del machine learning possono incontrare difficoltà quando ridimensionano i carichi di lavoro AI a causa dell'infrastruttura necessaria per l'addestramento e la distribuzione in produzione. Inoltre, questa infrastruttura può essere costosa da mantenere. Uno studio Synced ha stimato che il modello di rilevamento delle fake news Grover dell'Università di Washington costa $ 25.000 per l'addestramento in circa due settimane e OpenAI, secondo quanto riferito, ha accumulato ben 12 milioni di dollari per addestrare il suo modello linguistico GPT-3. Ad alto livello, Grid offre un'interfaccia per l'addestramento di modelli su GPU, processori e altro. È un'app Web con un'interfaccia a riga di comando che ottimizza i set di dati per lavorare al livello necessario per la produzione e la ricerca "all'avanguardia". Grid calcola in tempo reale per semplificare la quantificazione degli sforzi di ricerca e sviluppo dei progetti di IA. Inoltre, la piattaforma fornisce l'accesso ai notebook Jupyter, un modo per i data scientist di raggruppare le loro risposte con il codice Python che le ha prodotte. Per utilizzare Grid, gli utenti clonano semplicemente un progetto dai loro repository GitHub e apportano piccole modifiche al codice. I dati e gli artefatti rimangono nella loro infrastruttura: Grid si limita a orchestrare. Inoltre, gli artefatti dell'esperimento, come pesi e registri, vengono automaticamente salvati nel cloud in modo che sia possibile accedervi durante o dopo una corsa di allenamento. Grid sarà disponibile a partire dal 13 aprile in tre piani: individuale, di squadra e aziendale. Il piano ind...
Continua a Leggere

Touchcast utilizza l’intelligenza artificiale per aggiungere contesto alle conversazioni

L'azienda di videoconferenza Touchcast utilizza l'intelligenza artificiale per aggiungere contesto alle conversazioni La videoconferenza sta diventando sempre più una merce in quanto giganti della tecnologia come Microsoft e Google incorporano la funzionalità nei loro servizi gratuiti. Touchcast sta rimanendo un passo avanti ai giganti innovando sui servizi basati sull'intelligenza artificiale per gli utenti premium. Gli effetti speciali sono importanti, ma la chiave di differenziazione sta nella creazione di più contesto per guidare la prossima ondata di comunicazione, ha detto a VentureBeat il CEO di Touchcast Edo Segal. Touchcast lo fa sfruttando Nvidia Maxine , un kit di sviluppo software per la creazione di applicazioni basate su GPU. L'SDK include varie primitive per cose come la rimozione dello sfondo alimentata dall'intelligenza artificiale, la simulazione del contatto visivo e la misurazione della posa del corpo nello sport. "Il fatto che un'azienda come Nvidia, leader nell'hardware di alimentazione dell'IA, abbia la lungimiranza di investire nella ricerca e sviluppo dal punto di vista concettuale e software aiuta le aziende come Touchcast ad accelerare il time to market e concentrarsi sulla costruzione sulle spalle dei giganti, "Ha detto Segal. Nvidia Maxine stabilisce una nuova base di funzionalità da cui innovare. "Ci permette di concentrarci su altre aree in cui non c'è ancora lavoro da fare mentre tracciamo questa frontiera", ha detto Segal. Migliori effetti di immagineUn grande obiettivo è ridurre lo sforzo necessario per creare eventi di qualità. I presentatori dal vivo possono essere teletrasportati virtualmente in set di realtà mista senza uno schermo verde. La segmentazione semantica live utilizza l'intelligenza artificiale per separare una persona dallo sfondo in alta qualità, consentendo di posizionare automaticamente le persone in un set di realtà mista. "Questo letteralmente richiedeva giorni o settimane di lavoro e rendering e...
Continua a Leggere

Nvidia TAO

Nvidia lancia TAO, un flusso di lavoro aziendale per lo sviluppo di intelligenza artificiale Durante il suo keynote virtuale GTC 2021, Nvidia ha introdotto un nuovo prodotto progettato per aiutare le aziende a scegliere, adattare e distribuire modelli di machine learning. Chiamato TAO e disponibile a partire da oggi in accesso anticipato, consente il trasferimento di apprendimento e altre tecniche di apprendimento automatico da un unico pannello di vetro incentrato sull'azienda. La capacità di trasferire l'apprendimento di memorizzare le conoscenze acquisite durante la risoluzione di un problema e applicarle a un problema correlato ha attirato una notevole attenzione nell'impresa. Usandolo, un data scientist può prendere un modello open source come BERT, ad esempio, progettato per comprendere un linguaggio generico e perfezionarlo ai margini per comprendere il gergo utilizzato dai dipendenti per descrivere i problemi IT. TAO integra il Transfer Learning Toolkit di Nvidia per sfruttare piccoli set di dati, offrendo ai modelli un adattamento personalizzato senza i costi, i tempi e gli enormi corpora necessari per costruire e addestrare i modelli da zero. TAO incorpora anche l' apprendimento federato , che consente a diverse macchine di collaborare in modo sicuro per perfezionare un modello per la massima precisione. Gli utenti possono condividere i componenti dei modelli assicurandosi che i set di dati rimangano all'interno del data center di ciascuna azienda. Nell'apprendimento automatico, l'apprendimento federato implica l'addestramento di algoritmi su dispositivi client che contengono campioni di dati senza scambiarli. Un server centralizzato potrebbe essere utilizzato per orchestrare cicli di addestramento per l'algoritmo e fungere da orologio di riferimento, oppure la disposizione potrebbe essere peer-to-peer. Indipendentemente da ciò, gli algoritmi locali vengono addestrati su campioni di dati locali ei pesi - i parametri apprendibili degli algoritm...
Continua a Leggere

Generated Photos ha realizzato 2.686.238 foto generate dall’intelligenza artificiale disponibili gratuitamente,

2,6 milioni di volti falsi: le persone generate dall'intelligenza artificiale potrebbero essere il futuro del metaverso, delle celebrità e forse … di tutti noi Se Generated Photos continua a creare milioni di persone false, potrebbero ricevere notizie dal sindacato delle modelle. Ma l'azienda di intelligenza artificiale potrebbe anche inventare il futuro del modo in cui interagiamo online nel metaverso. E gli avatar virtuali dell'azienda potrebbero effettivamente essere i migliori amici di modelli umani reali. "Usiamo l'apprendimento automatico per addestrare in realtà, fondamentalmente, quello che viene chiamato un GAN - o rete di antagonismo generativo - su un enorme set di dati di addestramento, e in questo momento sono volti umani" , mi ha detto di recente Tyler Lastovich, che guida la strategia di Generated Photos Podcast TechFirst . "Possiamo attraversare e creare milioni e milioni di persone, essenzialmente, che non sono mai esistite, che sono irreali". Attualmente la società ha realizzato 2.686.238 foto generate dall'intelligenza artificiale disponibili gratuitamente, più molte altre per i clienti. Ma c'è un'intera industria di esseri umani sintetici. Gli influencer sintetici come Lil Miquela hanno milioni di follower e hanno guadagnato milioni di dollari per le aziende che li creano: studi che non si limitano a firmare delle star, ma le inventano e, essenzialmente, le possiedono. Il media del governo cinese Xinhua ha un lettore di notizie virtuale che non ha una mente propria, e Fable Studio o Virtual Humans creeranno e gestiranno un personaggio sintetico o un influencer per qualsiasi marchio che ne voglia uno. https://youtu.be/YrDCDcKnvYs Questo non è esattamente il business delle foto generate: l'azienda conta come clienti sviluppatori di giochi che popolano i loro universi con personaggi, società di software che hanno bisogno di avatar, designer e chiunque altro abbia bisogno di "persone" ma non può usare foto reali. Un uso sgr...
Continua a Leggere

La tua azienda prevede di provare GPT-3? Ecco cosa dovresti sapere

In un articolo precedente , ho parlato dei vantaggi di mercato che le aziende potrebbero trarre dallo sviluppo di applicazioni utilizzando il modello di linguaggio naturale GPT-3 di OpenAI. Qui voglio fornire un po 'di introduzione per le aziende che danno un primo sguardo alla tecnologia. Al momento c'è una lista d'attesa per accedere all'API GPT-3, ma ho avuto l'opportunità di giocare nel sistema. Per coloro che non l'hanno ancora provato, ecco alcune cose per cui essere preparati: Il contesto è tuttoL'input che fornisci a GPT-3 è un testo seme su cui vuoi addestrare il modello. Questo è il contesto che stai impostando per la risposta di GPT-3. Ma fornisci anche un "prefisso" alla sua risposta. Questo prefisso è una direzione che controlla il testo generato dal modello ed è contrassegnato da due punti alla fine. Ad esempio, puoi fornire un paragrafo come contesto e utilizzare un prefisso come "Spiega a un bambino di 5 anni:" per generare una semplice spiegazione. (Si consiglia vivamente di non aggiungere alcuno spazio dopo il prefisso). Di seguito è riportata una risposta di esempio da GPT-3. Come puoi vedere nell'esempio sopra, il tuo prefisso non ha bisogno di seguire alcuna codifica complessa leggibile dalla macchina. È solo una semplice frase leggibile dall'uomo. Puoi utilizzare più prefissi per descrivere un contesto più ampio o esteso, come in un esempio di chatbot. Vuoi fornire una cronologia della chat per aiutare il bot a generare risposte. Questo contesto viene utilizzato per ottimizzare l'output di GPT-3 e generare la risposta. Ad esempio, potresti rendere il chatbot disponibile e amichevole, oppure potresti renderlo assertivo e ostile. Nell'esempio seguente, ho fornito quattro prefissi GPT-3. Ho fornito un output di esempio per i primi tre e poi ho lasciato GPT-3 per continuare da lì. Poiché l'output che ottieni dal modello dipende interamente dal contesto che fornisci, è importante costruire questi elementi con attenzione. Confi...
Continua a Leggere

La piattaforma di sviluppo delle app di Snorkel AI raccoglie 35 milioni di dollari

Snorkel AI , una startup che sviluppa strumenti di etichettatura dei dati destinati alle imprese, ha annunciato oggi di aver raccolto 35 milioni di dollari in un round di serie B guidato da Lightspeed Venture Partners. Il finanziamento segna il lancio di Application Studio dell'azienda, un visual builder con soluzioni basate su modelli per casi d'uso comuni di intelligenza artificiale basate sulle migliori pratiche delle istituzioni accademiche. Secondo un rapporto Cognilytica del 2020 , l'80% del tempo di sviluppo dell'IA viene speso per raccogliere, organizzare ed etichettare manualmente i dati utilizzati per addestrare i modelli di machine learning. L'etichettatura manuale è notoriamente costosa e lenta, con un margine di manovra limitato per i team di sviluppo per creare, iterare, adattare o controllare le app. In un recente sondaggio condotto dalla startup CloudFlower , i data scientist hanno affermato di dedicare il 60% del tempo solo all'organizzazione e alla pulizia dei dati rispetto al 4% al perfezionamento degli algoritmi. Snorkel AI spera di affrontare questo problema con strumenti che consentano ai clienti di creare e gestire dati di addestramento, addestrare modelli e analizzare e iterare sistemi di intelligenza artificiale. Fondato da un team nato dallo Stanford AI Lab, Snorkel AI afferma di offrire la prima piattaforma di sviluppo di app AI, Snorkel Flow, che etichetta e gestisce i dati di formazione del machine learning in modo programmatico. Application Studio amplierà le capacità della piattaforma Snorkel AI in diversi modi, afferma la società, introducendo modelli di soluzioni predefiniti basati su casi d'uso specifici del settore. I clienti possono sfruttare i modelli per l'intelligence contrattuale, l'analisi delle notizie e l'instradamento delle interazioni con i clienti, nonché attività comuni di intelligenza artificiale come la classificazione di testi e documenti, il riconoscimento di entità denominate e l'estrazione di informa...
Continua a Leggere

Microsoft utilizza l’intelligenza artificiale negli attacchi simulati un toolkit di attacco open source

Strumento open source Microsoft per utilizzare l'intelligenza artificiale negli attacchi simulati Nell'ambito della ricerca di Microsoft sui modi per utilizzare l'apprendimento automatico e l'intelligenza artificiale per migliorare le difese di sicurezza, la società ha rilasciato un toolkit di attacco open source per consentire ai ricercatori di creare ambienti di rete simulati e vedere come reagiscono agli attacchi. Microsoft 365 Defender Research ha rilasciato CyberBattleSim , che crea una simulazione di rete e modella il modo in cui gli attori delle minacce possono spostarsi lateralmente attraverso la rete alla ricerca di punti deboli. Durante la creazione della simulazione di attacco, i difensori aziendali e i ricercatori creano vari nodi sulla rete e indicano quali servizi sono in esecuzione, quali vulnerabilità sono presenti e che tipo di controlli di sicurezza sono in atto. Gli agenti automatizzati, che rappresentano gli attori delle minacce, vengono distribuiti nella simulazione di attacco per eseguire azioni casualmente mentre cercano di assumere il controllo dei nodi. “L'obiettivo dell'aggressore simulato è quello di assumere la proprietà di una parte della rete sfruttando queste vulnerabilità piantate. Mentre l'attaccante simulato si muove attraverso la rete, un agente difensore controlla l'attività di rete per rilevare la presenza dell'aggressore e contenere l'attacco ", ha scritto il team di ricerca di Microsoft 365 Defender in un post discutendo del progetto. Usare l'apprendimento per rinforzo per la sicurezzaMicrosoft ha esplorato come utilizzare algoritmi di apprendimento automatico come l'apprendimento per rinforzo per migliorare la sicurezza delle informazioni. L'apprendimento per rinforzo è un tipo di apprendimento automatico in cui agenti autonomi imparano a prendere decisioni in base a ciò che accade mentre interagiscono con l'ambiente. L'obiettivo dell'agente è ottimizzare la ricompensa e gli agenti prendono gradualmente decisioni ...
Continua a Leggere

Il sistema di generazione di testo di OpenAI GPT-3 ora emette 4,5 miliardi di parole al giorno

La scrittura generata da robot sembra destinata a diventare la prossima grande novità Una delle più grandi tendenze dell'apprendimento automatico in questo momento è la generazione di testo. I sistemi di intelligenza artificiale apprendono assorbendo miliardi di parole estratte da Internet e generano testo in risposta a una varietà di richieste. Sembra semplice, ma queste macchine possono essere assegnate a una vasta gamma di compiti : dalla creazione di fiction, alla scrittura di codice errato, alla possibilità di chattare con personaggi storici. Il generatore di testo AI più noto è GPT-3 di OpenAI, che l'azienda ha recentemente annunciato di essere ora utilizzato in più di 300 app diverse, da "decine di migliaia" di sviluppatori, e producendo 4,5 miliardi di parole al giorno. È un sacco di verbosità robotica . Questa potrebbe essere una pietra miliare arbitraria per OpenAI da celebrare, ma è anche un utile indicatore della crescente portata, impatto e potenziale commerciale della generazione di testo AI. OpenAI è nata come organizzazione non profit, ma negli ultimi anni ha cercato di fare soldi con GPT-3 come primo prodotto vendibile. La società ha un accordo di esclusiva con Microsoft che offre al gigante della tecnologia un accesso unico al codice sottostante del programma, ma qualsiasi azienda può richiedere l'accesso all'API generale di GPT-3 e creare servizi su di essa. NESSUNA AZIENDA TRARRÀ VANTAGGIO DALL'ASCESA DI GPT-3 DELLA STESSA OPENAIPoiché OpenAI desidera fare pubblicità, centinaia di aziende stanno facendo esattamente questo. Una startup chiamata Viable sta utilizzando GPT-3 per analizzare il feedback dei clienti, identificando "temi, emozioni e sentiment da sondaggi, ticket di help desk, registri di chat dal vivo, recensioni e altro"; Fable Studio sta usando il programma per creare dialoghi per esperienze VR; e l' Algolia lo utilizza per migliorare i suoi prodotti di ricerca sul web che, a sua volta, vende ad altri clienti. Tutt...
Continua a Leggere
Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi