SafeGuard Cyber ​​raccoglie 45 milioni di dollari

SafeGuard Cyber ​​raccoglie 45 milioni di dollari per combattere i rischi per la sicurezza informatica utilizzando l'intelligenza artificiale SafeGuard Cyber , una piattaforma cloud progettata per proteggere le risorse dalle minacce alla sicurezza informatica e dai fattori di rischio, ha annunciato oggi di aver raccolto 45 milioni di dollari in un mix di azioni e debiti. Ciò porta il totale raccolto di SafeGuard a oltre $ 69 milioni e verrà utilizzato per espandere le proprie capacità aziendali e tecnologiche, afferma la società. In un sondaggio Deloitte del 2017 , solo il 42% degli intervistati considerava le proprie istituzioni estremamente o molto efficaci nella gestione del rischio per la sicurezza informatica. La pandemia non ha certo fatto nulla per alleviare queste preoccupazioni. Nonostante l'aumento degli investimenti nella sicurezza IT effettuati dalle aziende nel 2020 per affrontare le sfide dell'IT distribuito e del lavoro da casa, quasi l'80% dei lavoratori IT senior e dei leader della sicurezza IT ritiene che le proprie organizzazioni non dispongano di difese sufficienti contro gli attacchi informatici, secondo IDG. SafeGuard Cyber, fondata nel 2014, sviluppa prodotti che identificano i rischi nei canali di comunicazione come social media, app di chat e piattaforme di collaborazione, come Slack, LinkedIn e WhatsApp. SafeGuard Cyber ​​aiuta anche le aziende ad agire e afferma di poter proteggere individui di alto profilo o mirati da furti di account, spearphishing, contenuti dannosi, minacce di violenza e disinformazione, nonché connessioni con cattivi attori. Inoltre, SafeGuard afferma di poter proteggere gli account aziendali e dei dipendenti dalle minacce in entrata, inclusa la rappresentazione del marchio, fornendo al contempo visibilità sui potenziali vettori di minacce. "L'ingegneria sociale è stata tradizionalmente svolta all'interno delle e-mail, ma da allora si è evoluta per incorporare un approccio più mirato e di attacco soft att...
Continua a Leggere

Nvidia il sistema su chip Drive Atlan per veicoli autonomi

Al GTC 2021 , Nividia ha presentato questa mattina Drive Atlan, un sistema su chip abilitato all'intelligenza artificiale per veicoli autonomi che prenderà di mira i modelli 2025 delle case automobilistiche. In grado di fornire poco più di 1.000 trilioni di operazioni al secondo (TOP), Atlan include l'architettura GPU di nuova generazione di Nvidia, core CPU ARM e acceleratori di deep learning e visione artificiale. Un rapporto del MIT stima che i veicoli veramente autonomi potrebbero non scendere in strada per un decennio. Tuttavia, alcuni esperti prevedono che la pandemia accelererà l'adozione di tecnologie di trasporto autonomo. Nonostante necessitino di disinfezione, le auto senza conducente possono potenzialmente ridurre al minimo il rischio di diffusione di malattie. Allied Market Research prevede che il mercato globale dei veicoli autonomi sarà valutato a $ 556,67 miliardi entro il 2026. Atlan, che integra un'unità di elaborazione dati Nvidia BlueField per funzioni di rete, archiviazione e sicurezza, è da 4 a 33 volte più potente in termini di elaborazione degli altri chip Nvidia focalizzati sulla guida autonoma, Drive Xavier e Drive Orin . Xavier può raggiungere fino a 30 TOP, mentre Orin arriva a 254. Il CEO di Nvidia Jensen Huang afferma che Atlan è progettato per gestire il gran numero di applicazioni AI che vengono eseguite contemporaneamente su veicoli senza conducente. "Il nostro nuovo Atlan è davvero una meraviglia tecnica, fondendo tutti i punti di forza di Nvidia nei data center AI, auto, robotica, sicurezza e sicurezza BlueField per fornire flotte sicure a guida autonoma", ha detto Huang in un comunicato stampa. “L'industria dei trasporti ha bisogno di una piattaforma informatica su cui poter fare affidamento per decenni. L'investimento nel software è troppo immenso per essere ripetuto per ogni auto ". Nvidia ha anche annunciato che amplierà la sua partnership con Volvo per utilizzare Orin nei prossimi modelli Volvo. La prima ve...
Continua a Leggere

Nvidia Morpheus

Nvidia annuncia Morpheus, un framework per app basato sull'intelligenza artificiale per la sicurezza informatica Durante il suo keynote virtuale GTC 2021 questa mattina, Nvidia ha annunciato Morpheus, un framework di app "cloud-native" volto a fornire ai partner di sicurezza informatica competenze di intelligenza artificiale che possono essere utilizzate per rilevare e mitigare gli attacchi di sicurezza informatica. Utilizzando l'apprendimento automatico, Morpheus identifica, acquisisce e agisce su minacce e anomalie, comprese fughe di dati sensibili, tentativi di phishing e malware. Morpheus è disponibile in anteprima da oggi e gli sviluppatori possono richiedere l'accesso anticipato sulla pagina di destinazione di Nvidia . Riflettendo il ritmo di adozione, l'IA nel mercato della sicurezza informatica raggiungerà un valore di 38,2 miliardi di dollari entro il 2026, progetti Markets and Markets . È aumentato da $ 8,8 miliardi nel 2019, che rappresenta un tasso di crescita annuale composto di circa il 23,3%. Proprio la scorsa settimana, uno studio del MIT Technology Review Insights e Darktrace ha rilevato che il 96% dei dirigenti di grandi aziende sta valutando l' adozione di una "IA difensiva" contro gli attacchi informatici. Morpheus consente essenzialmente ai nodi di calcolo nelle reti di fungere da sensori di difesa informatica: Nvidia afferma che le sue unità di elaborazione dati BlueField-3 recentemente annunciate possono essere configurate specificamente per questo scopo. Con Morpheus, le organizzazioni possono analizzare i pacchetti senza replica delle informazioni, sfruttando la telemetria in tempo reale e l'applicazione delle policy, nonché l'elaborazione dei dati a livello periferico. Grazie all'intelligenza artificiale, Morpheus può apparentemente analizzare più dati di sicurezza rispetto ai framework di app di sicurezza informatica convenzionali senza sacrificare costi o prestazioni. Gli sviluppatori possono creare le proprie competenze M...
Continua a Leggere

Nvidia DPU BlueField-3

Nvidia annuncia le DPU BlueField-3 per carichi di lavoro di intelligenza artificiale e analisi Al GTC 2021, questa mattina Nvidia ha eliminato l'unità di elaborazione dati (DPU) BlueField-3, l'ultima nella sua gamma di macchine per data center costruite per carichi di lavoro di intelligenza artificiale e analisi. BlueField-3 racchiude funzionalità di accelerazione di rete, archiviazione e sicurezza informatica definite dal software, offrendo ciò che Nvidia afferma è l'equivalente di un massimo di 300 core CPU di potenza o 1,5 TOP . A partire dal 2019, il tasso di adozione dell'analisi dei big data era del 52,5% tra le organizzazioni, con un ulteriore 38% che intendeva utilizzare la tecnologia in futuro, secondo Statista. I vantaggi sono evidenti. Un sondaggio del 2019 di Enterprenuer.com ha rilevato che le aziende che implementano l'analisi dei big data hanno registrato un aumento dei profitti dall'8% al 10%. Le DPU BlueField-3 di Nvidia sono dotate di interconnessioni 300GbE / NDR e possono fornire fino a 10 volte il calcolo delle DPU BlueField-2 della generazione precedente, con 22 miliardi di transistor, isolando le app dal piano di controllo e gestione. I 16 core ARM A78 all'interno possono gestire 4 volte le prestazioni di crittografia e BlueField-3 è la prima DPU a supportare PCIe di quinta generazione e l'accelerazione del data center sincronizzato nel tempo. BlueField-3 può inoltre fungere da agente di monitoraggio per Morpheus, la piattaforma di sicurezza informatica cloud di Nvidia abilitata all'intelligenza artificiale, anch'essa annunciata oggi. Inoltre, sfrutta DOCA, l'architettura del data center su chip dell'azienda per la creazione di app di rete, archiviazione, sicurezza e gestione definite dal software e accelerate dall'hardware in esecuzione su DPU BlueField. "I moderni cloud hyperscale stanno guidando una nuova architettura fondamentale per i data center", ha dichiarato il fondatore e CEO di Nvidia Jensen Huang in un comunicato st...
Continua a Leggere

Nvidia Omniverse

Nvidia rivela Omniverse Enterprise per la simulazione di prodotti e mondi Nvidia ha annunciato che Omniverse , un ambiente virtuale che l'azienda descrive come un "metaverso" per gli ingegneri, sarà disponibile come servizio aziendale entro la fine dell'anno. Il CEO Jensen Huang ha mostrato una demo dell'Omniverse , in cui gli ingegneri possono lavorare sui progetti in un ambiente virtuale, come parte del discorso alla GPU Technology Conference di Nvidia , un evento virtuale che si terrà online questa settimana. Ho anche moderato un pannello sull'impianto idraulico per il metaverso con un numero di partecipanti aziendali. Huang ha affermato che l'Omniverse è costruito sull'intero corpus di lavoro di Nvidia, consentendo alle persone di simulare mondi virtuali 3D condivisi che obbediscono ai mondi della fisica. "Il metaverso della fantascienza è vicino", ha detto in un discorso programmatico. "Una delle parti più importanti di Omniverse è che obbedisce alle leggi della fisica." L'Omniverse è uno strumento virtuale che consente agli ingegneri di collaborare. È stato ispirato dal concetto di fantascienza del metaverso , l'universo di mondi virtuali tutti interconnessi, come nei romanzi come Snow Crash e Ready Player One . Il progetto è iniziato anni fa come progetto proprietario di Nvidia chiamato Holodeck , dal nome della simulazione di realtà virtuale in Star Trek. Ma si è trasformato in uno sforzo più ambizioso a livello di settore basato sull'impianto idraulico reso possibile dalla tecnologia Universal Scene Description (USD) sviluppata da Pixar per realizzare i suoi film. Nvidia ha speso anni e centinaia di milioni di dollari nel progetto, ha dichiarato Richard Kerris, direttore generale dei media e dell'intrattenimento di Nvidia, in una conferenza stampa. Omniverse ha debuttato in versione beta a dicembre. Da allora, più di 17.000 utenti l'hanno testato e ora la società sta rendendo l'Omniverse disponibile come servizio in abbonamento per le azi...
Continua a Leggere

Nvidia Jarvis

Nvidia lancia il framework AI conversazionale Jarvis in disponibilità generale Al suo GTC 2021, Nvidia ha annunciato questa mattina la disponibilità generale del suo framework Jarvis, che fornisce agli sviluppatori modelli di intelligenza artificiale pre-addestrati e strumenti software per creare esperienze di conversazione interattive. Nvidia afferma che i modelli Jarvis, che sono diventati disponibili per la prima volta nel maggio 2020 in anteprima, offrono riconoscimento vocale automatico, nonché comprensione della lingua, traduzioni linguistiche in tempo reale e funzionalità di sintesi vocale per agenti di conversazione. L'ubiquità degli smartphone e delle app di messaggistica, stimolata dalla pandemia, ha contribuito alla maggiore adozione delle tecnologie di conversazione. Il 56% delle aziende ha dichiarato ad Accenture in un sondaggio che i bot conversazionali e altre esperienze stanno determinando l'interruzione del proprio settore. E uno studio di Twilio ha mostrato che 9 consumatori su 10 vorrebbero l'opzione di utilizzare la messaggistica per contattare un'azienda. Sfruttando l'accelerazione della GPU, la pipeline di Jarvis può essere eseguita in meno di 100 millisecondi e distribuita nel cloud, in un data center o sull'edge. Il framework include modelli addestrati su oltre 1 miliardo di pagine di testo e oltre 60.000 ore di parlato che possono essere regolate, ottimizzate, messe a punto con dati personalizzati e adattate a diverse attività, settori e sistemi. T-Mobile è tra i primi utenti di Jarvis e Jarvis, che supporta cinque lingue tra cui inglese, cinese e giapponese, ha collezionato più di 45.000 download da quando è diventato disponibile all'inizio dello scorso anno. Secondo Nvidia, il gigante delle telecomunicazioni sta utilizzando il framework per aiutare a risolvere i problemi del servizio clienti in tempo reale. Anche prima della pandemia, gli agenti autonomi stavano per diventare la regola piuttosto che l'eccezione, in parte pe...
Continua a Leggere

Grid.ai lancia la piattaforma per l’addestramento su larga scala di modelli di intelligenza artificiale sul cloud

Grid.ai ha annunciato oggi la disponibilità generale di Grid, una nuova piattaforma che consente a ricercatori e data scientist di addestrare modelli di intelligenza artificiale nel cloud. L'azienda afferma che Grid consente lo sviluppo e la formazione "su larga scala" senza richiedere competenze avanzate nell'ingegneria dell'apprendimento automatico. I professionisti del machine learning possono incontrare difficoltà quando ridimensionano i carichi di lavoro AI a causa dell'infrastruttura necessaria per l'addestramento e la distribuzione in produzione. Inoltre, questa infrastruttura può essere costosa da mantenere. Uno studio Synced ha stimato che il modello di rilevamento delle fake news Grover dell'Università di Washington costa $ 25.000 per l'addestramento in circa due settimane e OpenAI, secondo quanto riferito, ha accumulato ben 12 milioni di dollari per addestrare il suo modello linguistico GPT-3. Ad alto livello, Grid offre un'interfaccia per l'addestramento di modelli su GPU, processori e altro. È un'app Web con un'interfaccia a riga di comando che ottimizza i set di dati per lavorare al livello necessario per la produzione e la ricerca "all'avanguardia". Grid calcola in tempo reale per semplificare la quantificazione degli sforzi di ricerca e sviluppo dei progetti di IA. Inoltre, la piattaforma fornisce l'accesso ai notebook Jupyter, un modo per i data scientist di raggruppare le loro risposte con il codice Python che le ha prodotte. Per utilizzare Grid, gli utenti clonano semplicemente un progetto dai loro repository GitHub e apportano piccole modifiche al codice. I dati e gli artefatti rimangono nella loro infrastruttura: Grid si limita a orchestrare. Inoltre, gli artefatti dell'esperimento, come pesi e registri, vengono automaticamente salvati nel cloud in modo che sia possibile accedervi durante o dopo una corsa di allenamento. Grid sarà disponibile a partire dal 13 aprile in tre piani: individuale, di squadra e aziendale. Il piano ind...
Continua a Leggere

SambaNova raccoglie 676 milioni di dollari per la produzione di massa di chip di inferenza e formazione AI

SambaNova Systems , una startup che sviluppa chip per carichi di lavoro AI, ha annunciato oggi di aver raccolto 676 milioni di dollari, valutando l'azienda a oltre 5 miliardi di dollari post-money. SambaNova afferma che prevede di espandere la propria base di clienti, in particolare nel mercato dei data center, poiché diventerà una delle società di intelligenza artificiale più capitalizzate al mondo con oltre 1 miliardo di dollari raccolti. Gli acceleratori di intelligenza artificiale sono un tipo di hardware specializzato progettato per accelerare le applicazioni di intelligenza artificiale come reti neurali, deep learning e varie forme di machine learning. Si concentrano su calcoli aritmetici o in-memory a bassa precisione, che possono aumentare le prestazioni di grandi algoritmi di intelligenza artificiale e portare a risultati all'avanguardia nell'elaborazione del linguaggio naturale, visione artificiale e altri domini. Questo è forse il motivo per cui si prevede che avranno una quota crescente di potenza di elaborazione di edge computing, che rappresenterà il 70% previsto entro il 2025, secondo un recente sondaggio di Statista. SambaNova occupa un'industria artigianale di startup il cui obiettivo è lo sviluppo di infrastrutture per gestire i carichi di lavoro dell'IA. L'azienda californiana di Palo Alto, fondata nel 2017 dal veterano di Oracle e Sun Microsystems Rodrigo Liang e dai professori di Stanford Kunle Olukotun e Chris Ré, fornisce sistemi che eseguono AI e app ad alta intensità di dati dal data center all'edge. Olukotun, che ha recentemente ricevuto l'Harry H. Goode Memorial Award della IEEE Computer Society, è a capo del progetto di ricerca Stanford Hydra Chip Multiprocessor, che ha prodotto un design di chip che accoppia quattro processori specializzati e le loro cache con una cache secondaria condivisa. Ré, professore associato presso il Dipartimento di Informatica presso l'InfoLab della Stanford University, è un vincitore del premio M...
Continua a Leggere

Touchcast utilizza l’intelligenza artificiale per aggiungere contesto alle conversazioni

L'azienda di videoconferenza Touchcast utilizza l'intelligenza artificiale per aggiungere contesto alle conversazioni La videoconferenza sta diventando sempre più una merce in quanto giganti della tecnologia come Microsoft e Google incorporano la funzionalità nei loro servizi gratuiti. Touchcast sta rimanendo un passo avanti ai giganti innovando sui servizi basati sull'intelligenza artificiale per gli utenti premium. Gli effetti speciali sono importanti, ma la chiave di differenziazione sta nella creazione di più contesto per guidare la prossima ondata di comunicazione, ha detto a VentureBeat il CEO di Touchcast Edo Segal. Touchcast lo fa sfruttando Nvidia Maxine , un kit di sviluppo software per la creazione di applicazioni basate su GPU. L'SDK include varie primitive per cose come la rimozione dello sfondo alimentata dall'intelligenza artificiale, la simulazione del contatto visivo e la misurazione della posa del corpo nello sport. "Il fatto che un'azienda come Nvidia, leader nell'hardware di alimentazione dell'IA, abbia la lungimiranza di investire nella ricerca e sviluppo dal punto di vista concettuale e software aiuta le aziende come Touchcast ad accelerare il time to market e concentrarsi sulla costruzione sulle spalle dei giganti, "Ha detto Segal. Nvidia Maxine stabilisce una nuova base di funzionalità da cui innovare. "Ci permette di concentrarci su altre aree in cui non c'è ancora lavoro da fare mentre tracciamo questa frontiera", ha detto Segal. Migliori effetti di immagineUn grande obiettivo è ridurre lo sforzo necessario per creare eventi di qualità. I presentatori dal vivo possono essere teletrasportati virtualmente in set di realtà mista senza uno schermo verde. La segmentazione semantica live utilizza l'intelligenza artificiale per separare una persona dallo sfondo in alta qualità, consentendo di posizionare automaticamente le persone in un set di realtà mista. "Questo letteralmente richiedeva giorni o settimane di lavoro e rendering e...
Continua a Leggere

Nvidia TAO

Nvidia lancia TAO, un flusso di lavoro aziendale per lo sviluppo di intelligenza artificiale Durante il suo keynote virtuale GTC 2021, Nvidia ha introdotto un nuovo prodotto progettato per aiutare le aziende a scegliere, adattare e distribuire modelli di machine learning. Chiamato TAO e disponibile a partire da oggi in accesso anticipato, consente il trasferimento di apprendimento e altre tecniche di apprendimento automatico da un unico pannello di vetro incentrato sull'azienda. La capacità di trasferire l'apprendimento di memorizzare le conoscenze acquisite durante la risoluzione di un problema e applicarle a un problema correlato ha attirato una notevole attenzione nell'impresa. Usandolo, un data scientist può prendere un modello open source come BERT, ad esempio, progettato per comprendere un linguaggio generico e perfezionarlo ai margini per comprendere il gergo utilizzato dai dipendenti per descrivere i problemi IT. TAO integra il Transfer Learning Toolkit di Nvidia per sfruttare piccoli set di dati, offrendo ai modelli un adattamento personalizzato senza i costi, i tempi e gli enormi corpora necessari per costruire e addestrare i modelli da zero. TAO incorpora anche l' apprendimento federato , che consente a diverse macchine di collaborare in modo sicuro per perfezionare un modello per la massima precisione. Gli utenti possono condividere i componenti dei modelli assicurandosi che i set di dati rimangano all'interno del data center di ciascuna azienda. Nell'apprendimento automatico, l'apprendimento federato implica l'addestramento di algoritmi su dispositivi client che contengono campioni di dati senza scambiarli. Un server centralizzato potrebbe essere utilizzato per orchestrare cicli di addestramento per l'algoritmo e fungere da orologio di riferimento, oppure la disposizione potrebbe essere peer-to-peer. Indipendentemente da ciò, gli algoritmi locali vengono addestrati su campioni di dati locali ei pesi - i parametri apprendibili degli algoritm...
Continua a Leggere