Nvidia sta rivoluzionando il mondo del personal computing, consentendo una maggiore integrazione dell’intelligenza artificiale (IA) nei PC grazie alle unità di elaborazione grafica (GPU) basate su RTX. Questo rappresenta un punto di svolta nell’evoluzione del computing personale, portando l’elaborazione dell’IA generativa su PC Windows a un pubblico sempre più ampio.

Negli ultimi anni, l’IA generativa ha guadagnato notevole importanza, offrendo strumenti più accessibili e interfacce intuitive. Ciò è reso possibile grazie alla potenza delle GPU ottimizzate per l’IA, all’apprendimento automatico e al software di calcolo ad alte prestazioni (HPC).

Nvidia è stata all’avanguardia di questa rivoluzione, portando l’IA principalmente nei data center con GPU, ma ora sta estendendo questa capacità alle GPU basate su RTX, che equipaggeranno oltre 100 milioni di PC Windows in tutto il mondo. Questo processo di integrazione dell’IA nelle applicazioni Windows principali è stato un viaggio di cinque anni, con l’introduzione dei processori AI dedicati chiamati Tensor Core, presenti nelle GPU GeForce RTX e Nvidia RTX, che sono all’origine delle capacità di IA generativa sui PC e le workstation Windows.

Jesse Clayton, direttore della gestione del prodotto e del marketing del prodotto per Windows AI presso Nvidia, ha sottolineato l’importanza di questo progresso: “Per l’IA sui PC, crediamo che sia davvero uno dei momenti più importanti nella storia della tecnologia. L’IA sta rivoluzionando il modo in cui giocatori, creatori, streamer, impiegati, studenti e persino utenti occasionali dei PC sperimentano le tecnologie. Sta stimolando la creatività e semplificando le attività quotidiane. L’IA sta diventando parte integrante di ogni applicazione importante, influenzando tutti gli utenti dei PC e trasformando radicalmente l’uso dei computer”.

Inoltre, Nvidia ha annunciato l’arrivo di TensorRT-LLM, una libreria open source progettata per migliorare le prestazioni dei modelli linguistici di grandi dimensioni (LLM) su Windows, ottimizzata per le GPU Nvidia RTX. Questa libreria può aumentare le prestazioni dei più recenti LLM, come Llama 2 e Code Llama, fino a quattro volte rispetto alle soluzioni precedenti.

Nvidia ha anche rilasciato strumenti per aiutare gli sviluppatori a ottimizzare i propri LLM, tra cui script per garantire la compatibilità con TensorRT-LLM, modelli open source ottimizzati per TensorRT e un progetto di riferimento che dimostra la velocità e la qualità delle risposte dei LLM.

Inoltre, Nvidia ha introdotto RTX Video Super Risoluzione (VSR) versione 1.5, migliorando ulteriormente le funzionalità basate sull’IA. VSR migliora la qualità dei contenuti video in streaming riducendo gli artefatti di compressione, migliorando i dettagli e rendendo i bordi più nitidi.

Infine, la combinazione di TensorRT-LLM e delle funzionalità LLM offre nuove opportunità di produttività, migliorando la velocità dei LLM su PC Windows basati su RTX. Questo avrà un impatto significativo su casi d’uso sofisticati, come assistenti di scrittura e codifica, migliorando l’esperienza dell’utente.

Nvidia sta portando l’IA generativa ai PC in modo massiccio, rendendo disponibile questa potente tecnologia a un pubblico più ampio, che potrà sfruttarla in una varietà di modi, dai giochi all’elaborazione del linguaggio naturale e molto altro ancora. Con oltre 100 milioni di GPU RTX in circolazione, Nvidia è pronta a guidare questa trasformazione nell’uso dei computer personali.

Di Fantasy