Apple ha di recente introdotto i nuovi chip M3 che promettono di rivoluzionare il lavoro degli sviluppatori di intelligenza artificiale, fornendo la potenza necessaria per gestire i più imponenti modelli di trasformatori con miliardi di parametri direttamente sui MacBook. La capacità di supportare fino a 128 GB di memoria è stata sottolineata dall’azienda come un salto qualitativo che apre la strada a flussi di lavoro inediti per i dispositivi portatili.

Al momento, è il MacBook Pro da 14 pollici ad essere equipaggiato con le opzioni di chip M3, M3 Pro e M3 Max, mentre il modello da 16 pollici accoglie solo le versioni M3 Pro e M3 Max. Apple ha evidenziato come il motore neurale aggiornato contribuisca a un’accelerazione dei modelli di machine learning (ML), garantendo al contempo la tutela della privacy degli utenti.

Yi Ding, esperto nel settore, ha espresso entusiasmo per questa svolta, evidenziando la possibilità di eseguire il più grande LLM open source (Falcon, con i suoi 180 miliardi di parametri) su un MacBook da 14 pollici senza compromettere la qualità. L’uso di LLM su MacBook non è una novità, con esperienze precedenti di esecuzione di un modello da 65 miliardi di parametri su MacBook con chip M1, come testimoniato da Anshul Khandelwal di invideo.

Aravind Srinivas di Perplexity.ai ha commentato con una nota di ironia che, con la crescente potenza dei MacBook in termini di FLOP per chip M1, un’intera organizzazione che li utilizza potrebbe presto richiedere una regolamentazione governativa.

In termini di prestazioni, Apple sostiene che i chip M3 sono il 15% più veloci rispetto alla serie M2 e il 60% più veloci dei predecessori M1, pur mantenendo lo stesso numero di core ma con un bilanciamento migliorato tra core di prestazione ed efficienza energetica, oltre a supportare fino a 36 GB di memoria contro i 32 GB dei modelli precedenti.

Il chip M3 è notevole per il suo supporto di memoria unificata fino a 128 GB, essenziale per gestire carichi di lavoro AI/ML complessi. La nuova architettura GPU del chip M3 è stata progettata per ottimizzare prestazioni ed efficienza con caratteristiche come il caching dinamico, il mesh shading e il ray tracing, aumentando le performance e riducendo il consumo energetico, particolarmente in applicazioni professionali e giochi impegnativi.

Mentre Apple avanza in questo campo, altri giganti del settore quali AMD, Intel, Qualcomm e NVIDIA continuano a investire nello sviluppo di capacità per l’elaborazione di carichi di lavoro AI ai margini della rete, con l’obiettivo di rendere queste tecnologie sempre più accessibili su dispositivi personali.

Con i recenti sviluppi nel settore e la crescente adozione di modelli linguistici gestiti localmente dagli sviluppatori di intelligenza artificiale, è evidente che Apple sta guadagnando terreno come piattaforma preferita tra gli sviluppatori AI, posizionandosi al centro dell’evoluzione tecnologica nel settore.

Di Fantasy