Nel panorama tecnologico contemporaneo, l’intelligenza artificiale (IA) sta emergendo come una forza trainante, spingendo i confini dell’innovazione e mettendo in discussione principi consolidati come la Legge di Moore. Questa legge, formulata da Gordon Moore, cofondatore di Intel, nel 1965, prevedeva che il numero di transistor nei circuiti integrati sarebbe raddoppiato approssimativamente ogni anno, una previsione successivamente rivista a un raddoppio ogni 18 mesi. Per decenni, questa osservazione ha guidato lo sviluppo dell’industria dei semiconduttori, fungendo da parametro per l’evoluzione delle prestazioni dei computer.
Tuttavia, con l’avvento di applicazioni avanzate di IA, le esigenze computazionali stanno crescendo a un ritmo che supera le previsioni originali della Legge di Moore. Durante il recente Consumer Electronics Show (CES) 2025 a Las Vegas, Jensen Huang, CEO di Nvidia, ha presentato la nuova famiglia di GPU RTX Blackwell, evidenziando che i chip attuali per l’IA sono mille volte più potenti rispetto a quelli di un decennio fa. La RTX 5090, fiore all’occhiello di questa serie, è dotata di 92 miliardi di transistor, rappresentando un salto tecnologico significativo. Huang ha affermato che “Blackwell, il motore dell’IA, è la più significativa innovazione nella grafica computerizzata da 25 anni a questa parte” e ha introdotto il concetto di “hyper Moore’s Law” per descrivere il rapido progresso osservato.
La Legge di Moore si basava sull’idea che la miniaturizzazione dei transistor avrebbe permesso un aumento esponenziale delle prestazioni dei chip. Tuttavia, stiamo raggiungendo limiti fisici nella riduzione delle dimensioni dei transistor, portando a una fase di rendimenti decrescenti. Ilya Sutskever, cofondatore di OpenAI, ha osservato che “gli anni 2010 sono stati l’era della scalabilità, ora siamo tornati nell’era della meraviglia e della scoperta. Tutti sono alla ricerca della prossima novità”. Questa dichiarazione riflette la necessità di nuovi approcci per sostenere i progressi nell’IA.
Per affrontare queste sfide, l’industria sta esplorando diverse strade. Una di queste è l’adozione di architetture specializzate, come le unità di elaborazione tensoriale (TPU) sviluppate da Google, progettate specificamente per accelerare le operazioni di apprendimento automatico. Un’altra direzione è l’uso di materiali alternativi al silicio, come il grafene, che potrebbe offrire migliori prestazioni elettroniche. Inoltre, si stanno sviluppando tecnologie di calcolo quantistico, che promettono di risolvere problemi complessi a velocità inimmaginabili con i computer tradizionali.
Parallelamente, l’ottimizzazione degli algoritmi di IA gioca un ruolo cruciale. Migliorare l’efficienza degli algoritmi può ridurre la domanda di potenza computazionale, permettendo di ottenere prestazioni superiori senza un corrispondente aumento dell’hardware. Questo approccio è essenziale per garantire la sostenibilità energetica, dato che i grandi modelli di IA richiedono quantità significative di energia per l’addestramento e l’esecuzione.