L’ascesa di ChatGPT e delle intelligenze artificiali generative rappresenta una svolta nella tecnologia, paragonabile ai primi giorni di Internet e degli smartphone. Questi sistemi hanno dimostrato una straordinaria capacità di gestire dialoghi profondi, superare test, produrre codici sofisticati e creare contenuti visivi avvincenti. Nonostante le GPU gestiscano molti di questi modelli in cloud, ciò non è sostenibile a lungo, dato il crescente costo, consumo energetico, latenza, e le preoccupazioni sulla privacy e sicurezza.

Attualmente, la maggior parte delle applicazioni gira su processori potenti, sia in dispositivi mobili che nei data center. Ma con la crescente adozione dell’AI, questi sistemi basati su CPU diventano obsoleti. L’espansione dell’AI sta spingendo verso server specializzati, che possono costare molto di più rispetto a quelli standard, con le GPU che rappresentano la parte maggiore della spesa.

I server cloud hanno un consumo energetico che varia, ma quelli focalizzati sull’AI consumano significativamente di più. Questo richiede maggiori investimenti nei data center, che stanno già consumando una parte sostanziale dell’energia globale. Se le tendenze attuali persistono, i data center potrebbero consumare una frazione sempre maggiore dell’energia mondiale nei prossimi anni.

L’energia necessaria per i data center, già considerevole, crescerà ulteriormente con l’espansione dell’AI generativa.

L’alto consumo energetico e i costi operativi potrebbero rallentare l’adozione generalizzata dell’AI generativa. Questi problemi potrebbero essere attenuati trasferendo parte del calcolo all’edge, sfruttando hardware ottimizzato. Questo passo avrebbe anche altri vantaggi come riduzione della latenza e maggiore privacy.

Per anni, l’AI è stata prevalentemente gestita nei data center. Ma spostare l’inferenza all’edge porta vantaggi tangibili, come la riduzione dei costi ricorrenti e l’abbattimento delle spese operative. Questa transizione darà alle aziende e ai consumatori risparmi significativi.

Spostare l’AI all’edge con hardware specializzato offre vari vantaggi. Ad esempio, nei videogiochi, l’AI può potenziare personaggi non giocanti per un’esperienza di gioco più immersiva. In settori come quello sanitario, l’importanza della privacy e dell’affidabilità è cruciale, e l’AI locale può garantire protezione dei dati e risposta in tempo reale.

L’introduzione dell’AI generativa nei dispositivi edge ridurrà la latenza nei giochi e garantirà la protezione dei dati nel settore sanitario.

Mentre i modelli di AI più grandi si eseguono nel cloud, per le applicazioni specifiche è essenziale che siano addestrati secondo le esigenze. Ad esempio, un assistente AI in un ristorante dovrebbe essere ben informato sul menu specifico. Un modello ridimensionato e addestrato per questo scopo potrebbe essere più efficace e, data la sua dimensione più compatta, potrebbe girare su un dispositivo edge.

L’AI generativa continuerà ad avere un ruolo nel cloud, ma per applicazioni aziendali specifiche, come alcune funzionalità di Adobe Photoshop o Github Copilot, l’AI generativa all’edge è già una realtà. L’hardware AI dedicato sarà fondamentale per realizzare questa visione.

Di Fantasy