Un nuovo rapporto dell’Institute for Human-Centered AI dell’Università di Stanford ha evidenziato che nel 2023 l’intelligenza artificiale ha compiuto progressi significativi in termini di obiettivi tecnici e ricerca, con notevoli investimenti commerciali. Tuttavia, rimangono ancora importanti limitazioni e crescenti preoccupazioni riguardo ai rischi e all’impatto sociale di questa tecnologia.
Il rapporto annuale AI Index 2024, che offre una panoramica completa dei progressi globali nell’intelligenza artificiale, ha rilevato che i sistemi di IA hanno superato le capacità umane in molte aree, come la classificazione delle immagini, il ragionamento visivo e la comprensione dell’inglese. Tuttavia, continuano a essere inferiori agli esseri umani in compiti più complessi come la matematica avanzata, il ragionamento basato sul buon senso e la pianificazione.
Inoltre, il rapporto ha evidenziato un aumento significativo delle attività di ricerca e sviluppo nell’ambito dell’intelligenza artificiale nel 2023, con un numero maggiore di modelli di machine learning sviluppati dalle aziende rispetto al mondo accademico. Questo ha portato a un aumento dei costi per l’addestramento dei sistemi di IA di punta, con modelli come il GPT-4 di OpenAI che richiedono investimenti molto elevati.
Gli Stati Uniti hanno dominato la produzione di modelli di IA leader rispetto ad altri paesi nel 2023, mentre gli investimenti nell’IA generativa, capace di produrre testi e immagini, sono notevolmente aumentati nonostante una diminuzione degli investimenti totali nell’IA. Tuttavia, il rapporto ha sottolineato una mancanza di test standardizzati per valutare la responsabilità e la sicurezza dei sistemi di IA, insieme a crescenti preoccupazioni riguardo alla diffusione di deepfake e alla manipolazione dei modelli linguistici.
Infine, il rapporto ha evidenziato un aumento dell’ansia pubblica riguardo all’IA, con una maggiore consapevolezza del suo potenziale impatto negativo e una diminuzione dell’entusiasmo verso la sua adozione. Ciò sottolinea la necessità di dati rigorosi e di una valutazione obiettiva per affrontare le sfide e le opportunità future legate all’intelligenza artificiale.