Dario Amodei, CEO di Anthropic, ha recentemente condiviso la sua visione sull’evoluzione dei modelli linguistici di grandi dimensioni (LLM) e sull’emergere di superintelligenze artificiali. In un’intervista con Lex Fridman, Amodei ha discusso le attuali limitazioni e le potenzialità future dell’intelligenza artificiale.
Contrariamente alle preoccupazioni riguardanti i limiti della “legge di scaling”—che suggerisce che l’aumento di dati e risorse computazionali non porta più a miglioramenti significativi nelle prestazioni dei modelli—Amodei rimane ottimista. Egli sostiene che l’espansione dei modelli rimane una via promettente verso lo sviluppo di intelligenze artificiali più avanzate. Amodei ha dichiarato: “Probabilmente l’espansione continuerà, e ci saranno elementi che ancora non comprendiamo completamente che contribuiranno a questo progresso”.
Tuttavia, riconosce l’importanza di tecniche complementari, come il reinforcement learning e l’addestramento supervisionato, per migliorare le capacità di ragionamento e inferenza dei modelli. Amodei ha sottolineato che, nonostante le sfide, l’investimento in infrastrutture per l’addestramento dei modelli continuerà a crescere, con previsioni di spese che potrebbero raggiungere decine di miliardi di dollari entro il 2027.
Un aspetto cruciale discusso è la difficoltà nel controllare e allineare i modelli AI con gli obiettivi umani. Amodei ha paragonato questo processo a un “gioco del whack-a-mole”, dove risolvere un problema può farne emergere un altro inaspettato. Nonostante queste difficoltà, prevede che entro il 2026 o il 2027 potrebbero emergere superintelligenze artificiali, ponendo nuove sfide e opportunità.
Amodei esprime preoccupazione riguardo alla concentrazione di potere ed economia nelle mani di poche aziende tecnologiche a seguito dello sviluppo di superintelligenze. Egli avverte che il vero problema potrebbe risiedere nell’abuso di potere derivante da tali avanzamenti tecnologici, piuttosto che nella tecnologia stessa.