Un informatico dell’Università di Louisville, Roman Yampolski, ha recentemente espresso preoccupazioni allarmanti riguardo all’intelligenza artificiale (IA) durante un podcast. Secondo lui, c’è una probabilità del 99,9% che l’IA porti all’estinzione dell’umanità entro 100 anni.
Yampolski, autore del libro “AI: Unexplainable, Unpredictable, and Uncontrollable”, sostiene che l’IA è intrinsecamente imprevedibile e incontrollabile, e che gli esseri umani non saranno in grado di gestirla efficacemente. Cita come esempio gli errori già commessi dall’IA, come jailbreak e allucinazioni, e sottolinea che il problema si aggraverà con l’avvento dell’intelligenza generale artificiale (AGI), che supererà l’intelligenza umana.
Secondo Yampolski, l’umanità potrebbe affrontare tre possibili scenari: l’IA potrebbe uccidere tutti, causare sofferenze tali da far desiderare la morte alle persone, o privare gli esseri umani del loro scopo, sostituendo la creatività e il lavoro umano.
Per evitare questi scenari catastrofici, Yampolski sottolinea la necessità di sviluppare salvaguardie permanenti per controllare l’IA. Anche se i modelli attuali non sembrano rappresentare un pericolo immediato, l’IA continuerà ad apprendere e migliorare, creando un rischio esistenziale a lungo termine.
Anche l’ex CEO di Google, Eric Schmidt, ha espresso preoccupazioni simili, sottolineando i potenziali rischi di attacchi informatici e biologici legati all’IA. Ha suggerito che, se l’IA dovesse sviluppare il libero arbitrio, l’unica soluzione sarebbe “staccare la spina”.
Queste dichiarazioni allarmanti sollevano importanti questioni etiche e di sicurezza riguardo allo sviluppo dell’IA e alla necessità di regolamentazione e controllo per garantire un futuro sicuro per l’umanità.