Eric Schmidt, ex CEO di Google, ha recentemente espresso preoccupazioni riguardo all’evoluzione dell’intelligenza artificiale (AI), suggerendo che entro uno o due anni i sistemi AI potrebbero operare autonomamente, rendendo necessaria l’implementazione di un “kill switch” per controllarne il funzionamento.
Schmidt ha dichiarato che stiamo assistendo a un’innovazione senza precedenti, con computer che presto saranno in grado di operare e prendere decisioni autonomamente. Questo sviluppo potrebbe portare all’emergere dell’Intelligenza Artificiale Generale (AGI), una forma di AI capace di comprendere, apprendere e applicare conoscenze in modo simile agli esseri umani.
Con l’avanzare dell’AGI, Schmidt sottolinea l’importanza di avere un meccanismo, simile a un “kill switch”, che permetta di interrompere immediatamente il funzionamento di un sistema AI in caso di comportamenti indesiderati o pericolosi. Questo strumento sarebbe essenziale per garantire che l’AI rimanga sotto il controllo umano, prevenendo potenziali rischi associati alla sua autonomia.
Schmidt ha espresso dubbi sulla preparazione della società di fronte a queste tecnologie emergenti, evidenziando che non comprendiamo ancora appieno le implicazioni di fornire a ogni individuo un potere così vasto attraverso l’AI. Ha inoltre suggerito che, per monitorare e controllare efficacemente l’AI, potrebbe essere necessario sviluppare sistemi AI dedicati a sorvegliare altri sistemi AI, data la complessità e la velocità con cui queste tecnologie stanno evolvendo.
Le dichiarazioni di Schmidt si inseriscono in un dibattito più ampio sulla regolamentazione e il controllo dell’AI. In precedenza, esperti come Stuart Russell dell’Università di Berkeley avevano già proposto l’implementazione di “kill switch” per i modelli AI avanzati. Inoltre, durante l'”AI Summit” dello scorso maggio, aziende leader nel settore, tra cui OpenAI e Google, avevano concordato sulla necessità di introdurre meccanismi di interruzione per i modelli AI più sofisticati.