Un grido d’allarme per l’intelligenza artificiale
Il 1° maggio, il New York Times ha rivelato che Geoffrey Hinton, noto come “Padrino dell’IA”, ha lasciato Google. La motivazione di questa mossa è consentirgli di parlare apertamente dei rischi legati all’intelligenza artificiale (IA).
La decisione è al contempo sorprendente e prevedibile. Sorprendente, poiché Hinton ha dedicato la sua vita al progresso della tecnologia IA; prevedibile, data la crescente preoccupazione che ha espresso in recenti interviste.
L’annuncio del 1° maggio è simbolico, in quanto è il giorno in cui si celebra il lavoro e l’inizio della primavera. Paradossalmente, l’IA, in particolare quella generativa basata su reti neurali profonde, potrebbe sostituire una larga parte della forza lavoro. Questo impatto si sta già manifestando, come nel caso di IBM.
L’IA sta sostituendo i posti di lavoro e avvicinandosi alla superintelligenza? Il World Economic Forum prevede che l’IA potrebbe causare la perdita del 25% dei posti di lavoro entro i prossimi cinque anni. L’IA generativa potrebbe segnare un nuovo inizio di intelligenza simbiotica, con uomo e macchina che lavorano insieme, portando a un’epoca di opportunità e abbondanza.
Tuttavia, potrebbe anche essere il momento in cui l’IA si avvicina alla superintelligenza, rappresentando una minaccia esponenziale.
Hinton vuole discutere di queste preoccupazioni senza essere vincolato dal lavorare per Google o altre aziende che sviluppano l’IA commercialmente. Come ha scritto su Twitter: “Mi sono dimesso per poter parlare dei pericoli dell’IA senza preoccuparmi dell’impatto sulle attività di Google”.
Il 1° maggio richiama anche l’associazione con il segnale di soccorso “mayday”, utilizzato in caso di pericolo immediato e grave. È un caso la coincidenza tra la data dell’annuncio e questo segnale di allarme?
Secondo l’articolo del Times, Hinton è preoccupato per la capacità dell’IA di produrre contenuti di qualità umana in testo, video e immagini, e per il rischio che queste abilità vengano usate da malintenzionati per diffondere disinformazione e fake news, rendendo difficile per la persona media distinguere ciò che è vero.
Inoltre, crede che siamo più vicini al momento in cui le macchine supereranno l’intelligenza umana. Questo punto è stato ampiamente dibattuto e la maggior parte degli esperti di IA lo riteneva ancora lontano nel futuro, forse a 40 anni di distanza.
Hinton, come altri, credeva che ci sarebbero voluti dai 30 ai 50 anni per preparare aziende, governi e società a questo cambiamento attraverso politiche e regolamentazioni. Tuttavia, ora il tempo si sta esaurendo.
L’intelligenza artificiale generale (AGI) è un tema strettamente correlato. OpenAI, DeepMind e altri stanno lavorando per sviluppare l’intelligenza artificiale generale (AGI). I sistemi di intelligenza artificiale attualmente in uso sono prevalentemente specializzati in compiti specifici e ristretti, come l’interpretazione di immagini radiologiche o il gioco. Un singolo algoritmo non può eccellere in entrambi i tipi di attività. Invece, l’AGI possiede abilità cognitive simili a quelle umane, come il ragionamento, la risoluzione dei problemi e la creatività, e, come singolo algoritmo o rete di algoritmi, sarebbe in grado di svolgere una vasta gamma di compiti a livello umano o superiore in diversi ambiti.
Proprio come il dibattito su quando l’IA supererà l’intelligenza umana, almeno per compiti specifici, le previsioni su quando si raggiungerà l’AGI variano notevolmente, da pochi anni a diversi decenni o secoli, o forse mai. Queste stime temporali stanno cambiando anche grazie alle nuove applicazioni di intelligenza artificiale generativa, come ChatGPT basata su reti neurali Transformer.
Oltre agli scopi previsti di questi sistemi di intelligenza artificiale generativa, come la creazione di immagini realistiche da messaggi di testo o la produzione di risposte testuali simili a quelle umane in risposta a domande, questi modelli possiedono la notevole capacità di esibire comportamenti emergenti. Ciò significa che l’IA può mostrare comportamenti nuovi, complessi e inaspettati.
Ad esempio, la capacità di GPT-3 e GPT-4, i modelli alla base di ChatGPT, di generare codice è considerata un comportamento emergente, poiché questa capacità non era prevista nelle specifiche di progettazione. Questa caratteristica è emersa come un sottoprodotto dell’apprendimento del modello. Gli sviluppatori di questi modelli non possono spiegare completamente come o perché si sviluppano questi comportamenti. Ciò che è chiaro è che queste capacità emergono da dati su larga scala, dall’architettura del trasformatore e dalle potenti capacità di riconoscimento dei modelli sviluppate dai modelli.
Le tempistiche si stanno accelerando, creando un senso di urgenza. In una recente intervista alla CBS News, Hinton ha affermato di credere che l’AGI potrebbe essere raggiunto in 20 anni o meno. Ha aggiunto: “Potremmo essere vicini a computer in grado di trovare idee per migliorare se stessi. È un problema, giusto? Dobbiamo riflettere attentamente su come controllarlo.”
I primi segni di questa capacità possono essere visti con l’emergente AutoGPT, un agente AI ricorsivo open source. Oltre ad essere accessibile a chiunque, ciò significa che può utilizzare autonomamente i risultati che genera per creare nuovi prompt, concatenando queste operazioni insieme per completare compiti complessi.
In questo modo, AutoGPT potrebbe potenzialmente essere utilizzato per identificare le aree in cui i modelli di intelligenza artificiale sottostanti potrebbero essere migliorati e quindi generare nuove idee su come apportare tali miglioramenti. Non solo, ma come sottolinea l’editorialista del New York Times Thomas Friedman, il codice open source può essere utilizzato da chiunque. Si chiede: “Cosa farebbe l’ISIS con il codice?”
Non è scontato che l’IA generativa in particolare o lo sforzo complessivo per sviluppare l’IA porteranno a risultati negativi. Tuttavia, l’accelerazione delle tempistiche per un’IA più avanzata guidata dall’IA generativa ha creato un forte senso di urgenza per Hinton e altri, portando chiaramente al suo segnale di maggio.
Di fronte a questi progressi rapidi e alle preoccupazioni sul potenziale impatto dell’intelligenza artificiale sulla società, è fondamentale che i governi, le aziende e gli individui collaborino per sviluppare una governance efficace e politiche che garantiscano un utilizzo responsabile e sicuro dell’IA. Il dialogo tra gli esperti di IA, i decisori politici e il pubblico è essenziale per comprendere e affrontare i rischi associati all’intelligenza artificiale e per garantire che i benefici dell’IA siano distribuiti equamente tra le persone e le nazioni.
Geoffrey Hinton ha fatto una scelta significativa nel dimettersi da Google per parlare liberamente dei rischi dell’IA. Il suo gesto sottolinea l’importanza di avere una discussione aperta e onesta su questi temi. Solo attraverso la consapevolezza, l’educazione e un’azione collettiva possiamo garantire che l’intelligenza artificiale venga utilizzata in modo etico e responsabile, promuovendo al contempo l’innovazione e il progresso per il bene di tutti.