L’articolo scritto da Enrique Dans, pubblicato su Medium, che esplora la posizione di Geoffrey Hinton riguardo al deep learning e alle possibili implicazioni della sua applicazione.
Nel suo articolo, Dans analizza l’importanza di comprendere e regolamentare adeguatamente la tecnologia, sottolineando la necessità di evitare usi impropri e concentrazioni di potere nelle mani di poche aziende. Attraverso questa rielaborazione, cerchiamo di fornire una panoramica più ampia e dettagliata della posizione di Hinton e delle considerazioni di Dans sull’argomento.
Cerchiamo di essere chiari su ciò che Geoffrey Hinton sta dicendo sul deep learning: una riscrittura completa
Geoffrey Hinton, a volte definito il padrino dell’intelligenza artificiale per il suo lavoro nel campo del deep learning, ha recentemente lasciato Google dopo dieci anni. La sua partenza ha alimentato una campagna, sostenuta anche da una lettera aperta di un gruppo di ricercatori circa un mese fa, che critica l’uso degli algoritmi di apprendimento automatico, ritenuti una minaccia per l’umanità. Tuttavia, è importante comprendere la posizione di Hinton in modo completo e non riassuntivo.
Hinton ha affermato che le tecnologie non possono essere disinventate e che se c’è un vantaggio nell’usarle, saranno usate. Tuttavia, è essenziale regolamentare e comprendere una tecnologia prima di adottarla. Hinton stesso ha chiarito, tramite Twitter, che la sua decisione di lasciare Google non era una critica all’azienda. Al contrario, Google è stata responsabile nel gestire la tecnologia del deep learning, evitando di lanciare prodotti basati su LaMDA finché non saranno sottoposti a controlli migliori.
La posizione di Hinton non riguarda un problema intrinseco alla tecnologia, ma piuttosto il modo in cui viene utilizzata. L’apprendimento automatico può portare a un’automazione molto avanzata, ben oltre le attività meramente ripetitive. Tuttavia, questo ha portato alcuni a confondere l’apprendimento automatico con il pensiero umano, antropomorfizzandolo.
In realtà, sia il pensiero umano che l’apprendimento automatico si basano sull’acquisizione e l’analisi dei dati. Le macchine possono apprendere modelli da grandi quantità di dati utilizzando algoritmi statistici avanzati. Questo ha portato all’automazione di molti lavori, rendendo obsoleti alcuni ruoli umani.
Il problema principale si è verificato quando OpenAI ha lanciato ChatGPT, utilizzando un approccio tipico della Silicon Valley: lanciare un prodotto e poi risolvere i problemi successivamente. Questo modello, con miliardi di parametri, è in grado di gestire il linguaggio umano e comprendere la struttura delle domande. Tuttavia, rispondere a una domanda non significa che la risposta sia corretta; il modello può fare previsioni errate basate su relazioni inesistenti.
Hinton sottolinea che l’intelligenza artificiale non è realmente intelligente né artificiale; si tratta semplicemente di ricombinazioni statistiche dei dati. La tecnologia viene spesso mitizzata, considerata “magica” quando le sue possibilità ci sopraffanno.
La preoccupazione di Hinton riguarda l’uso improprio della tecnologia, spinto dalla concorrenza commerciale. È fondamentale evitare che poche aziende controllino la tecnologia e impedire alle organizzazioni di utilizzarla in modo scorretto. La regolamentazione dovrebbe concentrarsi su ciò che la tecnologia può fare, prevenendo abusi impropri e concentrazioni di potere nelle mani di poche aziende.
L’uso di algoritmi per migliorare l’assistenza sanitaria, ad esempio, ha un enorme potenziale. Tuttavia, applicare la stessa tecnologia per controllare armi di precisione o per creare pubblicità sensazionalistiche personalizzate dovrebbe essere proibito. Stabilire tali confini non è così difficile; è solo questione di prevedere con una certa visione i possibili effetti futuri delle tecnologie.
Possiamo imparare dalle lezioni del passato, come lo sviluppo di Internet. Anche se Internet ha portato a progressi straordinari, il suo uso da parte di poche aziende per violare la privacy degli utenti e per diffondere pubblicità invasiva ha avuto conseguenze negative. Proteggere la privacy, creare algoritmi non discriminatori, prevenire comportamenti monopolistici, combattere frodi e disinformazione e promuovere l’innovazione sono tutte azioni che possono essere intraprese per garantire un futuro migliore.
In conclusione, Geoffrey Hinton non sta demonizzando la tecnologia del deep learning, ma mette in guardia sulla necessità di controllare come viene utilizzata. È importante non confondere la sua posizione con un attacco alla tecnologia stessa, ma piuttosto come un richiamo all’attenzione sulle possibili conseguenze del suo uso irresponsabile. Hinton sostiene che dobbiamo regolamentare e comprendere la tecnologia, concentrarci sulle sue applicazioni e garantire che sia utilizzata per il bene di tutti, invece di essere concentrata nelle mani di poche aziende potenti.