Andrew Ng, il fondatore di DeepLearning.AI, ha recentemente evidenziato il problema che l’intelligenza artificiale ha con Instagram. Questo problema persuasivo, noto come “sindrome dell’oggetto luccicante”, è comune nel settore tecnologico, poiché gli sviluppatori sono facilmente distratti da nuove tecnologie, strumenti o tendenze che sembrano promettenti ma potrebbero non essere essenziali per il loro lavoro.
Ng ha affrontato il problema delle persone che dubitano del valore del loro lavoro e invece giudicano i loro progetti in base agli standard perfetti fissati dai media. Ha raccontato la sua esperienza personale di alcuni anni fa, quando l’apprendimento per rinforzo (RL) stava facendo progressi nei giochi Atari, AlphaGo era nei titoli dei giornali e i video RL che utilizzavano OpenAI Gym circolavano sui social media. Ng era ancora concentrato sull’apprendimento supervisionato, ma si chiedeva se stesse perdendo qualcosa.
Mentre l’intelligenza artificiale continua a evolversi, nuove idee come “l’intelligenza artificiale quantistica, l’apprendimento auto-supervisionato, i trasformatori, i modelli di diffusione, i modelli di linguaggi di grandi dimensioni e così via” stanno catturando l’attenzione. Alcune di queste nuove tecnologie hanno già avuto un impatto significativo, mentre altre potrebbero non risultare altrettanto utili. Ng ritiene che i modelli di linguaggio di grandi dimensioni (LLM), come ChatGPT (e, in misura significativa ma minore, i modelli di diffusione, noti per la generazione di immagini), avranno un impatto trasformativo sull’intelligenza artificiale, ma sottolinea che ci saranno molte altre tecnologie importanti nel futuro.
Yann LeCun, un noto guru dell’apprendimento auto-supervisionato, ha affermato la stessa cosa da tempo. Tuttavia, con la grande attenzione che ChatGPT sta ricevendo su Internet, LeCun ha recentemente dichiarato in un’intervista AIM che non pensa che i sistemi attuali di questo tipo funzionino come ci aspettiamo. Secondo LeCun, questi sistemi sono divertenti ma non molto utili, a meno che non siano utilizzati per risolvere problemi reali per le persone.