Yann LeCun batte GPT-3 – L’hype è reale?
Con il suo enorme ronzio, GPT-3 è un modello di linguaggio che ha creato una divisione tra i leader dell’IA. Mentre alcuni lo considerano un’innovazione rivoluzionaria, ci sono alcuni esperti che sono estremamente preoccupati per il suo immenso potenziale. In aggiunta a ciò, Yann LeCun, VP e Chief AI Scientist di Facebook, ha recentemente rilasciato un’enorme dichiarazione su un post di Facebook che denuncia l’enorme modello linguistico di OpenAI.
Affermando alcune realtà, Yann LeCun ha scritto un breve saggio sulle sue capacità e sull’hype che è stato creato attorno ad esso.
Ha basato le sue argomentazioni su un recente studio esplicativo condotto da Nabla, in cui la società ha ridimensionato alcune delle aspettative significative che le persone hanno costruito attorno a questo enorme modello linguistico . Lo studio ha rilevato che sebbene “… alcuni abbiano affermato che gli algoritmi ora superano i medici in determinati compiti e altri hanno persino annunciato che i robot riceveranno presto diplomi di medicina propri”. Questi sono tutti sogni inverosimili con GPT-3 .
Secondo LeCun, “… provare a costruire macchine intelligenti aumentando i modelli linguistici è come costruire aeroplani ad alta quota per andare sulla luna”. Crede, con ciò, si potrebbero battere i record di altitudine, ma andare sulla luna richiederà un approccio completamente diverso, del tutto.
Il ‘padrino dell’IA’ – Yann LeCun ha, in breve, battuto quelle persone che hanno grandi aspettative da GPT-3 . Ha detto: “Alcune persone hanno aspettative completamente irrealistiche su ciò che possono fare i modelli di linguaggio su larga scala come GPT-3”.
Lui, però, crede che il modello del linguaggio sia divertente e anche creativo ”, non può ancora sostituire gli esseri umani in determinati compiti. La stessa cosa è stata rilevata dal rapporto Nabla , dopo aver testato GPT-3 in una varietà di scenari medici, si è scoperto che “c’è un’enorme differenza tra GPT-3 essere in grado di formare frasi coerenti ed essere effettivamente utile”.
In effetti, Nabla ha notato che in uno dei casi di test, il modello non era in grado di aggiungere una semplice aggiunta del costo degli articoli in una fattura medica. In un altro caso , durante una situazione di chatbot, il GPT-3 ha effettivamente deriso l’utente per uccidersi.