Come GPT-3 di OpenAI può essere allarmante per la società

“GPT-3 ha il potenziale per far progredire le applicazioni benefiche e dannose dei modelli linguistici.” – Ricercatori OpenAI

Il lancio del modello avanzato di linguaggio AI di OpenAI , la terza generazione di Transformative Pre-training Transformer – GPT-3 – è stato uno dei punti salienti del settore. Il modello non solo è stato il più grande di tutti, essendo stato addestrato su 175 miliardi di parametri, ma ha anche mostrato l’impressionante capacità di superare modelli all’avanguardia per la previsione e la traduzione del testo.

Detto questo, tali progressi nel modello linguistico possono avere un profondo impatto sul futuro in cui ogni materiale scritto disponibile sarà generato dai computer. E quel che è peggio, questi testi di alta qualità generati dal modello sono in gran parte non rilevabili dai lettori. Pertanto, è diventato controverso, in cui gli autori dell’articolo GPT-3 hanno avvertito gli utenti del suo uso dannoso di spam, fasatura e comportamenti fraudolenti come falsi profondi.

Oltre a ciò, il modello mostrava anche alcuni pregiudizi algoritmici , in cui il testo generato per la religione dell’Islam includeva parole più violente di altre.

In effetti, in un recente tweet, Sam Altman, il fondatore di Open AI, ha affermato che il modello linguistico GPT-3 può essere un po ‘hype e deve ancora lavorare sui suoi limiti per ridurre il suo potenziale abuso.

GPT-3 può porre minacce alla disinformazione
Oltre a consumare un’enorme quantità di energia e ad avere un impatto sull’ambiente, GPT-3 presenta anche altre sfide. Con GPT-3 che analizza l’intero archivio Internet per generare testi, può rappresentare una grave minaccia per la disinformazione, dove può essere utilizzato da cattivi attori per creare una quantità infinita di notizie false, diffondere disinformazione tra COVID ed eseguire truffe di phishing. Ciò potrebbe essere facilmente attribuito alla capacità di generazione di testi di alta qualità che racchiude GPT-3, rendendo i testi convincentemente simili all’uomo.

Le notizie false sono davvero una grande preoccupazione per l’industria e, con l’attuale epidemia di pandemia, questo testo simile all’uomo che genera intelligenza artificiale può portare potenziali rischi di diffusione di informazioni errate e di creare panico. In effetti, il rilascio di GPA di seconda generazione di OpenAI dell’anno scorso , che è stato addestrato su 8 milioni di pagine Internet, aveva già citato i timori del suo potenziale uso improprio. Le preoccupazioni erano tali che la società inizialmente rifiutò di rilasciare il modello al pubblico. Ora, la versione più recente, che è 100 volte più potente dell’ultimo modello ha più prospettive di essere utilizzata per scopi nefasti.

Caso in questione – in un recente tweet, un appassionato di ML Mario Klingemann, ha condiviso l’articolo di lunga durata – “L’importanza di essere su Twitter”, scritto da GPT-3. I paragrafi coerenti del testo lo rendono quasi indistinguibile dai testi sintetici.

In un’altra notizia, Manuel Araoz , il fondatore e consulente di OpenZeppelin ha anche scritto un intero articolo da zero usando GPT-3 su un cosiddetto esperimento, usando un prompt di base come linea guida. Secondo Araoz, il modello è stato alimentato con un breve riassunto insieme al titolo e ad alcuni tag per generare un testo quasi perfetto.

Tali esempi mostrerebbero davvero come GPT-3 abbia capacità sorprendenti per eseguire compiti assegnati, rendendolo un modello linguistico all’avanguardia. Tuttavia, una tale quantità di capacità ha anche reso uno strumento preferito per i malfattori per diffondere informazioni illegali. Quindi, solleciterebbe i lettori a essere al limite durante la lettura di articoli di notizie in futuro.

GPT-3 può influire sui lavori
Con i notevoli miglioramenti rispetto a GPT-2, il modello di terza generazione raggiunge prestazioni elevate su molti set di dati NLP e offre risultati accurati in attività come la traduzione, la generazione di paragrafi, la risposta a domande specifiche e parole decodificanti, rendendo estremamente difficile la distinzione dai materiali prodotto dall’uomo. Questo, a sua volta, può rendere obsoleti molti lavori, tra cui giornalisti, scrittori, sceneggiatori, solo per citarne alcuni.

Può esserci una legge di Moore per gli algoritmi? OpenAI dice Sì!
Inoltre, la versione beta dell’API di OpenAI ha sfidato i ruoli degli sviluppatori. Ad esempio, nelle ultime notizie, il fondatore di debuild.co, una startup che aiuta gli sviluppatori a creare app, Sharif Shameem, ha dichiarato come l’azienda ha sfruttato GPT-3 per scrivere codici.

Secondo Shameem, il modello GPT-3 richiedeva solo due campioni scritti per eseguire accuratamente il resto dell’attività, nonostante non fosse stato addestrato a produrre codice. Tale democratizzazione dello sviluppo di app potrebbe, a sua volta, preoccupare molti sviluppatori e le loro competenze avanzate.

Detto questo, molti credono anche che invece di sostituire gli umani, GPT-3 potrebbe diventare l’aiuto perfetto per gli umani in queste professioni. Ad esempio, Shameem ha spiegato ai media che, in futuro, i medici potranno “semplicemente chiedere a GPT-3 la causa di un certo insieme di sintomi del paziente per dare una risposta ragionevole. Tuttavia, aggiunge inoltre che è ancora nella sua fase nascente per comprendere le sue implicazioni complete su tutti i settori.

Pertanto, man mano che il modello matura con la sua naturale generazione di testo, in un modo o nell’altro, avrà un impatto sui lavori umani.
Con la minaccia di creare notizie false e il suo impatto sui lavori umani, il re dei modelli di intelligenza artificiale – GPT-3 è ancora ritenuto non pronto per l’uso di massa. Tuttavia, i suoi miglioramenti avanzati nell’esecuzione di molte attività hanno da tempo messo in ombra i suoi limiti e quindi, per ottenere i migliori risultati, la società dovrebbe realizzare il suo inganno e apportare i miglioramenti necessari. Indipendentemente – e nel bene o nel male – GPT-3 sta portando in futuro che tutti stavamo aspettando.

Di ihal