Uno studente universitario ha utilizzato GPT-3 per scrivere post falsi sul blog ed è finito in cima a Hacker News
Dice che voleva dimostrare che l’IA poteva passare per uno scrittore umano
Lo studente universitario Liam Porr ha utilizzato lo strumento di intelligenza artificiale per la generazione di linguaggio GPT-3 per produrre un falso post sul blog che è recentemente arrivato al primo posto su Hacker News, secondo quanto riportato dal MIT Technology Review . Porr stava cercando di dimostrare che il contenuto prodotto da GPT-3 poteva ingannare le persone facendogli credere che fosse stato scritto da un essere umano. E, ha detto al MIT Technology Review , “è stato semplicissimo, in realtà, che è stata la parte spaventosa”.
Quindi, per preparare il terreno nel caso in cui non hai familiarità con GPT-3: è l’ultima versione di una serie di strumenti di completamento automatico AI progettati da OpenAI con sede a San Francisco ed è in sviluppo da diversi anni. Nella sua forma più elementare, GPT-3 (che sta per “trasformatore generativo pre-addestrato”) completa automaticamente il testo in base ai suggerimenti di uno scrittore umano.
Il mio collega James Vincent spiega come funziona :
Come tutti i sistemi di deep learning, GPT-3 cerca modelli nei dati. Per semplificare le cose, il programma è stato addestrato su un enorme corpus di testo che è stato estratto per regolarità statistiche. Queste regolarità sono sconosciute agli esseri umani, ma sono memorizzate come miliardi di connessioni pesate tra i diversi nodi nella rete neurale di GPT-3. È importante sottolineare che non c’è alcun input umano coinvolto in questo processo: il programma cerca e trova schemi senza alcuna guida, che poi utilizza per completare i prompt di testo. Se inserisci la parola “fuoco” in GPT-3, il programma sa, in base ai pesi nella sua rete, che è molto più probabile che le parole “camion” e “allarme” seguano di “lucido” o “elfico”. Fin qui tutto semplice.
Ecco un esempio dal post del blog di Porr (con un autore pseudonimo), intitolato “ Ti senti improduttivo? Forse dovresti smetterla di pensare troppo “.
Definizione # 2: Over-Thinking (OT) è l’atto di cercare di elaborare idee che sono già state pensate da qualcun altro. OT di solito si traduce in idee che sono poco pratiche, impossibili o addirittura stupide.
Sì, mi piacerebbe anche pensare che sarei in grado di scoprire che questo non è stato scritto da un essere umano, ma ci sono molti scritti non eccezionali su queste Internet qui, quindi immagino sia possibile che questo possa passare come “contenuto marketing “o altri contenuti.
OpenAI ha deciso di dare accesso all’API di GPT-3 ai ricercatori in una beta privata, piuttosto che rilasciarla in un primo momento. Porr, che è uno studente di informatica presso l’Università della California, Berkeley, è riuscito a trovare uno studente di dottorato che aveva già accesso all’API, che ha accettato di lavorare con lui all’esperimento. Porr ha scritto uno script che ha dato a GPT-3 un titolo e un’introduzione sul blog. Ha generato alcune versioni del post e Porr ne ha scelta una per il blog, copiata dalla versione di GPT-3 con pochissime modifiche.
Il post è diventato virale nel giro di poche ore, ha detto Porr, e il blog ha avuto più di 26.000 visitatori. Ha scritto che solo una persona ha contattato per chiedere se il post fosse generato dall’intelligenza artificiale, sebbene diversi commentatori abbiano ipotizzato che l’autore fosse GPT-3. Ma, dice Porr, la comunità ha svalutato questi commenti.
Suggerisce che la “scrittura” di GPT-3 potrebbe sostituire i produttori di contenuti che ah ah queste sono le persone di battute che ovviamente non potrebbero accadere, spero. “Il punto centrale del rilascio di questa versione in beta privata è che la comunità possa mostrare nuovi casi d’uso di OpenAI che dovrebbero incoraggiare o tenere d’occhio”, scrive Porr. E da notare che non ha ancora accesso all’API GPT-3 anche se ne ha fatto richiesta, ammettendo al MIT Technology Review: “È possibile che siano arrabbiati per averlo fatto”.