Ogni volta che emerge una nuova tecnologia, ci sono sempre persone che inondano amore, ci sono odiatori e ci sono “esperti”. Nel 2010, quando i big data sono diventati una cosa, è stata la parola d’ordine che ha ricevuto un valido scetticismo ma, allo stesso tempo, un non valido cinismo. 

Disegnando somiglianze, Vin Vashishta , fondatore di V Squared, che ospita anche lezioni di scienza dei dati sul suo canale e sito Web YouTube , ha recentemente pubblicato su LinkedIn gli imitatori, i venditori di olio di serpente e i profeti di sventura del campo della scienza dei dati, che stanno solo cercando di fare guadagni veloci copiando i veri leader, affermando falsamente l’uso dell’IA o minimizzando l’importanza del campo e definendolo fraudolento. 

“Se prendono il sopravvento, la scienza dei dati sperimenterà ciò che gli NFT e le criptovalute hanno fatto l’anno scorso. Quello che succede dopo dipende da noi “, ha detto Vashishta, sottolineando che diventa fondamentale richiamare gli imitatori, sottolineare l’olio di serpente e negare i profeti di sventura.


 
La perfetta analogia di Vashishta spiega molto anche sulla recente ascesa dei cloni di ChatGPT. Sebbene ChatGPT sia pubblicamente disponibile per l’uso e la conversazione, non è open-source da OpenAI. Il modello GPT-3.5, su cui è addestrata l’intelligenza artificiale conversazionale, è disponibile per gli sviluppatori per creare i propri chatbot ma non qualcosa di simile a ChatGPT. 

Anche allora, molti sviluppatori hanno trovato il modo di utilizzare ChatGPT nelle loro barre dei menu o derivare tecniche per costruirlo come uno strumento di assistente AI su Whatsapp. Ma era solo un espediente poiché lo sviluppatore, Daniel Gross , anche co-fondatore di “Cue”, utilizzava la libreria GoLang per accedere a Whatsapp sul suo telefono ed eseguiva ChatGPT sul suo browser. 

 

L’elenco degli imitatori continua con l’influencer tecnologico Varun Mayya , che pubblica “God In A Box”, affermando di eseguire ChatGPT su Whatsapp. La verità è che ha creato un chatbot per Whatsapp utilizzando GPT-3.5, la stessa API utilizzata per creare ChatGPT. Qualsiasi prodotto che utilizza l’architettura offerta da OpenAI non significa che sia effettivamente ChatGPT, un prodotto sviluppato da OpenAI.

Per quanto bizzarro, Mayya addebita persino una commissione di $ 9 al mese per eseguire il suo programma su Whatsapp. Ma quando fai domande simili a entrambi i chatbot, i risultati sono diversi e la “versione” di Whatsapp non è all’altezza in vari termini.

Di recente, anche un’altra app impostore di ChatGPT, chiamata ” ChatGPT Chat GPT AI With GPT-3 “, che in qualche modo sembrava un vero affare per molti utenti Apple, ha guadagnato molta popolarità. Attualmente è la seconda app di produttività più popolare su AppStore e addebita anche un abbonamento settimanale di $ 7,99 o annuale di $ 49,99.

Leggi: Attenzione ai cloni di ChatGPT

Venditori di olio di serpente
Usare ChatGPT o implementare l’architettura offerta da OpenAI per creare i propri prodotti è una cosa, ma affermare di essere un esperto in questo è un’altra. C’è stato un aumento di persone, persino professori, amministratori delegati e consulenti, che affermano di essere “consulenti ChatGPT” e lo inseriscono persino nei loro profili LinkedIn. 

Questi esperti in poltrona del prodotto affermano di “sfruttare la potenza della PNL e dell’intelligenza artificiale per potenziare le operazioni delle aziende e fornire soluzioni personalizzate per automatizzare i processi”. Anche l’analogia del venditore di olio di serpente si adatta perfettamente qui con le persone che affermano di utilizzare ChatGPT per risolvere problemi aziendali e integrarlo nei loro siti web.

Non è tutto, “Fiverr”, il mercato online per le persone da assumere e cercare lavori freelance, restituisce anche i risultati dei “servizi ChatGPT”. I lavoratori freelance qui pubblicano i loro annunci pubblicizzandosi per essere esperti di GPT-3, ChatGPT, Jasper e quant’altro. Mentre alcuni di questi fanno grandi affermazioni come il collegamento di GPT-3 al sito Web del cliente, altri chiedono denaro per “aprire un account” su ChatGPT.


Doomsayers
Colpire e vietare ChatGPT adducendo motivi etici è un’altra nuova tendenza. Di recente, scuole, università e comitati educativi hanno espresso apprensione nei confronti dell’utilizzo di questa tecnologia per gli esami. Ciò avviene sullo sfondo della piattaforma degli sviluppatori Stack Overflow che vieta l’uso di chatbot poiché hanno prodotto risultati imprecisi. 

Ragioni etiche a parte, i profeti di sventura dell’IA, che a quanto pare sono esperti, esprimono profonda ostilità nei confronti di artisti del calibro di ChatGPT e altre innovazioni dell’IA. L’incredibile tendenza degli esperti loschi di ChatGPT e AI spiega in qualche modo cosa intendono i veri esperti come Yann LeCun quando li chiamano. Quando si è verificato il famigerato caso di chiusura del Galactica, le persone hanno iniziato a chiedersi se questo è il destino dei grandi modelli linguistici che producono risultati allucinanti e imprecisi. 

LeCun spiega che è proprio questo il motivo per cui aziende come G oogle e Meta sono riluttanti a rendere i loro prodotti disponibili al pubblico. Gli scettici dell’IA evidenziano un problema con i modelli e lo estendono al punto da definire l’IA ridondante e fraudolenta. Lo stesso è avvenuto quando uno sviluppatore ha affermato che LaMDA è senziente e l’intera sciarada dell’IA che ha conquistato il mondo e l’IA che è stupida è iniziata, e ora lo stesso è il caso di ChatGPT.

Ma non rilasciare modelli non è una minaccia così grande come l’ascesa di persone fraudolente e fuorvianti sul campo. Vashishta suggerisce che l’obiettivo alla fine dovrebbe essere quello di ridurre al minimo il rumore di questi tre tipi di hypester e concentrarsi sulla promozione di ricercatori credibili e concentrarsi sulla risoluzione dei problemi. “Possiamo eliminare lo spazio per queste persone che minimizzano l’importanza e la crescita del campo”.

ecco il post originale tradotto

ChatGPT e Stable Diffusion hanno riportato futuristi e leader di pensiero (alias AI con artist) alla scienza dei dati. La stessa cosa è successa nel 2010 quando i Big Data sono diventati il vincitore del bingo di parole d’ordine.

Se subentreranno, la scienza dei dati sperimenterà ciò che NFT e crypto hanno fatto l’anno scorso. Quello che succede dopo dipende da noi. Tutti possiamo fare 4 cose:

1️⃣ Chiama i copiatori.
2️⃣ Indica l’olio di serpente.
3️⃣ Nega i profeti di sventura.
4️⃣ Cura e condividi contenuti di esperti.

Dovremmo ascoltare gli esperti del nostro settore. Amplificali e cura i contenuti per i nuovi arrivati nella scienza dei dati. Ho iniziato a farlo nel 2014 e ci è voluto un anno per rendermi conto di quanto fosse utile portare un filtro esperto al tubo antincendio contenuto. Ora possiamo farlo tutti.

Ci sono 3 tipi di ciarlatani che dovremmo emarginare.

🔴 I copycat utilizzeranno i contenuti di altre persone per aumentare la loro reputazione. Cospargeranno ciò che stanno vendendo nel mix; Per molti, sarà impossibile distinguere il vapore dalla realtà.

🔴 I venditori di olio di serpente promuoveranno l’intelligenza artificiale come la cura per tutti i problemi aziendali. Faranno affermazioni fantastiche per aumentare la loro reputazione e vendere biglietti per i loro discorsi o posti nei loro bootcamp.

🔴 I profeti di sventura diranno alla gente che tutto l’apprendimento automatico è vaporware e sviluppo guidato da conferenze. Indicheranno qualsiasi fallimento come prova che l’intero campo è fraudolento.

Se marginalizziamo i 3 hypester, promuoviamo i ricercatori credibili e indichiamo soluzioni del mondo reale, possiamo respingere le persone che cercano di fare soldi veloci.

Hai lavorato per costruire questo campo. Non lasciare che i falsi futuristi e i leader di pensiero te lo prendano.

Vin Vashishta

Di ihal