Sommario: Questo articolo esplora l’impatto del nuovo plug-in dell’interprete di codice di ChatGPT sul campo della scienza dei dati. Mentre questo strumento rivoluzionario può eseguire molte delle operazioni tipiche di un data scientist, come la visualizzazione e l’analisi dei dati, la sua capacità di sostituire completamente il ruolo umano è messa in discussione. Le limitazioni, come “allucinazioni” e problemi con dati complessi, suggeriscono che, per ora, il data scientist rimane una figura chiave nel campo dell’IA.


OpenAI ha recentemente introdotto un nuovo plug-in per il suo modello di lingua avanzato, ChatGPT, che ha causato turbamento tra i data scientist. Questo plug-in, noto come interprete di codice, è capace di eseguire molte delle funzioni tipiche di un data scientist, come analisi dei dati, visualizzazione e manipolazione dei dati. Molti si chiedono se questo strumento potrebbe rendere il ruolo del data scientist obsoleto.

Questo interprete di codice è un ambiente sandbox sicuro per eseguire il codice Python. È stato progettato per eseguire solo per la durata della sessione di chat e i dati vengono cancellati una volta terminata la conversazione. Questo plug-in è stato paragonato a un “programmatore junior molto desideroso che lavora alla velocità delle tue impronte digitali”. Può risolvere problemi matematici, convertire file tra formati diversi e condurre analisi e visualizzazioni dei dati.

Finora, gli utenti hanno utilizzato il plug-in per analizzare vari set di dati, dai programmi di Netflix ai dati sulla criminalità di San Francisco. L’interprete di codice è stato in grado di identificare le tendenze, pulire i dati e generare approfondimenti. Ha anche creato visualizzazioni per questi approfondimenti, rendendo i dati facilmente comprensibili.

Tuttavia, nonostante le sue impressionanti capacità, il plug-in dell’interprete di codice ha le sue limitazioni. Mentre può eseguire molte delle funzioni di un data scientist, manca l’abilità umana di narrare attraverso i dati e scoprire intuizioni nascoste. Inoltre, il plug-in è soggetto a quello che viene chiamato “allucinazioni”, che possono portare a errori o inesattezze.

Queste “allucinazioni” sono problemi che emergono quando il modello, basato su un modello di apprendimento di linguaggio a macchina (LLM), produce output inesatti o fuorvianti. Questo può essere particolarmente problematico nelle visualizzazioni dei dati, dove piccoli errori possono portare a interpretazioni errate. Ci sono anche problemi con la “contaminazione dei dati” nel set di dati di ChatGPT, che può influire sulla sua capacità di fornire risultati accurati.

Inoltre, sebbene il plug-in possa gestire compiti di visualizzazione semplici, come la creazione di un grafico da un file CSV, potrebbe non essere in grado di gestire compiti di visualizzazione più complessi che un data scientist in un’organizzazione potrebbe affrontare.

 
In sintesi, mentre l’interprete di codice di ChatGPT può automatizzare e velocizzare molti compiti tipici di un data scientist, non è ancora in grado di sostituire completamente il ruolo umano. Le limitazioni, tra cui le “allucinazioni” del modello e le sfide nel gestire dati o problemi di visualizzazione più complessi, dimostrano che la presenza umana rimane indispensabile nel campo della scienza dei dati.

Tuttavia, l’interprete di codice può servire come un potente strumento di assistenza per i data scientist e come un “analista di dati personale” per coloro che non sono esperti nel campo. Ciò potrebbe permettere a più persone di trarre valore dai dati e di trarre intuizioni significative, indipendentemente dalle loro competenze tecniche.

In definitiva, l’arrivo dell’interprete di codice non segna la fine del data scientist, ma piuttosto un’evoluzione del campo in cui l’intelligenza artificiale e l’ingegno umano lavorano insieme per ottenere una maggiore comprensione dei dati.

Di ihal