Quando si parla di intelligenza artificiale generativa (GenAI), l’entusiasmo è comprensibile: modelli capaci di generare testo, sintetizzare informazioni, persino scrivere codice su richiesta sembrano spalancare nuove porte nella produttività, nell’innovazione, e nella capacità di sperimentare. E in molti casi questi strumenti fanno già parte del flusso di lavoro quotidiano di chi lavora con i dati. Ma la domanda centrale che emerge da questo dibattito è: quanta parte del lavoro di un data scientist può essere effettivamente compressa in algoritmi generativi? E, soprattutto, può GenAI replicare quel livello di giudizio, nuance, responsabilità che è alla base del pensiero dei data scientist migliori?
Nel pezzo, Aashutosh Nema, lead data scientist presso Dell Technologies, spiega che GenAI è davvero efficace in certi compiti: generare bozze di codice, suggerire idee iniziali per modelli, supportare nella scrittura di script o template, aiutare con operazioni con cui altrimenti si perderebbe parecchio tempo. In queste attività, l’AI lavora come un “assistant veloce” — accelera passaggi ripetitivi, aiuta a considerare varianti che magari non si sarebbero esplorate in autonomia, permette di prototipare più velocemente.
Questa capacità è preziosa: consente a un data scientist di liberare risorse cognitive per concentrarsi sulla parte “più alta” del lavoro, cioè la progettazione, l’interpretazione, la valutazione critica dei risultati. In sostanza: GenAI può essere vista come uno strumento molto raffinato, non (ancora) come un sostituto completo.
Ci sono aree in cui GenAI fatica — o almeno non è ancora matura. Tre aspetti in particolare emergono come critici:
- Giudizio e nuance
Ci sono scelte che richiedono una comprensione sottile del problema: cosa succede se i dati sono parziali, rumorosi, distorti da bias? Qual è il trade-off accettabile tra interpretabilità e performance? Quale implicazione etica può avere una decisione modellabile? Su questi fronti, l’AI tende a operare “di default” — risposte basate sul dato che ha visto nei training, ma senza la vera capacità di anticipare tutti gli effetti collaterali, le conseguenze impreviste. - Domande di responsabilità e accountability
In un progetto di data science, soprattutto su scala aziendale o quando i risultati impattano utenti, clienti o comunità, c’è bisogno di responsabilità: chi firma il modello? Chi risponde se qualcosa va storto? Dieci versioni del modello producono risultati diversi: quale si sceglie, e perché? L’AI non “firma” né è responsabile: è uno strumento, e il confine tra aiuto e delega può diventare sottile e pericoloso. - Capacità di mettere in discussione le proprie ipotesi
I data scientist migliori spesso ottengono insight partendo dal dubbio: “cosa succede se ci sbagliamo?”, “e se il mio modello non sia adatto?”, “e se ci sia un bias sottile che non ho visto?”. Sono domande che richiedono un pensiero critico, una forma di creatività e capacità di assumere prospettive alternative. Secondo l’articolo, GenAI può aiutare a stimolare domande, ma non può auto-generare il dubbio metodologico in modo autentico — almeno, non oggi.
L’immagine che nasce è quella di un’alleanza. Non si tratta di scegliere “o GenAI o il data scientist”, ma di capire come far lavorare insieme l’intelligenza artificiale e l’intelligenza umana in modo che ciascuno faccia ciò che sa fare meglio. L’essere umano può portare il contesto: chi sono gli stakeholder, quali sono gli obiettivi di business, quali limiti etici o legislativi esistono, quali sono le conseguenze sociali.
GenAI può accelerare, prototipare, proporre idee e alternative, alleggerire il carico di lavoro su compiti ripetitivi. Un approccio che sembra emergere è: usare GenAI per “preparare il terreno”, esplorare ipotesi, scrivere prime versioni; ma poi che sia il data scientist a verificare, correggere, riflettere su ciò che l’AI ha prodotto, a validare, contestualizzare.
Se l’aspirazione è che GenAI diventi sempre più capace non solo di codificare, ma di “pensare come un data scientist”, ecco alcune aree in cui l’articolo suggerisce ci sarà da lavorare — e che sono interessanti anche per chi, come te (o come altri professionisti dei dati), guarda avanti:
- Migliore gestione del bias e consapevolezza dei limiti: più che generare risposte convincenti, occorre trasparenza su quanto siano affidabili, su quali dati sono drenate certe conclusioni, su ciò che non si sa.
- Capacità di spiegare non solo il “come” ma il “perché”: non basta che un modello dica “questo è il risultato”, ma che spieghi le decisioni che lo hanno portato a quella conclusione, compresi i trade-off.
- Interazione iterativa più ricca: dove il data scientist possa intervenire, far domande, imporre vincoli, correggere, discutere con l’AI — non solo come utente che dà input “fissi”, ma come interlocutore.
- Addestramento su casi reali, rumorosi, incompleti, ambigui: oggi molti modelli performano bene in ambienti controllati, ma quando si deve operare nella vita reale — dati mancanti, rumorosi, sbilanciati — è molto più difficile.
- Sviluppo di norme etiche, accountability, regolamentazioni: chi definisce la responsabilità quando un modello sbaglia, chi si prende la colpa, chi valuta se l’uso è accettabile? Sono questioni non solo tecniche ma sociali e organizzative.