NewsGPT, il primo sito di notizie generato interamente dall’intelligenza artificiale, ha recentemente suscitato preoccupazione per la sua mancanza di controllo umano e il potenziale per errori e distorsioni. Il CEO di NewsGPT, Alan Levy, ha affermato che il suo obiettivo è quello di eliminare pregiudizi e opinioni personali nella presentazione delle notizie. Tuttavia, l’utilizzo di programmi di intelligenza artificiale come i modelli di linguaggio di grandi dimensioni (LLM) è stato criticato dagli esperti per la loro natura allucinatoria e l’inclinazione politica.
Inoltre, le notizie prodotte da NewsGPT non sono soggette a controlli umani per l’accuratezza fattuale. Questo ha sollevato preoccupazioni sulla loro affidabilità e sulla violazione degli standard etici per la condotta giornalistica. Anche altre case di media hanno utilizzato l’intelligenza artificiale per la produzione di notizie, ma i risultati sono stati spesso imprecisi e distorti.
Tuttavia, l’intelligenza artificiale può essere un utile strumento per i giornalisti, come dimostrato dall’uso di strumenti di intelligenza artificiale come MidJourney e ChatGPT da Analytics India Magazine e The Better India. Ma al momento attuale, l’intelligenza artificiale non è abbastanza sofisticata per sostituire completamente il controllo umano nella produzione di notizie.
L’intelligenza artificiale può essere un ottimo strumento per assistere i giornalisti nella ricerca e nell’analisi dei dati. Tuttavia, l’importanza dell’accuratezza fattuale e dell’etica giornalistica richiede un controllo umano per garantire la qualità delle notizie. Gli esperti di intelligenza artificiale hanno anche sottolineato la necessità di ulteriori progressi nella solidità e veridicità dei modelli di intelligenza artificiale, come i LLM.
Il Press Council of India (PCI) afferma che l’accuratezza e l’equità sono principi fondamentali dell’etica giornalistica. Pertanto, è necessario che i media che utilizzano l’intelligenza artificiale per la produzione di notizie, come NewsGPT, siano soggetti a controlli umani e rispettino gli standard etici.
In definitiva, l’intelligenza artificiale ha il potenziale per essere un’utile risorsa per i giornalisti, ma richiede ulteriori sviluppi tecnologici e il controllo umano per garantire l’accuratezza e l’etica giornalistica. Al momento attuale, l’utilizzo di programmi di intelligenza artificiale per la produzione di notizie è ancora in fase di sviluppo e potrebbe portare a conseguenze catastrofiche se utilizzati senza un controllo adeguato.