Quando si parla di intelligenza artificiale generativa e modelli di linguaggio di grandi dimensioni, come ChatGPT, l’entusiasmo per l’IA può mescolarsi con la paura dell’ignoto. Questa è una reazione naturale del grande pubblico: le cose nuove ed eccitanti sono affascinanti, ma possono anche spaventare. Tuttavia, non solo il pubblico generale, ma anche alcuni scienziati sono diventati tecnofobi, o almeno tecno-scettici. Ad esempio, ci sono scienziati e industriali che chiedono un divieto temporaneo sulla ricerca sull’IA e il massimo scienziato dell’IA, il prof. A. Hinton, è scettico riguardo a molti aspetti dell’IA.
Nonostante queste preoccupazioni, penso che la ricerca sull’IA non debba fermarsi. Infatti, credo che l’IA sia la risposta dell’umanità alla crescente complessità fisica e sociale del nostro mondo. Se vogliamo una transizione graduale dalla società dell’informazione a una società della conoscenza, dobbiamo sviluppare l’IA e adottarla in modo etico e regolamentato.
Tuttavia, dobbiamo anche essere consapevoli dei pericoli che l’IA può rappresentare. Ad esempio, c’è il rischio che i cattivi possano creare “bombe AI”, soprattutto se gli stati non regolamentano l’uso dell’IA. Inoltre, la tecnologia potrebbe essere usata per manipolare a distanza cittadini che hanno una scarsa istruzione e/o capacità investigativa, minando la democrazia e il progresso socio-economico.
Per affrontare queste preoccupazioni, la ricerca sull’IA deve diventare più aperta, democratica, scientifica ed etica. Ecco alcuni punti che potrebbero essere adottati:
- Parlamenti e governi eletti dovrebbero avere la prima parola su importanti questioni di ricerca sull’IA che hanno un impatto sociale di vasta portata, piuttosto che singoli scienziati o società.
- Dovremmo concentrarci sugli aspetti positivi dell’IA e minimizzare quelli negativi.
- L’uso dell’IA dovrebbe essere regolamentato per massimizzarne gli aspetti positivi e minimizzare quelli negativi.
- Dovremmo contrastare la minaccia proveniente dall’uso di Large Language Models e/o Computer-Generated Articles in attività illegali.
- L’equilibrio della ricerca sull’IA tra mondo accademico e industria dovrebbe essere ripensato per massimizzare i risultati della ricerca, mantenendo al tempo stesso la competitività.
- Le pratiche educative dovrebbero essere riviste a tutti i livelli di istruzione per massimizzare i benefici delle tecnologie di intelligenza artificiale, creando al tempo stesso una nuova generazione di cittadini creativi e adattabili e scienziati dell’AI.
Inoltre, per massimizzare i benefici della ricerca sull’IA, dovremmo considerare l’apertura delle tecnologie chiave avanzate dei sistemi di IA, democratizzare i dati relativi all’IA e prevedere adeguati regimi di compensazione finanziaria per i campioni della tecnologia dell’IA, in modo da garantire forti investimenti futuri nella ricerca e sviluppo dell’IA.
Infine, dovrebbero essere creati e rafforzati adeguati meccanismi di regolamentazione/supervisione/finanziamento dell’IA per garantire che l’IA venga utilizzata in modo etico e responsabile. In questo modo, potremo massimizzare i benefici della tecnologia dell’IA, senza trascurare i rischi e i pericoli ad essa associati.
In sintesi, l’IA è una tecnologia promettente e può offrire grandi vantaggi alla nostra società, ma dobbiamo adottarla in modo regolamentato, etico e responsabile. Dobbiamo essere consapevoli dei rischi e dei pericoli associati all’IA e adottare misure per minimizzarli. Solo in questo modo potremo massimizzare i benefici della tecnologia dell’IA e garantire un futuro migliore per tutti.