Elon Musk ha recentemente sollevato un dibattito acceso sull’affidabilità dei dati utilizzati per addestrare le intelligenze artificiali generative. In un post su X (ex Twitter), ha dichiarato che i modelli attuali sono alimentati da “dati spazzatura” e ha annunciato l’intenzione di utilizzare il suo chatbot Grok 3.5 per “riscrivere l’intero corpus della conoscenza umana”, correggendo errori e aggiungendo informazioni mancanti.

Secondo Musk, i dati su cui sono addestrate le intelligenze artificiali generative provengono principalmente da contenuti online, inclusi i post su X. Tuttavia, questi dati contengono numerosi errori e imprecisioni, rendendoli inadatti per l’addestramento di modelli avanzati. Musk non ha specificato quali siano questi errori, ma ha sottolineato la necessità di una revisione completa delle informazioni disponibili.

Per affrontare questa sfida, Musk propone di utilizzare Grok 3.5, un modello avanzato di intelligenza artificiale sviluppato dalla sua azienda xAI, per rielaborare e correggere l’intero corpus della conoscenza umana. L’obiettivo è creare un database più accurato e affidabile, che possa poi essere utilizzato per addestrare modelli futuri, eliminando così gli errori presenti nei dati originali.

Questa proposta solleva interrogativi etici e filosofici significativi. Chi avrà il controllo su questa “riscrittura” della conoscenza umana? E come verranno gestiti i bias e le interpretazioni soggettive durante il processo di correzione? Musk stesso riconosce la complessità di tale impresa, ma ritiene che sia necessaria per evitare che i modelli di intelligenza artificiale perpetuino errori e imprecisioni.

Di Fantasy