Quando ci confrontiamo con i titani tecnologici, l’idea di un impegno genuino verso la creazione responsabile di intelligenza artificiale sembra quasi un’illusione. Sia Google che Amazon hanno cercato di annientare i sindacati, Meta è stato al centro dello scandalo Cambridge Analytica, e sia Microsoft che OpenAI sono stati accusati di violare i diritti d’autore. E questo è solo l’inizio: dimostra che non possiamo fare affidamento su promesse superficiali per migliorare la situazione.
Molti studiosi sono preoccupati per le problematiche legate all’intelligenza artificiale. Il filosofo svedese Nick Bostrom si interroga su come assicurarci che i sistemi di IA avanzata agiscano secondo le intenzioni dei loro creatori. Ha approfondito questi temi nel suo libro “Super Intelligence”, sollevando interrogativi essenziali.
Ricordiamoci dell’incidente in cui un algoritmo di Google, dopo essere stato addestrato su milioni di immagini, ha erroneamente etichettato individui di colore come “Gorilla”. Perché queste problematiche persistono nonostante le promesse delle grandi aziende di migliorare?
Secondo Irene Solaiman di Hugging Face, una sfida principale è la mancanza di accordo su cosa significhi veramente “allineamento dei valori”. Ha evidenziato che molte decisioni sono prese da sviluppatori che non rappresentano adeguatamente la diversità della società.
L’ultimo studio sull’IA sottolinea una carenza di esperti che lavorano per evitare errori e pregiudizi nei modelli. La maggior parte delle organizzazioni leader ha piccoli team dedicati a questo compito.
Google DeepMind, ad esempio, ha un team dedicato di 40 persone, mentre OpenAI ne ha solo 11 e Anthropic 10. OpenAI ha anche lanciato un’iniziativa specifica per affrontare i “rischi catastrofici” associati all’IA.
Il professor Olle Haggstrom ha messo in guardia sulle precipitose innovazioni nel campo dell’IA, sottolineando che i rischi di domani si manifestano oggi. Nel dibattito sull’IA, è essenziale che gli esperti che si focalizzano sui rischi immediati e quelli preoccupati per i rischi futuri collaborino strettamente.
DeepMind si è sempre impegnata per modelli di IA sicuri, ma Google sembra avere altre priorità. Nonostante le enormi entrate, Google ha stanziato una frazione minima dei suoi guadagni per la ricerca sull’IA responsabile.
In conclusione, pur proclamandosi “responsabili”, molte grandi aziende tecnologiche sembrano adottare questo mantra più come una strategia di PR che come un vero impegno etico. Gli atti parlano più delle parole, e le azioni di giganti come Google e OpenAI suggeriscono una priorità maggiore verso il profitto rispetto all’etica.