Le intelligenze artificiali che si fingono essere umane stanno avendo un impatto negativo su ciò che cerchiamo, leggiamo e condividiamo online. Sia che si tratti di foto su Instagram, conversazioni con chatbot come Bing o e-mail, tutte queste interazioni generano un vasto quantitativo di dati personali per le grandi aziende tech. Nonostante la Silicon Valley si alimenti di questi dati del pubblico, l’attenzione è stata recentemente concentrata su OpenAI, soprattutto a causa della sua segretezza.
All’inizio di quest’anno, il laboratorio di ricerca sull’intelligenza artificiale con sede in California ha pubblicato un rapporto tecnico di 98 pagine su GPT-4 che è stato ritenuto poco trasparente e privo di apertura. L’azienda, guidata da Sam Altman, non ha fornito dettagli sull’architettura del modello, la sua dimensione, l’hardware utilizzato, la dimensione del dataset o il metodo di addestramento. Questo ha reso GPT-4 la versione più segreta finora.
Emily M. Bender, docente di linguistica all’Università di Washington, ha commentato su Twitter che questa mancanza di trasparenza non le ha sorpreso affatto. Ha scritto: “Stanno evitando deliberatamente le strategie di mitigazione del rischio, mentre dichiarano di lavorare per il bene dell’umanità”.
Questo segreto ha creato difficoltà per coloro il cui lavoro potrebbe essere influenzato da GPT-4 e ha reso estremamente complesso difendere la proprietà intellettuale e i diritti d’autore in tribunale, dando a OpenAI un vantaggio legale ingiusto.
Questo documento ha suscitato una forte reazione negativa, con l’accusa che OpenAI stesse mantenendo questa segretezza per mantenere la sua posizione dominante nel mercato. In realtà, questa critica si estende a tutte le aziende che sviluppano intelligenze artificiali per emulare l’operato umano. Spesso abbiamo dato per scontato le loro affermazioni, con conseguenze negative per la privacy.
Nonostante alcune iniziali difficoltà, OpenAI è riuscita a evitare l’emarginazione in Italia attraverso restrizioni limitate. Anche Google Smart Compose, che si basa sui dati Gmail dei suoi utenti, è disattivato per impostazione predefinita per conformarsi alle leggi dell’Unione Europea. Le grandi aziende tech affrontano spesso dispute legali, ma alla fine riescono a evitarle con multe, scappatoie legali o aggiustamenti delle politiche aziendali.
Negli ultimi dieci anni, aziende come Google, Apple, Meta (ex Facebook) e Amazon hanno ricevuto sanzioni totali per oltre 30 miliardi di dollari. Queste multe non sono solo un “costo del fare affari”, come ha dichiarato la presidente dell’autorità francese garante della concorrenza, Isabelle da Silva, ma servono a identificare le cattive pratiche delle aziende.
Un recente articolo del Washington Post solleva una domanda cruciale: “Quali dati possono essere raccolti e quali no?”. L’indagine esamina come le aziende della Silicon Valley utilizzino i dati degli utenti, e purtroppo ciò offre poche opzioni per gli individui. Gran parte della soluzione giace nelle azioni legali, nelle indagini e, speriamo, nella creazione di nuove leggi. Nel frattempo, le grandi aziende tech stanno stabilendo le proprie regole.
Il dibattito sulla raccolta di dati massicci da parte delle aziende tech è in corso da tempo, ma la loro riluttanza a rinunciare a queste pratiche ha suscitato crescente indignazione, portando infine all’intervento delle autorità.
Mozilla ha lanciato una campagna per chiedere maggiori chiarimenti da parte delle grandi aziende tech. Hanno sottolineato quanto sia difficile per gli esperti in materia di privacy comprendere come Microsoft gestisca i dati degli utenti, portando a una maggiore necessità di trasparenza.
Un anno fa, la Federal Trade Commission (FTC) ha annunciato un’iniziativa per regolamentare ciò che definisce “sorveglianza commerciale dannosa”, ossia la raccolta, l’analisi e il profitto dalle informazioni personali delle persone. Tuttavia, non sono stati fatti progressi significativi da allora.
Le aziende tech si trovano su una linea sottile tra il miglioramento dei prodotti e il furto di dati. Inoltre, stanno affrontando crescenti critiche da esperti etici in tutto il mondo.
Nonostante OpenAI sia nata come un’organizzazione no-profit, è diventata parte del mondo delle aziende tech in cerca di profitto nella Bay Area. Anche il suo assistente ChatGPT ha attirato critiche da parte di artisti e autori, portando a dispute legali. Tuttavia, la politica di segretezza di OpenAI gli ha conferito un vantaggio. In modo ironico, Jack Clark, ex direttore politico di OpenAI, ha sottolineato l’importanza di affrontare i rischi dell’intelligenza artificiale anziché ignorarli, quando GPT-2 è stato rilasciato nel 2019.