L’architetto di ChatGpt discute del nuovo progetto di regolamentazione dell’Unione Europea: “Esistono restrizioni tecniche su ciò che è possibile”

Sam Altman, CEO di OpenAI, l’inventore di ChatGPT e fondatore di OpenAI, si è espresso durante un intervento presso l’University College di Londra, parte del suo tour mondiale di conferenze, mercoledì 24 maggio 2023.(Foto AP/Alastair Grant)

Sam Altman ha posto un ultimatum chiaro all’Europa. “Se possiamo adeguarci, lo faremo; se non possiamo, cesseremo le nostre operazioni… Faremo del nostro meglio. Ma esistono limiti tecnici a ciò che è fattibile”.

Il nuovo regolamento Il CEO di OpenAI ha discusso durante un incontro (contestato da alcuni studenti) presso l’University College di Londra nel corso del suo tour attraverso l’Europa. Il tema prevalente è sempre lo stesso, l’AI Act, la regolamentazione (e limitazione) dell’intelligenza artificiale che il Parlamento Europeo voterà tra il 12 e il 15 giugno. Questa normativa non riguarda solo l’Europa. Questa sarà infatti la regolamentazione globale sull’IA, potenzialmente un modello per gli altri paesi, e le aziende stanno iniziando a valutare le implicazioni. Come sta facendo Sam Altman.

Dalla tecnologia di riconoscimento facciale all’IA generativa Le aziende tecnologiche tendono a resistere alle regolamentazioni, considerate spesso “reazionarie”, “obsolete” o semplicemente “superflue” (parole effettivamente usate in passato). In teoria, l’AI Act è stato ideato per limitare il riconoscimento facciale (soprattutto cinese) e altre tecnologie “intrusive” basate sull’intelligenza artificiale. Tuttavia, con la recente diffusione di sistemi IA accessibili a tutti (come Midjourney e ChatGpt di OpenAI, per citarne alcuni), il suo rilievo è aumentato. Questa regolamentazione interviene su un mercato, quello dell’IA generativa, che si stima possa superare i 20 miliardi di dollari in dieci anni. E le aziende si stanno preparando a contrattaccare.

ChatGpt considerato “ad alto rischio” Secondo Altman, la nuova regolamentazione classificherebbe i suoi ChatGpt e Gpt-4 come sistemi “ad alto rischio”, obbligando le aziende a implementare ulteriori misure di sicurezza. E ha espresso la sua posizione in modo deciso: “Riusciremo a conformarci a questi requisiti o no”, ha affermato il CEO, “Se riusciremo a conformarci, lo faremo; se non ci riusciremo, cesseremo le operazioni… Faremo del nostro meglio. Ma esistono limiti tecnici a ciò che è fattibile”.

Il ruolo dell’uomo nel mitigare i rischi Un’osservazione astuta, ma che non oltrepassa i limiti della cortesia diplomatica. La legge, ha continuato Altman, “non è fondamentalmente difettosa”, ma “sono i piccoli dettagli qui che contano veramente”. Ha riconosciuto i rischi dell’intelligenza artificiale (una preoccupazione condivisa da molti leader del settore, da Elon Musk che parla di “pericolo per l’umanità” a Bill Gates che prevede la fine di aziende come Google e Amazon), ma ha anche sottolineato il ruolo dell’uomo. “Si può generare quanta disinformazione si vuole con Gpt-4, ma se non viene diffusa, non avrà molto effetto”, ha affermato, evidenziando che, in particolare sui social media, siamo noi a cadere nella trappola e a diffonderla.

Di ihal