Si sta discutendo del potenziale eloquio e persuasione generati dall’intelligenza artificiale, sottolineando come alcuni esperti legali negli Stati Uniti sostengano che i risultati dei Large Language Models siano protetti dal Primo Emendamento, rendendoli insensibili alla censura governativa.
Tuttavia, Peter Salib, assistente professore di diritto presso l’Università di Houston, mette in guardia contro questa interpretazione, evidenziando la necessità di una regolamentazione adeguata dell’intelligenza artificiale per evitare conseguenze gravi.
Nel suo futuro articolo sulla Washington University School of Law Review, critica l’idea che l’intelligenza artificiale generativa possa essere considerata come discorso protetto, sottolineando come questa prospettiva potrebbe complicare la regolamentazione dei sistemi AI.
Salib esprime preoccupazione per le capacità avanzanti dell’IA, incluso il rischio che possa essere utilizzata per scopi pericolosi come la creazione di armi chimiche o la sintesi di virus. Sottolinea l’importanza di regolamentare i risultati dell’intelligenza artificiale piuttosto che tentare di limitare le sue capacità di generazione, ritenendo che ciò sia attualmente impraticabile.
Inoltre, discute le implicazioni legali e costituzionali della protezione del discorso generato dall’IA, argomentando che non dovrebbe essere considerato alla stregua del discorso umano protetto.
Alla luce di questi rischi e sfide, Salib invoca l’adozione di leggi mirate a proteggere il pubblico senza soffocare l’innovazione, sottolineando la necessità di un approccio bilanciato nella regolamentazione dell’intelligenza artificiale.