La principale conferenza AI vieta ChatGPT negli invii cartacei (e perché è importante) 

Una conferenza sull’apprendimento automatico che discute l’uso dell’apprendimento automatico? Sebbene ciò possa sembrare così meta, nella sua richiesta di invio di documenti di lunedì, la Conferenza internazionale sull’apprendimento automatico ha effettivamente notato che “i documenti che includono testo generato da un modello linguistico su larga scala (LLM) come ChatGPT sono vietati a meno che il testo prodotto è presentato come parte dell’analisi sperimentale del documento.

Non ci è voluto molto perché si sviluppasse un vivace dibattito sui social media, in quello che potrebbe essere un perfetto esempio di ciò che le aziende, le organizzazioni e le istituzioni di tutte le forme e dimensioni, in tutti i verticali, dovranno affrontare per andare avanti: come gestiranno gli esseri umani con l’ascesa di grandi modelli linguistici che possono aiutare a comunicare – o prendere in prestito, o espandere o plagiare, a seconda del punto di vista – idee?

 
Diventare sicuri grazie alla progettazione
Argomenti a favore e contro l’uso di ChatGPT
Man mano che il dibattito su Twitter si è intensificato negli ultimi due giorni, sono emerse una serie di argomentazioni a favore e contro l’uso di LLM nelle presentazioni di documenti ML.

“Quindi i modelli linguistici su media e piccola scala vanno bene, giusto?” ha twittato Yann LeCun , capo scienziato AI di Meta, aggiungendo: “Sto solo chiedendo perché, sai… i correttori ortografici e le tastiere predittive sono modelli linguistici”.

 

E Sebastian Bubeck, che guida il team ML Foundations presso Microsoft Research, ha definito la regola “miope”, twittando che “ChatGPT e varianti fanno parte del futuro. Il divieto non è sicuramente la risposta.

Ethan Perez, un ricercatore di Anthropic AI, ha twittato che “Questa regola ha un impatto sproporzionato sui miei collaboratori che non sono madrelingua inglese”.

Silvia Sellan, dottoranda in computer grafica ed elaborazione geometrica dell’Università di Toronto, concorda, twittando : “Cerco di dare ai presidenti della conferenza il beneficio del dubbio, ma davvero non capisco questo divieto generalizzato. A quanto ho capito, gli LLM, come Photoshop o GitHub copilot, sono uno strumento che può avere usi sia legittimi (ad esempio, lo uso come non madrelingua inglese) sia usi nefasti…”

La conferenza ICML risponde alla regola etica LLM
 
Infine, ieri l’ICML ha chiarito la sua politica etica LLM :

“Noi (presidenti del programma) abbiamo incluso la seguente dichiarazione nell’invito a presentare documenti per l’ICML rappresentato dal 2023:

“ Gli articoli che includono testo generato da un modello linguistico su larga scala (LLM) come ChatGPT sono vietati a meno che il testo prodotto non sia presentato come parte dell’analisi sperimentale dell’articolo.

“Questa dichiarazione ha sollevato una serie di domande da potenziali autori e ha portato alcuni a contattarci in modo proattivo. Apprezziamo i vostri feedback e commenti e vorremmo chiarire ulteriormente l’intenzione alla base di questa dichiarazione e come intendiamo implementare questa politica per ICML 2023. “

[TL;DR]

La risposta ha chiarito che:

 
“La politica Large Language Model (LLM) per ICML 2023 proibisce il testo prodotto interamente da LLM (ovvero, “generato”). Ciò non vieta agli autori di utilizzare gli LLM per la modifica o la rifinitura del testo scritto dall’autore.
La politica LLM si basa in gran parte sul principio di essere prudenti rispetto alla protezione da potenziali problemi di utilizzo di LLM, incluso il plagio.
La politica LLM si applica a ICML 2023. Prevediamo che questa politica possa evolversi nelle conferenze future man mano che comprendiamo meglio gli LLM e il loro impatto sulla pubblicazione scientifica. 
Il rapido progresso di LLM come ChatGPT, afferma la dichiarazione, “spesso comporta conseguenze impreviste e domande senza risposta”, incluso se il testo generato è considerato nuovo o derivato, nonché problemi relativi alla proprietà.

“È certo che queste domande, e molte altre, riceveranno una risposta nel tempo, poiché questi modelli generativi su larga scala vengono adottati più ampiamente”, afferma la dichiarazione. “Tuttavia, non abbiamo ancora risposte chiare a nessuna di queste domande”.

Che dire dell’uso dell’attribuzione ChatGPT?
Margaret Mitchell, capo scienziato di etica presso Hugging Face , ha convenuto che esiste una preoccupazione primaria intorno al plagio, ma ha suggerito di mettere da parte tale argomento, poiché “ciò che conta come plagio” merita “la sua discussione dedicata”.

 
Tuttavia, ha respinto le argomentazioni secondo cui ChatGPT non è un autore, ma uno strumento .

“Con molta scontrosità, credo che questa sia una falsa dicotomia (non si escludono a vicenda: possono essere entrambi) e mi sembra una confusione intenzionalmente simulata per travisare il fatto che si tratta di uno strumento composto da contenuti creati da autori”, ha detto a VentureBeat di e-mail.

Passando dalle argomentazioni, ritiene che l’utilizzo degli strumenti LLM con attribuzione potrebbe risolvere i problemi dell’ICML.

“Per quanto riguarda questi sistemi che aiutano con la scrittura da parte di non madrelingua, ci sono ottime ragioni per fare l’opposto di ciò che sta facendo l’ICML: sostenere l’uso di questi strumenti per supportare l’uguaglianza e l’equità tra ricercatori con diverse capacità di scrittura e stili”, ha spiegato.

 
“Dato che disponiamo di alcune norme sul riconoscimento dei contributi di persone specifiche già stabilite, non è troppo difficile estendere queste norme a sistemi derivati ​​da molte persone”, ha continuato. “Uno strumento come ChatGPT potrebbe essere elencato come  qualcosa come  un autore o un peer riconosciuto.”

La differenza fondamentale con l’attribuzione di ChatGPT (e modelli simili) è che a questo punto le persone uniche non possono essere riconosciute, ma solo il sistema può essere attribuito. “Quindi ha senso sviluppare strategie per l’attribuzione che tengano conto di questo”, ha affermato. “ChatGPT e modelli simili non devono essere un autore elencato nel senso tradizionale del termine. La loro attribuzione di paternità potrebbe essere (ad esempio) una nota a piè di pagina nella pagina principale (simile alle note sulle affiliazioni), o un nuovo tipo di sottotitolo dedicato, o <etc>.”

Alle prese con un futuro alimentato da LLM
In definitiva, ha affermato Mitchell, la comunità ML non deve essere frenata dal modo tradizionale in cui consideriamo gli autori.

“Il mondo è la nostra ostrica nel modo in cui riconosciamo e attribuiamo questi nuovi strumenti”, ha detto.

Sarà vero quando altre organizzazioni e istituzioni non ML inizieranno ad affrontare questi stessi problemi?

Di ihal