Home / Intelligenza artificiale pericolo / Joseph Redmon creatore di YOLO interrompe la sua ricerca sulla visione al computer per paura uso dei militari e contro la privacy

Joseph Redmon creatore di YOLO interrompe la sua ricerca sulla visione al computer per paura uso dei militari e contro la privacy

Joseph Redmon, creatore del famoso algoritmo di rilevazione di oggetti YOLO (You Only Look Once), ha twittato la scorsa settimana di aver interrotto la sua ricerca sulla visione al computer per evitare il potenziale uso improprio della tecnologia citando in particolare “applicazioni militari e problemi di privacy”.

  • Joe Redmon
  • @pjreddie
  • · Feb 20, 2020
  • “We shouldn’t have to think about the societal impact of our work because it’s hard and other people can do it for us” is a really bad argument. https://twitter.com/RogerGrosse/status/1230509267230261248 …
  • Roger Grosse
  • @RogerGrosse
  • Replying to @kevin_zakka @hardmaru
  • To be clear, I don’t think this is a positive step. Societal impacts of AI is a tough field, and there are researchers and organizations that study it professionally. Most authors do not have expertise in the area and won’t do good enough scholarship to say something meaningful.
  • Joe Redmon
  • @pjreddie
  • I stopped doing CV research because I saw the impact my work was having. I loved the work but the military applications and privacy concerns eventually became impossible to ignore.https://twitter.com/RogerGrosse/status/1230514017543872512?s=20 …
  • Roger Grosse
  • @RogerGrosse
  • Replying to @skoularidou
  • What’s an example of a situation where you think someone should decide not to submit their paper due to Broader Impacts reasons?
  • 3,244
  • 5:09 PM – Feb 20, 2020
  • Twitter Ads info and privacy
  • 1,116 people are talking about this

Il suo commento è emerso da una discussione su Twitter sull’annuncio di mercoledì scorso della revisione NeurIPS 2020 Norme per l’invio della carta, che ora chiedono agli autori di aggiungere una sezione sull’impatto più ampio del loro lavoro “tra cui possibili conseguenze sociali – sia positive che negative.”

Maria Skoularidou, studentessa di dottorato in machine learning probabilistico dell’Università di Cambridge, ha twittato “Penso che dichiarazioni di impatto più ampie potrebbero anche aiutare gli autori a ripensare / capire se vale la pena presentare il loro lavoro”, spingendo Roger Grosse, professore associato di Computer Science e Vector Institute Co-fondatore sfidare Skoularidou a fornire “un esempio di una situazione in cui pensi che qualcuno dovrebbe decidere di non inviare il proprio documento per motivi di Impatti più ampi?”

È qui che è intervenuto Redmon per offrire la propria esperienza. Nonostante abbia apprezzato il suo lavoro, Redmon ha twittato, ha interrotto la sua ricerca CV perché ha scoperto che le relative questioni etiche “sono diventate impossibili da ignorare”.

Redmon, attualmente studente presso il laboratorio di ingegneria linguistica e dei linguaggi di programmazione dell’Università di Washington, Redmon ha proposto il modello YOLO in un documento CVPR 2016 che ha vinto l’OpenCV People’s Choice Award. YOLO è stato salutato come una pietra miliare nella ricerca sul rilevamento di oggetti e ha portato a algoritmi di visione artificiale migliori, più veloci e più accurati. L’YOLO9000 aggiornato di Redmon ha ottenuto la migliore menzione d’onore alla carta al CVPR 2017, ed è stato anche parte del team che ha proposto XNOR-Net utilizzando reti neurali convoluzionali binarie per la classificazione di ImageNet.

Grosse ha sostenuto che la previsione degli impatti sociali dell’intelligenza artificiale è un’area difficile che richiede esperienza e dovrebbe essere trattata da ricercatori e organizzazioni professionali invece che dagli stessi autori di articoli. Ciò ha suscitato un rapido riscontro da parte di Redmon: “‘Non dovremmo pensare all’impatto sociale del nostro lavoro perché è difficile e altre persone possono farlo per noi’ è un argomento davvero negativo.”

Nel frattempo, Kevin Zakka, studente di Stanford Computer Science Master ed ex stagista di Google Brain, ha reagito, piuttosto che abbandonare la sua ricerca per paura di potenziali abusi, Redmon avrebbe potuto usare la sua rispettata posizione nella comunità CV per sensibilizzare l’opinione pubblica. Altri hanno suggerito che Redmon limitasse il suo lavoro, ad esempio, al dominio dell’imaging medico.

Redmon ha affermato di provare un certo grado di umiliazione per aver sempre creduto che “la scienza era apolitica e la ricerca obiettivamente morale e buona, indipendentemente dall’argomento”. Ha detto che sarebbe arrivato a rendersi conto che le tecnologie di riconoscimento facciale hanno più svantaggi che vantaggi e che non sarebbero sviluppate se un numero sufficiente di ricercatori pensasse al più ampio impatto degli enormi rischi al ribasso.

Le discussioni etiche sull’intelligenza artificiale non sono nuove e senza dubbio si intensificheranno man mano che le tecnologie passano dai laboratori alle strade. Questa nuova attenzione da una conferenza di alto profilo come NeurIPS e la recente rivelazione di Redmon suggeriscono che esperti in settori specifici si uniranno alla più ampia comunità ML e al pubblico in generale in questo processo in corso.

Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi