GitHub Copilot, lanciato nel 2021, è uno strumento basato su intelligenza artificiale che assiste gli sviluppatori suggerendo e completando automaticamente frammenti di codice. Questo strumento ha aumentato la produttività e la qualità del codice degli sviluppatori. Tuttavia, è stato al centro di una controversia legale dal 2022.

Nel novembre 2022, un gruppo di sviluppatori ha avviato una causa collettiva contro GitHub, Microsoft e OpenAI, accusando GitHub Copilot di utilizzare codice open source senza dare il giusto credito agli autori originali. La causa inizialmente includeva 22 accuse, focalizzandosi principalmente sul fatto che Copilot fosse stato addestrato su dati open source per generare suggerimenti di codice.

Gli sviluppatori sostenevano che Copilot stesse copiando frammenti di codice senza attribuirne l’origine, violando il Digital Millennium Copyright Act (DMCA) che tutela le informazioni sulla gestione del copyright.

Il 9 luglio 2024, il tribunale ha respinto molte delle accuse. In particolare, non sono state trovate prove sufficienti di violazione del copyright tra il codice generato da GitHub e quello open source usato per l’addestramento del software. Inoltre, le modifiche recenti a Copilot, che ora mostra variazioni di codice anziché copie esatte, hanno influenzato la decisione della corte.

La corte ha anche rigettato l’argomento che evidenziava la difficoltà intrinseca dell’intelligenza artificiale nel non riutilizzare codice esistente. Tuttavia, ha sollevato preoccupazioni riguardo al filtro di controllo dei duplicati di Copilot, che può essere disattivato dagli utenti. Questo aspetto potrebbe essere ulteriormente esaminato, offrendo agli sviluppatori la possibilità di rivedere e ripresentare i loro reclami.

Nonostante il successo di GitHub nella difesa contro molte accuse, il caso non è concluso. Restano due accuse principali:

  • Violazione della licenza open source: GitHub è accusata di non aver rispettato le condizioni di licenza del codice open source usato per addestrare Copilot.
  • Violazione della fiducia: Riguarda il mancato riconoscimento dell’uso dei dati pubblici e la mancanza di credito agli autori originali.

Ci sono anche questioni legate alla condotta delle parti durante il processo, come la mancata consegna di documenti da parte degli imputati, che potrebbero influenzare le fasi finali del caso.

Questo caso potrebbe avere un impatto significativo sull’uso del codice open source per l’addestramento dell’intelligenza artificiale. La vittoria di GitHub potrebbe incentivare altre aziende a continuare a utilizzare l’IA nello sviluppo software, ma potrebbe anche aumentare la consapevolezza e la cautela riguardo alle leggi sul copyright.

La causa ha messo in luce la necessità di aggiornare le leggi sul copyright per affrontare le complessità dell’IA. Le normative dovrebbero considerare nuovi criteri per proteggere i diritti degli sviluppatori e regolamentare l’uso del codice open source. Potrebbero essere necessarie modifiche come la visualizzazione obbligatoria delle fonti di addestramento e audit regolari degli strumenti di IA.

Questa situazione sottolinea l’importanza di trovare un equilibrio tra innovazione tecnologica e rispetto delle normative legali, per garantire che l’uso dell’IA rimanga etico e conforme agli standard legali.

Di Fantasy