Recentemente, è emersa una notizia rilevante riguardante una causa legale intentata dal New York Times, uno dei più famosi e letti marchi giornalistici al mondo, nei confronti di OpenAI, il produttore di ChatGPT, e del suo sostenitore Microsoft, per presunta violazione del copyright. Oggi, OpenAI ha pubblicamente risposto a questa accusa attraverso un post sul proprio blog, dichiarando che la causa è “infondata”.
Nel post, OpenAI ribadisce il proprio sostegno al giornalismo e alle collaborazioni con testate giornalistiche, sostenendo che la causa intentata dal New York Times sia priva di fondamento. OpenAI presenta tre punti principali: la collaborazione con testate giornalistiche per creare nuove opportunità, la convinzione che la formazione dei propri modelli rientri nel fair use, offrendo comunque la possibilità di rinuncia, e la definizione del “rigurgito” come un bug raro che l’azienda sta cercando di eliminare.
Il focus del post è su come OpenAI sta cercando di conciliare i recenti accordi di licenza con altri editori, come Axel Springer e Associated Press, con la posizione secondo cui può legalmente raccogliere dati da qualsiasi sito web pubblico per addestrare i suoi modelli di intelligenza artificiale, tra cui GPT-3.5 e GPT-4.
Dal DevDay di novembre 2023, OpenAI ha offerto protezioni legali alle organizzazioni e agli abbonati ai suoi prodotti IA. Il NYT aveva intentato la causa alla fine del 2023, accusando OpenAI di utilizzare i suoi articoli protetti da copyright senza permesso o compenso e di generare testo quasi identico a contenuti pubblicati sul NYT.
Nel post, OpenAI sostiene che l’utilizzo di materiali disponibili su Internet rientra nel fair use, ma offre comunque un processo di rinuncia semplice per gli editori, che il NYT ha adottato nell’agosto 2023. OpenAI ammette di aver fornito questa opzione solo dopo il lancio di ChatGPT nel novembre 2022, lasciando poco tempo agli editori per impedire che i loro dati venissero utilizzati.
OpenAI sottolinea anche che ora che ha fornito questo meccanismo e alcune organizzazioni ne hanno approfittato, gli accordi con altri editori servono per evitare che utilizzino il meccanismo e impediscano a OpenAI di formarsi sui loro materiali. L’azienda accusa inoltre il NYT di manipolare intenzionalmente i suggerimenti per ottenere prove di riproduzione di articoli per il suo caso, una pratica in violazione dei Termini di servizio di OpenAI.
Il post afferma che il NYT sembra aver manipolato i suggerimenti per far sì che il modello di OpenAI riproducesse specificamente risposte vicine ai suoi articoli, selezionando selettivamente queste risposte tra molte possibili per sostenere la causa. OpenAI sostiene che questo non sia un comportamento accettabile per gli utenti e sta lavorando per prevenirlo tecnicamente.
Il confronto legale tra OpenAI e il NYT si svolgerà davanti al giudice della Corte distrettuale federale Sidney H. Stein, anche se non è stata ancora fissata una data per un’udienza iniziale. Non è chiaro se il post del blog sia stato inserito come argomento o prova nel caso, ma probabilmente apparirà in futuro.
Questo caso si inserisce in un contesto più ampio di crescenti controversie legali nel campo dell’intelligenza artificiale, come evidenziato dal caso del generatore di immagini AI Midjourney, citato in giudizio da artisti e criticato da Gary Marcus in un articolo per IEEE Spectrum. Il 2024 potrebbe rivelarsi un anno cruciale per definire la legalità e le problematiche legate alle fonti di dati utilizzate per l’addestramento di tali tecnologie.