OpenAI sta prendendo sul serio la parte “open” nel suo nome, anche se non ha reso open source i suoi nuovi modelli. Questa settimana ha rivelato di più su come sta affrontando l’intelligenza artificiale e i problemi ad essa associati, come la disinformazione e i deepfake, oltre ai suoi piani futuri.
Hanno presentato un documento chiamato “Model Spec”, progettato per delineare il comportamento dei loro modelli di intelligenza artificiale. Chiedono feedback dal pubblico tramite un modulo online aperto fino al 22 maggio.
Questo documento fa parte del loro impegno per garantire che la tecnologia AI sia sicura e vantaggiosa per tutti gli utenti. È un passo importante verso una conversazione più profonda sulla responsabilità etica nell’IA.
Il Model Spec stabilisce principi generali per guidare lo sviluppo e l’uso dei modelli AI, inclusi obiettivi, regole e comportamenti predefiniti. Ad esempio, si impongono regole chiare per il rispetto delle leggi, la tutela della privacy e la sicurezza del lavoro.
Tuttavia, c’è anche dibattito su come queste specifiche influenzino il comportamento effettivo dei modelli. Alcuni lo vedono come un passo nella direzione giusta, simile alle “Tre leggi della robotica” di Asimov, mentre altri sollevano preoccupazioni su come le specifiche vengono implementate nella pratica.
OpenAI riconosce che il Model Spec è un documento in evoluzione e si aspetta di adattarlo in base al feedback della comunità e alla ricerca continua.
Il loro obiettivo è promuovere un ambiente in cui l’IA possa essere una forza positiva, e questo coinvolge anche raccogliere prospettive diverse e coinvolgere la comunità globale nel processo decisionale.
Il feedback ricevuto sarà fondamentale per migliorare le specifiche del modello e plasmare lo sviluppo futuro dell’IA in modo responsabile.