Anthropic, una startup specializzata nello sviluppo di sistemi di intelligenza artificiale, ha rilasciato la sua costituzione ufficiale per il suo ultimo modello di intelligenza artificiale conversazionale, Claude. La costituzione include una serie di valori e principi che Claude deve seguire quando interagisce con gli utenti, come essere utile, innocuo e onesto, gestire argomenti sensibili, rispettare la privacy degli utenti ed evitare comportamenti illegali.
L’obiettivo di Anthropic è quello di promuovere maggiore fiducia e trasparenza nel campo dell’intelligenza artificiale, che è stato afflitto da controversie su pregiudizi, disinformazione e manipolazione. L’azienda spera inoltre di ispirare altri sviluppatori di intelligenza artificiale e parti interessate ad adottare pratiche e standard simili.
La costituzione di Anthropic attinge da fonti come la Dichiarazione dei diritti umani delle Nazioni Unite, la ricerca sull’etica dell’IA e le politiche sui contenuti della piattaforma. La presentazione della costituzione di Anthropic evidenzia la crescente preoccupazione della comunità dell’IA per i valori e l’etica del sistema e la richiesta di nuove tecniche per affrontarli.
Un aspetto chiave della costituzione di Anthropic è la sua adattabilità. Anthropic riconosce che la versione attuale non è né finalizzata né probabilmente la migliore possibile, e accoglie con favore la ricerca e il feedback per perfezionare e migliorare la costituzione. Questa apertura al cambiamento dimostra l’impegno dell’azienda a garantire che i sistemi di intelligenza artificiale rimangano aggiornati e pertinenti man mano che emergono nuove preoccupazioni etiche e norme sociali.
Anthropic spera che la sua costituzione possa stimolare ulteriori ricerche e discussioni sul design della costituzione e che possa essere utilizzata come punto di partenza per altre aziende che sviluppano sistemi di intelligenza artificiale.
L’annuncio della costituzione di Anthropic si concentra sul crescente bisogno di garantire che i sistemi di intelligenza artificiale si comportino in modo etico man mano che diventano sempre più avanzati e autonomi. Recentemente, l’ex leader della divisione di ricerca AI di Google, Geoffrey Hinton, si è dimesso dalla sua posizione presso il gigante tecnologico, citando crescenti preoccupazioni per le implicazioni etiche della tecnologia che ha contribuito a creare. Si è dimostrato che i modelli di linguaggio di grandi dimensioni (LLM), che generano testo da enormi set di dati, riflettono e persino amplificano i pregiudizi nei loro dati di addestramento.
Anthropic è una delle poche startup specializzate nello sviluppo di sistemi di intelligenza artificiale e modelli linguistici generali, che mirano a svolgere un’ampia gamma di attività in diversi domini. La società ha la missione di garantire che l’IA trasformativa aiuti le persone e la società a prosperare.
Claude è il prodotto di punta di Anthropic, che prevede di implementare per varie applicazioni come l’istruzione, l’intrattenimento e il bene sociale. Claude può generare contenuti come poesie, storie, codice, saggi, canzoni, parodie di celebrità e altro ancora. Può anche aiutare gli utenti a riscrivere, migliorare o ottimizzare i loro contenuti. Anthropic afferma che Claude è uno dei sistemi di intelligenza artificiale più affidabili e orientabili sul mercato, grazie alla sua costituzione e alla sua capacità di apprendere dal feedback umano.
In sintesi, la costituzione di Anthropic per il suo modello di intelligenza artificiale Claude rappresenta un approccio proattivo per affrontare le complesse questioni etiche che sorgono man mano che i sistemi di intelligenza artificiale continuano ad avanzare. Rendendo i sistemi di valori dei modelli di intelligenza artificiale più espliciti e facilmente modificabili, la comunità dell’IA può lavorare insieme per costruire modelli più vantaggiosi che soddisfino veramente i bisogni della società.