Anthropic, un’importante startup nel campo dell’intelligenza artificiale, ha recentemente presentato la sua nuova serie di modelli AI denominata Claude 3, mirata a soddisfare le varie esigenze dei clienti aziendali, bilanciando intelligenza, velocità ed efficienza dei costi. La serie comprende tre modelli: Opus, Sonnet e l’imminente Haiku. Opus è descritto come il modello più avanzato rispetto a qualsiasi altro sistema AI disponibile, superando persino i modelli di punta di OpenAI e Google in termini di capacità. Il CEO di Anthropic, Dario Amodei, ha sottolineato che Opus eccelle in un’ampia gamma di compiti, superando modelli noti come GPT-4, GPT-3.5 e Gemini Ultra in diversi benchmark, segnando un nuovo standard per l’intelligenza artificiale conversazionale commerciale.
Sonnet offre una soluzione di fascia media per l’analisi dei dati e il lavoro di conoscenza, mentre Haiku è progettato per essere veloce ed economico, ideale per applicazioni come i chatbot. Quest’ultimo dovrebbe essere disponibile “entro settimane, non mesi”. Tutti i modelli supportano l’input di immagini, una caratteristica molto richiesta per applicazioni come il riconoscimento di testo in immagini, anche se l’azienda ha dato meno importanza alle modalità di output, considerando la minore domanda da parte delle imprese in questo ambito.
La presidente di Anthropic, Daniela Amodei, ha evidenziato che i modelli Claude 3 mostrano capacità avanzate di visione artificiale, utili in settori come i servizi legali, l’analisi finanziaria, la logistica e il controllo della qualità, dove è spesso necessario estrarre informazioni da documenti visivi non strutturati.
L’annuncio segue le recenti polemiche sul chatbot Gemini di Google, che hanno messo in luce le sfide nel rilasciare modelli AI che evitino di perpetuare i pregiudizi sociali. Dario Amodei ha descritto la gestione dei modelli AI come una “scienza inesatta” e ha menzionato che Anthropic ha team dedicati alla valutazione e alla mitigazione dei rischi associati ai loro modelli. Ha sottolineato l’importanza di guidare lo sviluppo dell’IA in una direzione positiva per la società, sebbene Daniela Amodei abbia riconosciuto che è quasi impossibile creare un’intelligenza artificiale perfettamente neutrale.
Anthropic adotta un approccio chiamato “AI costituzionale”, cercando di allineare i modelli a principi definiti, pur ammettendo che l’obiettivo di neutralità ideologica e politica non è stato ancora pienamente raggiunto. Tuttavia, Dario Amodei crede che questo approccio basato su valori condivisi possa aiutare a proteggere contro modelli distorti da qualsiasi agenda partigiana.