Google investe 300 milioni di dollari in Anthropic mentre la corsa per competere con ChatGPT si surriscalda 

Secondo un nuovo rapporto del Financial Times, Google ha investito 300 milioni di dollari in uno dei rivali OpenAI più in voga, Anthropic , il cui modello di intelligenza artificiale generativa Claude , appena presentato, è considerato competitivo con ChatGPT. 
Secondo il rapporto, Google prenderà una quota di circa il 10% e Anthropic dovrà utilizzare i soldi per acquistare risorse informatiche da Google Cloud. Il nuovo finanziamento valuterà la società con sede a San Francisco a circa $ 5 miliardi. 
La notizia arriva solo poco più di una settimana da quando Microsoft ha annunciato un investimento di 10 miliardi di dollari in OpenAI e segnala una corsa Big Tech sempre più competitiva nello spazio dell’IA generativa.

Anthropic fondata dai ricercatori OpenAI
Anthropic è stata  fondata nel 2021 da diversi ricercatori che hanno lasciato OpenAI e ha attirato maggiore attenzione lo scorso aprile quando, dopo meno di un anno di esistenza, ha improvvisamente annunciato un enorme finanziamento di 580 milioni di dollari. La maggior parte di quel denaro, si scopre, proveniva da Sam Bankman-Fried e dalla gente di FTX, la piattaforma di criptovaluta ora in bancarotta accusata di frode. Ci sono state domande sul fatto che quel denaro potesse essere recuperato da un tribunale fallimentare.

 

Anthropic – e FTX – è stato anche legato al  movimento Effective Altruism  , che l’ex ricercatore di Google Timnit Gebru ha definito di recente in un  articolo di Wired  come un “marchio pericoloso di sicurezza dell’IA”.

Google avrà accesso a Claude
Il chatbot AI di Anthropic, Claude, attualmente disponibile in versione  beta chiusa  tramite un’integrazione Slack, è simile a ChatGPT e ha persino dimostrato miglioramenti. Anthropic, che si descrive come “al lavoro per costruire sistemi di intelligenza artificiale affidabili, interpretabili e orientabili”, ha creato Claude utilizzando un processo chiamato “IA costituzionale”, che si basa su concetti come beneficenza, non maleficenza e autonomia.

Secondo un articolo di Anthropic che  descrive in dettaglio l’IA costituzionale , il processo prevede un apprendimento supervisionato e una fase di apprendimento di rinforzo: “Di conseguenza siamo in grado di addestrare un assistente AI innocuo ma non evasivo che si occupa di domande dannose spiegando loro le sue obiezioni. “

Di ihal