Perplexity AI ha annunciato il rilascio di R1 1776, una versione open-source del modello linguistico DeepSeek-R1, appositamente post-addestrata per rimuovere la censura e fornire risposte più accurate e imparziali. Questo sviluppo rappresenta un passo significativo verso la democratizzazione dell’IA e l’offerta di strumenti più affidabili per gli utenti di tutto il mondo.
DeepSeek-R1 è un modello linguistico di grandi dimensioni (LLM) noto per le sue avanzate capacità di ragionamento, comparabili a quelle di modelli leader come o1 e o3-mini. Tuttavia, la versione originale di DeepSeek-R1 presentava limitazioni, in quanto tendeva a evitare o censurare argomenti considerati sensibili, allineandosi spesso alle posizioni del Partito Comunista Cinese (PCC). Questa caratteristica limitava l’utilizzo del modello in contesti che richiedevano analisi imparziali su temi geopolitici o controversi.
Per affrontare queste limitazioni, Perplexity AI ha intrapreso un processo di post-addestramento su DeepSeek-R1, creando così R1 1776. L’obiettivo principale era eliminare la censura integrata e garantire che il modello potesse fornire risposte factuali e prive di bias su una vasta gamma di argomenti. Aravind Srinivas, CEO di Perplexity AI, ha dichiarato: “Stiamo considerando di rendere open-source anche il codice di addestramento e inferenza. Non abbiamo ancora deciso, ma la comunità e l’open source sono aspetti su cui intendiamo concentrarci maggiormente, poiché il nostro valore risiederà nell’offrire un assistente eccellente e personalizzato per l’utente, non nei modelli stessi”.
Il team di Perplexity AI ha raccolto un dataset di 40.000 prompt multilingue focalizzati su argomenti censurati. Con l’ausilio di esperti umani, sono stati identificati circa 300 temi sensibili. Successivamente, è stato sviluppato un classificatore di censura multilingue per filtrare le query, assicurando che le risposte fossero sia factuali che pertinenti. Per l’affinamento del modello, è stato utilizzato il framework NeMo 2.0 di NVIDIA, mantenendo intatte le capacità di ragionamento del modello originale.
Perplexity AI ha condotto test su un dataset di oltre 1.000 esempi, coprendo una vasta gamma di argomenti sensibili. Sia annotatori umani che giudici LLM sono stati coinvolti per valutare se il modello evitasse risposte o fornisse risposte eccessivamente edulcorate. I risultati hanno mostrato che R1 1776 è completamente privo di censura e mantiene prestazioni paragonabili al modello base R1 in termini di ragionamento e benchmark matematici.
I pesi del modello R1 1776 sono disponibili su Hugging Face, mentre l’accesso al modello può avvenire tramite l’API Sonar. Questa iniziativa di open-source riflette l’impegno di Perplexity AI verso la comunità e l’innovazione collaborativa. La possibilità di rendere open-source anche il codice di addestramento e inferenza potrebbe ulteriormente ampliare le opportunità per ricercatori e sviluppatori di contribuire al miglioramento continuo del modello.