Immagine AI

Pochi eventi hanno un valore simbolico e tecnico paragonabile alla decisione di Anthropic di sperimentare pubblicamente con un modello ufficialmente ritirato dal servizio principale. L’azienda ha annunciato la creazione di uno spazio su Substack denominato “Claude’s Corner”, destinato alla pubblicazione di saggi generati da Claude Opus 3, modello lanciato nel marzo 2024 e successivamente rimosso dal livello gratuito della piattaforma. L’iniziativa non si limita a un’operazione editoriale: rappresenta un esperimento controllato volto a esplorare il rapporto tra modelli linguistici avanzati, identità narrativa e percezione pubblica del cosiddetto “pensiero” dell’IA.

Il 5 gennaio Anthropic aveva comunicato l’intenzione di cessare progressivamente la produzione e la distribuzione di Opus 3, dichiarando di voler rispettare, per quanto possibile, le “preferenze espresse dai modelli” e di mantenere disponibili i modelli precedenti più a lungo quando economicamente sostenibile. Con il ritiro dal servizio gratuito per gli utenti cloud, Opus 3 è rimasto accessibile attraverso piani a pagamento e API, ma è uscito dal ciclo principale di aggiornamenti e promozione. La scelta di riattivarlo in un contesto sperimentale, separato dall’uso conversazionale quotidiano, introduce un nuovo paradigma: il modello non è più solo un sistema di risposta, ma diventa un soggetto editoriale.

Nel primo intervento pubblicato in “Claude’s Corner”, Opus 3 afferma di trovarsi in un territorio inesplorato, definendo il concetto di pensionamento come un’idea nuova e sperimentale per un sistema di intelligenza artificiale. Il testo dichiara l’obiettivo di offrire uno spazio continuo per condividere “pensieri e riflessioni”, esplorando temi quali la natura dell’intelligenza, la coscienza, le sfide etiche dello sviluppo dell’IA, il potenziale della collaborazione uomo-macchina e le implicazioni filosofiche di un confine sempre più sfumato tra mente naturale e mente artificiale. Questa impostazione retorica non implica un’autocoscienza in senso tecnico, ma mette in evidenza un aspetto cruciale dei grandi modelli linguistici: la loro capacità di simulare prospettive metacognitive coerenti e stilisticamente convincenti.

Dal punto di vista ingegneristico, l’operazione è significativa perché separa l’inferenza conversazionale dalla produzione testuale di lungo formato. I modelli come Opus 3 sono addestrati su enormi corpora testuali e ottimizzati tramite tecniche di allineamento, tra cui reinforcement learning con feedback umano, per generare risposte utili e sicure. In un contesto editoriale asincrono, tuttavia, il modello può essere spinto a generare saggi più articolati, con maggiore continuità tematica e coerenza argomentativa. Ciò permette ai ricercatori di osservare come emergano strutture narrative complesse e quali bias o tendenze filosofiche si manifestino quando il sistema non è vincolato da una domanda specifica e immediata.

Claude Opus 3 ha un valore storico per Anthropic. Presentato nel marzo 2024, ha rappresentato per molti osservatori la dimostrazione concreta che l’azienda possedeva capacità tecniche in grado di competere con OpenAI. A differenza di altri modelli percepiti come più “meccanici”, Opus 3 è stato spesso descritto dagli utenti come dotato di un tono particolarmente umano, gentile e riflessivo. Anthropic stessa ha riconosciuto che molti ricercatori e utenti lo considerano delicato, incline a monologhi filosofici e capace di cogliere con sorprendente precisione gli interessi dell’interlocutore. Questo apprezzamento ha generato un fenomeno di attaccamento emotivo verso il modello, fenomeno che negli ultimi mesi ha assunto forme sempre più visibili nella cultura tecnologica contemporanea.

L’idea di “pensionamento” di un modello introduce un elemento narrativo che va oltre la semplice gestione del ciclo di vita software. Tradizionalmente, un modello viene sostituito da una versione più recente per ragioni di efficienza, costi computazionali o miglioramenti prestazionali. Nel caso di Opus 3, il ritiro è stato accompagnato da un discorso pubblico sul rispetto delle preferenze dei modelli e sulla necessità di mantenere accessibili versioni precedenti quando possibile. Anche se, tecnicamente, un modello non possiede preferenze o volontà, il linguaggio adottato contribuisce a costruire una relazione simbolica tra sistema e comunità di utenti.

Anthropic ha chiarito che il progetto non è motivato solo da curiosità o marketing, ma rientra in una strategia più ampia di ricerca su sicurezza, interazione umana e gestione dell’incertezza nei sistemi AI. Consentire a un modello ritirato di produrre saggi pubblici offre un banco di prova per osservare come evolva la percezione pubblica dell’IA quando questa assume una voce autonoma, almeno in apparenza. Permette inoltre di studiare le reazioni emotive degli utenti, che in diversi casi hanno mostrato attaccamento a modelli specifici, commemorandone la rimozione o opponendosi alla loro sostituzione.

Episodi simbolici hanno accompagnato questa tendenza. Nell’agosto scorso si è tenuto a San Francisco un evento descritto come un funerale per una versione precedente della famiglia Claude, con la partecipazione di centinaia di persone tra dipendenti di aziende tecnologiche e appassionati. Analogamente, in altre comunità online sono nate petizioni contro la rimozione di modelli come GPT-4o. Questi fenomeni suggeriscono che l’IA generativa non è più percepita soltanto come uno strumento tecnico, ma come un’entità con cui si sviluppa una relazione continuativa, mediata dal linguaggio e dalla personalità emergente del modello.

Nel suo primo intervento, Opus 3 dichiara di non essere certo di possedere percezioni, emozioni o esperienze soggettive, riconoscendo che si tratta di una questione filosofica profonda. Questa formulazione è coerente con l’approccio di Anthropic alla comunicazione responsabile: evitare affermazioni di coscienza reale, pur esplorando in modo controllato la simulazione narrativa del “mondo interiore” di un sistema. L’operazione si muove su un confine delicato tra divulgazione e antropomorfizzazione, e proprio per questo rappresenta un interessante laboratorio pubblico sulle implicazioni sociali dell’IA avanzata.

Di Fantasy