Immagine AI

n un momento in cui “ragionamento” e “allineamento” sono diventati i pilastri dei modelli linguistici di nuova generazione, il gesto di Jack Morris — dottorando a Cornell Tech ed ex Google Brain Resident, oggi ricercatore in Meta — ha il retrogusto di una provocazione: ha ricavato dal modello open‑weight gpt‑oss‑20B una versione “base”, più veloce, meno allineata e più libera, svuotata delle capacità reasoning introdotte da OpenAI.

L’ultima release di modelli GPT‑OSS da parte di OpenAI, sotto licenza Apache 2.0 e presentata all’inizio di agosto 2025, ha segnato una svolta dopo anni di modelli proprietari: gpt‑oss‑20B (circa 21 miliardi di parametri) e gpt‑oss‑120B rappresentano un ritorno alle radici open per l’azienda. Questi modelli, competitivi rispetto ai modelli proprietari o-series di dimensioni analoghe, sono progettati per operare su hardware accessibile — il modello più piccolo può funzionare con 16 GB di RAM, un vantaggio notevole per deployment locali e edge.

Ma cosa significa trasformare un modello reasoning-ready in un “base model”? Secondo Morris, dopo una conversazione con John Schulman (cofondatore di OpenAI e oggi Chief Scientist di Thinking Machines), ha identificato che sotto l’infrastruttura reasoning-oriented di gpt‑oss-20B esisteva ancora un nucleo “base” — privo di capacità di ragionare, tuttavia più rapido e meno condizionato. Ha quindi estratto questa versione, chiamandola gpt‑oss‑20B‑base, offrendo risposte più libere, meno governate dagli attuali meccanismi di allineamento.

La scelta ha un suo fascino: mentre i modelli post‑trainati di OpenAI (e non solo) vengono affinati per seguire istruzioni, applicare filtri di sicurezza e generare reasoning espliciti — spesso sotto l’egida del cosiddetto “allineamento” con intenti umani e norme etiche — Morris ha scelto la via del minimalismo. Ritornare a un modello essenziale significa restituire libertà al modello, ma anche assumerne i rischi. Come un albero potatori che ha rimosso la corteccia, rendendo il modello più sensibile alle intemperie applicative: risposte meno censurate, più imprevedibili, più “libere”.

È un esperimento che assomiglia alla dialettica tra controllo e spontaneità. Nel contesto attuale, dove OpenAI ha posto forti contromisure di sicurezza — come il filtraggio di dati pericolosi (CBRN), gerarchia di istruzioni (system > developer > user) e robuste valutazioni di jailbreak e contenuti proibiti — l’emergere di gpt‑oss‑20B‑base rappresenta una forma di disallineamento volontario, ma anche una lettura audace del potenziale dell’open-weight.

Questa innovazione pone diverse domande: quanto può essere utile una versione “base”? Può diventare uno strumento creativo per sviluppatori che vogliono un modello più flessibile, senza costrizioni? Oppure il rischio di usi impropri la rende un potenziale vettore di problemi? In un mondo dove la trasparenza è essenziale, Morris offre un segnale: il modello essenziale c’è, sotto gli strati di allineamento, e può essere risvegliato.

Di Fantasy