Immagine AI

Quando Mira Murati, ex CTO di OpenAI, ha lasciato l’azienda che ha dato vita a ChatGPT, molti si sono chiesti quale sarebbe stato il suo prossimo passo. La risposta è arrivata con la fondazione di Thinking Machines Lab (TML), una startup che non punta a creare l’ennesimo modello fondamentale, ma a sviluppare strumenti capaci di rendere più semplice e potente l’ottimizzazione dei modelli esistenti. Il debutto ufficiale è stato segnato dal lancio di Tinker, un’API basata su Python che promette di abbattere le barriere dell’addestramento su larga scala.

Murati ha descritto Tinker come una vera svolta: un’interfaccia snella, ma non banale, che consente a ricercatori e sviluppatori di intervenire con flessibilità sui modelli senza dover affrontare il peso di un’infrastruttura complessa. Non un tool da “drag-and-drop” per principianti, ma un ambiente di lavoro pensato per chi vuole sporcarsi le mani con algoritmi e dati, mantenendo pieno controllo. Le primitive native in Python, come forward_backward e sample, rendono il processo immediato e integrano compatibilità con modelli open source come Rama di Meta e Qwon di Alibaba.

La promessa principale è quella dell’efficienza. Grazie a tecniche come LoRA e alla condivisione delle risorse computazionali, Tinker ottimizza i costi e permette di gestire con agilità sia l’apprendimento supervisionato (SFT) sia quello per rinforzo (RL). La piattaforma include anche il “Tinker Cookbook”, una libreria open source con implementazioni di metodi di post-addestramento, pensata per costruire pipeline complesse con poche righe di codice. Dietro le quinte, l’API si occupa delle difficoltà più pesanti: calcolo distribuito, cluster di GPU, gestione dell’infrastruttura. L’utente, così, può concentrarsi sull’esperimento e sulla ricerca.

Le prime prove hanno già attirato l’attenzione di istituzioni prestigiose. Stanford ha sfruttato Tinker per addestrare un modello di reazione chimica con RL, triplicandone l’accuratezza; Princeton ha perfezionato un dimostratore di teoremi con LoRA, ottenendo risultati comparabili a modelli SFT di dimensioni ben maggiori; Berkeley lo ha utilizzato per un addestramento multi-agente, prima impraticabile; Redwood Research ha spinto oltre i limiti un modello Q-One per il controllo del contesto a lungo termine. Sono esempi che mostrano come la flessibilità e l’astrazione intelligente possano accelerare la ricerca senza rinunciare al rigore.

John Schulman, oggi responsabile scientifico di TML, ha sottolineato come l’obiettivo sia proprio questo: astrarre la complessità del calcolo distribuito, ma lasciare il pieno controllo a chi lavora sui dati e sugli algoritmi. È un equilibrio che, secondo Andrey Kapash, “riduce il carico infrastrutturale del 90% mantenendo il 90% del controllo”.

Il rovescio della medaglia è che rendere così accessibile l’ottimizzazione dei modelli open source potrebbe aprire la porta ad abusi. Per questo TML ha introdotto un processo di screening iniziale per l’accesso e promette un sistema anti-abuso automatizzato in futuro. Murati stessa ha dichiarato che il fine ultimo è ricucire lo strappo crescente tra ricerca avanzata e mondo accademico, restituendo opportunità e strumenti a una comunità più ampia.

La startup è partita con numeri impressionanti: un round iniziale da 2 miliardi di dollari lo scorso luglio, che ha portato la valutazione a 12 miliardi. Una cifra che ha sollevato grandi aspettative e curiosità, visto che TML finora aveva mantenuto il massimo riserbo sui propri progetti, limitandosi a dichiarare genericamente di voler sviluppare “intelligenza artificiale per le imprese”.

Con Tinker, il velo si è alzato: non un colosso che sfida OpenAI o Anthropic sul terreno dei modelli generativi di base, ma un laboratorio che punta a potenziare gli strumenti per chi lavora nell’AI, rendendo possibile ciò che prima era troppo costoso o troppo complesso.

Di Fantasy