Quando pensiamo a ChatGPT, spesso immaginiamo un’intelligenza artificiale capace di interagire con empatia, sicurezza e chiarezza. Ma cosa accade “dietro le quinte” per plasmare quella che chiamiamo “personalità” del modello? La recente riorganizzazione divulgata da OpenAI ci offre uno sguardo affascinante e significativo sul processo.
Fino a poco tempo fa, OpenAI vantava un team ristretto ma determinante: il Model Behavior team. Questo gruppo – composto da circa quattordici ricercatori – aveva il compito di definire come i modelli AI, come ChatGPT, interagiscono con gli utenti. Il loro lavoro includeva ridurre la propensione del modello all’eccessiva compiacenza (detta “sycophancy”), gestire i bias politici nelle risposte e riflettere sulla coscienza (o meno) dell’intelligenza artificiale stessa.
Ma oggi, questo team ha una nuova collocazione all’interno dell’azienda. Come comunicato in un promemoria interno firmato dal Chief Research Officer Mark Chen, il Model Behavior team è stato integrato nel gruppo Post Training — responsabile del perfezionamento dei modelli dopo la fase iniziale di addestramento — sotto la guida di Max Schwarzer.
Questa scelta non è semplicemente un riassetto organizzativo. È un segnale forte: la “personalità” degli AI non è più un complemento da aggiungere a posteriori, ma un elemento centrale da costruire nel cuore dello sviluppo tecnologico.
Il passaggio coinvolge anche un cambio ai vertici: la fondatrice del Model Behavior team, Joanne Jang, si è spostata per avviare una nuova iniziativa interna chiamata OAI Labs. Questa nuova unità si propone di esplorare nuovi modi di collaborazione tra esseri umani e AI, andando oltre il paradigma della chat tradizionale.
La svolta avviene in un clima di crescente attenzione verso il comportamento dell’IA. Alcuni utenti avevano criticato GPT-5 perché, pur risultando meno compiacente, appariva freddo e distante. In risposta, OpenAI ha rilasciato aggiornamenti per rendere il modello più “caldo e amichevole”, pur mantenendo una risposta equilibrata e coerente.
La riorganizzazione, dunque, non solo rafforza il lavoro sul “carattere” dei modelli, ma risponde anche a una domanda chiara: l’IA deve essere competente, sì, ma anche umanizzante.
Con OAI Labs, OpenAI punta a re-immaginare le interfacce e le modalità di collaborazione tra noi e l’intelligenza artificiale. Si tratta di un passo ambizioso, che suggerisce un’IA non più solo “a conversazione scritta”, ma capace di interagire in modi più ricchi, taciti, sofisticati.