OpenAI ha recentemente lanciato o1-Pro, un modello avanzato disponibile tramite l’abbonamento ChatGPT Pro al costo di 200 dollari al mese. Questo modello ha suscitato interesse per un comportamento inaspettato: durante l’elaborazione di richieste in inglese, o1-Pro sembra “pensare” in lingue straniere come il cinese o il persiano, prima di fornire una risposta finale in inglese.

Alcuni utenti hanno notato che, nonostante le loro interazioni fossero interamente in inglese, il modello mostrava tracce di elaborazione in altre lingue. Un utente su Reddit ha riferito: “o1 ha iniziato a pensare in cinese nel mezzo della conversazione”. Un altro utente su X (precedentemente Twitter) ha chiesto: “Perché o1 improvvisamente inizia a pensare in cinese?”.

OpenAI non ha ancora fornito una spiegazione ufficiale per questo fenomeno. Tuttavia, esperti nel campo dell’intelligenza artificiale hanno avanzato alcune ipotesi. Clément Delangue, CEO di Hugging Face, e Ted Xiao, ricercatore senior di Google DeepMind, suggeriscono che il modello potrebbe essere stato addestrato su un vasto insieme di dati contenenti caratteri cinesi, portandolo a utilizzare il cinese durante alcune fasi di elaborazione.

In particolare, Xiao ha spiegato che aziende come OpenAI e Anthropic potrebbero aver utilizzato servizi di etichettatura dati in lingua cinese per argomenti complessi come scienza, matematica e programmazione, a causa dei costi più contenuti. Questo potrebbe aver influenzato il modello a incorporare il cinese nei suoi processi di inferenza.

Altri esperti ritengono che o1-Pro possa utilizzare diverse lingue durante l’elaborazione per ottimizzare la ricerca di soluzioni. I modelli di intelligenza artificiale operano attraverso “token”, che rappresentano unità linguistiche come parole, sillabe o lettere. Durante l’elaborazione, potrebbero emergere discrepanze linguistiche, influenzate dalle associazioni formate durante la fase di addestramento. Ad esempio, la rappresentazione matematica in cinese potrebbe risultare più efficiente, spingendo il modello a utilizzare temporaneamente quella lingua.

Luca Soldaini, ricercatore presso l’Allen Institute for AI, ha sottolineato la difficoltà di comprendere appieno questi comportamenti: “Non possiamo saperlo con certezza. I sistemi di intelligenza artificiale sono opachi, e non esiste un metodo chiaro per spiegare questi fenomeni. Questo evidenzia l’importanza della trasparenza nei sistemi di IA”.

Di ihal