OpenAI ha recentemente lanciato il suo modello di intelligenza artificiale avanzato, denominato “o1”, progettato per migliorare le capacità di ragionamento e risolvere problemi complessi. Tuttavia, in soli due mesi, diverse aziende concorrenti sono riuscite a colmare rapidamente il divario, grazie all’utilizzo dei dati generati da o1 per addestrare i propri modelli.

Secondo un rapporto di The Information, alcuni sviluppatori di intelligenza artificiale hanno sfruttato o1 per generare dati di addestramento, utilizzando una tecnica nota come “Chain of Thought” (CoT). Questo metodo prevede che o1 risolva vari problemi, documentando ogni passaggio del processo decisionale. Le informazioni ottenute vengono poi utilizzate per addestrare modelli open source di grandi dimensioni (LLM), migliorando le loro capacità di risolvere problemi complessi e di ragionamento.

Per contrastare questa pratica, OpenAI ha adottato misure per nascondere il processo CoT nei suoi modelli. Inoltre, l’azienda ha iniziato a bloccare gli account che tentano di accedere a CoT attraverso ChatGPT. Tuttavia, fornisce ancora versioni sintetiche di CoT per aiutare gli utenti a comprendere le risposte, il che permette ai concorrenti di ricostruire il CoT originale e utilizzarlo per addestrare i propri modelli.

L’utilizzo di dati sintetici generati da modelli avanzati come o1 per addestrare altri modelli non è una novità nel settore dell’intelligenza artificiale. Sebbene OpenAI proibisca questa pratica nei suoi termini di servizio, monitorare e regolamentare tali attività si è rivelato complesso.

Il 6 dicembre 2024, OpenAI ha rilasciato la versione completa di o1 e ha introdotto una versione Pro, con l’intenzione di mantenere il suo vantaggio competitivo nel campo dell’intelligenza artificiale. Tuttavia, la rapida capacità dei concorrenti di raggiungere livelli simili di competenza sottolinea la necessità per OpenAI di sviluppare strategie efficaci per proteggere le sue innovazioni e mantenere la leadership nel settore.

Di Fantasy