Sakana AI presenta Universal Transformer Memory per l’efficienza degli LLM
Recentemente, i ricercatori di Sakana AI, una startup con sede a Tokyo, hanno introdotto una tecnica innovativa denominata “universal transformer memory”. Questa metodologia consente ai modelli linguistici di utilizzare la…