Groma: il modello MLLM che simula il processo di visione umana
I ricercatori di ByteDance e dell’Università di Hong Kong hanno sviluppato Groma, un potente modello multimodale di linguaggio di grandi dimensioni (MLLM). Questo modello si distingue per la sua capacità…