Transformer senza MatMul potrebbero consentire potenti LLM senza GPU
I ricercatori delle università della California, Santa Cruz, Soochow e California, Davis hanno sviluppato una nuova architettura per modelli linguistici che elimina completamente le costose moltiplicazioni di matrici (MatMul) dei…