Google DeepMind RecurrentGemma bat les modèles Transformer
Google DeepMind a publié un document de recherche proposant un modèle de langage appelé RecurrentGemma qui peut égaler ou dépasser les performances des modèles basés sur des transformateurs tout en étant plus efficace en mémoire, offrant la promesse de performances de modèles de langage à grande échelle dans des environnements …