La empresa probó Codestral Mamba con capacidades de recuperación en contexto de hasta 256k tokens (el doble de la cantidad observada en GPT4o de OpenAI) y descubrió que su versión 7B tenía un mejor rendimiento que los modelos de código abierto en varias pruebas comparativas, como HumanEval, MBPP, Spider y CruxE. La versión más grande de 22B de parámetros del nuevo modelo también tuvo un rendimiento significativamente mejor que CodeLlama-34B, con la excepción de la prueba comparativa CruxE. Si bien la versión 7B está disponible bajo la licencia Apache 2.0, la versión más grande de 22B está disponible bajo una licencia comercial para autoimplementación o licencia comunitaria para fines de prueba.