2月20日,印度AI实验室Sarvam在印度人工智能影响力峰会上发布了两款新一代MoE架构大语言模型。这两款模型将通过HuggingFace平台以开源权重的形式提供,同时将推出API访问和仪表盘支持。
Sarvam发布的两款新模型中,较小型号为30B-A1B设计,预训练数据集规模达16T,支持32K上下文窗口,主要面向低延迟的实时应用场景。规模较大的型号为105B-A9B设计,支持128K上下文窗口,适用于要求更为严苛的用例。Sarvam表示,其105B-A9B模型在本地化的印度语言基准测试中优于谷歌Gemini2.5Flash等竞争对手。在更广泛的工作负载中,其模型在大多数基准测试中优于DeepSeekR1,在许多基准测试中优于谷歌GeminiFlash。

