12月31日,浪潮旗下YuanL网页链接团队宣布开源发布源Yuan3.0Flash多模态基础大模型。Yuan3.0Flash是一个40B参数规模的模型,采用稀疏混合专家(MoE)架构,单次推理仅激活约3.7B参数。该模型通过强化学习训练方法(RAPO)和反思抑制奖励机制(RIRM),在提升推理准确性的同时,显著降低了推理过程的token消耗和算力成本。
Yuan3.0Flash由视觉编码器、语言主干网络和多模态对齐模块组成。语言主干网络使用局部过滤增强的Attention结构(LFA)和混合专家(MoE)结构,以提高注意力精度并降低训练与推理的算力开销。在多模态方面,模型将视觉信号转化为token,并与语言token一起输入到语言主干网络,通过多模态对齐模块实现跨模态特征对齐。此外,引入自适应图像分割机制,支持高分辨率图像理解,同时降低显存需求及算力开销。
在企业场景的多个任务中,如RAG(ChatRAG)、多模态检索(Docmatix)、多模态表格理解(MMTab)和摘要生成(SummEval),Yuan3.0Flash的表现已优于GPT-5.1。在多模态推理与语言推理评测中,Yuan3.0Flash(40B)的精度接近Qwen3-VL235B-A22B(235B)与DeepSeek-R1-0528(671B),但token消耗仅约为其1/4~1/2,有效降低了企业大模型应用成本。Yuan3.0Flash现已全面开源,全系列模型参数和代码均可免费下载使用。

