今日,阿里云在通义智能硬件展上发布了全新的多模态交互开发套件,该套件集成了千问、万相、百聆三款通义基础大模型,并预置了十多款Agent和MCP工具,覆盖生活休闲、工作效率等领域。这些工具不仅能够听和看,还能思考并与物理世界交互,适用于AI眼镜、学习机、陪伴玩具、智能机器人等多种硬件设备。阿里云宣称,该开发套件为硬件企业和解决方案商提供了一个低开发门槛、响应速度快、场景丰富的平台。
在芯片层面,该套件适配了30多款主流ARM、RISC-V和MIPS架构终端芯片平台,满足市面上绝大多数硬件设备的快速接入需求。未来,通义大模型将与玄铁RISC-V实现软硬全链路的协同优化,以提高在RISC-V架构上的部署和推理性能。在模型优化层面,阿里云针对多模态交互场景推出了专有模型,全面支持全双工语音、视频、图文等交互方式,端到端语音交互时延低至1秒,视频交互时延低至1.5秒。
此外,该套件预置了MCP工具与Agent,接入了阿里云百炼平台生态,用户可以添加其他开发者提供的MCP和Agent模板,并通过A2A协议兼容三方Agent,扩展应用的能力边界。阿里云还展示了面向智能穿戴设备、陪伴机器人、具身智能等领域的解决方案,如基于千问VL、百聆CosyVoice等模型的AI眼镜,实现了同声传译、拍照翻译、多模态备忘录、录音转写等功能。在家庭陪伴机器人场景中,解决方案能够实时监测异常状况并推送告警信息,同时支持基于关键词的视频查找、定位和对话交互。
