1月6日,在2026CES展会上,英伟达推出了全新的Alpamayo平台,旨在通过开源AI模型、仿真工具及数据集组合,助力实体机器人与自动驾驶车辆的训练。Alpamayo的核心是Alpamayo1模型,这是一款拥有100亿参数的视觉-语言-行动(VLA)模型,能够使自动驾驶汽车具备类人思维能力,解决复杂场景问题,如交通信号灯失灵时的路口通行规划。
Alpamayo1模型基于思维链技术,能够将复杂问题拆解为多个步骤,对所有可能的情况逐一推演,最终选择最安全的解决方案。该模型不仅能接收传感器输入信号控制车辆,还能对即将采取的行动进行推理,并明确告知使用者即将执行的操作、决策依据以及后续行驶轨迹。Alpamayo1的底层代码已在HuggingFace平台开放,开发者可以基于该模型微调生成更轻量化、运行速度更快的版本,用于车辆开发工作。
此外,英伟达还推出了一个开源数据集,包含1,727小时的驾驶数据,涵盖25个国家和2,500多个城市的各类路况。同时,英伟达上线了AlpaSim仿真框架,这是一款用于验证自动驾驶系统的开源工具,能够高精度还原真实驾驶环境,助力开发者对自动驾驶系统开展大规模安全测试。

