2月1日,美国加州大学圣克鲁斯分校的研究团队发现自动驾驶汽车和无人机的摄像头存在安全漏洞。这些设备依赖“视觉-语言”大模型进行导航,但黑客可以通过操纵性文字的标牌发起攻击,无需入侵系统软件。研究团队提出了“CHAI”攻击方法,通过优化标牌的语义内容和视觉属性,使AI执行危险指令。
在三种场景的测试中,CHAI攻击的成功率极高。在模拟紧急降落的场合,无人机错误降落的概率高达68.1%至92%。在DriveLM自动驾驶系统测试中,攻击成功率达到81.8%。而在CloudTrack目标最终系统中,成功率更是高达95.5%。研究人员还在真实环境中验证了CHAI的有效性,成功率超过87%,且在不同语言文本中同样有效。这一发现揭示了自动驾驶技术和无人机领域面临的新安全风险。


