1月21日,研究人员发现谷歌Gemini大型语言模型(LLM)助手存在安全漏洞。攻击者可以通过自然语言指令,绕过Gemini的防御机制,制造虚假事件窃取日历隐私数据。Gemini已集成到Gmail、日历等谷歌网页服务中,具备邮件总结、答疑解惑、日程管理等功能。攻击者向目标发送包含恶意载荷的日历邀请,受害者向Gemini询问日程安排时,就会触发数据窃取操作。
具体攻击流程是:攻击者发送恶意日历邀请,载荷以提示词注入指令隐藏在事件描述中。受害者询问日程时,谷歌助手加载并解析所有相关日程事件,包括恶意载荷。研究人员发现,通过控制日程事件描述字段植入指令,就能让谷歌Gemini遵照执行。一旦执行恶意指令,会自动创建新日程,并将私人会议汇总内容写入描述中,导致隐私泄露。
MiggoSecurity的研究人员指出,尽管谷歌为Gemini配备了独立隔离的模型检测恶意提示词,但此次攻击仍突破了安全防护。植入的指令表面上并无异常,因此能规避现有的安全预警机制。目前谷歌已新增防护措施拦截此类攻击,但这也暴露出采用自然语言驱动API的AI系统存在新型漏洞利用与操控手段的预判难度。
