1月25日,Newsguard的调查揭示了主流聊天机器人在识别伪造视频方面的不足。研究发现,即使是来自同一母公司的内容,这些AI系统也难以分辨。OpenAI的Sora2和谷歌的Veo3等工具能够制作出几乎无法被人类辨别真伪的视频。在对三款主流聊天机器人的测试中,xAI的Grok未能识别出95%的AI生成视频,OpenAI的ChatGPT错误率高达92.5%,而谷歌的Gemini虽然表现最佳,错误率也达到了78%。这些聊天机器人在面对带有可见水印的视频时,识别失败率依然很高,Grok为30%,ChatGPT为7.5%,只有Gemini能够准确识别所有带水印视频的AI生成属性。
Sora视频虽然会添加可见水印以提示视频为AI生成,但这一防护措施效果有限。网络上出现了多款免费在线工具可以轻松去除视频水印,使得AI生成痕迹被隐藏。此外,Sora视频还内置了不可见水印,遵循C2PA行业标准,附带元数据以供验证。然而,这种溯源信息的可靠性并不强,通过不同的下载方式,元数据可能会丢失。ChatGPT在面对带有完整C2PA溯源数据的视频时,错误地表示未发现任何内容溯源信息。这些AI系统在识别AI生成内容方面的能力不足,以及透明度的缺失,使得它们在面对虚假信息传播活动时显得脆弱。

