2月18日,CNET的调查揭示了公众在社交媒体上识别AI生成内容的挑战。调查显示,94%的美国成年人曾在社交平台上看到过AI生成的图片或视频,但仅有44%的人认为自己能够准确区分真实内容与AI作品。在识别手段上,60%的受访者依赖于观察画面细节,25%的人通过反向图片搜索核查来源,5%的人使用深度伪造检测工具,而3%的人选择默认怀疑。
面对真假难辨的内容,51%的受访者建议对AI内容进行更明确的标签标识,21%的人主张在社交媒体上全面禁止AI生成的图片和视频。只有11%的受访者认为AI视频具有信息价值、实用性或娱乐性。调查还发现,72%的美国成年人会采取措施判断视频真伪,但部分群体,尤其是1946年至1964年间出生的人(36%)和1960年代中期至1980年代出生的人(29%),并不会主动验证,这使得虚假内容更容易被误信。
随着AI生成模型能力的提升,公众对内容真实性的判断面临前所未有的挑战。过去用于识别AI生成图像的小技巧,如看手指数量等,已逐渐失效,平台治理AI虚假内容的重要性愈发凸显。
