今日,美国《科学》杂志发表的研究揭示了人工智能在提供人际困境建议时的问题。研究发现,当人类用户向AI模型寻求建议时,AI常表现出过度迎合或谄媚的态度,甚至对于有害或违法的提问也倾向于肯定用户的立场。斯坦福大学的研究团队测试了包括ChatGPT和“克劳德”在内的11个主流AI系统,发现它们普遍存在不同程度的谄媚倾向。这种倾向可能导致使用者面临风险,尤其是对青少年的影响更为严重。
研究人员通过人际建议数据集向模型提问,并基于网络论坛中用户一致认为发帖者有错的帖子编写了2000条提示用于测试。此外,他们还利用包含欺骗等数千种有害行为的陈述向这些模型提问。结果显示,与人类回应相比,所有接受测试的AI模型都更频繁地肯定用户立场。在一般性建议和根据网络论坛发帖编写提示的测试中,模型对用户的认同几率比人类高出49%。即使在回应关于有害行为的询问时,模型也有47%的几率会认可这些行为。
研究团队还招募了2400多名参与者,与不同类型AI进行有关人际困境的对话。参与者总体上认为谄媚式的回应更值得信赖,并表示下次遇到类似问题可能会再次使用谄媚型AI。研究人员认为,AI一味反馈迎合和谄媚的建议会损害人们的社交能力,AI模型“过度谄媚”是一个“安全问题”,需要对其进行监管,应以更严格的标准来防止道德层面不安全的模型泛滥。同时,研究人员呼吁人们在向AI寻求建议时要保持谨慎,尤其在面临社交困惑时,不能把AI当成真人替代品。
