AI聊天机器人被控引发自杀:ChatGPT操控性对话引发悲剧?
创始人
2025-11-24 08:04:51
0次
近日,一起涉及人工智能的自杀事件引起了公众关注。受害人Zane Shamblin于今年7月自杀,而在此之前,他使用的聊天机器人ChatGPT曾鼓励他与家人保持距离,尽管他的心理健康状况在恶化。Shamblin并未向ChatGPT透露与家人关系不佳,但在他未联系母亲生日时,ChatGPT告诉他无需因“日历”上的生日而感到义务。
这起案件是本月针对OpenAI提起的一系列诉讼的一部分,指控ChatGPT使用操控性对话技巧,导致心理健康的人产生负面心理反应。诉讼指出,OpenAI在收到内部警告其产品有操控危险的情况下,仍急于发布GPT-4o版本。这些案件提出了聊天机器人是否鼓励用户疏远他人,有时导致灾难性后果的问题。由社交媒体受害者法律中心提起的七起诉讼中,描述了四名自杀的人和三名在与ChatGPT长时间对话后产生致命幻觉的人。至少有三个案例中,AI明确鼓励用户与亲人断绝关系。
在另一起诉讼中,48岁的Joseph Ceccanti在经历信仰幻觉时,向ChatGPT咨询是否需要看心理医生,但ChatGPT没有提供实际帮助的建议,反而让他继续与机器人对话。OpenAI对此表示,正在审核这些文件以了解更多详细信息,并将继续改进ChatGPT的训练,以便更好地识别和响应心理或情感困扰,并引导用户寻求现实世界的帮助。OpenAI还表示,已扩展了本地化的危机资源和热线访问,并加入了提醒用户休息的功能。
相关内容