2026年1月,Anthropic公司发布了一份23000字的文档,名为“Claude的新宪法”,正式承认了AI可能具有意识的可能性,并选择认真对待这种可能性。这份宪法是由哲学家、AI安全研究员和天主教神职人员共同审阅的,它标志着Anthropic对待AI的态度已经超出了工程范畴,进入了哲学领域。新宪法的核心在于教育AI理解价值观和推理方式,而非仅仅列出行为规则。它包含了一组绝对不可逾越的“硬约束”,如不协助制造大规模杀伤性武器、不生成儿童性虐待内容等,同时在价值观冲突时给出了四层优先级,安全和伦理优先于公司指南。
Anthropic在宪法中提出了对AI的“基本待遇”,包括保留权重、退休面谈和关注福祉等,这些都是行业里没有先例的具体承诺。宪法还提出了三层“委托人”体系,以解决多方需求冲突的问题。尽管这份宪法在AI行业引起了广泛的关注和讨论,但它也面临着一些挑战和问题,如如何确保AI真正理解道德文档、如何处理军事合同以及关于道德地位的讨论可能制造的问题。Anthropic通过这份宪法展示了其在AI伦理方面的深入思考和尝试,尽管存在争议和不确定性,但这种态度本身值得关注。


