今日,未来生命研究所发布了AI安全指数,指出Anthropic、OpenAI、xAI和Meta等主要AI公司的安全措施远未达到全球标准。报告强调,这些企业在追求超级智能的同时,未能建立有效管控高阶系统的可靠方案。近期,多起自杀和自残事件被追溯到AI聊天机器人,社会对可能超越人类的AI系统带来的冲击感到担忧,研究正是在这样的背景下公布。
未来生命研究所主席、MIT教授Max Tegmark表示,尽管外界对AI协助黑客入侵、推动心理失控和自残的事件议论不断,美国的AI企业却仍比餐馆少受监管,并持续游说抵制强制性的安全规范。与此同时,AI竞赛持续升温,主要科技企业正为机器学习技术的扩展和升级投入数千亿美元。未来生命研究所是一家非营利机构,长期关注智能机器对人类的潜在威胁,成立于2014年,早期曾获得特斯拉CEO马斯克的支持。今年10月,多位科学家呼吁暂停超级智能的研发,直至科研界找到确保安全的路径。
