Anthropic于2月18日发布了首份AI智能体行为实测报告,通过对ClaudeCode及公共API上的数百万次人机交互进行隐私保护分析,揭示了AI智能体在实际部署中的自主程度、风险分布与监督模式。研究发现,ClaudeCode的自主工作时长显著增加,其单次连续自主运行的最长时长在三个月内几乎翻倍。在2025年10月至2026年1月期间,其“turnduration”第99.9百分位的运行时长从不足25分钟上升至超过45分钟,而中位数时长维持在约45秒,波动有限。
研究还指出,ClaudeCode在处理最具挑战性任务时的成功率自2025年8月至12月间翻倍增长,平均每个会话中的人工干预次数从5.4次下降至3.3次。这表明模型在实际部署中的“可用自主空间”可能高于当前用户赋予的水平。经验丰富的用户更倾向于采用“全自动模式”,而新用户仅在约20%的会话中启用“全自动模式”。Anthropic在公开API数据中也观察到类似情况,针对低复杂度任务约87%的工具调用存在某种形式的人工参与,而在高复杂度任务中,这一比例降至67%。
在风险领域,研究显示,大多数通过公共API执行的操作风险较低且可逆。软件工程占所有智能体活动的近50%,但医疗、金融和网络安全等领域也已出现新兴应用。尽管高风险操作目前占比极小,但一旦出错,其后果可能相当严重。Anthropic基于这些发现,向模型开发者、产品开发者和政策制定者提出建议,包括投资于部署后监控基础设施、训练模型识别自身不确定性、设计支持用户有效监督的交互工具,并避免过早强制规定具体的交互模式。


