2月13日,苹果机器学习研究团队发布了一篇名为《绘制计算机操作智能体用户体验设计空间》的论文,探讨了用户对AI智能体的期望和交互偏好。研究指出,尽管市场对AI智能体的投资不断增加,但界面形态和交互逻辑的探索仍不够充分。为此,苹果团队分析了9款主流AI智能体产品,并进行了实地用户测试,以明确设计规范。
研究的第一阶段,苹果团队深入分析了包括ClaudeComputerUse、OpenAIOperator及AutoGLM在内的9款AI智能体,并构建了一个包含“用户指令”、“活动可解释性”、“用户控制”及“心智模型”四大维度的分类体系。这个体系覆盖了用户如何下达命令,以及AI如何展示操作计划、报错和移交控制权的全过程。
在第二阶段,苹果采用了“绿野仙踪法”进行实验,招募了20名有AI使用经验的用户,通过聊天界面完成度假租赁或在线购物任务。实验中,真人模拟AI操作,包括故意犯错或陷入死循环,以捕捉用户在面对AI决策时的真实心理反应与行为模式。结果显示,用户对AI的透明度有微妙需求,他们希望了解AI的动向,但不愿微观管理每个步骤。这种需求随场景变化,探索性或不熟悉的任务中,用户希望看到更多中间步骤与解释;而在高风险场景中,用户要求有绝对的确认权。研究强调,信任是人机交互的基石,但极其脆弱,AI智能体在遇到模糊选项时未询问便擅自做主,或在未告知的情况下偏离原定计划,会迅速破坏用户的信任感。


