1月1日,据The Information报道,OpenAI正在加强其音频人工智能能力,为未来推出一款以语音为核心的个人AI设备做准备。这款设备将以听觉交互为主要形式,不依赖屏幕。目前,ChatGPT的语音功能与文本回答使用的模型不同。OpenAI内部研究人员认为,现有音频模型在准确性和响应速度上明显落后,因此公司在过去两个月内集中力量攻克音频模型短板。这一调整旨在打造一款可通过自然语音指令操作的消费级设备。首款产品预计至少还需要一年时间才能面世。
随着新架构的引入,音频模型已能生成更自然、更富情感的语音回应,并具备与人类同时发声、应对打断的能力。OpenAI计划在2026年第一季度正式发布该模型。在硬件形态上,OpenAI与谷歌、亚马逊、Meta和苹果的判断相似,认为现有主流设备并非为未来的AI交互而生。OpenAI团队希望用户通过"说话"而非"看屏幕"与设备互动,认为语音才是最贴近人类交流本能的方式。与OpenAI合作推进硬件项目的乔尼・艾维也强调,无屏幕设计不仅更自然,还有助于避免用户沉迷。他认为,新一代设备应当纠正以往消费电子产品带来的负面影响,并为此承担责任。
不过,OpenAI目前仍面临现实挑战。内部人士指出,不少ChatGPT用户并未习惯使用语音功能,这种情况不仅因为音频模型效果不彰,也与功能认知不足有关。在推出音频优先的AI设备之前,OpenAI必须先改变用户的使用习惯。在组织层面,OpenAI已组建专门团队推进音频AI战略。来自Character.AI的语音研究员昆丹・库马尔负责整体方向,本・纽豪斯正在重构面向音频的底层架构,多模态ChatGPT的产品经理杰基・香农也参与其中。OpenAI并不打算只推出一款设备,而是规划了一条产品线,包括智能眼镜和无屏幕智能音箱。公司内部的设想是,这类设备将以"伴随式助手"的形态存在,主动理解环境和用户需求,并在获得授权的情况下,通过音频和视频持续提供帮助。为支撑这一长期布局,OpenAI已在2025年初斥资近65亿美元收购乔尼・艾维联合创办的io,并同步推进供应链、工业设计与模型研发等多条工作线。
