OpenAI发布了名为Open Responses的规范,这一开放性标准旨在优化智能体的工作流程,减少API接口之间的差异。该规范得到了Hugging Face、Vercel等合作伙伴以及各类本地推理工具的支持,为智能体循环、推理过程的透明度以及内部与外部工具的执行方式制定了统一的标准。其目的在于让开发者能够轻松地在专有模型和开源模型之间进行切换,而无需重新编写集成代码。
这一规范将“项目”、“推理过程的透明度”以及“工具执行模型”等概念进行了明确界定,从而使模型提供商能够在自己的基础设施中管理多步骤的智能体工作流程——这些流程包括反复进行的推理、工具调用以及结果反思等环节。这样的设计使得模型提供商能够在自身系统中处理复杂的工作流程,并且能够通过一次API请求就能得到最终结果。此外,该规范对多模态输入、流式事件以及跨供应商的工具调用也提供了原生支持,从而大大减少了在切换不同模型时所需进行的适配工作。
该规范中引入的核心概念包括“项目”、“工具使用”以及“智能体循环”。所谓“项目”,是指代表模型输入数据、输出结果、工具调用指令或推理状态的原子级单位,例如“消息”“函数调用”以及“推理类型”等都属于这一范畴。这些项目具有可扩展性,因此提供商可以根据实际需求添加自定义的项目类型。其中,“推理类型”尤为值得关注,因为它能够以提供商可控的方式展示模型的思考过程。项目的内容可以包括原始的推理结果、受保护的数据,或者对这些结果的摘要,这样开发者就能了解模型是如何得出结论的,同时提供商也可以自行控制这些信息的公开程度。
Open Responses区分了“内部工具”和“外部工具”,以此明确编排逻辑的执行位置。内部工具是在提供商的基础设施内部直接执行的,这使得模型能够自主完成智能体循环中的各项操作。在这种模式下,模型提供商可以执行诸如搜索文档、总结分析结果等任务,然后通过一次API请求就能得到最终结果。而外部工具则需要在开发者的应用程序代码中才能被执行。在这种情况下,模型提供商需要先发起工具调用请求,之后由开发者来负责执行这些操作,并将结果返回给模型,以便继续完成整个循环。

这一规范已经得到了包括Hugging Face、OpenRouter、Vercel等合作伙伴以及LM Studio、Ollama、vLLM等本地推理工具提供商的积极响应,它们都在自己的系统中采用了这一规范,从而实现了智能体工作流程的标准化。
这一公告引发了关于“供应商锁定”问题以及相关生态系统成熟度的话题讨论。Rituraj Pramanik指出:
在OpenAI的API基础上建立“开放型”标准,虽然有点讽刺意味,但确实具有实际意义。真正的难题在于系统的分裂与碎片化;我们花费了大量时间去整合各种不同的技术规范。如果这一规范能够让我不再需要编写额外的代码层来适配不同的模型,并使模型之间的切换变得简单易行,那么它就真正解决了智能体开发中最为棘手的问题。
其他开发者则认为,这一举措标志着大语言模型领域正在逐渐走向成熟。AI开发者兼教育家Sam Witteveen预测:
可以预期,那些处于技术前沿的开放模型实验室(如Qwen、Kimi、DeepSeek)将会开发出既兼容Open Responses规范也兼容Anthropic API的模型。Ollama刚刚宣布了自己的模型也支持Anthropic API,这意味着使用Claude Code工具来训练高质量本地模型已经指日可待。对于那些希望在不同 proprietary模型与开放模型之间切换的开发者来说,这无疑是一个巨大的福音。
Open Responses的相关规范、数据结构以及合规性测试工具目前已经可以在该项目的官方网站上找到:点击访问。同时,Hugging Face也提供了演示应用程序,让开发者们能够亲身体验这一规范的实用性。