近日,OpenAI宣布其Responses API支持MCP服务,开发者无需为每个函数调用手动连接特定服务,而是可以将模型配置为指向一个或多个MCP服务。
Responses API是OpenAI推出的最新核心API,旨在简化开发者与AI交互的方式,并扩展其功能。它是Chat Completions API的升级版本,结合了Chat Completions的简洁性和Assistants API的强大功能,支持更复杂的任务处理。
为了进一步简化智能体开发,Responses API支持了MCP服务,开发人员只需几行代码即可将智能体连接到强大的外部工具和服务。支持MCP后的好处如下:
- 1、可以集中管理工具,使得智能体能够高效地调用外部服务。
- 2、在使用MCP时,还可以通过精确的权限控制确保智能体的安全性。
- 3、MCP支持动态工具列表的导入和缓存机制。
Responses API新增功能:
除了支持MCP外,OpenAI还对Responses API中的图像生成、Code Interpreter和文件搜索工具进行了重大更新,进一步增强了智能体的功能。
图像生成:开发者现在可以在Responses API中直接访问OpenAI的最新图像生成模型(如<gpt-image-1>),并将其作为工具使用。该工具支持实时流传输,允许开发者在图像生成过程中查看预览,并支持多轮编辑,使开发者能够逐步精细调整图像。
Code Interpreter:Code Interpreter工具现在可以在Responses API中使用,支持数据分析、解决复杂的数学和编码问题,甚至帮助模型深入理解和操作图像。例如,在处理数学问题时,模型可以利用Code Interpreter运行代码来得出答案,从而显著提升性能。
文件搜索:文件搜索工具得到了增强,允许开发者根据用户查询将文档中的相关内容块提取到模型的上下文中。此外,该工具还支持跨多个向量存储执行搜索,并允许使用数组进行属性过滤。
后台模式:对于需要较长时间处理的任务,开发者可以使用后台模式异步启动这些任务,而无需担心超时或其他连接问题。开发者可以通过轮询这些任务来检查是否完成,或者在需要时开始流式传输事件。
推理摘要:Responses API现在可以生成模型内部思维链的简洁自然语言摘要。这使得开发者更容易调试、审计和构建更好的最终用户体验。
加密推理项:符合零数据保留(ZDR)条件的客户可以在API请求之间重复使用推理项,而无需将任何推理项存储在OpenAI的服务器上。这不仅提高了智能性,还减少了标记使用量,降低了成本和延迟。
相关推荐: