MCP作为一个开放的“AI工具接口”标准,得到了各大模型提供商和开源Agent框架的关注与初步支持,这些模型、中间件和智能体通常可以直接被用来进行领域AI应用的开发,起到事半功倍的效果。下面综述目前支持或集成MCP的主要模型、中间件和智能体框架,并说明它们与MCP的结合方式及应用范围:
- Anthropic Claude:作为MCP的发起者,Anthropic已在自家产品中深度集成MCP。Claude模型(尤其Claude 2/Claude 3.5系列)通过Claude Desktop应用直接支持MCP接口,使LLM能够安全访问本地文件系统、应用等。开发者可以在Claude Desktop的配置中添加自定义MCP服务器,例如将本机的文件夹、Git仓库、浏览器等暴露为MCP资源,让Claude助手读取或写入文件、分析代码仓库、抓取网页等。此外,Claude的API也能够配合MCP客户端使用:Anthropic提供了Claude的“MCP工具调用”能力,允许Claude在对话中通过调用MCP定义的工具完成复杂操作(类似于函数调用但基于标准协议)。Claude + MCP的组合非常适合构建个人助理类应用和企业内部Agent,因为Claude善于在丰富上下文下进行推理,而MCP提供这些上下文所需的数据来源。典型应用包括代码编辑助手(结合IDE插件MCP服务器使用)、知识管理Agent(连接企业知识库)、任务自动化脚本等。作为先行者,Anthropic还开源了多种现成的MCP服务器实现(如Google Drive、Slack、GitHub等连接器)供社区使用。
- OpenAI GPT(ChatGPT):Sam Altman3月26日在x.com上亲口宣布了OpenAI支持MCP,这对生成式AI应用的普及绝对是一个巨大的利好,也可以解释为OpenAI良心未泯,高风亮节,因为它完全可以只支持自家的Response API。不过目前还只是说说,它一直采用自有的Function Call和插件体系来扩展模型能力,它的GPT模型可以根据对话内容决定调用哪个函数,并构造参数,从而访问外部API;ChatGPT插件允许开发者提供OpenAPI接口说明,让ChatGPT调用第三方服务。这些都是专有的机制,缺乏跨平台标准,只有用了MCP,才能充分结合OpenAI GPT的语言理解/生成能力,与其它应用实现互操作,极大拓展MCP可应用的场景。目前据说它的Agents SDK要支持 MCP,ChatGPT桌面应用和Responses API也即将推出MCP功能。
- LangChain / LangGraph:LangChain是流行的LLM应用编排库,提供了Agent(智能体)和Tools(工具)机制,可让LLM按照决策链调用一系列工具完成复杂任务。LangChain很早就支持上百种工具的整合,而随着MCP出现,LangChain官方和社区也提供了MCP的适配。LangChain的新版本(LangGraph子模块)引入了langchain-mcp-adapters库,使代理能够使用MCP服务器上定义的工具。具体而言,开发者可以创建一个MultiServerMCPClient,指定多个MCP服务器的地址或启动命令,然后获取这些服务器提供的工具列表并注入给LangChain的Agent。这样,原本LangChain Agent调用工具的逻辑无需更改,就可以调用远程MCP服务器上的功能。例如,一个LangChain Agent可以同时接入“数学计算MCP服务”和“天气查询MCP服务”,让GPT-4或Claude模型在推理链中按需使用这两个工具。这种集成方式扩展了LangChain可用工具的边界——借助MCP,数百种社区维护的工具服务器都能成为LangChain的工具来源。应用范围上,LangChain+MCP适合需要快速扩充工具集的场景,例如企业想用LangChain构建内网助手,可以直接引入文件系统、数据库查询等MCP工具,而不用手动实现每个接口。需要注意的是,LangChain本身已有自己的工具规范,团队核心成员对MCP也有讨论:认为MCP更适合为“无法自行开发agent的系统带来工具”,而LangChain工具偏向开发者自定义。两者可取长补短:LangChain提供高级代理逻辑,MCP提供标准化工具接口,共同提高代理系统的开发效率和互操作性。
- AG2 / AutoGen(Microsoft AgentOS):AutoGen是由微软研究提出的多智能体对话编排框架,后续开源项目更名为AG2 (AgentOS)。AG2旨在让开发者方便地创建多个LLM代理彼此对话协作来完成任务。由于MCP能让每个智能体调用外部工具获取信息,AG2很快地引入了对MCP的支持:最新版AG2提供了MCP Client接口,可为Agent创建一个包含若干MCP工具的“工具箱(Toolkit)”,从而使Agent能够调用MCP服务器的功能。官方示例演示了AG2如何连接一个简单的计算MCP服务器,Agent便可通过MCP调用add、multiply等操作来完成用户请求。这一集成让AG2的代理具备了标准化的工具使用能力,而无需为每个新工具写特定的对话Prompt或API调用代码。尤其在AG2强调的多代理协作场景中,每个Agent可以是一个专长模块,通过MCP获取对应领域的数据或执行操作,然后通过A2A协议彼此通信(这一点在下节详述)。AgentOS定位为生产级多Agent系统框架,因此对安全、可扩展性的要求高——MCP的沙箱式工具调用契合这一点,因为MCP服务器可以在独立进程中运行,Agent通过客户端调用,避免了直接执行不受控代码的风险。应用方面,AG2已被用于构建复杂的企业业务流程Agent和科研Demo,例如金融分析助理(多个子Agent协作分析财经数据,其中获取数据就通过MCP连接数据库/API)、知识问答系统(检索Agent通过MCP查询资料,推理Agent综合回答)。总的来说,AG2对MCP的支持标志着新一代Agent框架正趋向融合:将工具接入标准化(MCP)与多Agent通信标准化(A2A)相结合,打造更强大的自治代理网络。
- 开源模型与Transformers:Hugging Face的Transformers库使研究者能方便地使用各类开源大模型。虽然Transformers侧重模型推理本身,并无官方的工具协议支持,但由于MCP是模型无关的,只要LLM能够按照协议格式输出入消息,就能成为MCP客户端。这意味着开源模型理论上都可以集成MCP。目前有开发者在Hugging Face社区提供了示例,将本地开源模型包装进Agent,调用MCP工具来完成复杂任务。例如,有人构建了一个基于变形金刚模型的Agent,使其通过MCP访问搜索引擎和计算工具,从而回答开放域问题(类似让开源模型具备了ChatGPT插件的能力)。Hugging Face还发布了一篇教程,介绍如何使用MCP和Google的A2A框架构建端到端Agent管道。可以预见,随着MCP SDK推出C#/Java等多语言版本并不断完善,企业和开发者将能方便地将本地部署模型纳入MCP生态。这对注重数据隐私、需要离线运行的场景尤为重要(如医疗机构利用本地大模型,通过MCP访问内网数据库进行问诊辅助)。因此,虽然开源模型没有“官方”支持MCP,但社区已在推动将MCP用作不同模型共同的工具接入层,使Transformer模型也能与Claude、GPT等共享一套工具库,形成统一的应用层标准。
- Haystack:Haystack是deepset开发的开源问答检索框架,广泛用于检索增强型生成(RAG)应用。Haystack传统上关注于让LLM接入文档检索、数据库查询等功能,以在回答中引入真实知识。MCP的出现为Haystack提供了新的工具集成方式。deepset团队已发布MCP Tool模块,允许Haystack Pipeline中的Agent通过MCP协议调用外部工具和服务。开发者只需安装mcp-haystack插件,便可以创建MCPTool实例,指定目标MCP服务器地址(本地或远程)。Haystack的Agent(例如使用AgentPipeline或ToolRetriever)即可将MCPTool视为普通工具调用,从而利用外部能力。官方文档展示了用MCP连接一个简单计算器服务的例子:启动计算器MCP服务器,Haystack Agent通过MCPTool发送请求,得到加减运算结果。通过这样的集成,企业知识库问答Agent除了检索文档外,还可以MCP集成更多功能,如调用数据库SQL查询MCP服务来获取结构化数据、调用邮件发送MCP工具直接发送报告邮件等。这极大增强了RAG应用的行动力。Haystack选择MCP的原因在于标准化和易用性:以前要添加一个新工具,开发者可能需要编写自定义Connector或Agent逻辑;现在如果社区已经有对应MCP服务器,实现只需配置连接即可。应用范围包括企业内的知识助理(可连接内部CRM、ERP等MCP接口获取实时数据),或公共服务的问答机器人(可连接天气、地图等公共MCP API获取最新信息),从而提供更丰富的回复。Haystack作为注重检索真实性的框架,也会关注MCP提供的数据可信度,可能结合检索到的来源一起反馈给LLM,从而提高回答的可靠性。
- ChatGPT插件:OpenAI于2023年推出的ChatGPT Plugins可以视为封闭环境下对“AI工具接口”问题的探索。插件通过一个OpenAPI规范和Manifest文件描述第三方服务,使ChatGPT可以自主选择并调用插件的REST接口。然而,ChatGPT插件仅限于OpenAI自有的平台,不是一个通用协议。相较之下,MCP希望打造的是开放生态,各平台的模型/代理都可支持的统一接口。目前,MCP和ChatGPT插件在应用上还处于割裂状态:大量已有的插件服务(如旅行预订、股票查询等)并非MCP服务器,反之MCP社区丰富的开源工具也无法直接被ChatGPT调用。不过,两者并非对立:从理念上说,MCP的出现有望推动插件生态朝标准融合方向发展。例如,将来第三方服务提供商在开发工具接口时,可以同时提供一个OpenAPI文件(供ChatGPT插件使用)和一个MCP规范实现(供其他支持MCP的AI客户端使用)。也有观点将MCP视作ChatGPT插件的“通用化”版本——事实上,未来MCP的易用性提升后,也可能出现类似插件商店的用户体验,即一键安装MCP工具/Agent。而OpenAI插件当前的局限(只能用于ChatGPT、缺乏互通)也印证了行业需要一个厂商无关的标准。总而言之,ChatGPT插件拓展了大众对AI应用市场的想象,证明了让模型调用外部服务的价值;MCP则试图将这种能力带到更广泛的环境中,包括私有部署的模型、非OpenAI模型等。对于开发者来说,关注两者的融合走向,尽可能设计兼容性好的接口,将有助于其AI应用服务覆盖更多用户群体。
(除上述之外,还有一些正在兴起的Agent框架和中间件开始考虑MCP集成,例如企业级的The Swarm AgentOS、开源的Camel等。随着MCP生态扩大,预计更多框架会提供官方支持,这里不再一一赘述。)
以上综述,MCP作为“AI领域的USB-C”正在被广泛接受:模型提供方、工具集成库以及Agent框架纷纷探索将其纳入。这种趋势将使AI助手的构建更加模块化、标准化——开发者可以混搭不同模型和工具,构建满足垂直领域需求的应用,而不必担心接口兼容问题。
下一篇预告:MCP如何与谷歌的Agent2Agent协议一起振兴图书馆AI服务?

留下评论