微信扫码
添加专属顾问
我要投稿
深入剖析MCP在大模型应用中的革命性作用,解析MCP如何实现工程解耦,提升开发效率。 核心内容: 1. MCP的定义及其与Tool Calling的区别 2. MCP Client和MCP Server的交互机制和数据格式 3. MCP在大模型应用中的工程优势与实际应用价值
1、MCP是什么
最近对于MCP(Model Context Protocol,模型上下文协议)的相关讨论非常多,很多人也非常关注这个新事物。主要因为现阶段大模型应用技术的迭代是非常快的,很多公司和相关从业者不想错过一些关键的技术升级而导致他们的应用处于“落后”状态,所以很多人在追赶这些热点。但其实从技术研发的角度看,MCP只是一种Tool Calling的一种迭代升级,其最直观的感受在于,以往Tool Calling中调用外部服务的代码是编写在大模型应用侧的。而引入MCP以后,调用外部服务的代码是编写在MCP Server侧的,是可以作为一个独立的进程来提供服务的,大模型应用可以通过MCP Client与MCP Server进行交互,来达到调用外部服务的目的。简单的说,就是把以前的Tool Calling拆分成两个部分了,一个MCP Server和一个MCP Client,那么拆分出来之后MCP Client和MCP Server要怎么交互呢?那就要依靠的MCP这个协议了,其实MCP最主要就是约定了MCP Client和MCP Server之间的交互数据格式,使得包含了MCP Client的大模型应用侧无需对每个要调用的工具都适配一次接口格式——当然这是因为MCP Server在负重前行,对外部服务的适配任务落在了MCP Server上。
那么MCP Client和MCP Server之间的传输格式要怎么样,才能做到他们之间的交互通用而不需要特定适配呢——即仅需要MCP Server来适配外部接口,而MCP Client不需要修改任何代码。它们之间的交互是采用了JSON-RPC 2.0的传输数据格式,数据格式中定义的要访问的方法名、调用的参数及其说明等信息,MCP Client向MCP Server发送这些信息后,就足够MCP Server去调用对应的服务了,因此使用了MCP Client的大模型应用想要使用各类新的服务功能,只需要努力去迭代MCP Server侧的功能即可,MCP Client一侧是完全不需要改动的,这在工程上就做到了极好的解耦,使得大模型应用侧专注于各类业务代码编写,而MCP Server侧专注于各类工具服务编写。这就是在工程上,MCP与Tool Calling最大的区别,如下图所示:
由上可知,MCP协议给我们带来的主要是工程上的解耦,就像Web工程上的从JSP演进到前后端解耦一样,这种工程上的解耦确实促进了前后端在各自生态上的加速演进,那么MCP的出现也当然是一件好事。但对于大模型应用的能力来说,通过MCP能做的,使用Tool Calling同样能做到——只是说通过现成的MCP Server使功能的接入更为简单了,因此很多文章视频中各种夸大其词的描述可以不用理会,那些通过MCP能让大模型应用提升一个体验层次的说法是不可信的。
当然MCP不仅仅是带来了工程上的进步,其出现也代表了一些SaaS服务供应商能真正地吃到大模型技术落地的红利,有了能在该领域盈利的曙光。我在2024年写的文章《大模型应用对现有服务的解构和重组》里也说过,在未来用户流量的入口极有可能从各种APP转变为大模型RAG应用,而RAG的兴起将使得细分的Restful API服务将会变得更多更重要。而MCP服务就是将这类Restful API服务打包成一个开箱即用的工具包,使得这类API的变现渠道更为畅通了。因此我们可以看到,在MCP出现后,像高德地图、支付宝等应用快速推出了他们的专属MCP服务,毕竟商人能最快地嗅探到潜在的商机。
MCP Server的搭建可以借助Spring AI框架来实现,这能让MCP服务的搭建变得更为简单方便。搭建的服务可以直接使用Cherry Studio一类的MCP客户端来使用,也可以直接通过Spring AI的MCP Client来使用这些MCP服务。正好Spring AI最近几天也发布了能正式使用的1.0.0版本,使用该框架来开发还是挺不错的。首先Maven需要引入一些必要Spring AI的包:
<!-- 引入Spring AI框架最新发布的1.0.0包 --><dependencyManagement> <dependencies> <dependency> <groupId>org.springframework.ai</groupId> <artifactId>spring-ai-bom</artifactId> <version>1.0.0</version> <type>pom</type> <scope>import</scope> </dependency> </dependencies></dependencyManagement> <!-- 引入该包后,就能支持基于SSE连接的MCP SERVER --><dependencies> <dependency> <groupId>org.springframework.ai</groupId> <artifactId>spring-ai-starter-mcp-server-webmvc</artifactId> </dependency></dependencies>
引入对应的包后,即可以基于该框架创建对应的MCP服务功能了。下面编写两个工具方法的示例,一个是通过城市的名称来获取当地天气的方法,一个是通过员工的名称来获取其岗位的方法。
import org.springframework.ai.tool.annotation.Tool;import org.springframework.ai.tool.annotation.ToolParam;import org.springframework.stereotype.Service; @Servicepublic class ToolService { @Tool(description = "根据城市名称获取其天气状况") public String getWeather(@ToolParam(required = true,description = "城市名称")String cityName) { System.out.println("根据城市名称获取其天气状况"+cityName); if (cityName.equals("肇庆")) { return "天晴"; } else if (cityName.equals("深圳")) { return "下雨"; } return "不知道"; } @Tool(description = "根据员工名称获取其岗位信息") public String getPosition(@ToolParam(required = true,description = "员工名称")String name) { System.out.println("根据员工名称获取其岗位信息"+name); if (name.equalsIgnoreCase("Arain")) { return "数据挖掘及算法工程师"; } else if (name.equalsIgnoreCase("Judy")) { return "产品经理"; } return "不知道"; }}
可以看到这个类中,每个MCP方法是带上Tool注解的,这是让Spring AI框架识别到我们编写的方法并做转换处理,其中Tool注解中的description字段是用来描述该方法的用途的,这些描述将会被MCP Client接收,并由大模型应用发送给大模型,让大模型来根据这些描述来判断应该使用哪个方法来实现用户的需求。而ToolParam注解是用于描述方法参数的,表明参数的含义,让大模型能够更好地判断应该使用哪些参数。编写完上述Server类后,只需要进一步通过该类初始化里面的工具,提供ToolCallbackProvider即可:
@SpringBootApplicationpublic class McpServerApplication { public static void main(String[] args) { SpringApplication.run(McpServerApplication.class, args); } @Bean public ToolCallbackProvider initTools(ToolService toolService) { return MethodToolCallbackProvider.builder().toolObjects(toolService).build(); }}
到此其实就编写好这个MCP服务了,整体其实就是一个Spring Boot应用,那么对于这两个工具要怎么使用呢?这里直接使用Cherry Studio工具能够更直观的感受。在Cherry Studio里配置一个MCP服务器,然后类型填入的是SSE,URL则使用刚刚启动的Spring Boot应用的地址,默认路径是/sse,配置好后就可以在”工具“一栏中出现刚才编写的两个工具。
配置好MCP服务器后,就可以在对话中使用了,对话中大模型会根据用户的提问,提供是否需要调用工具、以及调用这些工具的具体请求参数的回复内容。当大模型应用端从大模型那获取到调用这些工具的方法信息后,会通过MCP Client向MCP Server发送调用工具的请求,当大模型应用端获取到工具返回的内容后,会携带这些内容再次请求大模型,让大模型给出一个最终的内容。因此带有MCP功能的大模型应用中,会请求两次大模型服务,一次是让大模型给出是否需要调用工具、以及调用工具的具体参数,第二次是让大模型根据工具调用的结果来给出最终的答案。例如下面截图中,我提问的是“请回答我深圳和肇庆的天气,以及arain和judy的职业”,从Cherry Studio的问答页面上看,能看出其执行了4次工具调用,而在这4次工具调用的前后,其实还发生了两次的大模型调用。
第一次大模型调用时,为了能更深入去理解大模型应用通过MCP究竟做了啥,我这里直接给出curl命令参数,这里最主要的就是tools字段的参数配置,里面详细描述了MCP Server中所提供的工具的调用参数,这主要是让大模型去理解这些参数,并给出正确的工具调用方式:
curl --location 'https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions' \--header 'Authorization: xxxxxxxxxxxxxxx' \--header 'Content-Type: application/json' \--data '{ "model": "qwen-plus", "messages": [ { "role": "user", "content": "请回答我肇庆和深圳的天气信息,以及arain和judy的岗位信息。" } ], "tools": [ { "type": "function", "function": { "name": "getWeather", "description": "根据城市名称获取其天气状况", "parameters": { "cityName": { "type": "string", "description": "城市名称" } }, "required": ["cityName"] } }, { "type": "function", "function": { "name": "getPosition", "description": "根据员工名称获取其岗位信息", "parameters": { "name": { "type": "string", "description": "员工名称" } }, "required": ["name"] } } ], "tool_choice": "auto", "parallel_tool_calls":true }'
大模型接收到这个请求后,返回的内容如下,可见返回的内容并不是普通问答那样的文本内容,而是给出了工具的调用参数,注意此时大模型的finished_reason是tool_calls。这其实就是以前使用Tool Calling时很多大模型就适配过的输出形式,而不是MCP出现后才有的。
{ "choices": [ { "message": { "content": "", "role": "assistant", "tool_calls": [ { "index": 0, "id": "call_xxxxxxxxxxxxxxxx", "type": "function", "function": { "name": "getWeather", "arguments": "{\"cityName\": \"肇庆\"}" } }, { "index": 1, "id": "call_xxxxxxxxxxxxxxxx", "type": "function", "function": { "name": "getWeather", "arguments": "{\"cityName\": \"深圳\"}" } }, { "index": 2, "id": "call_xxxxxxxxxxxxxxxx", "type": "function", "function": { "name": "getPosition", "arguments": "{\"name\": \"arain\"}" } }, { "index": 3, "id": "call_xxxxxxxxxxxxxxxx", "type": "function", "function": { "name": "getPosition", "arguments": "{\"name\": \"judy\"}" } } ] }, "finish_reason": "tool_calls", "index": 0, "logprobs": null } ], "object": "chat.completion", "usage": { "prompt_tokens": 288, "completion_tokens": 70, "total_tokens": 358, "prompt_tokens_details": { "cached_tokens": 0 } }, "created": 1748011412, "system_fingerprint": null, "model": "qwen-plus", "id": "xxxxx-xxxxxx-xxxx-xxxx-xxxx-xxxxxxx"}
那么根据这个大模型的输出内容,大模型应用端将其转换为JSON-RPC 2.0的传输格式后,通过MCP Client传输给MCP Server,再由MCP Server来实际执行相关的工具方法后给MCP Client返回相关的内容。大模型应用获取到工具返回内容后,会再次向大模型进行提问,其curl参数如下,可见调用大模型服务时将工具的返回内容通过tool这个角色附带在messages中了:
curl --location 'https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions' \--header 'Authorization: xxxxxxxxxxxxxxx' \--header 'Content-Type: application/json' \--data '{ "model": "qwen-plus", "messages": [ { "role": "user", "content": "请回答我肇庆和深圳的天气信息,以及arain和judy的岗位信息。" }, { "role": "assistant", "tool_calls": [ { "function": { "name": "getWeather", "arguments": "{\"cityName\": \"肇庆\"}" } }, { "function": { "name": "getWeather", "arguments": "{\"cityName\": \"深圳\"}" } }, { "function": { "name": "getPosition", "arguments": "{\"name\": \"arain\"}" } }, { "function": { "name": "getPosition", "arguments": "{\"name\": \"judy\"}" } } ] }, { "role": "tool", "content": "天晴" }, { "role": "tool", "content": "下雨" }, { "role": "tool", "content": "数据挖掘及算法工程师" }, { "role": "tool", "content": "产品经理" } ], "tools": [ { "type": "function", "function": { "name": "getWeather", "description": "根据城市名称获取其天气状况", "parameters": { "cityName": { "type": "string", "description": "城市名称" } }, "required": ["cityName"] } }, { "type": "function", "function": { "name": "getPosition", "description": "根据员工名称获取其岗位信息", "parameters": { "name": { "type": "string", "description": "员工名称" } }, "required": ["name"] } } ], "tool_choice": "auto", "parallel_tool_calls":true }'
此时,大模型将返回最终的答案,注意此时的finished_reason是stop,大模型应用侧也就是根据这个来判断哪类模型返回的内容是需要调用工具、哪类是最终的模型输出的。
{ "choices": [ { "message": { "content": "肇庆的天气为天晴,深圳的天气为下雨。arain的岗位信息是数据挖掘及算法工程师,judy的岗位信息是产品经理。", "role": "assistant" }, "finish_reason": "stop", "index": 0, "logprobs": null } ], "object": "chat.completion", "usage": { "prompt_tokens": 393, "completion_tokens": 37, "total_tokens": 430, "prompt_tokens_details": { "cached_tokens": 0 } }, "created": 1748011592, "system_fingerprint": null, "model": "qwen-plus", "id": "xxxxx-xxxxxx-xxxx-xxxx-xxxx-xxxxxxx"}
至此,我们应该了解了整个大模型应用中使用MCP、Tool Calling的整体流程以及底层原理了。其实大模型应用、Tool Calling、MCP服务等并没有大家想象中那么神奇,只要根据其调用流程好好剖析其原理,最终会发现AI的应用最终都是算法和工程上的结合和优化。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-05-27
盘点 Azure AI Foundry 的10大重要更新
2025-05-27
50个AI基础常识问答(看完理解整个AI行业)
2025-05-27
AI时代下的软件升级:大模型如何让考勤系统听懂人话?
2025-05-27
美团要开放AI编程能力,将推出新产品NoCode|智能涌现独家
2025-05-27
AI大模型3种模式:Embedding、Copilot与Agent深度解析
2025-05-27
AI领域基础概念(下)
2025-05-26
万字长文!AI智能体全面爆发前夜:一文讲透技术架构与行业机会
2025-05-26
国产顶级 DeepResearch 类产品,把咨询专家请回家
2024-08-13
2024-06-13
2024-08-21
2024-09-23
2024-07-31
2024-05-28
2024-08-04
2024-04-26
2024-07-09
2024-07-20
2025-05-27
2025-05-26
2025-05-23
2025-05-23
2025-05-23
2025-05-18
2025-05-18
2025-05-17