微信扫码
添加专属顾问
我要投稿
深入解析MCP协议及其在AI模型应用中的重要性。 核心内容: 1. MCP协议定义与作用 2. MCP如何解决AI模型集成问题 3. MCP与其他AI交互方式的对比
在沟通的过程中,发现大家对MCP都不是很了解,所以快速的整理了这篇文章,希望能够给你一个整体的认识。
MCP(Model Context Protocol,模型上下文协议)是一种开放协议,旨在规范大型语言模型(LLM)与外部数据源、工具和服务之间的交互方式。
最早由Anthropic开发,现在已经开源。
P是Protocol的缩写,表示协议。这里的协议一般指的是网络协议,比如常见的TCP/IP、HTTP等,都是一种网络协议。
网络协议定义了通信的双方如何建立连接,如何发送数据,数据格式的定义,以及错误处理等。
MCP是一个网络协议,定义了AI模型与外部数据源和工具集成的网络通信数据格式,包括使用什么传输协议,数据格式定义,身份验证方法等。
MCP解决了大型语言模型与外部数据源和工具集成的碎片化问题。通过标准化接口,MCP使AI应用能够更可靠、高效地连接到不同的数据源和工具,避免了为每个数据源单独开发连接器的麻烦。
简单的说,一个工具通过MCP协议,既可以给Claude用,也可以给cursor用。工具以及Claude都不用开发第二遍。
处于模型与工具/资源之间的位置。模型通过function calling的方式调用函数,函数内部再通过MCP协议与外部工具/资源进行交互。
可以。
虽然MCP由Anthropic开发,但它是一个开放协议,任何模型都可以使用。它与模型无关。如果模型本来工具使用能力不强,用了MCP后,工具使用能力也不会增强。
他们两个不是一个概念。
function calling是大模型与外部数字世界的交互方式。MCP是MCP host(chatbot或者AI工具)与外部工具/资源之间的交互方式。
一般来讲,模型先通过function calling触发一个函数调用,再在这个函数调用中触发MCP请求。
非常像,不过MCP比之前的插件规范性更好,定义了清晰的数据格式、传输协议、身份验证方法等,能力也更强。
GPTs更像一个应用市场,而且目前是给人用的应用市场。
GPTs可能和MCP server的markplace类似,不过MCP server主要是给AI使用的,不直接给人用。
短期内,在模型集成外部资源与工具,MCP没有对手,并且生态越来越大。
不过不确定openai会不会支持,会不会自己搞一个规范。如果要搞一个,肯定要在设计上比MCP要更好,否则会被骂搞”小院高墙“。
长期看,MCP本身设计存在一些问题,比如复杂性问题,客户端和服务器耦合问题,分布式身份鉴权问题等,需要解决。
技术看,如果内部使用,需要权衡灵活性与成本。内部用怎么搞都可以,怎么高效怎么来,MCP不一定是最优方案。不过,如果涉及和外部(比如公网)工具对接,最好还是用大家认可的协议。
国内平台比如美团、滴滴、淘宝、拼多多等,我认为短期大概率不会。他们不会给自己找一个上游。
就像当初淘宝砍断百度和微信的流量入口一样。
MCP不是为智能体而设计,它是为模型连接外部资源和工具而设计的。
有好几个问题没有解决,比如MCP中心化的身份认证技术,并不适合智能体之间的身份认证。MCP的CS架构(客户端服务端架构),server无法主动连接client。
如果有智能体连接的需求,可以试试我们的ANP,ANP专门为智能体而设计。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-05-27
Dify工具插件开发和智能体开发全流程实战
2025-05-27
一个让工作效率翻倍的AI神器,Cherry Studio你值得拥有!
2025-05-27
Docext:无需 OCR,本地部署的文档提取神器,企业数据处理新选择
2025-05-26
太猛了,字节把GPT-4o级图像模型开源了!
2025-05-26
Qwen3硬核解析:从36万亿Token到“思考预算”
2025-05-26
蚂蚁集团开源antv的MCP服务:AI智能体与数据可视化的桥梁如何搭建?
2025-05-26
MinerU:高精度纸媒文档解析与数据提取一站式解决方案
2025-05-26
顶级开发者默默换掉了基础大模型
2024-07-25
2025-01-01
2025-01-21
2024-05-06
2024-09-20
2024-07-20
2024-07-11
2024-06-12
2024-12-26
2024-08-13
2025-05-26
2025-05-25
2025-05-23
2025-05-17
2025-05-17
2025-05-17
2025-05-16
2025-05-14