一篇讲MCP理解误区的文章带来了最大的误区
今天看到一篇传播的比较广的内容,内容主题是《关于 MCP 的几个理解误区》。
当我仔细看完后,发现他带来了MCP最大的误区。
原文:
误区 1:MCP 协议需要大模型支持
结论:MCP 协议不需要大模型支持,哪怕你使用古老的 gpt-2 作为问答模型,依然可以使用 MCP 协议补充上下文信息。
一叶扁舟,公众号:代码麻辣烫
关于 MCP 的几个理解误区
我的看法:
MCP的M是Model的意思,类比一下,智能汽车的车机系统只能在汽车上用吗?当然不是,比如车机可能采用Android的系统去构建,而手机也能使用Android去构建自己的系统,但是会有人把手机的系统叫做“车机”吗?
所以“汽车车载的车机可以不在汽车上使用”这句话错吗?其实也没有错,kernel可以到处移植,虽然都是同一个kernel,但是使用场景,实现的系统的目的,甚至提供的功能完全不一样,几乎没有任何类比,所以这个回答虽然没有错,但是有意义吗?毫无意义。。
原文:
误区 2:只有支持 Function Calling 的模型才支持 MCP 协议
聊 MCP 协议,必须要理解 Function Calling 机制。
结论:不支持 Function Calling 的模型,依然可以使用 MCP 协议补充上下文信息。
一叶扁舟,公众号:代码麻辣烫
关于 MCP 的几个理解误区
我的看法:
在MCP的官方定义中https://modelcontextprotocol.io/introduction的开头就直接清晰且直接的说了:
MCP is an open protocol that standardizes how applications provide context to LLMs.
什么意思?意思是MCP重点规范的就是模型上下文的使用方式,而这个使用方式就是Tools Call,然后这里直接抛弃这个前提,这和自媒体常用的“抛开事实不谈”几乎异曲同工之妙,都不提Tools Call,那还提啥MCP。且如果通过手写Prompt来解决问题,这就是MCP的话,那在外面挂个程序,提前通过传统方式处理一下音视频文件转成文本丢给gpt的chat模型,那么意味着gpt的chat模型也应该叫多模态模型。
原文:
误区 3:大模型原生支持 MCP 协议
结论:大模型原生支持 MCP 协议,这种说法是不专业的。大模型现阶段不可能原生支持 MCP。
一叶扁舟,公众号:代码麻辣烫
关于 MCP 的几个理解误区
我的看法:
大模型当然原生支持MCP协议,且非常专业,注意重点“协议”,这就像说Nginx支持HTTP协议,这个说法很专业,没有问题,且一般不会有人听到“Nginx支持HTTP协议”这句话的时候,会理解成Nginx要提供一堆带HTTP服务的应用程序。。
通常来说大模型在对MCP协议的支持上,重点的地方有2个:
一个是传输协议的支持,这个目前的模型来说,基本上都是复用了Tool Call的用法,然后通过外部的framework,例如langgraph这种框架提供面向应用程序的接口。
另一个是内容协议的支持,目前内容协议这部分,不同模型的实现几乎完全不一样,这一部分内容是需要继演进的。
所以这样一篇讲MCP误区的文章,带来了最大的误区。。
而另一方面,每一个概念必然有其边界和作用域,如果一个东西被泛化成什么都可以用它解释,那么这个东西大概率什么价值都没有。
扫码手机观看或分享: