模型上下文协议 (MCP) 是 Anthropic 最热门的工具,仅 2 月份就有超过 1000 个社区构建的 MCP 服务器投入运行。在本期五分钟速览中,Jon Krohn 解释了用户为何花了这么长时间才开始关注它:Anthropic 于 2024 年 11 月发布了 MCP。了解更多关于 MCP 背后的热议、其应用以及上手的简易性。
<raw_text>0 这是第 884 集,主题是 MCP,即模型上下文协议。欢迎回到 Super Data Science Podcast。我是您的主持人 Jon Krohn。今天我们将深入探讨模型上下文协议或 MCP,这是 2025 年初席卷 AI 领域的热门话题。
大型语言模型在许多情况下都非常聪明,令人难以置信,但它们一直难以访问超出训练数据的资料。这对 AI 的实用性来说是一个关键限制,要使其发挥最大作用,它需要与您的文件、数据库、知识库无缝连接,并根据该上下文采取行动。
从历史上看,将 AI 连接到外部资源一直很混乱。开发人员必须为每个数据源或 API 编写自定义代码。这些相互连接的集成很脆弱,无法扩展。这就是 MCP,即模型上下文协议的用武之地。
Anthropic 实际上在 2024 年 11 月推出了 MCP,即模型上下文协议,但直到最近几个月,它才真正流行起来,我在代理 AI 会议上听到几乎每一个人都在谈论它。为什么兴趣突然激增?首先,MCP 直接解决了阻碍代理 AI 的集成问题。
在过去几年中,我们专注于模型能力和提示工程,而将 AI 连接到现实世界系统的挑战仍然是一个未解决的挑战。MCP 为可用于生产的 AI 代理提供了缺失的拼图。
其次,社区采用率激增。短短几个月内,MCP 就从概念发展成为生态系统,早期采用者包括 Block、Apollo、Replit 和 Sourcegraph。到 2 月份,已有超过 1000 个社区构建的 MCP 服务器连接到各种工具和数据源。第三,与专有替代方案不同,MCP 是开放且与模型无关的。
任何 AI 模型、云、GPT-4 或开源 LLM 都可以使用它,任何开发人员都可以创建 MCP 集成而无需许可。它将自己定位为一种类似于 AI 集成的 USB 或 HTTP 的通用标准。
那么 MCP 究竟做了什么?它制定了明确的规则,说明 AI 模型如何查找、连接和使用外部工具,无论是查询数据库还是运行命令。一个引人注目的功能是动态发现。这真的很酷。AI 代理会自动检测可用的 MCP 服务器及其功能,而无需硬编码集成。
例如,为您的 CRM(客户关系管理平台)启动一个新的 MCP 服务器,您的代理可以立即识别并使用它。MCP 的入门非常简单。您首先为您的数据源运行或安装 MCP 服务器。Anthropic 提供了针对 Google Drive、Slack 和数据库等流行系统的预构建服务器。然后,您可以在 AI 应用中设置 MCP 客户端并调用模型。代理现在可以根据需要调用 MCP 工具操作。
在 MCP 之前,AI 系统通过自定义的一次性 API 连接器、OpenAI 等专有插件系统、LanChain 等代理框架或带有向量数据库的检索增强生成来处理上下文集成。MCP 补充了这些方法,同时标准化了 AI 模型与外部工具交互的方式。
现在,MCP 是灵丹妙药吗?并非如此。它带来了管理多个工具服务器、确保模型有效使用工具以及处理不断发展的标准方面的挑战。安全和监控也带来了持续的挑战,对于简单的应用程序,与直接 API 调用相比,MCP 可能过于复杂。现在,MCP 在代理工作流程中处于什么位置?它本身并不是一个代理框架,而是一个标准化的集成层。
如果我们将代理视为需要分析、知识、记忆、推理和行动能力,那么 MCP 特别解决了行动组件,为代理提供了一种通用的方法来执行涉及外部数据或工具的操作。
最令人兴奋的部分是 MCP 开启的新可能性。我们看到多步骤跨系统工作流程,其中代理协调跨平台的操作。想象一下,一个 AI 助理计划活动,检查您的日历,预订场地,向客人发送电子邮件,并通过单个界面更新预算表,而无需自定义集成。这对您个人或您工作的公司、您服务的企业来说都充满了潜力。
MCP 可以启用了解其环境的代理,包括智能家居和操作系统。它可以作为代理社会的共享工作区,专业 AI 通过通用工具集进行协作。对于个人助理,MCP 允许与私人数据深度集成,同时保持安全性。对于企业,它标准化了访问权限,同时实现了治理和监督。
展望未来,Anthropic 正在开发具有 OAuth(一种开放标准身份验证协议)的远程服务器。他们还在研究官方 MCP 注册表,以便您可以使用受信任的组件,标准化的发现端点以及流支持和主动服务器行为等改进。