大数跨境

你构建的 AI 是错误的——MCP 的解决方法

你构建的 AI 是错误的——MCP 的解决方法 索引目录
2025-06-16
1
导读:关注【索引目录】服务号,更多精彩内容等你来探索!你正盯着屏幕,试图让你的AI助手做一些看似简单的事情。

关注【索引目录】服务号,更多精彩内容等你来探索!

你正盯着屏幕,试图让你的AI助手做一些看似简单的事情。“总结最新的销售报告,并起草一封包含关键要点的邮件发送给团队。”你输入了这些。然而,AI虽然功能强大,却遇到了瓶颈。它无法访问你公司的销售数据,也无法发送电子邮件。你只能进行繁琐的复制粘贴操作,感觉自己就像在协助AI一样。听起来很熟悉吧?我们都经历过这种情况。

为什么今天的人工智能不够完善

我们拥有这些极其强大的人工智能模型,但将它们连接到您的数据、工具和工作流程,往往感觉像一团乱麻,难以掌控。遗留的基础设施、安全限制、实时数据需求以及合规性要求(GDPR、HIPAA 等)增加了人工智能无法独立可靠地应对的复杂性。

但是,如果有办法让这些人工智能大脑不仅拥有声音,还有双手呢?让它们能够安全、可预测、大规模地与你所依赖的所有应用程序、系统和数据无缝交互,那会怎样?

这就是模型上下文协议 (MCP) 的承诺,它源于 Anthropic 的愿景,并由开源社区驱动。它或许不像前沿 LLM 那样引人注目,但 MCP 代表着一个关键的基础设施层,能够支持可扩展、上下文感知的 AI 系统。

“AI 专用 USB-C” 真的管用吗?

在 MCP 出现之前,将 AI 模型连接到新工具是一项定制的、一次性的工作。想让你的 AI 读取你的 Google Drive 文件?这是一个集成。想让它与你的 GitHub 代码库交互?又是另一个。这造成了一个混乱、错综复杂的连接网络,维护起来简直是一场噩梦。这通常被称为“N x M 问题”——每 N 个模型,你就需要 M 个定制集成。

这不仅仅是语法问题,大多数系统都在努力实现语义互操作性——确保共享数据能够跨平台和跨模式地传递信息。如果没有共享的词汇表和上下文元数据,人工智能可能会误解数据或生成不准确的响应。



MCP 通过创建单一标准化端口解决了这个问题。借助 MCP,您可以将任何 AI 模型插入任何支持 MCP 的工具或数据源。这种“即插即用”的方法对开发者和用户来说都具有颠覆性的意义。

简而言之,模型上下文协议 (MCP) 是一个开放标准,允许 AI 模型、工具和数据源以通用语言相互通信。你可以把它想象成一个通用翻译器,或者像科技界许多人所称的“AI 版 USB-C
 ” 。

背后的故事

模型上下文协议 (MCP) 由 Anthropic 于 2024 年 11 月 25 日正式推出,是一个旨在连接 AI 模型与现实世界工具和数据源的开源项目。MCP 的核心是解决“M×N 集成问题”——为每个模型-工具组合构建自定义连接器这一难题。

MCP 早期只是一个小众项目,但很快就吸引了众多开发者的关注,他们称赞它为“AI 应用的 USB-C”,让 Claude 或任何兼容的 AI 客户端只需一次集成即可访问 GitHub、SQL 数据库、Google Drive、Slack 等。例如:Anthropic 使用 Claude Desktop 在不到一小时内演示了基于 MCP 的 GitHub 拉取请求工作流程。

到 2025 年初,支持范围将显著扩大。OpenAI、Google DeepMind 和微软宣布支持 MCP。如今,MCP 已形成一个由主要采用者组成的生态系统。Block、Zed、Sourcegraph 和 Replit 等公司已经推出了基于 MCP 的集成,以及众多由社区构建的 MCP 服务器。

就像 HTTP 和 HTML 催化了开放网络一样,MCP 正在成为下一代 AI 的开放基础设施层

MCP 工作原理——深入探究

让我们直接进入它的工作原理 - MCP 使用基于 JSON-RPC 2.0 构建的客户端-主机-服务器架构,支持有状态、安全的会话以共享上下文和协调 AI 操作。

  1. MCP 主机:这是面向用户的应用程序,例如 AI 驱动的 IDE 或聊天机器人。它是管理连接的“容器”。
  2. MCP 客户端:这是位于主机应用程序内的中介,负责管理与特定 MCP 服务器之间的安全、一对一连接。
  3. MCP 服务器:这是一个轻量级服务器,提供对特定工具或数据源的访问,例如 GitHub API 或本地文件系统。
  4. 本地数据源:MCP 服务器可以安全访问的内部部署资产,例如您计算机的文件、数据库和服务。
  5. 远程服务:MCP 服务器可以连接到互联网上的外部系统,例如云 API 和 SaaS 工具

附加元素

  • 工具:服务器公开的可调用函数(例如,运行测试、生成图表)。
  • 资源:上下文有效负载中包含的只读数据端点(例如文件、数据库查询)。
  • 提示:预定义模板,指导如何调用工具/资源

以下是 AI 代理如何使用 MCP 帮助您完成编码任务的简化工作流程:



  • 您寻求帮助:
    您问您的 AI 代理,“您能否查看‘前端’存储库中的最新拉取请求并总结更改?”
  • AI 发出请求:
    代理作为 MCP 客户端向 GitHub MCP 服务器发送请求。
  • 服务器开始工作:
     MCP 服务器接收请求,确定源类型并开始获取必要的拉取请求数据。
  • 服务器响应:
     MCP 服务器将此标准化的拉取请求数据返回给 MCP 客户端。MCP 客户端随后拉取此数据。
  • AI 为您提供答案:
     AI 代理从 MCP 客户端接收汇总数据和建议。然后,它会处理这些信息,总结并提出改进建议,最终为您(用户)提供答案:以下是拉取请求的摘要和改进建议

在此流程发生时,MCP 主机和 MCP 服务器会同时执行关键的后台操作,以确保可审计性和数据治理:

  • MCP 主机记录“用户审计请求”。
  • MCP 服务器记录与其数据检索相关的“数据访问事件”。

这一切都在后台无缝完成,只需几秒钟。MCP 的妙处在于,AI 助手无需了解 GitHub 等各种 API 的繁琐细节。它只需要知道如何使用 MCP,MCP 会处理复杂的数据集成和标准化工作。

使用插件扩展 MCP

MCP 不仅灵活,还具备可扩展性。借助插件,您可以自定义 AI 与工具、数据和安全策略的交互方式:



  • 变压器:在架构版本之间自动升级框架。
  • 消毒剂:自动删除 PII。
  • 验证器:执行自定义业务规则。

它能帮上什么忙?

想要了解 MCP 的强大功能,最好的方法就是亲眼见证它的实际应用。以下是一些 MCP 目前的应用示例:

  1. 理解并编写代码的 AI:
     Sourcegraph 的 Cody 和 Codeium 等工具可以利用 MCP 读取本地文件、运行测试并与版本控制系统交互。这些集成使 AI 能够全面掌握代码库,从而提高其生成精准建议的能力。
  2. 从自然语言到数据洞察:
     MCP 支持 AI 代理直接连接到 SQL 数据库、Snowflake、BigQuery 等。这些代理可以将自然语言提示转换为 SQL,获取数据并生成上下文感知的 BI 报告,从而简化非技术用户的洞察流程。
  3. 项目和团队管理:
     AI 助手现在可以通过 MCP 服务器与 Jira、Asana、Linear 和 Slack 等工具集成来创建任务、发送 Slack 更新和生成项目报告 - 简化协作并自动化日常工作流程。
  4. 安全的企业数据访问:
    通过在企业基础设施内部署 MCP 服务器,即使模型与内部文件、数据库和 API 交互,公司也能保留完整的数据治理和隐私控制 - 满足严格的合规性和安全性标准。



下一步是什么?

随着越来越多的工具和数据系统开始支持 MCP,我们将见证可组合 AI 系统的兴起——不同的模型、服务和数据源可以无缝协作。这将使团队能够根据其工作流程、行业和环境构建定制的 AI 代理。

随着应用范围的扩大,MCP 将成为 AI 应用的标准基础设施层,解锁从个性化研究副驾驶到企业级特定领域代理等各种功能。AI 将不再局限于聊天响应,而是能够读取、写入、采取行动,并安全且大规模地融入我们现有的工作方式。


关注【索引目录】服务号,更多精彩内容等你来探索!


【声明】内容源于网络
0
0
索引目录
索引目录是一家专注于医疗、技术开发、物联网应用等领域的创新型公司。我们致力于为客户提供高质量的服务和解决方案,推动技术与行业发展。
内容 444
粉丝 0
索引目录 索引目录是一家专注于医疗、技术开发、物联网应用等领域的创新型公司。我们致力于为客户提供高质量的服务和解决方案,推动技术与行业发展。
总阅读12
粉丝0
内容444