来到 2025 年,随着 Deepseek 等对话式大语言模型(LLM)工具迅速普及,LLM 已经深度融入我们的学习与工作流程,逐渐成为解决问题的重要助手。
过去,当我们遭遇超出自身知识面或时间精力的难题时,通常要经历「查询资料」-「整理信息」-「分析问题」-「找到解决思路」-「着手处理」这几个步骤。而借助 Deepseek 这类对话式 AI,只需一句「提问」,即可在数秒内完成信息检索与初步整合,显著缩短准备时间。不过,速度提升并不意味着事实百分百准确:模型的回答仍受训练数据、实时检索能力与外部接口质量的限制,因此任何结论都需人工核实。
刚好我打算利用暑假前往浙江的舟山、宁波旅游,我会向 AI 问到:
我想在 2025 年暑假期间,从南京出发前往浙江的宁波和舟山旅游,行程总共四天,请帮我规划下整体的旅行攻略。
对于 Deepseek 这样的对话式 AI 工具,回复往往类似于:

其实 Deepseek 的整体规划乍看之下确实不错,也提供了大致的旅行建议,但细究之下就漏洞百出了,比如 G7583 次列车不经停南京,始发站发车时间也是上午 10:53。由此可见,现阶段的对话式 AI 工具更像是一个「思考者」而非「执行者」,能辅助提出参考方案,却仍可能因实时数据缺失或推理链薄弱而输出错误细节。
综合来看,当前大多数 LLM 工具仍以「提出建议」为主要定位:它们能帮我们思考方向、提供参考,却缺少自动落地执行的能力(如实时订票、下单、部署代码等)。因此,最后一步的决策与执行依旧由人来完成。
从「建议」到「帮你做」:AI 代理的兴起
事实上,除了 2025 年初 Deepseek 的横空出世,另一款名为「Manus」的全新 AI 工具也引发了广泛关注。「Manus」不仅具备现有对话式 AI 的「建议」功能,还能基于自身思考与判断,直接代替人类执行某些任务。例如,你可以通过提示词,指示它完成特定的软件开发任务,而不只是像以往的 AI 技术那样只提供空泛的建议。
从「提出建议」到「代替执行」,AI 依靠的并非模型能力的单纯提升,而是通过名为 MCP 的协议,为 AI 的大脑接入了对应的「躯干」,使 AI 能真正指挥「躯干」完成原本只有人类能够胜任的「执行类任务」。
什么是 MCP
上文提到的 MCP 协议,全称为 Model Context Protocol(模型上下文协议),专为大语言模型(LLM)交互而设计。其目的是实现 LLM 与外部数据源、工具的无缝集成,使大语言模型不仅能「思考」,还能「行动」。具体优势包括:
- 即插即用:只要 AI 支持 MCP,便可接入丰富的第三方工具生态;
- 标准化:所有支持 MCP 协议的工具遵循统一的描述格式与调用方式;
- 解耦工具和应用:工具开发者可独立开发与维护工具,无需了解不同 AI 应用的内部实现;
- 资源共享:支持 MCP 的工具可被不同 AI 调用,无需担心兼容性问题。

由此可见,MCP 的引入拓展了 AI 的任务执行能力,使其能够通过调用工具完成更复杂的操作。而我们要做的,则是为 AI 配置适当的工具,并通过持续优化提示词,引导其输出更高质量的结果。
借助 Cherry Studio 构建 MCP 代理服务
既然 MCP 能有效提升 AI 的工作能力,如何高效安装并利用它,进一步释放大模型的潜力?下面,我将以开源的 AI 应用客户端 Cherry Studio 为例,介绍如何便捷部署 MCP 服务、快速搭建符合每个人需要的 AI 代理服务。
Cherry Studio 是一款开源的 LLM 应用平台,本身集成了国内外主流大模型,普通人也能开箱即用;Cherry Studio 还结合 RAG 技术,支持基于文档的智能问答功能。当然,Cherry Studio 目前也已持 MCP 协议,所以我们可以通过可视化界面,灵活调用不同的外部 AI 功能模块。
MCP 环境的安装
打开 Cherry Studio,点击设置 - MCP 服务器
,你会在右上角看到一个「警告」的图标,这表示基础的 MCP 环境没有安装完成。

点击这个「警告」图标,会显示两个信息,分别为「UV 缺失」和「Bun 缺失」,这时候直接点击安装来将两个缺失的模块安装好即可。

由于这两个模块需要通过 Github 下载,可能在国内网络环境下下载安装速度较慢。可以直接从对应的 GitHub Releases 界面下载,下载时也要注意系统对应的版本。
接着解压缩,将文件放到对应位置:
# Windows
C:\Users\用户名\.cherrystudio\bin
# macOS 或者 Linux
~/.cherrystudio/bin

将文件复制到对应的目录后重启 Cherry Studio,再打开设置 - MCP 服务器
,如果上方原先的警告变成绿色的对勾,前期准备工作就做好了。

配置和使用 MCP
完成环境准备后,我们以添加 Fetch 服务为例,演示如何创建并配置一个 MCP 服务器。首先,我们打开 Cherry Studio
,点击设置 - MCP 服务器 -添加服务器
。

紧接着在添加的 MCP 服务器配置页面中,填写如下信息:
- 名称:fetch-server
- 类型:选择
标准输入/输出(STDIO)
- 命令:uvx
- 参数:填写
mcp-server-fetch
最后,点击「保存」并打开开关,启用刚刚创建的 Fetch 服务 MCP 服务器。至此,MCP 服务器的创建过程就完成了。
那么,如何使用这个服务器呢?需要注意的是,调用 MCP 服务必须使用支持函数调用1的模型。目前,阿里百炼和 Google Gemini 系列模型均已支持这一功能。