| name | mcp-builder |
| description | 指南:创建高质量的 MCP(模型上下文协议)服务器,使 LLM 能够通过精心设计的工具与外部服务交互。在构建 MCP 服务器以集成外部 API 或服务时使用,无论是 Python(FastMCP)还是 Node/TypeScript(MCP SDK)。 |
| license | 完整条款请参见 LICENSE.txt |
MCP 服务器开发指南
概述
创建 MCP(模型上下文协议)服务器,使 LLM 能够通过精心设计的工具与外部服务交互。MCP 服务器的质量衡量标准是它能在多大程度上帮助 LLM 完成现实世界的任务。
流程
🚀 高级工作流程
创建高质量的 MCP 服务器涉及四个主要阶段:
第一阶段:深入研究和规划
1.1 理解现代 MCP 设计
API 覆盖率 vs 工作流工具: 平衡全面的 API 端点覆盖率和专业化的工作流工具。工作流工具对于特定任务可能更方便,而全面的覆盖率给予代理组合操作的灵活性。性能因客户端而异——有些客户端受益于组合基础工具的代码执行,而其他客户端在处理更高级别的工作流时表现更好。不确定时,优先考虑全面的 API 覆盖率。
工具命名和可发现性:
清晰、描述性的工具名称帮助代理快速找到正确的工具。使用一致的前缀(例如 github_create_issue、github_list_repos)和面向操作的命名。
上下文管理: 代理受益于简洁的工具描述和过滤/分页结果的能力。设计返回专注、相关数据的工具。一些客户端支持代码执行,这可以帮助代理高效地过滤和处理数据。
可操作的错误消息: 错误消息应该通过具体建议和后续步骤指导代理找到解决方案。
1.2 研究 MCP 协议文档
导航 MCP 规范:
从站点地图开始查找相关页面:https://modelcontextprotocol.io/sitemap.xml
然后使用 .md 后缀获取特定页面以获得 markdown 格式(例如 https://modelcontextprotocol.io/specification/draft.md)。
需要查看的关键页面:
- 规范概述和架构
- 传输机制(可流式 HTTP、stdio)
- 工具、资源和提示定义
1.3 研究框架文档
推荐技术栈:
- 语言:TypeScript(高质量的 SDK 支持和在许多执行环境(如 MCPB)中的良好兼容性。另外 AI 模型擅长生成 TypeScript 代码,受益于其广泛使用、静态类型和良好的 linting 工具)
- 传输:远程服务器使用可流式 HTTP,使用无状态 JSON(比有状态会话和流式响应更容易扩展和维护)。本地服务器使用 stdio。
加载框架文档:
- MCP 最佳实践:📋 查看最佳实践 - 核心指导原则
TypeScript(推荐):
- TypeScript SDK:使用 WebFetch 加载
https://raw.githubusercontent.com/modelcontextprotocol/typescript-sdk/main/README.md - ⚡ TypeScript 指南 - TypeScript 模式和示例
Python:
- Python SDK:使用 WebFetch 加载
https://raw.githubusercontent.com/modelcontextprotocol/python-sdk/main/README.md - 🐍 Python 指南 - Python 模式和示例
1.4 规划你的实现
理解 API: 审查服务的 API 文档以识别关键端点、认证要求和数据模型。根据需要使用网络搜索和 WebFetch。
工具选择: 优先考虑全面的 API 覆盖率。列出要实现的端点,从最常见的操作开始。
第二阶段:实现
2.1 设置项目结构
查看特定语言的指南以进行项目设置:
- ⚡ TypeScript 指南 - 项目结构、package.json、tsconfig.json
- 🐍 Python 指南 - 模块组织、依赖项
2.2 实现核心基础设施
创建共享实用程序:
- 带认证的 API 客户端
- 错误处理助手
- 响应格式化(JSON/Markdown)
- 分页支持
2.3 实现工具
对于每个工具:
输入模式:
- 使用 Zod(TypeScript)或 Pydantic(Python)
- 包含约束和清晰的描述
- 在字段描述中添加示例
输出模式:
- 在可能的情况下为结构化数据定义
outputSchema - 在工具响应中使用
structuredContent(TypeScript SDK 功能) - 帮助客户端理解并处理工具输出
工具描述:
- 功能的简明摘要
- 参数描述
- 返回类型模式
实现:
- I/O 操作使用 async/await
- 具有可操作消息的适当错误处理
- 在适用的地方支持分页
- 使用现代 SDK 时返回文本内容和结构化数据
注释:
readOnlyHint:true/falsedestructiveHint:true/falseidempotentHint:true/falseopenWorldHint:true/false
第三阶段:审查和测试
3.1 代码质量
审查以下方面:
- 没有重复代码(DRY 原则)
- 一致的错误处理
- 完整的类型覆盖
- 清晰的工具描述
3.2 构建和测试
TypeScript:
- 运行
npm run build验证编译 - 使用 MCP Inspector 测试:
npx @modelcontextprotocol/inspector
Python:
- 验证语法:
python -m py_compile your_server.py - 使用 MCP Inspector 测试
查看特定语言的指南以了解详细的测试方法和质量检查清单。
第四阶段:创建评估
实现你的 MCP 服务器后,创建全面的评估以测试其有效性。
加载 ✅ 评估指南 获取完整的评估指导。
4.1 理解评估目的
使用评估来测试 LLM 是否能有效使用你的 MCP 服务器来回答现实、复杂的问题。
4.2 创建 10 个评估问题
要创建有效的评估,请遵循评估指南中概述的流程:
- 工具检查:列出可用工具并了解它们的功能
- 内容探索:使用只读操作探索可用数据
- 问题生成:创建 10 个复杂的、现实的问题
- 答案验证:自己解决每个问题以验证答案
4.3 评估要求
确保每个问题都满足:
- 独立性:不依赖于其他问题
- 只读:只需要非破坏性操作
- 复杂性:需要多个工具调用和深度探索
- 现实性:基于人类关心的真实用例
- 可验证性:可通过字符串比较验证的单一、清晰答案
- 稳定性:答案不会随时间变化
4.4 输出格式
创建具有以下结构的 XML 文件:
<evaluation>
<qa_pair>
<question>查找关于以动物代号命名的 AI 模型发布的讨论。一个模型需要使用格式 ASL-X 的特定安全指定。哪个数字 X 正在为以斑点野猫命名的模型确定?</question>
<answer>3</answer>
</qa_pair>
<!-- 更多 qa_pairs... -->
</evaluation>
参考文件
📚 文档库
在开发过程中根据需要加载这些资源:
核心 MCP 文档(首先加载)
- MCP 协议:从
https://modelcontextprotocol.io/sitemap.xml的站点地图开始,然后使用.md后缀获取特定页面 - 📋 MCP 最佳实践 - 通用 MCP 指导原则,包括:
- 服务器和工具命名约定
- 响应格式指导原则(JSON vs Markdown)
- 分页最佳实践
- 传输选择(可流式 HTTP vs stdio)
- 安全和错误处理标准
SDK 文档(在第一/二阶段加载)
- Python SDK:从
https://raw.githubusercontent.com/modelcontextprotocol/python-sdk/main/README.md获取 - TypeScript SDK:从
https://raw.githubusercontent.com/modelcontextprotocol/typescript-sdk/main/README.md获取
特定语言实现指南(在第二阶段加载)
🐍 Python 实现指南 - 完整的 Python/FastMCP 指南,包含:
- 服务器初始化模式
- Pydantic 模型示例
- 使用
@mcp.tool的工具注册 - 完整的工作示例
- 质量检查清单
⚡ TypeScript 实现指南 - 完整的 TypeScript 指南,包含:
- 项目结构
- Zod 模式模式
- 使用
server.registerTool的工具注册 - 完整的工作示例
- 质量检查清单
评估指南(在第四阶段加载)
- ✅ 评估指南 - 完整的评估创建指南,包含:
- 问题创建指导原则
- 答案验证策略
- XML 格式规范
- 示例问题和答案
- 使用提供的脚本运行评估