核心用法
Context7 是一个基于 LLM 的文档智能检索工具,通过 MCP(Model Context Protocol)协议集成,提供两大核心功能:
1. 智能库搜索 (`search`)
- 输入库名称和用户问题,API 使用 LLM 重排序返回最相关的库
- 返回包含 trustScore(可信度 0-100)、benchmarkScore(质量分 0-100)及版本信息的结构化数据
- 示例:
npx tsx query.ts search "nextjs" "setup ssr"
2. 上下文检索 (`context`)
- 直接基于
owner/repo格式指定库,获取精准文档片段 - 支持
txt(纯文本,适合 LLM 输入)和json(结构化,适合 UI 展示)两种输出格式 - 支持版本锁定:
/owner/repo/version - 示例:
npx tsx query.ts context "vercel/next.js" "useState hook"
显著优点
- LLM 驱动的相关性排序:不同于传统关键词匹配,Context7 利用 LLM 理解用户意图,返回真正相关的库和文档片段
- 低延迟设计:已知库 ID 时可跳过搜索直接调用 context 端点
- 版本精确控制:避免文档版本错位问题,特别适合维护老旧项目
- 质量评分体系:trustScore 和 benchmarkScore 帮助筛选权威来源
- 标准化 MCP 集成:与 Cursor、Claude 等 AI 编辑器原生兼容
潜在缺点与局限性
- 外部 API 依赖:需申请 Context7 API key,存在服务可用性和速率限制风险
- Node.js 环境要求:需本地安装 Node 和 npm 依赖,对纯浏览器环境不友好
- 覆盖范围受限:仅支持已收录的开源库,小众或私有库无法查询
- 成本不透明:API 调用计费模式未在文档中明确说明
- 延迟累积:搜索+上下文两步调用在复杂场景下可能引入 noticeable latency
适合人群
- AI 辅助编程工具的深度用户(Cursor、Claude Code、Cline 等)
- 需要频繁查阅多版本技术文档的全栈开发者
- 构建 RAG(检索增强生成)应用的开发者
- 开源项目维护者需要为 AI 工具提供标准化文档接口
常规风险
- API Key 泄露风险:
.env文件管理不当可能导致 key 被盗用 - 数据隐私:查询内容发送至 Context7 服务器,敏感代码片段可能被记录
- 幻觉传导:LLM 重排序虽提升相关性,但仍可能返回不准确的文档匹配
- 供应商锁定:深度集成后迁移至其他文档方案需重构工具链