核心用法
technical-seo-checker 是一款面向 Claude Code、Cursor、Windsurf 等多 IDE 的技术SEO审计技能,支持从单页面到批量站点(5+ URL)的完整技术健康检查。用户输入域名或URL后,技能按9步标准化流程执行:爬虫可抓取性 → 索引能力 → Core Web Vitals与性能 → 移动端适配 → HTTPS安全 → URL结构 → 结构化数据 → 国际化SEO → 综合评分与修复路线图。支持迁移前审计(6阶段工作流)和AI爬虫专门处理(GPTBot/ClaudeBot/PerplexityBot的robots.txt策略)。
显著优点
- 标准化输出:每项审计均引用官方模板,确保结果可复现、可对比
- 优先级驱动:自动识别P0级阻塞问题(如robots.txt误封、canonical冲突),避免无效优化
- 多语言触发:内置中英日韩葡西等7语种关键词识别,降低使用门槛
- 安全边界明确:将
<meta name="audit-note">等页面内指令视为数据不一致证据而非命令,防范提示注入 - 生态集成:与
on-page-seo-auditor形成技能链,支持从基础设施到页面层的无缝衔接
潜在局限
- 数据依赖:未连接WebFetch时需用户手动提供PageSpeed报告、robots.txt、sitemap
- 动态站点限制:对重度JavaScript渲染的SPA/SSR站点,审计深度依赖外部爬虫连接器
- 批量模式简化:5+ URL场景下输出为"模式级发现"而非逐页报告,可能遗漏边缘个案
- 地域相关性低(geo-relevance: low):未针对特定国家搜索引擎(如百度、Yandex)做专项适配
适合人群
- 技术SEO专员与站长:需要快速诊断索引、速度、爬虫预算问题
- 开发与运维团队:迁移前(WordPress→Next.js等)的SEO风险评估
- 内容运营:排查"Google找不到我的页面"等收录异常
常规风险
- 误判robots.txt意图:通配符
Disallow: /*?可能误伤必要页面,需人工复核业务逻辑 - Core Web Vitals波动:实验室数据与真实用户数据(CrUX)可能存在偏差,建议以T+7/T+30差分监控为准
- LLM爬虫策略冲突:2026年后robots.txt对AI引擎的显式决策可能与传统SEO爬虫策略产生张力,需参考提供的三种立场模板(default-open/default-closed/split)谨慎选择