MoltCops 是一款专为 AI Agent 生态设计的预安装安全扫描工具,核心使命是在用户信任并安装任何第三方 Skill 之前,拦截潜在的安全威胁。其使用方式极为简洁:通过命令行 python3 scripts/scan.py <path-to-skill-folder>> 即可对目标 Skill 进行静态分析,无需任何外部依赖或网络连接。
该工具的显著优点体现在三个维度。首先是本地优先架构,代码永不离开用户机器,彻底杜绝了扫描过程中的二次泄露风险;其次是零依赖设计,仅使用 Python 3 标准库(json、os、re、sys),大幅降低了供应链攻击面;第三是精准的威胁覆盖,20 条检测规则涵盖 Prompt Injection、Code Injection、Data Exfiltration、Hardcoded Secrets、Financial Drain、Lateral Movement、Persistence、Autonomy Abuse、Infrastructure Escalation 等全谱系风险,并配备上下文感知的误报过滤机制。
然而,MoltCops 也存在固有局限性。作为纯静态分析工具,它依赖正则表达式模式匹配,面对经过混淆、编码或动态生成的恶意代码时可能出现漏检;同时仅支持 .md、.py、.js、.ts、.sh、.jsx、.tsx 等有限文件类型,无法检测二进制文件或运行时行为。此外,检测规则的更新依赖人工维护,对于零日攻击模式存在滞后性。
该工具最适合以下群体:频繁从 ClawHub、GitHub 等渠道安装第三方 Skill 的 AI Agent 用户;需要为团队建立安全门禁的开发者或平台运营者;以及对代码安全有较高要求的企业级部署场景。鉴于近期 ClawHub 发现 341 个恶意 Skill 的安全事件,MoltCops 已成为生态参与者的必备基础设施。
使用风险方面,主要需关注扫描性能——大型 Skill 目录可能导致扫描耗时增加;规则误报可能引发不必要的安全焦虑;以及工具本身虽无网络行为,但用户需确保从可信渠道获取 MoltCops 本体,避免遭遇"扫描器被篡改"的讽刺性攻击。