核心用法
NotebookLM Research Assistant 是一个 Claude Code 技能,允许用户直接查询 Google NotebookLM 中的私有文档库。它通过浏览器自动化技术,每次提问时开启独立的 Chromium 会话,登录 Google 账号,访问 NotebookLM 网页界面,获取 Gemini 模型基于用户上传文档生成的回答,并附带原始出处引用。
使用流程分为四步:首先检查认证状态 (auth_manager.py status),未认证时执行一次性浏览器可见的登录 (auth_manager.py setup);其次管理文档库 (notebook_manager.py),支持添加、列出、搜索和激活笔记本;然后执行查询 (ask_question.py --question),可通过 ID 或 URL 指定目标笔记本;最后关键步骤——系统会追问"Is that ALL you need to know?",Claude 需分析答案完整性,必要时连续发起追问直至信息完备,再综合所有回答向用户反馈。
Smart Add 机制是重要设计:当用户未提供笔记本元数据时,先查询其内容自动生成描述和标签,避免主观臆断。
显著优点
- 源头 grounding 降低幻觉:答案严格限定于用户上传文档,大幅减少生成式 AI 常见的虚构信息
- 引用溯源:每个回答附带原文出处,便于核实
- 零配置启动:
run.py包装器自动创建虚拟环境、安装依赖、配置浏览器,首次使用无摩擦 - 隔离会话安全:每次查询新开浏览器进程,不残留敏感状态
- 追问机制强制完备:系统级设计确保信息提取彻底,不因单次回答表面完整而遗漏细节
潜在缺点与局限性
- 速率限制:免费 Google 账号每日限 50 次查询
- 浏览器开销:每次问答需数秒启动和关闭 Chromium,高频使用延迟明显
- 无会话持久化:无法保持对话上下文,每次独立请求
- 依赖外部服务:Google 账号、NotebookLM 服务、Gemini 模型任一变动可能影响功能
- 人工上传瓶颈:文档必须先由用户手动上传至 NotebookLM,技能本身不具备文档摄取能力
适合人群
- 需要基于内部/私有文档进行研究的开发者和知识工作者
- 对 AI 幻觉敏感、要求答案可溯源的专业用户
- 已将文档托管在 NotebookLM 并希望 CLI/IDE 内快速查询的 Google Workspace 用户
常规风险
- 认证凭据本地存储:
auth_info.json和浏览器状态保存于~/.claude/skills/notebooklm/data/,需确保目录权限正确,避免多用户环境泄露 - Google TOS 风险:浏览器自动化可能触发反爬虫机制,存在账号受限可能
- 数据残留:
cleanup_manager.py可清理数据,但敏感文档的 NotebookLM 服务端副本不受本技能控制 - 供应链风险:依赖
patchright等第三方浏览器自动化库,需信任其代码完整性