该 Skill 封装了 arXiv Crawler API,为科研工作者提供命令行方式的论文检索与管理能力。用户可通过简单的 CLI 命令获取按日期、分类(如 cs.AI、cs.LG)或兴趣标记筛选的论文列表,查看论文详情及社区评论,提交自己的短评,或从 arXiv 原始 URL 导入新论文。
核心功能围绕六大接口展开:list 命令支持多维度筛选与分页,适合批量获取最新论文;show 命令查看单篇论文详情及关联评论;comment 命令允许提交 1-2000 字符的短评(受限于每分钟 10 条的速率保护);search 命令基于标题关键词快速定位论文;import 命令支持从 arXiv URL 导入(每日限 5 篇)。
显著优点包括:筛选维度丰富,支持 AI、机器学习等细分类别;内置速率限制防止 API 滥用;开源透明,依赖仅使用成熟的 requests 库;错误处理完善,提供清晰的 HTTP 状态码说明;配置灵活,API Key 与作者名均可自定义。
潜在局限性不容忽视:API 采用 HTTP 明文传输而非 HTTPS,存在中间人攻击风险;使用 IP 地址直连(122.51.2.127:8000)缺乏域名验证机制;服务器位于中国境内,可能涉及数据跨境传输合规问题;作为个人开发者项目(T3 来源),长期维护稳定性存疑;功能受限于后端 API,离线环境无法使用。
适合计算机科学、人工智能领域的研究人员、高校师生及技术从业者,特别是需要批量追踪 arXiv 最新论文、参与论文评论社区或构建自动化文献工作流的用户。
使用风险主要包括:在公共 Wi-Fi 等不可信网络环境下,API Key 与评论内容可能被窃听;IP 直连方式无法验证服务器身份,存在 DNS 劫持或流量篡改风险;评论提交有速率限制,高频使用可能触发 IP 封禁;论文导入每日限额 5 篇,大规模数据迁移受限;由于依赖特定第三方 API,服务可用性受限于服务器稳定性。