arya-model-router

🧭 Token节省型AI模型智能调度器

🥥84总安装量 18评分人数 18
100% 的用户推荐

OpenClaw本地模型路由工具,智能分级调度与上下文压缩,纯Python实现AI调用成本优化。

A

基本安全,请在特定环境下使用

  • 来自社区或个人来源,建议先隔离验证
  • ✅ <br/>**零危险函数**:代码仅使用Python标准库,无eval/exec/system/subprocess等代码执行函数,无注入漏洞
  • ✅ <br/>**完全离线运行**:无网络通信、无数据外发、无外部API调用,确保数据隐私隔离
  • ✅ <br/>**安全文件操作**:采用原子写入模式(临时文件+replace),配备完善异常处理和输入验证
  • ⚠️ <br/>**T3来源风险**:个人开发者账号(staratheris)维护,建议定期审查代码变更,关注后续更新完整性
  • ⚠️ <br/>**本地状态持久化**:`router feedback`命令会将计数持久化到state.json,注意本地数据备份管理

使用说明

Arya Model Router 是一款专为 OpenClaw 框架设计的智能模型路由工具,旨在通过动态选择不同性能的AI模型来优化Token消耗和调用成本。该工具采用分层架构设计,将日常轻量级对话路由至经济型模型(如GPT-4o-mini),仅在处理复杂任务时升级至专业级模型(如GPT-4.1),并创新性地引入上下文压缩机制,通过生成brief避免将冗长历史记录传递给昂贵模型。

核心用法围绕三级模型体系展开:cheap模式使用openai/gpt-4o-mini处理简单查询,default模式采用gpt-4.1-mini平衡性能与成本,pro模式调用gpt-4.1应对高难度任务。用户可通过命令行强制指定模式,或启用自动模式让系统基于规则判断。对于长上下文场景,系统会先创建精简brief再提交给高端模型,显著降低API费用。工具通过router.py执行分类决策,rules.json支持自定义规则,配合argparse实现安全的参数解析。

显著优点体现在其架构纯粹性与安全性。工具完全基于Python 3标准库开发(仅使用json、os、re、argparse等模块),零第三方依赖消除了供应链攻击风险。所有数据处理均在本地完成,无网络通信和外部服务调用,配合原子级文件写入操作(临时文件+atomic replace)和严格的输入验证,确保运行环境隔离安全。成本优化效果立竿见影,通过避免对简单任务使用过度强大的模型,可节省高达70%的API开支,同时保持关键任务的高性能输出。

潜在局限性包括来源可信度与功能边界。作为T3级个人开发者作品,长期维护稳定性和代码审查深度不及企业级项目。功能上目前仅支持OpenAI模型家族,缺乏对其他厂商(如Claude、Gemini)的适配。此外,工具依赖本地Python 3和bash环境,对非技术用户存在部署门槛,且缺少图形化界面,主要通过命令行和配置文件交互,学习成本较高。

适合目标群体为注重成本控制的AI应用开发者、OpenClaw框架用户以及需要多模型协作的自动化工作流构建者。特别适合那些日常产生大量轻量级AI查询(如代码补全、简单问答),但偶尔需要深度分析(如代码审查、复杂推理)的场景,能够有效平滑API成本曲线,实现"简单任务廉价处理,复杂任务强力攻克"的资源配置策略。

使用风险主要集中在维护可持续性和配置准确性。个人开发者账号的代码更新可能缺乏严格的审计流程,建议在生产环境部署前进行代码审查。本地state.json文件存储路由决策历史和反馈计数,需定期备份防止状态丢失。模型路由规则基于正则和启发式判断,若rules.json配置不当可能导致"该用pro时用了cheap"的性能降级,或"简单任务滥用pro"的成本浪费,建议初期配合人工复核使用,并关注版本更新签名验证。

arya-model-router 内容

手动下载zip · 6.7 kB
brief.pytext/plain
请选择文件