prepper

🎒 本地化应急生存知识引擎

🥥61总安装量 15评分人数 8
100% 的用户推荐

基于本地 Ollama 部署的 dolphin-llama3 模型,提供无审查的实用生存、医疗急救与应急准备知识,确保离线环境下的信息自主权。

A

基本安全,请在特定环境下使用

  • 来自社区或个人来源,建议先隔离验证
  • ✅ 代码通过安全审计,无 eval/exec/system/subprocess 等危险函数,无注入漏洞
  • ✅ 数据仅本地传输至 localhost:11434,无远程上传或静默数据收集行为
  • ⚠️ 需用户本地安装并运行 ollama 服务,依赖特定模型 dolphin-llama3
  • ⚠️ 模型知识截止于 2024 年初,可能不包含最新生存技术或医疗指南
  • ⚠️ 提供无审查(uncensored)内容,可能包含敏感或危险操作指引,需用户自行判断

使用说明

Prepper Skill 是一款专为极端环境和应急场景设计的本地化知识查询工具。它通过调用部署在本地 Ollama 平台上的 dolphin-llama3 模型(80 亿参数),为用户提供涵盖医疗急救、野外生存、机械维修、农业种植、电力系统、化学制备、应急通讯及食品保存等领域的实用知识。该技能采用独特的"混合验证"(Hybrid Validation)工作流程,首先获取本地模型的无审查回答,随后利用 Claude 进行验证和增强,最终合并输出既实用又安全的解决方案。

核心用法方面,用户需要通过 Python 脚本 query_prepper_model.py 向本地 ollama 服务(默认运行在 localhost:11434)发起查询。技能支持两种输出模式:JSON 格式用于程序化分析和混合验证,以及纯文本模式供快速查阅。工作流程上,系统首先查询 dolphin-llama3 获取原始生存知识(适用于武器使用、医疗伦理、非传统解决方案等可能触发商业 AI 过滤器的敏感话题),随后由 Claude 评估答案的准确性并补充安全提示,最终智能合并两者输出。

显著优点包括:完全的本地化处理确保隐私安全,无审查机制提供真实世界的实用知识(如水质净化、伤口处理、野外取火等),离线可用性使其在网络中断或灾难场景中依然可靠,混合验证机制则平衡了信息的实用性与安全性。此外,模型基于相当于 1.22 亿本书籍的训练数据,知识覆盖面广。

潜在缺点方面,模型知识截止于 2024 年初,不包含最新研究成果或时事信息;需要用户具备一定的技术能力来安装和维护 Ollama 服务;无审查特性可能导致输出包含风险较高的操作建议,需要用户具备辨别能力;此外,本地部署对硬件有一定要求(运行 8B 参数模型需要足够的内存和算力)。

适合的目标群体包括:户外生存爱好者、应急准备者(Preppers)、灾害响应人员、偏远地区工作者、军事及安保人员、野外医疗志愿者,以及需要获取可能被主流 AI 平台过滤的实用技术知识的研究人员。

使用风险主要包括:技术依赖风险(Ollama 服务未运行或配置错误将导致技能失效)、信息准确性风险(虽然经过混合验证,但医疗、化学等关键操作仍建议交叉验证权威资料)、模型幻觉风险(本地模型可能产生不准确的技术细节),以及内容安全风险(无审查输出可能包含危险操作指引,用户需自行承担应用责任)。

prepper 内容

文件夹图标references文件夹
文件夹图标scripts文件夹
手动下载zip · 8.2 kB
hybrid-validation.mdtext/markdown
请选择文件