glin-profanity

🛡️ 多语言智能内容安全审核专家

🥥42总安装量 10评分人数 13
100% 的用户推荐

基于 GLINCKER 开源项目,支持 24 种语言的智能内容审核库,提供 leetspeak/Unicode 检测与企业级敏感词过滤能力。

A

基本安全,请在特定环境下使用

  • 来自社区或个人来源,建议先隔离验证
  • ✅ 纯文档型资产,无独立可执行脚本,无代码执行风险
  • ✅ 无网络通信、无数据收集、无敏感信息上传功能
  • ✅ 无系统破坏性命令或危险操作,内容完全透明可审计
  • ⚠️ 依赖外部库(glin-profanity),安装时需确认 npm/PyPI 来源可信度,避免供应链攻击
  • ⚠️ Markdown 内嵌代码示例使用时需自行验证,建议生产环境锁定依赖版本

使用说明

Glin Profanity 是一款面向多语言场景的敏感内容检测与审核工具,基于 GLINCKER 开源项目开发,提供 JavaScript/TypeScript 和 Python 双语言 SDK 支持。该技能主要用于识别和过滤用户生成内容中的不当言论,特别针对现代网络环境中常见的规避手段进行了深度优化,包括 leetspeak 变形(如 f4ck、sh1t)、Unicode 同形异义词(如 Cyrillic 字符伪装)以及混淆文本。核心功能涵盖实时文本检测、批量内容审核、上下文感知分析和可选的 TensorFlow.js 机器学习毒性检测,支持包括阿拉伯语、中文、俄语、印地语在内的 24 种语言,并针对医疗、游戏、技术等专业领域提供上下文白名单机制。

该工具的显著优势在于其多维度的检测能力。首先,通过正则表达式和 Unicode 归一化技术,有效识别传统关键词过滤难以捕捉的变体形式;其次,内置的上下文分析模块可根据领域场景(医疗术语、游戏黑话等)动态调整敏感度,大幅降低误判率;再者,提供 React Hook 封装和 LRU 结果缓存机制,便于前端集成并优化高频检查场景的性能。此外,灵活的自定义词库和替换策略使其能够适应不同社区的内容标准。

然而,该技能也存在一定局限性。作为 T3 级社区来源项目,虽然代码透明可审计,但缺乏企业级背书和长期维护承诺。机器学习检测模块依赖 TensorFlow.js,在浏览器端运行时可能带来额外的资源加载开销和初始化延迟。多语言支持虽广,但对低资源语言的检测准确率可能不及英语等主流语言。此外,过度敏感的过滤规则可能导致"过度审查",影响正常交流体验,需要运营团队投入时间调优白名单和置信度阈值。

目标用户群体主要包括:社交平台开发者需要构建评论审核系统、在线游戏运营商管理玩家聊天频道、教育机构过滤学习社区内容、以及任何涉及 UGC(用户生成内容)的产品团队。特别适合需要防御性强(抗绕过)且支持多语言的内容安全方案的中大型应用。

使用时的常规风险包括:依赖项安全(需验证 npm/pip 包来源避免供应链攻击)、性能考量(ML 模型首次加载耗时)、以及业务层面的误判风险(建议配置人工复核流程)。作为纯文档型技能,其本身不包含可执行代码,但实际集成时需确保 glin-profanity 库的版本锁定,避免自动更新引入破坏性变更。

glin-profanity 内容

手动下载zip · 2.2 kB
SKILL.mdtext/markdown
请选择文件