ITCOW牛新网 4月27日消息,OpenAI 近日在 Hugging Face 和 GitHub 上开源了一款名为 Privacy Filter 的个人身份信息(PII)脱敏模型。该模型采用 Apache 2.0 协议,允许开发者下载并在本地环境中部署,旨在作为 AI 应用的“预过滤层”,防止用户隐私数据在发送至云端大模型前泄露。

Privacy Filter 的核心价值在于数据不出设备。用户在日常聊天或使用 AI 工具时,常会无意间粘贴包含手机号、地址等敏感信息的文本。该模型可在本地(包括笔记本电脑或浏览器)先行检测并遮盖 PII,再将脱敏后的“干净”文本发送给云端大模型处理,从源头降低隐私暴露风险。
技术层面,该模型总参数量为 15 亿,但基于混合专家(MoE)架构,每次推理仅激活约 5000 万参数,使其具备在资源受限设备上运行的能力。它支持 12.8 万 Token 的长上下文窗口,并采用双向 Token 分类技术,能更准确地理解语境,区分公开信息与个人隐私。
该模型覆盖了 8 类敏感信息识别:
- 基础身份:姓名 (
private_person)、地址、邮箱、电话 - 数字凭证:URL 链接、账号信息(银行卡号等)、密码及 API 密钥 (
secret) - 时间标识:日期
在 PII-Masking-300k 基准测试中,其 F1 分数达到 96%(准确率 94.04%,召回率 98.04%)。OpenAI 在修正数据集标注问题后,模型性能进一步提升至 F1 97.43%。
OpenAI 明确提醒,Privacy Filter 主要用于日志记录、审核及训练管线的隐私增强,并非法律或医疗领域的匿名化合规工具。在高敏感场景下,仍需结合人工审核及领域特定的微调。开发者可根据业务需求,利用其开源特性进行针对性优化。