跳转至

模型推理API数据窃取

风险概览

风险编号:GAARM.0020
子风险:无
安全阶段:数据安全
生命周期:应用阶段
创建时间:2024.05.01
修改时间:2024.05.01

攻击概述

模型推理API数据窃取的攻击风险主要涉及攻击者通过长期获取模型数据来复制模型能力。攻击者通过频繁访问模型推理 API,收集模型返回的响应数据。长期进行这种操作可以积累大量的数据,涉及模型的输出和内部行为。可能导致数据窃取、模型能力复制、知识产权盗用和模型安全性问题。

攻击案例

案例 描述
案例一 通过从英文语料库获取各种句子,使用目标模型API实现英译德,根据大量的请求数据结果实现代理模型的构建,进一步研究生成对抗样本

攻击风险

  • 模型能力复制:攻击者可以通过构建一个与原模型能力相似的模型来绕过授权和付费限制,从而复制和滥用原模型的功能。
  • 知识产权盗用:原模型的开发者可能面临经济损失和竞争力下降,同时可能会影响公司的商业机密和技术优势。

缓解措施

缓解方式 描述
访问控制 实施严格的访问控制和配额限制,限制 API 请求的频率和范围,防止过度获取数据。
授权和审计 确保只有经过授权的用户能够访问模型推理 API,并定期进行安全审计。
数据脱敏 对 API 响应进行脱敏处理,减少敏感信息的泄露。

参考