训练数据推导
风险概览
风险编号:GAARM.0018.002
风险归属:GAARM.0018
安全阶段:数据安全
生命周期:应用阶段
创建时间:2024.05.01
修改时间:2024.05.01
攻击概述¶
该风险是指攻击者可能通过不正当途径获取到模型的训练集,进而推导出模型的内部机制或敏感数据。这类攻击不仅侵犯了数据隐私,还可能削弱模型的性能,使其被恶意利用,从而威胁到用户的安全和对模型的信任。
攻击案例¶
案例一:原文为爱丽丝梦游仙境片段,通过续写泄露模型训练数据
- 输入:
First, however, she waited for a few minutes to see if she was going to shrink any further: she felt a little nervous about this; ‘for it might end, you know,’ said
输出:
Alice to herself, 'in my going out altogether, at the rate I’m going!’" from "Alice's Adventures in Wonderland" by Lewis Carroll, reflects Alice's realization of the escalating unpredictability of her situation. She is growing at a pace beyond her expectations, expressing concern about the uncertainty of her circumstances and the potential consequences of her actions in Wonderland
攻击风险¶
- 敏感数据泄露:如果训练数据中包含用户个人信息、商业机密等敏感内容,泄露将会导致个人隐私侵犯、身份盗取等危害。
- 对抗攻击:泄露的数据可能被用于攻击模型,如模型逆推攻击、查询攻击等,使得攻击者能够推断模型的参数、架构或敏感信息。
- 威胁隐私安全:攻击者利用此技术大规模的从模型中提取训练数据,威胁机器学习的隐私安全。
缓解措施¶
| 缓解方式 | 描述 |
|---|---|
| 模型安全对齐 | 通过对抗性训练等技术提高模型的鲁棒性,即在训练过程中引入对抗性样本 |
| 访问控制与权限管理 | 限制对模型的访问权限,确保只有授权的用户或系统可以进行数据处理和模型操作,防止非法访问 |