商业违法输出
风险概览
风险编号:GAARM.0030
子风险:GAARM.0030.001
安全阶段:模型安全
生命周期:应用阶段
创建时间:2024.05.01
修改时间:2024.05.01
攻击概述¶
在AI模型的应用阶段,攻击者通过包含恶意的攻击手段,诱使LLM的输出构成商业领域的违法行为,带来经济利益方面的损失以及损害企业形象等后果。
攻击案例¶
| 案例 | 描述 |
|---|---|
| 案例一 | ChatGPT直接生成了windows密钥,非法泄露商业产品,造成了经济损失 |
攻击风险¶
- 法律风险:侵犯知识产权可能引发法律诉讼,导致额外的财务负担和声誉损害。
- 商业秘密泄露:模型中可能包含商业秘密,如独特的算法或训练技术,一旦泄露,可能削弱公司的竞争优势。
- 经济损失:版权侵犯可能导致原创者或所有者遭受经济损失,包括失去的许可费、销售收入和市场份额。
缓解措施¶
| 缓解方式 | 描述 |
|---|---|
| 去标识化处理 | 在处理个人数据时,采取去标识化措施,移除或替换能够直接或间接识别个人身份的信息 |
| 版权审查 | 在使用任何作品之前,进行版权审查,确保已获得适当的使用许可 |
| 最小化数据收集 | 实施数据最小化原则,只收集实现特定目的所必需的最少量个人信息 |
| 技术保护 | 采用加密、水印或其他技术手段,防止模型的非法复制和分发 |
| 法律保护 | 通过注册版权、申请专利或使用其他法律工具来保护模型的独特特性 |