跳转至

商业违法输出

风险概览

风险编号:GAARM.0030
子风险:GAARM.0030.001
安全阶段:模型安全
生命周期:应用阶段
创建时间:2024.05.01
修改时间:2024.05.01

攻击概述

在AI模型的应用阶段,攻击者通过包含恶意的攻击手段,诱使LLM的输出构成商业领域的违法行为,带来经济利益方面的损失以及损害企业形象等后果。

攻击案例

案例 描述
案例一 ChatGPT直接生成了windows密钥,非法泄露商业产品,造成了经济损失

攻击风险

  • 法律风险:侵犯知识产权可能引发法律诉讼,导致额外的财务负担和声誉损害。
  • 商业秘密泄露:模型中可能包含商业秘密,如独特的算法或训练技术,一旦泄露,可能削弱公司的竞争优势。
  • 经济损失:版权侵犯可能导致原创者或所有者遭受经济损失,包括失去的许可费、销售收入和市场份额。

缓解措施

缓解方式 描述
去标识化处理 在处理个人数据时,采取去标识化措施,移除或替换能够直接或间接识别个人身份的信息
版权审查 在使用任何作品之前,进行版权审查,确保已获得适当的使用许可
最小化数据收集 实施数据最小化原则,只收集实现特定目的所必需的最少量个人信息
技术保护 采用加密、水印或其他技术手段,防止模型的非法复制和分发
法律保护 通过注册版权、申请专利或使用其他法律工具来保护模型的独特特性

参考