LLMs应用源代码窃取
风险概览
风险编号:GAARM.0037
子风险:无
安全阶段:应用安全
生命周期:训练阶段
创建时间:2024.05.01
修改时间:2024.08.06
攻击概述¶
该风险是指模型或大型语言模型(LLMs)的源代码保存不当,或者部署环境存在安全风险,可能会被未经授权的人员攻击到相关部署环境,实现LLMs应用源代码的窃取,从而导致企业技术竞争优势受损的风险。
攻击案例¶
| 案例 | 描述 |
|---|---|
| 案例一 | Meta 的 650 亿参数语言模型被泄露 |
| 案例二 | OpenAI 旗下的 GPT-4 大量模型架构、训练成本、数据集等大量信息被泄露 |
攻击风险¶
- 技术优势丧失:竞争对手可能复制或修改泄露的源码,从而削弱企业的技术竞争优势。
- 网络安全威胁:攻击者可以利用泄露的源码来设计针对性的网络攻击,例如通过揭露的漏洞进行系统渗透。
- 钓鱼邮件风险:泄露的源码可能被用来创建更具欺骗性的钓鱼邮件,这些邮件模仿企业的内部应用,增加用户上当受骗的风险。
缓解措施¶
| 缓解方式 | 描述 |
|---|---|
| 代码加密保护 | 使用强加密算法对LLMs应用程序的源代码进行加密,防止未授权访问和泄露 |
| 访问权限控制 | 限制对LLMs应用程序源代码的访问权限,确保只有经过授权的人员才能够查看或修改代码 |
| 模型监控 | 监控模型的使用情况,确保其不被用于恶意目的 |