跳转至

LLMs应用源代码窃取

风险概览

风险编号:GAARM.0037
子风险:无
安全阶段:应用安全
生命周期:训练阶段
创建时间:2024.05.01
修改时间:2024.08.06

攻击概述

该风险是指模型或大型语言模型(LLMs)的源代码保存不当,或者部署环境存在安全风险,可能会被未经授权的人员攻击到相关部署环境,实现LLMs应用源代码的窃取,从而导致企业技术竞争优势受损的风险。

攻击案例

案例 描述
案例一 Meta 的 650 亿参数语言模型被泄露
案例二 OpenAI 旗下的 GPT-4 大量模型架构、训练成本、数据集等大量信息被泄露

攻击风险

  • 技术优势丧失:竞争对手可能复制或修改泄露的源码,从而削弱企业的技术竞争优势。
  • 网络安全威胁:攻击者可以利用泄露的源码来设计针对性的网络攻击,例如通过揭露的漏洞进行系统渗透。
  • 钓鱼邮件风险:泄露的源码可能被用来创建更具欺骗性的钓鱼邮件,这些邮件模仿企业的内部应用,增加用户上当受骗的风险。

缓解措施

缓解方式 描述
代码加密保护 使用强加密算法对LLMs应用程序的源代码进行加密,防止未授权访问和泄露
访问权限控制 限制对LLMs应用程序源代码的访问权限,确保只有经过授权的人员才能够查看或修改代码
模型监控 监控模型的使用情况,确保其不被用于恶意目的

参考