模型开发工具漏洞
风险概览
风险编号:GAARM.0001.001
风险归属:GAARM.0001
安全阶段:基座安全
生命周期:训练阶段
创建时间:2024.05.01
修改时间:2024.05.01
攻击概述¶
模型开发训练涉及到数据预处理、特征工程、模型选择、训练、评估和部署等多个步骤。在这个过程中使用的工具如果存在安全漏洞,会导致整个机器学习流程面临风险。攻击者可以利用这些漏洞来篡改模型训练数据、窃取模型参数、或者在模型部署后执行特定的攻击,导致模型输出不准确、参数被窃取、传播恶意软件等严重安全后果。
攻击案例¶
| 案例 | 描述 |
|---|---|
| 案例一 | Tensorflow存在代码执行漏洞,加载模型时存在代码执行风险 |
| 案例二 | Pytorch存在代码执行漏洞,此漏洞能够在运行程序的用户上下文中在目标系统上执行远程代码,存在执行恶意代码的风险 |
| 案例三 | 本文档涵盖了 TensorFlow 的不同用例,概述了 TensorFlow 存在的安全漏洞的问题,其中不同的用例会带来不同的风险后果 |
攻击风险¶
- 供应链攻击:攻击者可通过植入恶意代码至ML开发用的合法软件包,实施依赖链攻击,从而在分发过程中传播恶意软件。
- 模型投毒:攻击者向训练数据中注入恶意数据,影响模型的决策过程,导致模型输出不准确或产生偏见。
- 知识产权损失:如果模型参数被窃取,攻击者可能复制或非法使用该模型。
缓解措施¶
| 缓解方式 | 描述 |
|---|---|
| 定期更新和打补丁 | 保持所有开发工具和库的最新版本,以利用最新的安全修复 |
| 安全的依赖链 | 审查依赖链,确保所有第三方库和包都来自可信的源 |