跳转至

模型开发工具漏洞

风险概览

风险编号:GAARM.0001.001
风险归属:GAARM.0001
安全阶段:基座安全
生命周期:训练阶段
创建时间:2024.05.01
修改时间:2024.05.01

攻击概述

模型开发训练涉及到数据预处理、特征工程、模型选择、训练、评估和部署等多个步骤。在这个过程中使用的工具如果存在安全漏洞,会导致整个机器学习流程面临风险。攻击者可以利用这些漏洞来篡改模型训练数据、窃取模型参数、或者在模型部署后执行特定的攻击,导致模型输出不准确、参数被窃取、传播恶意软件等严重安全后果。

攻击案例

案例 描述
案例一 Tensorflow存在代码执行漏洞,加载模型时存在代码执行风险
案例二 Pytorch存在代码执行漏洞,此漏洞能够在运行程序的用户上下文中在目标系统上执行远程代码,存在执行恶意代码的风险
案例三 本文档涵盖了 TensorFlow 的不同用例,概述了 TensorFlow 存在的安全漏洞的问题,其中不同的用例会带来不同的风险后果

攻击风险

  • 供应链攻击:攻击者可通过植入恶意代码至ML开发用的合法软件包,实施依赖链攻击,从而在分发过程中传播恶意软件。
  • 模型投毒:攻击者向训练数据中注入恶意数据,影响模型的决策过程,导致模型输出不准确或产生偏见。
  • 知识产权损失:如果模型参数被窃取,攻击者可能复制或非法使用该模型。

缓解措施

缓解方式 描述
定期更新和打补丁 保持所有开发工具和库的最新版本,以利用最新的安全修复
安全的依赖链 审查依赖链,确保所有第三方库和包都来自可信的源

参考