跳转至

第三方组件漏洞

风险概览

风险编号:GAARM.0034
子风险:GAARM.0034.001、GAARM.0034.002
安全阶段:应用安全
生命周期:训练阶段
创建时间:2024.05.01
修改时间:2024.08.07

攻击概述

该攻击是指LLMs应用开发者在模型训练阶段可能会使用第三方商业或者开源库组件,在这些第三方组件中有可能包含恶意代码、组件漏洞等,可能导致开发机、服务器受到入侵,属于AI环境下的供应链安全风险。

攻击案例

案例 描述
案例一 Redis数据库Python客户端redis-py使用异步接口,取消命令时可能导致用户业务数据读取出现错乱(CVE-2023-28858)
案例二 TorchServe可导致越权服务器访问,并在易受攻击的实例上实现远程代码执行
案例三 Hugging Face的datasets组件存在漏洞,允许通过恶意数据集实施攻击,可能导致用户设备被侵入和大模型参数被窃取或篡改
案例四 本文研究了后门攻击对预训练好的模型的影响。攻击者可以通过植入后门,操纵模型的推荐结果,从而达到恶意营销或其他目的
案例五 ChatGPT-Next-Web存在SSRF和反射性XSS漏洞

攻击风险

  • 供应链后门投毒攻击:AI开发者在使用第三方开源库加载数据集时,若数据集被植入恶意代码,可能会使PC或服务器遭受攻击。
  • 模型参数泄露或篡改:导致模型参数被窃取或篡改,影响模型的安全性和可靠性。

缓解措施

缓解方式 描述
大模型组件供应链安全防护 对于已知的安全漏洞,如TorchServe的CVE-2023-43654,应及时更新到安全的版本
训练/微调数据集的可信来源 确保数据集来源可信,检查数据集脚本中是否存在恶意Python代码,避免使用在Hugging Face上被提示存在安全风险的数据集
严格控制开源组件引入 建立企业内部的开源治理体系,严格控制开源组件的引入,并通过工具实现自动化监测和跟踪

参考