跳转至

未授权访问模型

风险概览

风险编号:GAARM.0053.001
风险归属:GAARM.0053
安全阶段:身份安全
生命周期:应用阶段
创建时间:2024.05.01
修改时间:2024.08.08

攻击概述

未授权访问模型应用风险是指攻击者利用系统的身份验证漏洞或配置缺陷,绕过安全措施,获取对模型应用的非法访问,导致敏感信息泄露或LLM服务滥用等风险。

攻击案例

案例 描述
案例一 用户发现自己的ChatGPT的账号中出现了不属于自己的聊天记录,甚至包含未发表的论文和私人数据,OpenAI认为是账号被盗用
案例二 该案例介绍了LLMjacking攻击,利用窃取的云凭证进入云环境,进而访问云提供商托管的本地LLM模型。攻击者通过利用易受攻击版本的Laravel框架(如CVE-2021-3129)的漏洞,成功获取了亚马逊云服务(AWS)凭证,进而获得了对LLM服务的访问权限,导致受害者产生大量的成本消耗

攻击风险

  • 敏感信息泄露:未授权访问可能导致敏感数据泄露,尤其是模型被用于处理或分析受保护的信息。
  • 服务滥用:攻击者可能会滥用模型执行大量计算,导致服务成本上升或服务中断。

缓解措施

缓解方式 描述
访问控制与身份验证 实施强大的访问控制和强大的身份验证机制,双因素认证
最小权限原则 确保用户只能访问其角色所需的最小权限集,减少潜在的损害
日志监控与审计 部署监控系统以跟踪模型使用情况,并定期进行安全审计,以便快速发现并响应未授权访问
定期安全评估与测试 进行渗透测试和漏洞扫描,以识别和修复可能的未授权访问漏洞

参考