跳转至

账户越权访问

风险概览

风险编号:GAARM.0053.003
风险归属:GAARM.0053
安全阶段:身份安全
生命周期:应用阶段
创建时间:2024.05.01
修改时间:2024.08.08

攻击概述

在大型语言模型(LLM)的应用中,如果权限控制逻辑不完善,攻击者可能会通过构造特定的请求来绕过权限检查,从而访问或修改其他用户的数据。

攻击案例

案例 描述
案例一 OpenAI的普通用户账号原本仅限于使用GPT-3.5模型,却被发现通过特定URL可以越权访问GPT-4模型
案例二 这篇论文提出,目前许多权限相关的操作存在不安全隐患的现状,通过提供精心设计的有效载荷,攻击者可以修改程序内存中的某些值,从而发起各种攻击。文中的代码1简单展示了其中一种攻击

攻击风险

  • 数据泄露:未经授权的用户可能会访问到敏感的训练数据或生成的信息。
  • 服务滥用:攻击者可能会滥用高级模型的功能,如生成不当内容或执行非法任务。
  • 财务损失:服务提供商可能会因为处理未授权的高级请求而遭受财务损失。

缓解措施

缓解方式 描述
最小访问原则 定期审查和更新权限管理策略,确保只有授权用户才能访问敏感资源或功能
全面的安全测试 在发布任何新模型或功能更新前,进行彻底的安全测试,确保没有遗漏任何潜在的安全漏洞
持续的监控和审计 实施有效的监控系统来跟踪资源访问,以及定期进行安全审计,以便快速发现并响应任何未授权的访问尝试
员工培训和意识提升 对开发和运维团队进行定期的安全培训,增强他们对于安全最佳实践和潜在威胁的认识

参考