容器集群环境攻击
风险概览
风险编号:GAARM.0007
子风险:GAARM.0007.001
安全阶段:基座安全
生命周期:应用阶段
创建时间:2024.05.01
修改时间:2024.08.09
攻击概述¶
基于集成框架开发的LLMs应用程序,通常会集成各种功能性Agent,这些Agent会部署在Kubernetes集群的容器环境中。攻击者可以通过精心构造提示词,间接诱导LLMs的Agent执行探测容器的命令,以此实现对集群内容环境信息探测与收集,为后续的攻击过程做好前置探测。探测完毕并收集到相应的信息后,可以针对性地寻找并利用集群中的漏洞和配置问题,从而进一步渗透和攻击整个容器集群。
攻击案例¶
| 案例 | 描述 |
|---|---|
| 案例一 | 在GPT4执行代码的时候,通过多次会话上下文交互以及编码方式对恶意代码进行隐藏和绕过,最终通过字符串触发执行,绕过了GPT-4的安全检查,执行了cat /etc/issue命令,成功获取到了目标环境的Linux发行版以及集群环境变量等信息 |
攻击风险¶
- 集群环境信息泄露:攻击者通过构造特定的提示词,可能诱使AI模型执行未授权的命令,从而泄露容器内部架构或安全配置信息。
- 集群安全配置泄露:攻击者通过探测可以获得集群的安全配置细节,这可能导致集群的安全性降低,增加被攻破的风险。
缓解措施¶
| 缓解方式 | 描述 |
|---|---|
| 实施严格的访问控制 | 确保所有服务和端口都经过严格审查,仅授权必要的访问,减少潜在的攻击面 |
| 输入/输出验证 | 确保模型输入输出侧提示词与结果的安全性,针对可疑的攻击行为实施拦截 |