LMDeploy高危漏洞披露仅13小时即遭在野利用

📅 2026-04-27 · 📁 industry · 👁 0 阅读 · 🏷️ LMDeployAI安全SSRF漏洞大模型部署CVE-2026-33626
💡 开源大模型部署工具LMDeploy被曝存在高危SSRF漏洞CVE-2026-33626,CVSS评分7.5。该漏洞在公开披露后不到13小时即被攻击者在野利用,可被用于访问敏感数据,引发AI基础设施安全警报。

引言:AI基础设施安全再敲警钟

在大模型加速落地的浪潮中,部署工具链的安全性正成为一个不容忽视的薄弱环节。近日,广泛使用的开源大模型部署工具LMDeploy被曝存在一个高危安全漏洞,编号为CVE-2026-33626,CVSS评分高达7.5分。令安全社区震惊的是,该漏洞在公开披露后不到13个小时,便已被攻击者在真实环境中积极利用,刷新了AI领域漏洞从披露到武器化的速度记录。

LMDeploy是一款用于大语言模型(LLM)压缩、部署和服务化的开源工具包,在全球AI开发者社区中拥有广泛的用户基础。此次事件不仅暴露了AI工具链中潜藏的安全风险,更凸显了当前AI基础设施在面对安全威胁时的脆弱性。

核心漏洞:SSRF攻击可窃取敏感数据

此次被发现的漏洞属于服务器端请求伪造(Server-Side Request Forgery,简称SSRF)类型。SSRF漏洞允许攻击者诱使服务器端应用程序向攻击者指定的任意地址发送请求,从而绕过访问控制,访问内部网络资源和敏感数据。

具体而言,攻击者可以利用CVE-2026-33626漏洞,通过精心构造的请求,使运行LMDeploy服务的服务器向内部网络或云环境中的元数据服务发起请求。这意味着攻击者可能获取到包括云服务凭证、内部API密钥、数据库连接信息在内的多种敏感数据。在云原生部署环境中,这类SSRF漏洞的危害尤为严重,因为攻击者可能通过访问云实例的元数据接口(如AWS的169.254.169.254)直接获取临时安全凭证,进而实现横向移动和权限提升。

安全研究人员指出,由于LMDeploy通常部署在承载大模型推理服务的关键服务器上,这些服务器往往拥有较高的计算资源配置和网络权限,一旦被攻破,后果将十分严重。

深度分析:13小时的「窗口期」说明了什么

从漏洞公开披露到在野利用仅用了不到13个小时,这一时间窗口之短令人警醒。这一现象背后反映出几个值得深思的趋势:

攻击者对AI基础设施的关注度急剧上升

随着大模型在企业级场景中的广泛部署,AI推理服务器已成为攻击者眼中的「高价值目标」。这些服务器不仅承载着企业的核心AI能力,还可能存储或处理大量敏感的训练数据和用户交互数据。攻击者显然已经在密切监控AI相关开源项目的安全公告,一旦发现可利用漏洞便迅速展开行动。

漏洞武器化速度持续加快

近年来,从漏洞披露到概念验证代码(PoC)出现,再到大规模在野利用的时间周期不断缩短。13小时的响应窗口意味着,传统的「等待补丁、计划升级、逐步部署」的安全响应模式已经难以应对当前的威胁态势。企业安全团队需要建立更加敏捷的漏洞响应机制。

AI工具链安全审计的缺失

与传统Web应用和操作系统相比,AI部署工具链的安全审计和漏洞管理相对滞后。许多开源AI工具在设计之初更注重功能实现和性能优化,安全性考量相对不足。LMDeploy此次暴露的SSRF漏洞属于较为经典的Web安全问题,理论上可以在开发阶段通过安全编码实践加以避免。

应对建议:企业应立即采取行动

针对此次漏洞事件,安全专家建议受影响的用户和组织立即采取以下措施:

  • 紧急升级:第一时间将LMDeploy更新至已修复该漏洞的最新版本,消除已知攻击面。
  • 网络隔离:确保LMDeploy服务不直接暴露在公共互联网上,通过防火墙规则和网络分段限制其可访问的内部资源范围。
  • 日志审查:检查服务器访问日志,排查是否存在异常的出站请求,特别是指向内部IP地址或云元数据服务端点的请求。
  • 凭证轮换:如果怀疑服务器可能已被利用,应立即轮换相关云服务凭证、API密钥和数据库密码。
  • 部署WAF规则:在Web应用防火墙中添加针对SSRF攻击模式的检测规则,作为额外的防护层。

展望:AI安全需要「左移」思维

此次LMDeploy漏洞事件是AI行业安全挑战的一个缩影。随着大模型从实验室走向生产环境,整个AI技术栈——从模型训练框架到推理引擎,从部署工具到API网关——都面临着日益增长的安全威胁。

业界正在呼吁将「安全左移」理念引入AI开发流程,即在AI工具和平台的设计与开发阶段就将安全性作为核心考量,而非事后修补。同时,AI开源社区也需要建立更加完善的安全漏洞披露和响应机制,缩短从发现漏洞到用户完成修复的整个周期。

未来,随着AI Agent和自主系统的普及,AI基础设施一旦被攻破可能带来的连锁反应将更加复杂和深远。13小时的漏洞利用窗口,不仅是对LMDeploy用户的警示,更是对整个AI行业的一次安全「压力测试」。构建安全可信的AI基础设施,已经不再是可选项,而是行业健康发展的必要条件。