近年来,全球人工智能浪潮持续升温,大模型作为AI领域中的重要一环,其能力随着平台算力的提升、训练数据量的积累、深度学习算法的突破,得到了进一步提升。然而以大模型为核心涌现的大量技术应用背后,也带来诸多新的风险和挑战。
近日,360数字安全集团发布全球首份《大模型安全漏洞报告》(以下简称“报告”),从模型层安全、框架层安全以及应用层安全三大维度探查安全问题,并借助360安全大模型自动化的代码分析能力,对多个开源项目进行代码梳理和风险评估,最终审计并发现了近40个大模型相关安全漏洞,影响范围覆盖llama.cpp、Dify等知名模型服务框架,以及Intel等国际厂商开发的多款开源产品,全面呈现了全球大模型发展所面对的安全威胁态势,为构建更加安全、健康的AI数字环境贡献力量。
生成及应用过程隐忧
模型层安全或影响训练及推理
大模型的生成及应用过程通常包含了数据准备、数据清洗、模型训练、模型部署等关键步骤,攻击者可对该流程中相关环节施加影响,使模型无法正常完成推理预测;或者绕过模型安全限制或过滤器,操控模型执行未经授权的行为或生成不当内容,并最终导致服务不可用,甚至对开发者或其他正常用户产生直接安全损害。
报告指出,大模型的开放性和可扩展性使其在训练和推理过程中面临着数据投毒、后门植入、对抗攻击、数据泄露等诸多安全威胁。近年来,各大知名厂商的大语言模型因隐私泄露和输出涉及种族、政治立场、公共安全等不合规信息而引起社会广泛关注的案例屡见不鲜,为了加强模型本身的安全性,越来越多的研究人员开始从模型的可检测性、可验证性、可解释性进行积极探索。
安全边界模糊
框架层安全使攻击面频繁增加
随着大模型项目需求的不断增长,各类开源框架层出不穷。这些框架极大提升了开发效率,降低了构建AI应用的门槛,同时也打开了新的攻击面。
报告指出,这些框架在各个层级都可能因接触不可信的输入而产生潜在的安全风险。比如利用非内存安全语言引发内存安全问题,或者通过影响正常业务流程向框架传递恶意数据进行攻击,以及利用物理或虚拟主机集群所暴露的服务接口进行恶意控制等。
模型框架通常承载着极其丰厚的计算与存储资源,但又由于其模糊的安全边界,通常难以做到完全运行于隔离的环境之中,因此一旦受到攻击,就可能对整个系统带来不可估量的损失。
模块协同存在风险
应用层安全可致目标系统失控
在以往的攻击中,攻击者常通过组合利用业务系统中具有不同“能力原语”的漏洞,进而实现对目标系统的完整控制。
而在AI场景下,为了能使大模型能处理各项业务需求,通常会赋予其包括代码执行在内的多项能力,这在带来便捷的同时,也提供了更多攻击系统的可能性。攻击者可以尝试控制并组合AI的“能力原语”,在某些应用场景下达到更为严重的攻击效果。
伴随人工智能的加速发展,以大模型为重要支撑的AI生态拥有巨大的发展潜力,在赋予AI更多能力的同时,也应确保整个系统的可信、可靠、可控。报告认为,大模型所面对的安全威胁应从模型层、框架层、应用层三个层面持续深入探索:
模型层是大模型自身在训练和推理过程中,以能直接输入至模型的数据为主要攻击渠道,从而使得大模型背离设计初衷,失去其真实性和可靠性。
框架层则是用于大模型生产的各类开源工具带来的安全威胁,这类框架在掌握有大量数据、算力、存储资源的同时,却缺少基本的安全设计,其安全性很大程度依赖于框架使用者自身经验。
应用层则是集成大模型技术的应用程序,在受传统安全问题影响的同时,又可能在模型能力驱动层面上出现新的攻击场景。
点击【阅读原文】,获取完整报告
如要了解更多详情
欢迎尽快联系咨询
400-0309-360
往期推荐
| |||
| |||
| |||
|