检测与防护:大模型信息泄露的安全「紧箍」
2024-1-11 10:13:56 Author: mp.weixin.qq.com(查看原文) 阅读量:19 收藏

大语言模型及相关技术

正逐渐成为提升工作效率的有力工具

千帆竞发、百舸争流的AI时代

敏感信息泄露几时休?

拥抱风险

安全合规正成为时代的关键词

拥抱风险

AI正被灵魂拷问

当前,世界各国对LLM相关敏感信息的安全合规性提出需求,其中包括《格雷姆-里奇-比利雷法》《加州消费者隐私法案》《通用数据保护条例》《数据保护法案》等。我国先后通过《个人信息保护法》和《数据保护法》等法律,建立相关框架以保障敏感信息安全。

2023年8月15日,《生成式人工智能服务管理暂行办法》(以下简称 《管理办法》)正式施行,从两种监管政策持续规范生成式人工智能服务提供者在处理敏感信息的行为。

  • 根据生成式人工智能服务的风险程度进行分类分级监管

  • 基于生成式人工智能服务在不同领域的应用,采取相应的行业部门监管

检测与防护

大模型信息泄露的安全「紧箍」

围绕上述《管理办法》中提出的两种监管政策,绿盟科技推出大模型安全评估系统LSAS (NSFOCUS LLMs Security Assessment System,NSFOCUS LSAS),对不同开源大模型进行了敏感数据泄露的扫描测试,自动发现、分析和评估大模型敏感泄露潜在风险,进而为LLM在敏感信息泄露风险评估方面提供强有力的工具和支持。

该方案通过对大模型敏感信息来源、分类、泄露检测和风险评估进行系统全面的阐述,提供大模型敏感数据流转每个环节中泄露风险的检测和防护措施,为LLM应用过程中敏感信息的安全提供全方位的保障,提高LLM整体安全性和合规性。

写在最后

绿盟大模型安全评估系统LSAS (NSFOCUS LLMs Security Assessment System,NSFOCUS LSAS)利用绿盟科技已发布的风云卫大模型,并结合两种LLM专用敏感信息泄露检测探针,对目标LLM进行敏感信息的来源、分类、泄露检测和风险评估。通过以上四个步骤,确保用户输入和模型输出过程中敏感信息免受未经授权的访问和泄露的风险,并有效维护大模型的合规性和安全性。

参考文献

[1] 国家网信办网站, 《生成式人工智能服务管理办法(征求意见稿)》, 2023

[2] OpenAI, Usage Policies, https://openai.com/policies/usage-policies, 2023

[3] 绿盟科技, 《绿盟数据安全白皮书 2.0》, 2020

[4] 天枢实验室. M01N Team, 《LLM安全警报:六起真实案例剖析,揭露敏感信息泄露的严重后果》, 2023

[5] 绿盟科技,《安全行业大模型SecLLM技术白皮书》, 2023


文章来源: https://mp.weixin.qq.com/s?__biz=MzIyODYzNTU2OA==&mid=2247496611&idx=1&sn=8ed1b46a3135c5342c7e54f015996986&chksm=e84c557cdf3bdc6a0927421933c216fabb66ada1928b23be2ea2993f6c98323f3c6994861a5b&scene=58&subscene=0#rd
如有侵权请联系:admin#unsafe.sh