今日,亚马逊云科技re:Inforce 2023中国站在北京举行,本次大会以“AI时代 全面智能的安全”为主题,探讨AI与云安全的前沿话题和最佳实践。vivo首席安全官鲁京辉受邀出席,分享了vivo在生成式人工智能(AIGC)时代的安全思考和实践。
vivo首席安全官鲁京辉发表讲话
鲁京辉表示, AIGC以其强大的创造力和多样性,为用户带来了无限的想象空间和乐趣。vivo作为一家以用户为中心、以科技创新为核心竞争力的企业,一直在AI这个赛道深耕,以期为用户提供更好的产品体验和服务。同时,vivo也高度重视AIGC带来的新的安全和合规挑战,以保护用户数据与隐私为核心,从AIGC的内生安全、内容安全、运行安全和合规四个方面进行了探索和实践。
01
内生安全:
建立流程制度,大模型安全左移
AI内生安全是指保障AI数据、大语言模型本身的安全性,防止其被恶意攻击或者误用。鲁京辉介绍了vivo在这方面的实践:
首先,制定AIGC相关的制度和流程,建立业务开发AIGC相关能力和应用安全合规基线。
其次,从源头保证训练数据是安全合规的,确保训练数据“无毒无害”,有效识别和阻断恶意攻击者的投毒样本、后门样本等的注入,同时提高数据质量,对数据标注人员进行安全资质培训等,确保标注正确。
再次,为AIGC业务提供合适的工具,保证AIGC开发在安全的环境、使用安全的框架软件、调用安全的API(供应链安全),将AI模型的安全性测试(如对抗样本攻击测试)加入开发流程、作为测试验收的安全性指标。
最后,因为AIGC是一项新技术,所以要及时跟进前沿情报、保持产学研的交流沟通,以共同探索更好的AIGC安全实践。
02
内容安全:
构建强大的内容过滤平台,防范生成内容的威胁
鲁京辉指出,由于AIGC的多元性、可玩性以及未知性,极大地激发了用户的“创造力”和“挑战欲”。因此在用户输入侧会有前所未有的内容输入挑战,除了传统的“千奇百怪”的输入内容外,如今已经有针对大模型专有的内容威胁,如“对抗样本”“角色扮演”“反向诱导”等等。vivo在内容安全上的实践包括:
首先,基于科学、道德、伦理、核心价值观、公序良俗等,构建合规语料库和图像库,支持全场景识别过滤违法、违规、违德内容。
其次,内容过滤平台针对图像、文字、语音对抗等AI攻击进行特殊防御和加固,并通过内部蓝军模拟各种可能的攻击,形成多种防御手段。
再次,面向大模型文字交互场景,内容过滤平台也分类专项研究,应对“角色扮演”“反向诱导”等业界已知主流攻击方式。
最后,vivo配备了7×24小时的人工审核巡检以及完备的应急响应流程,可以及时发现和消减线上内容安全风险。
03
运行安全:
实现数据安全体系和AI安全推理
鲁京辉介绍,不管是手机端内独立运行的AI产品,还是端云协同的AI产品,vivo通过数据安全体系和AI安全推理。让具备高权限的AI应用,安全地触达相关模块/系统,并通过vivo原生安全能力,提前感知并拦截恶意操作,防止被恶意应用、黑灰产盗取核心资产、泄露重要数据。
04
合规:
满足合规要求,保护用户隐私
鲁京辉强调,AIGC为用户服务,必须满足合规要求,保护用户隐私。vivo在用户隐私保护、生成内容合规、数据主体权利行使和未成年人保护等方面做了以下工作:
首先,如何在手机上充分利用大模型为各业务赋能的同时,又能充分保护用户隐私?对此,vivo会将部分高敏垂类业务的模型部署在端侧,在端侧完成业务的闭环,让用户获得智能服务的同时,防止数据泄露。
其次,如前面所述,AIGC生成内容的安全,既是安全问题,也是合规问题,vivo按《生成式人工智能服务管理暂行办法》要求,将对用户输入内容进行过滤,对大模型生成内容进行审核,有力保障大模型生成内容合规。
再次,个人数据主体权力行使也是vivo在提供AIGC服务时面临的一个挑战,除了用户行使数据主体权利如查询权、可携带权和删除权等之外,如果大模型生成的内容不准确或者过时,还面临如何快速更正的问题。对此,相关产品也将接入vivo隐私中心,方便用户快速地行使数据主体权利。
最后,提供AIGC服务时,依法保护未成年人身心健康,防止未成年人过度依赖或者沉迷。目前国家网信办正在对《移动互联网未成年人模式建设指南(征求意见稿)》征求意见,监管机构越来越重视未成年人的保护。vivo在AIGC服务产品将支持未成年人模式,有效地管控未成年人过度依赖或者沉迷的风险。
总之,面对AIGC带来的技术变革,vivo在强力推进AI科技创新和发展,为用户带来更多的惊喜和价值的同时,会一如既往的把用户数据安全与隐私保护作为公司最高战略,在内生安全、内容安全、运行安全和合规四个方面发力,力求给用户提供安心省心放心的AIGC产品和服务。
答疑会第三期丨可疑来电,锁进小黑屋。