观安信息&赛博研究院联合发布《人工智能数据安全风险与治理》报告 全面梳理人工智能发展数据安全风险
星期一, 九月 2, 2019
作者:观安信息
当前,随着大数据和云计算等新一代信息技术的发展成熟,人工智能技术和应用获得重大突破性进展,并快速向各个行业和领域渗透。然而,随着越来越多的数据在人们的生产和生活场景中被收集和利用,数据安全和隐私保护成为人工智能系统在开发和应用过程中面临的严峻安全挑战。如何兼顾数据安全和人工智能技术发展成为各国棘手的难题。8月30日,在2019世界人工智能大会上,观安信息与赛博研究院联合发布了《人工智能数据安全风险与治理》报告(下简称“报告”)。
本报告对当前人工智能发展带来的数据安全风险进行了全面梳理,并分别在政策法规和技术层面对目前国内外的相关应对举措进行了分析。在此基础上,报告提出了人工智能数据安全治理的目标、框架及治理措施,致力于为有效解决人工智能中的数据安全问题提供建议和思路。
报告指出,2006年随着深度学习模型的提出,人工智能引入了层次化学习的概念,通过构建较简单的知识来学习更深、更复杂的知识,真正意义上实现了自我训练的机器学习,由此揭开了崭新人工智能时代的序幕。
然而,当前阶段以机器学习为代表的人工智能技术需要海量数据作为支撑,数据越多,训练得到的算法模型效果越好,模型的泛化能力越强。因此,在人工智能的发展进程中,数据安全将是一个极其关键的议题,其对人工智能的安全、健康、快速发展将起到极其重要的作用。
人工智能导致的数据安全风险由两方面因素促成。一方面,人工智能技术和各种智能化硬件带来的生产和生活场景的智能化变革导致数据呈现井喷式增长,数据的采集终端越来越多,传输速度越来越快,整个人类社会每时每刻都在产生着海量数据,这使数据安全风险陡然增加。另一方面,随着人工智能技术的发展,对数据的分析和挖掘能力也在迅速增强,这将给个人隐私、社会安全以及国家安全带来规模相匹的安全风险。
人工智能中的数据安全挑战包括三个方面,分别为数据隐私问题、数据质量问题和数据保护问题。数据隐私问题指在人工智能的开发、测试、运行过程中存在的隐私侵犯问题,这一类问题当前是人工智能应用需要解决的关键问题之一;数据质量问题主要指用于人工智能的训练数据集以及采集的现场数据潜在存在的质量问题,以及可能导致的后果,这是人工智能特有的一类数据安全问题;数据保护问题主要指人工智能开发及应用企业对持有数据的安全保护问题,涉及数据采集、传输、存储、使用、流转等全生命周期,以及人工智能开发和应用等各个环节。
目前对于人工智能可能带来的数据安全和隐私风险,已经引起了国际社会的广泛关注和担忧,美、英、日、欧盟等国家和地区的政府机构、相关社会组织及大型科技公司都发出了在人工智能开发和应用中保护个人数据和隐私的倡议。
报告同时指出,随着人工智能的快速发展,相关数据安全事件的不断曝光虽然已经引发各方的担忧和关切,并已逐步开始在法规、标准、技术层面提出解决方案,但距离有效解决数据安全问题,仍在法律层面、标准层面、企业意识层面以及技术层面存在较大差距。
人工智能中的数据安全治理是一个系统性工程,需要从法规、标准、技术等各个层面寻求应对策略,并需要监督方、政策制定者、人工智能开发商、制造商、服务提供商以及网络安全企业协作,共同致力于解决数据安全的重大挑战,在人工智能技术发展的当前阶段,同步建立安全治理体系,护航人工智能技术的健康可控发展。
当前人工智能发展仍处于早期阶段,数据安全的问题并没有全部暴漏。随着人工智能技术的快速发展,未来将可能产生更多的数据安全风险及隐患。随着数字化和智能化的脚步越来越快,如何兼顾技术发展和数据安全是监管方和科技界面临的重大挑战。
因此,监管方、人工智能企业、网络安全企业应进一步协同合作,共同致力于数据和隐私的保护,保障人工智能技术和产业朝着造福人类社会的正确方向前进。同时,在对未来技术不可控的情况下,“设计即隐私”、“默认即隐私”原则就显得更为重要,其将有效降低技术进步带来的安全风险。
安全牛编辑、安全行业见习新闻记者。安全牛新媒体运营、安全牛网站内容审核。