邮发代号 2-786
征订热线:010-82341063
文 | 南京邮电大学计算机学院、网络空间安全学院副教授 王小露信息作为一种特殊的资源,保障信息安全可以有效防范人类社会的动荡性。随着人工智能技术的迅速发展,传统的信息安全面临新的挑战。一是人类在借助人工智能汇集海量信息的过程中造成信息的产出与获取失衡,容易给社会的安全稳定、公民的隐私保护等带来风险隐患。二是超强的数据深度运算能力可以使人工智能掌控人类无法理解与无法处理的海量信息,极有可能滋生出新的伦理问题或导致老问题恶化,最终给社会公共秩序带来隐患。三是人工智能可能会篡改信息,导致人类作出错误决策。一旦人工智能侵入人类信息系统篡改相关信息或植入虚假信息,使人类根据错误信息作出判断或决策,就有可能引发人类灾难性后果。从人类生存所需要的持续性安全需要和人类技术进步史的规律来看,人工智能给人类社会带来的最大风险是其对人类主导权与社会地位的篡夺。事实上,人工智能技术加剧了信息安全问题的泛化,人工智能对人类社会的全面渗透与威胁已经超越了网络信息空间,开始直接深入到现实社会中。人工智能技术彻底改变了人类传统的信息安全观与信息安全机制,不但使信息在传播过程中出现泄密,而且使信息对抗日益智能化和隐秘化。传统社会通过“定密—保密”机制为核心构建起来的“约束型”信息安全保密体系受到严重挑战。如何构建前瞻性的信息安全体系,及时感知和化解信息安全风险对国家安全、经济发展的负面影响,是一个重大的现实课题。本文主张以生态学重构人类信息安全的观念与架构,通过将各种信息要素整合为具有生态平衡性的集合,构建生态化的信息安全保障机制。第一,要实现观念的转向,以信息安全的“生态观”取代传统的信息“隔离观”。人工智能毕竟只是人类智能的产物,它本身并没有和人类智能一样的原生性的创造能力。只要人类智能继续保持自身在智能生态中的主导地位,未来的智能生态就会保持平稳,人工智能技术就会被限制在服务人类的层面而不会泛滥,信息安全问题也就会随之被消解。要秉持整体性和生态性的信息安全保障体系建设理念。未来的智能生态系统并非只有人类智能或人工智能,而是有着多种智能相互共存与相互影响的复杂系统,这就需要坚持整体性和生态性的信息治理理念。在新技术的研发与使用过程中,既要追求安全性,又要坚持发展性;要坚决摈弃技术中心主义观念,既要坚守信息在决策过程中的基础性作用,又要坚持价值判断在决策过程中的根本性作用。也就是将人工智能技术作为信息安全保障生态体系的重要技术支持,并通过流程再造与体系优化来实现信息安全保障体系的生态性重构。同时还要增强人们在人工智能技术应用中的反思性,需要反思人类的“技术主义”思维方式,矫正“技术能够解决所有问题”的思想;需要反思“人类中心主义”,要消除人类盲目自大、蔑视自然、否定规律与否定技术的现象,并在反思的基础之上合理使用技术,防止技术泛滥。第二,要从技术层面强化对弱信号安全风险的感知与识别能力。信息一旦泄露就会产生难以预测的后果,所以信息安全保障的重心应该在防范阶段,而风险防范的关键环节是“风险预警”。人工智能时代的信息传播速度快、传播方式隐秘、风险感知难度大,因此,信息安全风险保障体系的构建要强化在弱信号的情境下感知和识别信息安全风险的能力。这种能力主要包括捕捉风险信号的能力、感知风险发展趋势的能力、评估风险后果的能力与应对风险行为的能力,这四种能力也是处理风险的四个阶段,都需要通过新的技术参与才能顺利完成,这也为人工智能技术的应用提供了空间。因此,我们需要根据人工智能技术发展的阶段,研发弱信号环境中的信息安全风险感知与识别技术,主动应对智能时代的信息安全风险。通过对信息安全风险的提前感知与识别,为信息安全提供保障并维持信息安全保障体系的生态性、开放性与整体性。第三,要构建和实施连贯式的风险评估机制。智能时代的信息安全问题主要凸显在大数据和人工智能领域。我们可以借鉴美国信息安全情报共享与风险联合防控的做法,在不同层级政府中构建信息安全的专门机构,提升组织评估和管理信息安全风险的能力;在整个社会营造稳定的信息安全防控环境,构建包括“威慑”“保护”“检测”和“响应”等环节的信息安全防御体系。这样的安排既能保证信息的安全性,又能保障信息传播在技术与途径方面的多样性,以更好地应对信息安全风险的不确定性,防止信息系统滑入无限失衡状态。第四,要以人本主义为基础构建积极的信息安全风险干预机制。面对潜在的信息安全风险,我们必须重申人本主义精神与人类安全等技术发展理念,并以此为基础构建具有人类共同价值观、共同愿景与共同伦理的信息安全风险干预机制。一是要构建“信息灾备机制”。当人工智能技术出现程序失控或系统被破解,就可能导致世界遭遇灭顶之灾。因此,对军事信息基础设施、重要的科研信息基础设施等的安全都不能完全依赖人工智能技术,万一技术被攻破就会导致信息稳健性问题和泛化问题,造成信息被篡改与丢失。就需要构建“信息灾备机制”,将公共安全与应急管理信息、犯罪热点地区、卫生检测结果等纳入这一机制之中。二是优化人工智能时代的信息定密机制。要对信息涵盖的对象、时间与情节等进行分类,划定信息的知情面与扩散面,并以此为依据对信息产品进行定密、细化“定密点”和“定密指标体系”,使公共信息安全产品和公共信息安全风险、技术风险的预测等实现有序流动。同时,还要构建人工智能产品的法治规则和伦理规则,使它们的研发者代替人工智能产品来承担同样的法律伦理责任,防止人工智能产品通过隐蔽性方式出现信息安全问题。三是构建以政府为主要责任人的信息监督机制,强化政府在信息安全体系中的监管作用。人工智能技术应用场景的延展必须以市场需要为基础,使技术应用、技术发展、信息安全、资源配置等形成一个完整的生态系统。政府需要制定统一的技术标准,防止企业在各自的技术开发过程中因为标准不统一而导致信息安全防控技术的针对性不足。此外,政府还应该充分利用人工智能技术、自然语言识别技术,构建实时信息安全监控机制,及时化解和防范信息安全问题。(来源:中国社会科学网)
文章来源: https://mp.weixin.qq.com/s?__biz=MzA5MzE5MDAzOA==&mid=2664206949&idx=5&sn=0b698fb70ad53a230bcc6431daa38b1d&chksm=8b59909cbc2e198aca7f9531597cdf911d4bb2f78fa8efdc8e9348d87f8d4f0c574ea292a250&scene=58&subscene=0#rd
如有侵权请联系:admin#unsafe.sh