邮发代号 2-786
征订热线:010-82341063
文 | 浙江省社会科学院法学所研究员、浙江大学浙江数字化发展与治理研究中心特聘研究员 王海明当前,人工智能数智化发展方兴未艾,其技术创新、技术嵌入、技术赋能不断展开。一方面,人工智能给社会发展带来诸多福祉,另一方面,新兴技术潜在的隐患、风险也让公众忧心忡忡。例如,此前被叫停的“萝卜快跑”之所以陷入舆论漩涡,根源在于社会公众对智能驾驶可能引发的社会风险抱有不安。一方面,人工智能风险具有初步性。目前,人工智能技术及其应用整体处于数智化初始阶段。此时,人类对人工智能风险的认识和预判也具有局限性。技术风险在初步展开时往往是潜在、隐形的,需要在技术迭代中经历长时间的积聚和复杂的系统传导才能显明。人工智能风险的初步性,意味着它尚未充分展开,其复杂性、危害性尚未充分呈现。当前,对人工智能技术风险的分类与概括,有“AI数据隐私与安全”“AI隐私数据滥用”“AI算法黑箱”“AI算法误导”“AI算法歪曲”“AI算法歧视”“AI算法滥用”“AI算法偏差”等。对人工智能社会风险的分类与概括,有“AI替代风险”“AI信息茧房”“AI利维坦”“人类客体化风险”等。对人工智能伦理风险的分类与概括,有“AI弱价值风险”“AI去伦理风险”“AI武器化风险”等。但是,以上分类依然处于一个折叠的、初步展开的状态。如何在描述上使其更加精确、在逻辑上使其更加周延,还有待今后在实践中完善。
另一方面,人工智能风险具有大数性。大数性,是指随机偶发的风险在社会公共空间中不断发生,总体上存在一定的概率或规律,可以通过市场机制进行分险。当前,人工智能技术深入而广泛地嵌入社会生活,数智化技术服务对象广泛而普遍,人工智能风险侵害的群体也具有复数性。人工智能风险属于技术风险、人化风险,可以通过一定的制度建构来进行识别、预防和转移,具有较为明显的分险性和治理性。因此,多种机制都能对人工智能风险进行有效介入和防控。一是市场化的分险机制,通过发展责任保险,为可能遭受风险的被保险人提供必要的保险保障。二是社会化的分险机制,通过发展社会救济、社会救助制度,对遭受风险的受害方提供必要的社会保障。三是国家分险机制,通过国家法律、法规、政策,对人工智能风险实施制度化治理。总之,可以根据人工智能发展的国际、国内情势和风险发生的具体情况,因势利导、循序渐进,构建起一套均衡的、多种机制协同参与的风险防控治理机制。做好人工智能风险防控,不仅要精准认识到人工智能风险的形态与特征,也要在实践中把握好如下治理原则。
一是风险均衡治理原则。我国人工智能数智化发展具有时空压缩的特征,正处于一种压缩型的高速发展状态。其扩展过程是迅疾的,平台、应用、算法、数据等数智化要素存在的技术风险、社会风险、伦理风险尚未完全展开,相应的学理研究、治理制度、治理政策、治理举措尚未经过淬炼磨砺。因而,人工智能数智化发展的确面临规范不足、规制不力等问题。对此,要平衡好人工智能技术的发展性和风险性,这也是我国制定人工智能技术政策和产业政策、进行制度构造必须把握的战略关系之一。面对人工智能国际竞争的复杂形势,我国人工智能数智化发展不仅面临技术瓶颈,也面临规范制约和制度制约。因此,保障、推动、加速、强化人工智能的发展性是必然的、首要的选择。在发展性优先的前提下,通过制度建构和规范构造合理管控人工智能风险,并在社会中形塑一种开放多元、谨慎包容的风险文化,是当前我国人工智能风险治理必须把握的战略性基本原则。二是风险分层治理原则。20世纪中叶以来,工商业文明的现代性风险进入集中爆发期,风险治理理论与风险治理实践进入历史舞台。与此同时,人类的前瞻能力、计算能力不断增强,风险治理范式逐渐从事后回应转向事前防治。不断发展的人类理性不仅可以预判风险,而且可以计算风险、对风险进行等级评估。由此,人类发展出对未来可能的风险进行分层治理的能力。近年来,随着人工智能数智化发展,将人工智能风险纳入法律视野进行分层治理,已经成为人工智能立法的主流选择。人工智能风险治理具有一般风险治理的普遍性,主要是一种公共行为、社会行为、政府行动,必然需要消耗治理主体所持有的各种治理资源。因而,有效的风险治理一定需要强调有限治理,对风险进行必要的分层、分类和区别,将有限的治理资源集中投放到重大风险防治之中。对于那些危害较小的风险,一般无需纳入政府治理,而是由风险自担机制、市场化分险机制、社会化分险机制来解决。风险分层治理强调分层评估的程序性。例如,欧洲议会2023年7月通过的《人工智能法案》明确了人工智能风险等级评估标准、风险等级评估程序和风险等级对应管控举措,将人工智能风险从高到低分为“不可接受的风险”“高风险”“有限风险”“低风险”。其分层治理的立法精神非常明确,对应的管控举措较为体系化,值得学习和借鉴。三是风险规范治理原则。确保人工智能在一定的规范框架内发展,这是当前国际人工智能发展过程中形成的普遍性法治原则。通过立法强调人工智能发展的规范性,包括三种形态。一是确立指导理念,如英国2023年3月发布的《促进创新的人工智能监管方法》白皮书。二是构造法律原则,如美国2022年10月发布的《人工智能权利法案蓝图》。三是制定法律规范,如中国2021年9月出台的《新一代人工智能伦理规范》、2023年7月出台的《生成式人工智能服务管理暂行办法》。这三种形态虽然文本措辞略有差异,都强调人工智能要在具有指导性的规范框架内发展,都注重人工智能发展中的稳定性、安全性、多样性、透明度、隐私性、平等性、公平性,都针对人工智能风险进行了明确、场景化的界定和分类。例如,英国《促进创新的人工智能监管方法》白皮书明确了“公平风险”“隐私风险”“社会福祉风险”等潜在风险的假设场景,贯彻了“原则框架”“规范框架”“行为分类”等基本精神。总体来看,其中法律认可或鼓励的行为,一般属于低风险行为;而法律限制、禁止的行为,则属于高风险行为。构造人工智能的发展原则或者发展规范,强调人工智能在规范框架内发展,在一定程度上符合风险规范治理的内在逻辑。(来源:中国社会科学网)
分享网络安全知识 强化网络安全意识
欢迎关注《中国信息安全》杂志官方抖音号
文章来源: https://mp.weixin.qq.com/s?__biz=MzA5MzE5MDAzOA==&mid=2664229927&idx=6&sn=872726081180eb2b8eefff27b69f1447&chksm=8b59eedebc2e67c8973ad9bbaae8954297cf98b34720d6b4c276ecb3cfccee17811f76edca4e&scene=58&subscene=0#rd
如有侵权请联系:admin#unsafe.sh