法律如何应对人工智能的发展
2024-9-5 15:42:32 Author: mp.weixin.qq.com(查看原文) 阅读量:5 收藏

随着自动驾驶汽车、ChatGPT、人形机器人等人工智能应用的爆发,人工智能对于现行法律的挑战逐渐受到重视。早在2017年,国务院就印发了《新一代人工智能发展规划》,指出:“人工智能是影响面广的颠覆性技术,可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题。”
近年来,人工智能在赋予人类新的文明契机的同时,也对现有的法律关系提出了一些破窗式挑战,如何通过立法来规制人工智能的运用研发已经成为一项迫在眉睫的课题。
深度伪造与刑事治理。深度伪造依托于深度学习和大数据技术,能够修改和自动生成图像、文字、视频等信息内容,极易为不法人员实施网络违法犯罪活动提供可乘之机。深度伪造可能涉及的违法行为诸如侵害国家安全、社会秩序、他人合法权益等,都和我们刑法当中大量的罪名相呼应,也进一步带来了刑事治理风险的扩张。例如,在以“点击、浏览、转发的次数”为入罪标准的犯罪认定中,现有司法解释并未将算法系统的自动化点击和转发次数排除在外。同时,在深度伪造的过程当中,很多技术难题又是过去传统的法律规范所不能加以覆盖的,例如,由于算法黑箱的存在,依托大规模算法的深度伪造在定罪量刑要件的认定上存在解释上的困难。如何顺应这样一种技术的变化来修改过去传统的法律规则,是我们眼前必须要去解决的问题。尤其对现有的规范,在新技术背景下进行解释进而赋予这些规范崭新的生命力,更是我们必须要面对的问题。
自动驾驶和侵权责任。当前自动驾驶汽车大规模商业化落地进程正在紧锣密鼓地进行中,今年6月份,工信部、公安部以及交通运输部等部门联合宣布国家首批智能网联汽车准入和上路通行试点企业名单,标志着自动驾驶汽车的大规模上路、上市又更进了一步。对于传统汽车来讲,车辆由人类的驾驶员控制,发生事故自然也需要由人来承担。自动驾驶取代人工驾驶以后,车辆在没有人介入的情况下可以自主驾驶,这个过程中如何追究事故的责任成为难题。最近有观点认为应当追究在整个流程包括程序开发的刑事责任。不过,如何平衡技术创新和社会秩序稳定,是管理者在每个新技术的发展之初都不得不面临的问题,所以这样的问题在过去也可以找到参照的现象。尽管我们现在讨论的是人工智能、无人驾驶,但是过去在飞机里也存在类似的无人驾驶,当飞机坠毁的时候我们是否需要探讨追究飞机驾驶程序开发者的刑事责任?为什么我们现在一提到人工智能下的无人驾驶,我们甚至要特别延展地长链条地追究因果链条,并进而追究刑事责任,这是我们必须要思考的问题。我们是否对人工智能这样的技术产生了一个深度的恐惧,而不得不做出一些过于戒备的预防?这也是我们需要讨论的问题。类似性质的问题在人工智能其他领域的应用场景中也一定会遇见。
生成式人工智能与知识产权的问题。近年来,生成式人工智能获得极大的关注和发展,给知识产权的保护带来一系列的复杂问题。从输入端来看,训练数据来源的合法合规问题十分突出,生成式人工智能需要进行海量的阅读和摄取,这些是否会触及到海量数据的摄取过程当中,包括爬虫技术本身是否涉及到著作权的问题。爬虫技术无法识别抓取内容的著作权问题,也无法在抓取时逐一获得著作权授权,这一问题现在已经成为生成式人工智能合规发展过程当中一个特别大的制约性难题,是否构成著作权合理的使用值得研究。我们过去传统的著作权研究没有遇到过这么海量而庞大的“合理使用的问题”。从输出端来看,终端用户、模型提供者的生成内容是否具有可版权性,人工智能服务的提供者生成的内容是否侵权,都是我们实践当中所面临的问题。今年广州互联网法院作出判决的全球AIGC侵权第一案,北京互联网法院审理的国内首例“AI文生图”著作权的侵权案以及前不久全国首例AI生成声音人格权侵权案,这些案件都在生成式人工智能领域、知识产权以及我们传统意义上的人身权等问题产生了紧密的关联,值得我们进一步深思。
人工智能的司法应用。人工智能在司法领域获得广泛的应用,最高人民法院《关于规范和加强人工智能司法应用的意见》专门就人工智能司法的应用作出了部署,对于传统的司法活动来讲,它是法律和道德的统一,我们经常讲要兼顾法理情,除了正确地适用司法规则以外,我们还要去要求法官具有同理心、正义感、同情心,需要对所面临的法律现象具有正义的直觉判断。而这些通常由人来彰显的司法属性是无法为机器所完全替代的。因此,我们要更加关注人工智能在司法中的应用问题。
生物的识别与数据安全。在我们日常生活中,人脸识别、指纹识别、虹膜扫描、语音识别等,已经无处不在,这些是我们身份验证和访问控制的强大工具,但是由此带来的对数据安全的挑战也不容忽视。对个人而言,收集和储存生物识别数据可能引发大规模的隐私风险,这种具有高度敏感性的个人信息一旦遭到泄露或者滥用,尤其是大规模地泄露或者滥用,必然会侵害主体的隐私权益,甚至可能会导致更大的数据安全乃至国家安全的问题。尤其是对国家而言,数据是重要的战略资源,数据安全又是国家安全的重要内容。因此,生物识别技术的大规模应用,我们对此要特别谨慎、特别警惕。
人工智能立法的现状。当前我国人工智能立法呈现两个特点:一是地方式。目前为止在国家层面,至今还没有一部关于人工智能的专门立法。有关人工智能的立法具有明显的地方式特征,强调地方政府可以根据自身的特点,结合自身发展的需求,先行先试,探索具有地方特色的人工智能治理规则,以此来积累更多的人工智能全国性立法经验。比方说在自动驾驶领域,在推进人工智能产业发展方面,上海、深圳、广州、重庆等都就自动驾驶道路测试、示范应用、交通法规等各种相继颁布了很多的地方条例,但是缺乏国家层面的法规。二是场景式。当前我们还没有一部关于人工智能的综合性立法,相关立法仍然以地方规章制度以及国务院的行政规章为主,同时也主要是以具体的应用场景为抓手,关注不同应用场景下的人工智能引发的法律挑战,比如说针对生成式人工智能出台了《生成式人工智能服务管理暂行办法》,针对自动驾驶汽车则出台了《智能网联汽车道路测试与示范应用管理规范(试行)》等;针对深度合成出台了《互联网信息服务深度合成管理规定》,针对人脸识别最高院发布了《关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》等,但是总体上缺乏一些综合性、一般性的规定。
人工智能立法正当其时。随着人工智能应用爆发式地增长,我们的立法现在已经明显滞后,地方式立法、场景式立法已经远远无法满足人工智能产业发展的需求。
我们必须要抓住人工智能立法的宝贵契机。推动人工智能统一立法的实现,避免头痛医头、脚痛医脚。当前各国都特别重视人工智能的立法,今年5月,欧盟理事会正式批准全球第一部《人工智能法案》,引领人工智能立法新浪潮。我国人工智能的统一立法趋势也逐渐明显,有关部门将人工智能法列入了立法的规划,中国社科院等单位联合起草的《中华人民共和国人工智能示范法(学者建议稿)》,为制定一部统一的人工智能法提供了很好的政策条件和宝贵经验。
对于人工智能法的立法而言,我们需要注意的是不仅要在人工智能的规制、管制、立法和人工智能技术的创新当中维持好一种平衡,还需要留足动态的接口。一部人工智能法很难解决人工智能所提出的所有法律问题,一方面,我们需要对智能要素立法预留接口,2020年8月,美国安全和新兴技术研究中心发布报告《人工智能三要素及对国家安全战略的意义》指出:“可以用一句话来概括现代人工智能的复杂性,即:机器学习系统使用计算能力来执行从数据中学习的算法。”这一定义表明,实现人工智能的关键在于算法、算力和数据三要素,人工智能立法需要与智能要素立法相互配合。另一方面,我们也需要为智能应用的立法预留接口,因为人工智能本身就是一个包罗万象的概念,它所应用的场景包括医疗、教育、金融、物流、交通等各种场景,各种人工智能所应用的场景当中引发的法律问题并不一致,例如自动驾驶汽车关注事故责任问题,人脸识别关注数据合规和个人信息保护问题,生成式人工智能则面临著作权保护问题等等。人工智能立法必须要考虑这些场景的特殊性。
未来,人工智能法的立法还需要根据人工智能快速迭代的发展来进行不断调整。人工智能作为当前最受瞩目的新兴科技,我们必须要重视由此引发的法律挑战,通过立法为人工智能的发展保驾护航,让人工智能更好地造福人类社会,服务国家发展。
原文来源:人民法院报
“投稿联系方式:010-82992251   [email protected]


文章来源: https://mp.weixin.qq.com/s?__biz=MzkyMzAwMDEyNg==&mid=2247545648&idx=1&sn=3158c723a5378902745345d6d06b75ee&chksm=c1e9bf61f69e3677aac2c460b712855e3fd9a0fdd9d57b0e8b6500b791d5f9877fee95baee36&scene=58&subscene=0#rd
如有侵权请联系:admin#unsafe.sh