邮发代号 2-786
征订热线:010-82341063
文 | 中国政法大学数据法治研究院教授、博导 张凌寒从人工智能(AI)“复活”公众人物邓丽君、李玟、高以翔,到商汤科技的如影数字人团队在公司年会上“复活”前任总裁汤晓鸥,再到电商平台上提供多样的AI“复活”逝者服务……,AI“复活”逝者成为民众热议的话题。当“云上栖息”走向现实,AI“复活”技术的应用带给人们情感支持的同时,也带来了一些风险和问题。对此,我们应更加关注科技发展与社会伦理道德之间的动态互动,以实现保障基本人权与科技进步之间的平衡。AI“复活”逝者,本质是将个体的声音、肖像素材输入人工智能模型进行训练学习,实现逝者的数字分身的生成与交互。值得注意的是,AI“复活”技术是新应用而非新技术,用AI“复活”技术将逝者个人信息生成数字人,其本质是深度合成或生成式人工智能技术的应用场景。AI“复活”逝者的初衷也许出于人们的思念和缅怀,但是,一旦AI“复活”技术被滥用,不仅可能侵犯死者肖像、声音等人格权益,还可能带来诈骗、误导舆论等风险。
从死者人格利益保护角度来看,逝者AI分身的构建、应用涉及大量死者肖像、声音以及个人信息等数据的处理,相关数据的不当使用会直接侵害死者的人格利益。我国民事法律一向对死者相关人格利益提供法律保护。一是《中华人民共和国民法典》(以下简称《民法典》)第994条明确了死者的“姓名、肖像、名誉、荣誉、隐私、遗体”等人格利益受到法律保护。根据法律解释,还包括死者的个人信息、声音、信用利益等。构建AI分身所需的肖像、声音等个人信息受到法律的保护。二是《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)。相较于《民法典》,《个人信息保护法》第49条明确规定死者个人信息受到法律保护,并赋予死者近亲属对死者个人信息享有查阅、更正、删除等权利,为死者个人信息提供了更为积极的保护。由此可见,应用AI“复活”技术既涉及死者的人格利益保护,又涉及死者近亲属自身对死者个人信息所享有的权利。从AI“复活”技术应用的合规角度看,其本质是深度合成或生成式人工智能对包含敏感个人信息(如生物特征)的个人信息的处理活动。相关应用可能存在以下三个方面合规风险。首先,数据源合规风险。法律法规对AI“复活”技术应用中涉及敏感个人信息的训练数据来源存在合法性要求。《互联网信息服务深度合成管理规定》第14条规定,提供生物识别信息编辑功能的技术支持者与服务提供者应当提示使用者依法告知被编辑的个人,并取得其单独同意。此外,《生成式人工智能管理暂行办法》(以下简称《AIGC暂行办法》)同样规定生成式人工智能训练内容涉及个人信息的,应当取得个人同意。其次,生成虚假信息风险。深度合成技术加剧了AI诈骗等网络犯罪风险,服务提供者需确保AI“复活”技术的生成内容合规。服务提供者作为监管对象肩负着向上游连接技术支持者,向下游负有用户提示义务,对生成内容合规负有责任。最后,数据安全风险。AI“复活”技术应用在交互方式上相对自由,包含敏感个人信息的训练数据安全需得到有效保障。从AI“复活”应用的科技伦理维度来看,伦理治理已成为人工智能治理举足轻重的议题与环节。面对人工智能技术迅速发展,单一的法律监管维度显得力有不逮:一方面,立足于解决明确、现实风险的法律难以应对人工智能技术快速迭代所导致的风险的高度不确定性。另一方面,人工智能历史展现了从工具向价值建构的角色转换,需要伦理治理引导科技向善。基于此,《中国关于加强人工智能伦理治理的立场文件》《全球人工智能治理倡议》均主张坚持“以人为本、智能向善”治理理念。目前我国人工智能领域的科技伦理治理体系尚不健全,AI“复活”技术治理为其完善提供了良好切口。AI“复活”技术的应用,打破了真实和虚拟的边界,一定程度上可能导致人类主体性价值的缺失。AI“复活”的数字人一旦生成歧视、仇恨等言论,也可能对公众造成误导。应对AI“复活”技术实际应用中出现的问题,可以反过来推动科技伦理治理的理论创新和制度完善。AI“复活”技术的实际应用中,应坚守以死者权益保护为基础、以人工智能技术合法应用为核心、以平台生态治理为保障的合法底线。
征得同意应当是AI“复活”技术应用的前提。即只有获得了死者生前的书面同意或死者生前并未明确拒绝,死后其近亲属的书面同意,才可以启动AI“复活”技术应用。《民法典》994条规定,死者近亲属享有保护死者人格利益,救济所受侵害的请求权。在司法实践中,死者利益保护请求权的内涵包括行为人商业化使用的不当得利返还请求权,换言之,在不违背死者意愿的前提下,死者近亲属有权授权许可。此外,《个人信息保护法》赋予了死者近亲属对死者个人信息广泛的权利,在不影响死者人格尊严保护以及不违背其生前意愿的前提下,应当认定其可以积极发挥死者个人信息的经济效用。因此,若未经死者生前或死者近亲属授权而擅自使用AI“复活”技术应用,死者近亲属有权主张行为人承担相应民事责任。此外,即使死者没有近亲属也并不意味着可以自行其是,在死者生前通过遗嘱或者指定方式确定其死后人格利益保护人的情形下,则应当获得意定保护人的同意。AI“复活”技术应用在数据的收集、处理及输出全过程均应坚守合法底线。首先,数据攫取应当遵循《个人信息保护法》规定的合法、正当、必要及诚信的原则。AI“复活”技术应用过程中,不应过度收集死者的肖像、个人信息等数据,围绕技术应用本身形成明确、合理的数据处理目的,在与目的直接相关的范围内收集死者的照片、声音、视频等数据,避免对财产状况等非必要信息的收集。其次,数据处理过程中应当避免对相关主体隐私权的侵犯。由于死者个人数据中杂糅着家庭成员及其他相关主体的个人数据,如果不加区分地进行生成式人工智能自主训练,则极易侵犯相关主体隐私权等人格权。因此数据处理过程中应当对其他相关主体的个人数据进行专门甄别、剔除过滤。最后,在AI分身与用户交互过程中,较易生成与逝者生前形象相悖的带有歧视、偏见、仇恨色彩的言论,这不仅会导致侵犯他人的名誉权等人格权,还是对死者名誉与荣誉等人格利益的侵犯。需确保AI“复活”技术应用本身的合法性。一方面,为防止利用AI“复活”技术应用从事各种欺骗和欺诈活动,应充分发挥标识制度的源头治理效用。我国现已出台《互联网信息服务深度合成管理规定》《AIGC暂行办法》,构建了较为完善的有关深度合成内容的标识制度。为防止真伪不明造成真伪混淆,AI“复活”技术应用的服务提供者应当在死者AI分身的合理位置进行显著与隐性标识:一是内容上,应当说明相关内容为AI生成,避免用户混淆。二是标注防伪标志,防止他人用于其他非法用途。三是隐形标识中应当标注制作公司与时间等信息,便于事后溯源和监督。另一方面,AI“复活”技术应用在交互场景下更易获取用户隐私数据,一旦泄露会对数据主体人格及财产权益造成损害。AI“复活”技术应用在量身定制的人机交互关系中,可以在情景对话中提供符合用户偏好的回答,辅之死者生前与用户的密切关系,用户更易卸下心防,在交互中提供较多关于自己的隐私等信息。这意味着服务提供者掌握着大量的数据资源,一旦发生数据泄露,将会对数据主体人格及财产权益造成损害。故而,服务提供者应妥善保管和使用相关数据,防止数据泄露或被不当使用。此外,还应保证人工智能模型的安全性,以防出现算法缺陷或黑客攻击等问题,如定期审核、评估、验证生成合成类算法机制机理。应加强对AI“复活”技术应用的传播平台的治理。AI“复活”技术应用在与用户的交互中生成的内容具有不可预知性,容易诱发不良、违法言论。网络社交媒体平台为相关不良生成内容的传播提供了便利,加剧了社会不稳定风险。此外,目前短视频平台上已经存在许多代理商通过发布视频吸引目标客户,因此网络平台生态治理势在必行。第一,制定AI“复活”技术应用相关内容显著标识的运营管理规范,并提供相关的标识技术措施,引导用户行为规范化。实践中,抖音等平台已发布人工智能生成内容标识的相关规范。除了对制作者提出标识要求外,网络平台一旦发现,应当主动标记,并采取警告、限制转发、删除等措施。第二,加强传播平台的内容审查义务,并对违法、不良信息采取规制手段。一方面,平台应当在事前严格审查,明确未获得授权许可不得上传。一旦发现含有不良价值观导向、严重破坏平台健康生态的违规内容,应立即予以下架。另一方面,网络平台应持续优化自动识别、过滤不良信息等相关智能治理技术,实现平台分类标记信息内容,根据平台用户数量进行差异化管理。第三,完善用户投诉举报机制,可设立AI“复活”技术应用投诉举报专区。平台有义务建立便捷的公众投诉举报入口,公布处理流程和时限,及时受理、处理投诉举报。根据“通知-删除”规则,网络平台一旦审查发现违法、不良信息内容,应当马上核实,采取警告、限制转发、删除等措施。此外,网络平台若发现违法犯罪线索,应移交行政监管部门。在坚守合法底线的基础上,AI“复活”技术应用治理还需要科技伦理提供框架和指导。借助法律力量来推进科技伦理成为具有普遍约束力的行动指南,从而实现伦理治理法治化。
AI“复活”技术应用在个人层面进行伦理治理的法治化道路建设。应当确保技术应用符合人类价值观、彰显人类的主体价值,并有助于人类基本权益的实现。同时,需明确法律治理与伦理治理在内在逻辑上存在着一定差别,借助法律规范增强伦理的规范化和标准化水平应坚持审慎的态度。首先,对AI“复活”技术应用所涉数据,应明确人格权益保护路径,而非数字遗产保护路径。联合国教科文组织(UNESCO)在《保存数字遗产宪章》中明确规定,“数字遗产”(Digital Heritage)指包含文化等诸多领域在内以数字形式生成的信息,或从现有的类似的模式转换成数字形式的信息。依据数字遗产财产权的法律属性,其可以作为遗产由继承人加以继承。相比之下,死者的肖像、声音、个人信息等属于人格权益的范畴,具有人身专属性,只能由近亲属进行保护而不可继承。其次,AI“复活”技术应用应当强调以人为本,充分尊重人身自由和人格尊严。第一,如果死者表明拒绝AI“复活”技术应用,应当充分尊重死者的意愿。故而,如果死者生前做出禁止AI“复活”技术应用的意思表示,则死者近亲属无权授权。否则,其他近亲属或意定保护人有权向违背死者意愿的近亲属主张民事责任。第二,如果死者生前表达了对其人格权进行商业化利用的意愿,则应当予以尊重。第三,如果死者生前并未做出相关声明,如前所述,极大可能出现近亲属对AI“复活”技术应用提出不同要求的情形。面对相关主体之间的冲突,可以采取差异化处理的思路。如果在私人范围内使用,基于缅怀等情感抚慰等目的,则只需要不违背死者生前意愿,近亲属本人或者征得其中一位近亲属同意即可。如果应用于公共平台流通,由于可能会对近亲属造成二次伤害,则应当恪守知情同意原则,需征得全部近亲属的同意。最后,需要明确AI“复活”的数字人非法律主体地位,同时对AI“复活”的数字人的应用场景予以限制。虽然AI“复活”的数字人给人们提供了真实的情感支持、弥补亲友伤痛等情绪价值等,但这并不意味着AI“复活”的数字人真正具备人类意识。AI“复活”的数字人对人类意识本质属性社会性的缺乏,决定了其无法独立自主参与社会活动,不能真正意识到自己行为的法律后果,这就导致AI“复活”的数字人不具有法律主体地位,其行为不被视为具有法律效力的行为。AI“复活”技术应用于产业链的伦理治理规范化建设。一是AI“复活”技术产业的服务提供者应当承担起防止用户沉迷的义务。AI分身具有高仿真性、强交互性,同时亲友与死者之间的情感寄托往往会导致用户判断力下降和对AI分身的情感依赖,从而加剧沉迷的风险,造成逃避现实、弱化社交。此外,还会影响人们对现实亲情关系的态度。可以说,AI“复活”技术应用对人类的伦理理念和行为准则产生了重要的影响。我国法律已经意识到科技应用的伦理价值负载,并做出了制度回应。《互联网信息服务算法推荐管理规定》指出,服务提供者不得设置诱导用户沉迷、过度消费等违反法律法规或者违背伦理道德的算法模型。在具体实施中,建议设置弹出虚拟场景提示窗口,防止用户迷失于现实与虚拟的分界。同时,还应对未成年人与成年人进行不同的防沉迷设计。二是服务提供者需保障AI“复活”技术应用的信息透明度,履行相关披露义务。联合国教科文组织《人工智能伦理问题建议书》指出,人工智能透明是“确保人权、基本自由和伦理原则得到尊重、保护和促进的必要先决条件”。因此,应推动AI“复活”技术应用的透明化:服务提供者应加强服务披露。一方面,应明确自身为生成式人工智能服务提供者的身份;另一方面,应事先向用户披露治理机制和管理规则,并对用户进行适当的指引。加强算法的可解释性。服务提供者应采取通俗易懂的个性化解释方式,使用户充分了解人工智能产品的运作原理。服务提供者应全方位建立AI“复活”技术应用的算法评估报告披露制度,引入第三方算法评估与审计程序,并向公众展示深度合成的情况。三是服务提供者作为“守门人”应当在服务提供的全过程中承担安全保障义务。除产品研发上线前,后续的服务过程中还需持续进行风险影响的跟踪评估和定期审核。对产品服务的机理、模型、数据和输出结果等予以验证并及时修正,避免生成式人工智能算法“偏离预设轨道”,产生违背伦理道德的相关内容。此外,AI“复活”技术服务提供者还应承担必要的删除义务,在近亲属主张、缺乏其他管理人以及定作人要求时,应建立及时的AI分身销毁机制。四是产业链伦理治理体系的构建需要协同推进,作为产业链末端的用户也应当承担恪守AI伦理与文明底线的义务。用户在享受AI“复活”技术服务的过程中,其向AI分身的提问方式、指令要求对生成内容起到关键作用。依据《互联网信息服务深度合成管理规定》的要求,不得利用深度合成服务生产或传播违法信息。因此,用户应当保持良好的伦理道德意识,不断提升自身数字素养,促进形成符合伦理的秩序。法律在引导人工智能技术向善的过程中,展现出了伦理化趋势:伦理道德开始成为立法依据,人工智能治理的法律转向回应伦理问题。未来,人们应引导AI“复活”技术更好地服务人类,同时,采取法治化手段规避技术滥用造成社会危害。(来源:人民论坛网)
分享网络安全知识 强化网络安全意识
欢迎关注《中国信息安全》杂志官方抖音号
文章来源: https://mp.weixin.qq.com/s?__biz=MzA5MzE5MDAzOA==&mid=2664216884&idx=7&sn=322de0ca87816674641258c623913289&chksm=8b59bbcdbc2e32db44bcd21ac04af87fffbe98e70e871bac4a364d0aac4fccfa10453044cb03&scene=58&subscene=0#rd
如有侵权请联系:admin#unsafe.sh