邮发代号 2-786
征订热线:010-82341063
文 | 西北工业大学马克思主义学院 王延川 王家乐当前,以ChatGPT为代表的生成式人工智能已具备学习和内容输出能力,这使得人工智能在众多产业领域开始发挥重要赋能作用。在今年1月9日至12日举办的国际消费电子展上,大众汽车宣布将在旗下的ID系列车型上搭载自然语言处理模型ChatGPT。大众汽车表示,搭载ChatGPT的语音助手IDA(一款专业的静态反编译软件)的人工智能App,不仅可以处理车辆的特定信息以满足用户更具体的要求,如控制车内娱乐、导航和空调系统,还可以帮助用户随时上线使用ChatGPT的人工智能数据库,调取有用信息。生成式人工智能在实体产业领域的融合应用是一把“双刃剑”。一方面,推动智能技术纵深发展,同时也给法律和监管带来挑战;另一方面,将促进涉生成式人工智能法律不断进步和完善,保证技术向善发展。目前,生成式人工智能的监管具有一定难度:其一,生成式人工智能技术快速迭代,需要及时应对风险。其二,生成式人工智能通过海量数据投喂,其参数具有千亿级别规模,这决定了其底层构架的复杂性和难解释性,需要监管机构引入技术监管模式,精准甄别风险。其三,生成式人工智能的应用具有跨学科、跨行业、跨领域的特点,这增加了监管的难度,需要培训或者引入多学科专业人才,全面判断风险。大众汽车对ChatGPT的应用,给数字技术领域监管提出了更具体的法律问题。此次搭载人工智能App的第一个风险是数据风险。用户在注册App时通常被要求填写众多个人信息,其车辆数据如行车轨迹、车辆性能等信息也将被收集,这些获取信息和数据的行为如果未经授权可能侵害用户隐私。当然,搭载ChatGPT前,大众汽车也注意到了可能出现的数据风险,并拟借助技术提供方赛轮思公司的帮助推行技术合规,以保护用户的隐私及其他信息。首先,用户在使用ChatGPT时不需要注册账户或安装新的应用程序,仅通过与汽车搭载的语音助手对话即可使用,这可以降低操作难度、节省时间,且无需用户提供个人信息。其次,赛轮思公司在设计和开发语音助手时,采取数据隔离措施,确保ChatGPT无法访问或存储任何与车辆相关的数据。最后,按照大众汽车的说法,用户与语音助手的对话会“立即删除,以确保最高级别的数据保护”,可以保证用户信息不被存储或者遭到非法利用,这有利于保护用户隐私。搭载人工智能App的第二个风险是决策风险。自然语言模型本质上是对训练数据的再现和重组,如果用户的提问超出其训练数据的内容范围,ChatGPT不知道如何回答时,就会生成虚假信息,误导用户决策。随着ChatGPT自主学习能力的不断增强,其可能生成超出设计者预期的内容,并引导用户作出有风险的决策。同时,由于训练数据自身的偏向性可能产生歧视性内容。生成式人工智能还可能会遭受黑客攻击,导致语音助手失灵或者输出有风险的内容,给用户带来损害。要降低基于ChatGPT自身技术带来的上述风险需要各方主体共同努力,形成多元协同合规和监管体系。其一,开发公司在训练生成式人工智能时,应进行培训数据评估、算法模型评估和生成式内容评估,并向主管部门提交安全评估报告。一是,识别数据的类型、规模和分布等基本信息,要重点关注可能影响国家安全、公共利益或个人和组织合法权益的数据安全问题和风险。二是,识别算法歧视、算法缺陷(安全漏洞)和算法攻击(后门攻击/数据中毒)等问题。三是,从意识形态安全、虚假信息管理、个人权利保护、市场公平竞争和知识产权保护等方面对生成内容进行评估。四是,在保护其核心技术的前提下公开技术的底层逻辑和算法程序,用以对外提示风险,并作为其未来进行责任承担的依据。其二,像这样的技术应用公司应进行充分的实验以发掘可能出现的所有风险,评估生成式人工智能在提供服务时可能对用户、社会及应用者造成的安全风险,并将这些风险明确列举,以通俗易懂的书面方式向用户告知,并向用户解释生成式人工智能的基本原理、目的意图和主要运行机制,形成记录文档,并及时更新。设计针对生成式人工智能提供服务的安全应急处置机制,使人工智能出现安全意外时服务可被人工中断。应在服务中采取措施保护模型参数等数据,防止黑客攻击。设置便捷有效的用户申诉和公共投诉、举报入口,并及时响应、及时处理、及时反馈关于生成式人工智能公平性、决策透明性等方面的问题,并如实记录。其三,建立由人工智能主管部门、产业协会、民间团体、学术研究机构和公民代表组成人工智能应用监管委员会,各利益相关者与技术开发公司和使用公司共同制定符合技术现实又具有前瞻性及关照各方利益的监管标准和政策,确保监管的及时性、全面性和公正性。搭载人工智能App的第三个风险是法律责任分配风险。当人工智能导致数据泄露、人员伤亡、财产损失等事件时,其致人损害的责任承担突破了传统的“行为—责任”逻辑,对既有侵权制度提出挑战,其原因在于,一方面,人工智能缺乏法律主体地位,难以将其“行为”引发的损害后果归于它;另一方面,人工智能决策可能会超出技术开发公司和使用公司当初的预期,难以将其“行为”引发的损害后果归于技术开发公司和使用公司。因此,应在传统侵权责任之外确立新的损害结果责任分配规则,且通过建立人工智能责任保险制度等,以救济受害者。(来源:民主与法制时报)
分享网络安全知识 强化网络安全意识
欢迎关注《中国信息安全》杂志官方抖音号
文章来源: https://mp.weixin.qq.com/s?__biz=MzA5MzE5MDAzOA==&mid=2664214475&idx=4&sn=b95c3dd0a3fcc036316086e92aa96af8&chksm=8b59ad32bc2e2424c72addbc6be2607b5047e7174932b3d47584b20ddc1cbdac32cc8f733bda&scene=58&subscene=0#rd
如有侵权请联系:admin#unsafe.sh