邮发代号 2-786
征订热线:010-82341063
生活中,不时出现这样一幕:孩子们双眼紧盯手机,上下来回滑动屏幕,只在长辈叮嘱时心不在焉地抬头回应。青少年深陷于各类App无法自拔,这类现象并不鲜见。从事教育工作多年的上海市人大代表张治捕捉到根本诱因——社交媒体的算法成了“帮凶”。以某视频类社交媒体为例,为提升用户黏性,该平台不断通过数据挖掘构建更精准的用户画像,通过持续“投喂”用户可能感兴趣的视频内容。心智尚未成熟的青少年很容易就此上瘾。眼下,上海正加快建设更具国际影响力的人工智能高地。强化制度供给,推动完善人工智能伦理规范是关键一环。恰逢《上海市促进人工智能产业发展条例》施行满一年,张治等代表建议,加强面向中小学生的人工智能算法伦理审查承诺,守住安全边界,让算法发挥更积极的社会价值。近日,上海市经济信息化委对代表建议作出回应,将在今年年底前计划出台人工智能示范应用清单,并鼓励支持企业、高校、基础教育机构等围绕智能教育伦理审核开展交流合作,营造更清朗的网络空间。“投其所好”的算法推荐,不仅令大量青少年沉溺其中,更加速形成“信息茧房”。在不少专家看来,其背后直指信息窄化现象。因为个性定制的算法推荐,部分公共信息难以穿透个人的“茧房”。张治引用互联网版的“井底之蛙”故事来生动阐释:“个性算法推荐下,看过互联网的青蛙,其认知中的世界依然只有井口这么大。”
有网友曾亲身实验,针对同一则视频内容,妈妈和孩子看到的评论天差地别。孩子看到的评论大多在抱怨原生家庭,而妈妈看到的大多是家长在自诉不易。“无法看到不同的消息、听到不同的观点,人们容易陷入偏见的漩涡,逐渐失去辨别真相的能力。”在张治看来,这对于身心尚未成熟的青少年来说会有不可估量的负面影响。国家网信办等四部门此前曾联合发布《互联网信息服务算法推荐管理规定》,明确提出算法知情权、算法选择权。具体包括平台要公示服务的基本原理、目的意图和主要运行机制等,用户可选择关闭算法推荐服务。不过,有用户测评后反馈,关闭各平台的算法推荐服务犹如剥洋葱,少则5步,多则7步。且这项功能通常被藏在“隐私设置”菜单中,用户稍不留意就容易错过。专家认为,接下来要进一步压实平台责任,把算法推荐的“开关”选择权交给用户。频繁“投喂”的定制内容,不仅挤占了青少年的学习生活时间,也刷出了满满焦虑。
有研究认为,持续浏览视频等会加剧青少年的“上行社会比较”,导致青少年偏好与比自己强的人作比较,造成心理落差,带来负面情绪。“智能算法要匹配青少年的心理成长规律,互联网企业在推出产品时首先要在算法上‘自证清白’。”在张治看来,企业加强内部约束机制,针对算法实行合规管理并制定伦理准则是当务之急。在此基础上,政府还要建立算法备案机制。此前,国家网信办已开设互联网信息服务算法备案系统。截至今年1月,共有102家企业的223项算法通过了备案。“政府+企业”的合力监管,为算法治理构筑了基础框架。“光是备案算法和进行安全评估还不够,更需从算法设计和应用的源头入手,建立可信的标准规则,让设计者、使用者厘清边界。”华东政法大学助理研究员向秦说。上海政法学院教授张继红也认为,伦理审查应贯穿于算法设计事前、事中。“人的观念会伴随设计进入算法,若仅实施算法的事后审查,不仅效果不佳、整改成本高,且重大风险一旦发生也将很难逆转。”事实上,算法追责在实操层面并不容易。比如,因算法模型导致青少年暴力行为、抑郁情绪,就很难在现实中取证认定。张继红更进一步提出,针对高风险和中低风险的人工智能产品和服务,算法问责也应实现差异化、精细化,避免问责过度、过宽从而限制产业的健康发展和创新。专家学者一致认为,算法审查不能单一强调监管,过程中还应充分体现公众参与。比如,根据《条例》要求夯实人工智能伦理专家委员会机制,吸纳教育、心理等各领域专家,并对算法可能造成的社会心理影响进行长期动态的多维度考量,更好地为算法“立规矩”。(来源:文汇报)
文章来源: https://mp.weixin.qq.com/s?__biz=MzA5MzE5MDAzOA==&mid=2664196986&idx=8&sn=472962f3143244f4bb82ad9d81308f0f&chksm=8b596983bc2ee095aaf6e5c0c4fe2c83e0e13688ea5923dcbfb85eebd78847033179c6962587&scene=58&subscene=0#rd
如有侵权请联系:admin#unsafe.sh