扫码订阅《中国信息安全》
邮发代号 2-786
征订热线:010-82341063
两会期间,“人工智能”成为代表委员热议的关键词。多位代表委员提交建议提案,从多个角度为人工智能安全健康发展出谋划策。
全国政协委员、中国工程院院士 吴世忠
他建议,从技术、法规和伦理约束以及安全意识培养等方面,采取综合防范措施。为防范AI深度造假,可采取的技术手段包括使用图像和音频分析工具,检测深度造假,识别图像或者音频的伪造痕迹,也可在数字内容中嵌入水印或隐写记号,以便追溯图像或音频来源并作真实性比对,还可运用区块链技术等确保信息的不可篡改和透明性,从而提高图像或音频的可信度等。法规、伦理方面,则可制定相关法律法规和监管措施,对违规或恶意使用AI造假的行为进行处罚和打击。要求AI开发者提高模型的透明度和可解释性,确保用户能够理解模型的决策过程,减少潜在的滥用风险。同时,制定和倡导AI伦理规范,引导AI技术的开发应用,明确禁止滥用和伪造信息等。具体到安全意识的培养,建议加强民众对AI造假可能性的认知,提高对虚假信息的辨别能力,促进官产学研多方合作,加强持续监测研究,适应不断进步的技术和不断演进的威胁,共同应对AI深度造假的挑战。
他建议,深化人工智能多场景应用,支持大模型垂直化产业化落地。他认为,通用大模型在企业级场景中无法直接应用,发展垂直化和企业化的大模型可以更好地满足企业的个性化需求,提高生产效率和服务质量,促进产业升级。建议政府、央企国企率先提供更多应用场景,聚焦“小切口、大纵深”,推动大模型垂直化、产业化落地。建议鼓励和引导企业将大模型与数字化业务系统深度结合、同业务流程相结合,充分发挥大模型价值。
他建议,大力探索“AI+安全”创新应用,抢占国家安全的人工智能战略制高点,提高我国应对网络空间安全风险与不确定性的能力,护航中国式现代化行稳致远。他建议,从需求侧看,强化政策牵引,推动“AI+安全”技术创新产品在各行业落地应用。支持“AI+安全”发展,设置专项基金,对研发创新“AI+安全”产品的企业,给予政府基金、贴息贷款或科研项目等支持。推动“AI+安全”相关产业取得更多科技创新成果。
当前,以我国生成式人工智能的实际技术水平来看,特别是在顶尖人工智能人才储备方面还存在明显不足,人工智能复合型人才更加短缺。雷军提出,从义务教育阶段普及人工智能素养教育。建议将人工智能素养教育纳入九年义务教育内容,设置人工智能通识课程,同时将相关内容纳入中小学社会实践活动。同时,建议大力推进高校人工智能相关专业的建设。将人工智能通识课程拓展到更多专业,如传统理工科专业、医学等专业,培养更多跨领域人才;引导人工智能赛道的大型企业向高校学生开放实习实践机会,提升理论与实践相融合的综合素质。
他在关于进一步完善人工智能算法治理体系的提案中,呼吁尽快推进人工智能法出台,通过统一原则性立法,提炼规范人工智能算法的共性规则,构建人工智能算法治理体系。另一方面,基于不同技术类型、应用领域人工智能的风险差异,还可考虑通过针对性法规予以规制。
当前人工智能算法训练和使用过程中面临的各类数据安全、网络安全、隐私泄露等问题,已经成为制约人工智能健康发展的关键痛点,亟须形成一套可信人工智能技术标准和评估体系来加以规范。他建议,积极推动人工智能领域立法进程。同时,明确生成式人工智能“事前—事中—事后”全链条监管机制。“出台人工智能的风险等级规范,还要建立人工智能责任认定和追责机制、各利益相关方共同参与的系统化治理体系。
他建议,加速通用人工智能技术相关的法律法规制定与审议。围绕大模型的数据安全、隐私泄露、可靠性、知识产权等几大关键方面制定法律法规,提升通用人工智能技术可靠性与规范性。同时,完善向社会开放的大模型的准入和运行规则,明确责任分配与问责机制,并明确大模型知识产权与保护方式。此外,他建议设立软课题进行通用人工智能相关的伦理人文研究。坚持科学、独立原则,针对通用人工智能技术可能带来的社会风险、伦理挑战和人类文明变化进行开放式课题研究。
当前,大模型和人工智能生成内容技术的商业应用正在加速落地,已成为数字经济领域的新兴产业之一,但与之相配套的政策仍不完备。他建议,政府、产业界、学术界和社会公众共同参与,构建安全完备的AI治理政策体系。在国家政策层面,要完善法律和伦理规范,明确AI及其算法在使用时的限制和义务,保障公众的安全和利益;学术界与产业界要加强对AI技术的研究和监测,开发可解释性技术,帮助理解AI及其算法的内部结构和决策规则,通过技术手段训练AI系统提供有用的、可解释的信息。
(来源:人民邮电报、检察日报、光明日报等)
《中国信息安全》杂志倾力推荐
“企业成长计划”
点击下图 了解详情