评估AI风险
AI的十五个最大的风险如下:
缺乏透明度
偏见和歧视
隐私问题
伦理困境
安全风险
权力集中
对AI的依赖性
取代就业
经济不平等
法律和监管挑战
AI军备竞赛
人际关系的丧失
虚假信息和操纵
意想不到的后果
存在性风险
AI可信度
NIST规定了可信AI应具备以下特征:
合法有效且可靠
安全无害
安全且具有韧性
可追责且透明
可解释且可理解
隐私增强
公平对待且妥善管理有害偏见
AI风险管理框架核心
NIST规定的RMF框架包括四个功能,如下所示:
治理
映射
测量
管理
以下是AI治理的关键建议步骤:
01、在风险度量中应考虑可信AI的七个特征。
02、每个特征应根据环境背景进行定量或定性评估,最好是定量评估并以百分比表示。基于风险管理成本效益分析,或者监管/行业要求寻求平衡。
03、应从多学科利益相关者视角,包括内外部利益相关者,考虑AI系统的可信特征,特别是那些造成重大的社会经济后果的AI系统。
04、每项风险管理框架核心职能的类别和子类别应作为指导方针,并在行使每项职能时加以应用。
05、重要的是,这些指导方针应基于环境背景考虑,而不是一个严格的检查清单。
06、审计人员应将AI审计视为“管理审计”或“社会审计”,并运用相应的原则,而非财务审计或内部审计原则。这一点适用于所需审计的AI组件。
AI原则实际应用的案例研究
1
敏感用途
用于评估自动化决策对人们生活的影响
2
偏见和公平性
用于评估对少数群体和弱势人群的影响
3
可靠性和安全性
以确保AI系统对抗攻击具有鲁棒性
4
人类注意力和认知
监控算法注意力窃听和说服能力
5
可理解性和解释性
为机器学习和深度学习模型提供透明度
6
人类与AI的交互与协作
提高人类在AI系统的参与度
7
工程最佳实践
为AI系统开发生命周期的每个阶段提供最佳实践
行业特定指南可以加强AI治理