麻省理工学院(MIT)研究团队近日构建了一个全面、可扩展的AI风险库,该库收录了来自43个现有框架的超过700个风险点。这为AI风险领域在系统化整理、深入分析及精准提取风险方面提供了重要参考。
该AI风险库由三大核心部分组成:AI风险数据库本身、AI风险因果分类法以及AI风险领域分类法。
其中,AI风险数据库详细记录了700多种风险,每种风险均附有相关引用及页码,便于用户进行追踪与验证;AI风险因果分类法则对风险的发生方式、时间和原因进行了深入剖析,为AI风险防控提供了重要依据;而AI风险领域分类法则将风险划分为七大领域和23个子领域,涵盖了从歧视与有害内容到AI系统安全与故障等广泛议题。
研究项目发起人彼得·斯拉特里(Peter Slattery)强调,目前的安全评估文献在AI风险描述上存在显著不足,平均仅覆盖了23个风险子领域中的34%,这极大限制了法律法规制定者的视野。
面对如欧盟《人工智能法案》和美国加州《前沿人工智能模型安全创新法案》等重要立法,这种认知上的局限可能导致管局问题被忽视,进而造成决策上的盲区。他表示,MIT的AI风险库通过整合并补充43种现有框架中的风险点,实现了对AI风险的全面覆盖,将为政策制定、行业规范及技术创新提供强有力的支持。
|