12月8日,欧洲议会、欧盟成员国和欧盟委员会在历经马拉松式谈判后就《人工智能法案》达成协议,该法案将成为全球首部人工智能领域的全面监管法规。
禁止高风险人工智能应用
这项法案按照风险类别,由低到高,对人工智能技术应用进行了四等级分类,并按照风险等级不同,制定相应的监管规则。
对于当下十分火爆的生成式人工智能,法案中做了明确的监管规定,必须满足基本的透明度要求,将被更严格监管。
对于高风险人工智能技术应用,欧盟将在使用相关技术的产品投放市场前,进行严格评估。
而对于人类安全具有不可接受风险的人工智能系统,包括有目的地操纵技术、利用人性弱点或根据行为、社会地位和个人特征等进行评价的系统等,将被禁止使用。
早在2021年4月,欧盟委员会就提出了《人工智能法案》提案的谈判授权草案,将严格禁止“对人类安全造成不可接受风险的人工智能系统”。该草案还要求人工智能公司对其算法保持人为控制,提供技术文件,并为“高风险”应用建立风险管理系统。每个欧盟成员国都将设立一个监督机构,确保这些规则得到遵守。
随着人工智能大模型的盛行,欧盟加快了推进《人工智能法案》的步伐。据悉,该法案最早将于明年初生效。
ChatGPT类应用和生物识别 监控为两大监管重点
如何监管像ChatGPT一样的人工智能大模型是此次谈判的争论点之一。彭博社拿到的一份欧盟文件显示,所有通用型人工智能系统的开发者都必须满足基本的透明度要求,除非它们是免费或开源的。透明度要求包括:具有可接受的使用策略、更新训练大模型的最新信息、遵守欧盟版权法以及报告用于训练其模型的数据信息。
根据该文件,被视为有“系统性风险”的模型将受到额外的约束。欧盟将根据用于训练模型的计算能力来确定这种风险。专家表示,目前唯一能自动达到这一门槛的模型只有人工智能公司OpenAI的GPT-4。
此外,针对另一项颇具争议的生物识别监控技术,协议中规定,各国政府只能在公共场所使用实时生物识别监控,防止像恐怖袭击等可预见的威胁公共安全的事件发生,以及搜索犯罪嫌疑人等。文件还规定,禁止有目的地操纵技术,利用分类系统来推断用户种族、宗教信仰等个人信息。消费者有权提出投诉并获得相应解释,违规者将被罚款。事实上,关于生物识别监控技术,欧洲议会希望能够全面禁止。
美国《纽约时报》报道称,该法案的许多细节预计在未来两年内都难以敲定,这为人工智能的发展留足了时间。直到谈判的最后一分钟,立法者和欧盟各国仍在为“如何在促进创新与防范可能的伤害间取得平衡”这一问题辩论。
欧盟希望获得更多人工智能监管话语权
欧盟内部市场委员蒂埃里·布雷东在社交媒体上发文表示:“欧盟成为第一个为人工智能使用设立明确规则的地区。《人工智能法案》不仅是一本规则手册,也将成为欧盟初创企业和研究人员引领全球人工智能竞赛的助推器。”
路透社及法新社称,该协议具有里程碑意义。彭博社报道称,该协议标志着欧盟在人工智能监管方面迈出关键一步。
有观点认为,从目前世界范围内人工智能技术的发展情况来看,欧盟国家相较于中国和美国等在人工智能领域处于技术领先的国家,在创新速度和规模上仍存在着不小的差距。而欧盟这次急于抢先制定监管法案,将自己定义成全球标准制定的先锋,从某种程度上说具有保护本地市场和企业发展的意图。
知情人士称,如果欧盟各方不尽早达成协议,该法律的通过可能会推迟到明年欧洲议会选举之后,欧盟可能会失去在人工智能监管方面的潜在“榜样角色”。彭博社报道称,该协议标志着欧盟在人工智能监管方面迈出关键一步。在美国没有采取任何行动的情况下,这一法案或将为发达国家对生成式人工智能工具的监管定下基调。
但有观点指出,欧盟此举可能带来反效果。
德国工业联合会(BDI)表示,欧洲目前在人工智能关键技术方面面临落后危险。“随着对人工智能基础模型及应用的全面监管,《人工智能法案》危及制造商和用户双方的竞争力和创新能力。”BDI相关负责人艾里斯·普洛格表示,该法案基于不成熟的标准,给公司带来的法律确定性不是更多,而是更少。
此外,该法案的执行情况也遭到质疑。欧洲新闻台在报道中称,此次法案的谈判过程非常激烈。《纽约时报》指出,《人工智能法案》涉及27个国家的监管机构,并要求在政府预算紧张之际聘请新的专家。像欧盟之前的《通用数据保护条例》,后期就因在各国执行不均而受到批评。
|