近期,生成式人工智能技术掀起了新一轮科技创新浪潮,在带来生产力革新的同时,也引发了网络安全、算法歧视和道德伦理等风险隐患,美国和欧盟为此加速制定人工智能治理政策。赛迪研究院网络安全研究所认为,美国采取的治理举措宽松温和,以行业自律为主要手段,在促进技术发展的同时保证其安全可靠;欧盟则采取了较为严格的限制举措,从国家法律层面对人工智能系统实施风险定级,并分别提出规制路径,强化其在新一代人工智能技术浪潮中的国际影响力与战略主动权。美国和欧盟人工智能治理的相关举措对中国有一定的借鉴意义。
一、美欧人工智能治理政策文件密集发布
美国的人工智能治理政策,其核心是以技术的发展应用为重点,逐步向加强监管靠拢。自2022年美国白宫发布《人工智能权利法案蓝图》以来,又发布了多个原则性规定,指导人工智能系统的设计、开发、部署和使用,鼓励行业自愿遵守相关原则并进行自我监管,逐步形成了美国人工智能治理的基本框架。2023年,随着生成式人工智能等技术的不断成熟,其存在的算法歧视、数据过拟合和数据泄露等风险日益凸显。为确保生成式人工智能技术的安全性和可靠性,美国政府对人工智能的监管力度逐渐加大,且发布系列政策文件强化人工智能治理,确保和维护美国在该领域的霸主地位,降低人工智能安全风险。
欧盟采取强监管风格,推出人工智能领域的“GDPR”。2023年6月,欧洲议会全体会议通过了2021年4月由欧盟委员会提出的《人工智能法案》谈判授权草案。该法案草案是欧盟范围内人工智能治理方面统一的法律框架,管辖适用范围宽泛,可用于规范全部系统输出数据在欧盟使用的系统提供方或使用者。其严格禁止销售和使用对人们安全、生计和权力构成明显威胁的人工智能技术,违规公司可能被处以其全球年营业额的7%或4000万欧元的高额罚款。欧盟对人工智能监管的风格趋向强硬,期望通过设立全球范围的规则对人工智能进行全面监管。该法案草案通过对人工智能系统风险等级和治理策略划分等级,设定了普适、 全面的人工智能监管方法,如同《欧洲通用数据保护条例》(GDPR)。预计,它将对全球人工智能监管产生重要影响。
二、美欧对人工智能治理的异同分析
在治理重点方面,美欧均将算法歧视治理放在人工智能治理的首要位置。
算法歧视是指人工智能系统在决策或提供服务时对某些个体或群体产生不公平的影响,这种歧视可能基于数据偏见、人类偏见或系统设计缺陷等因素,给个人和社会带来潜在风险。一是不平等对待风险。例如,在就业、贷款和保险等领域不公平的结果,会带来对特定群体的偏袒或歧视。二是伦理道德风险。算法可能侵犯个人隐私权、违反伦理准则,对个人权益造成损害。三是社会分裂风险。算法歧视可能加剧社会不平等及深化分裂,激发不满情绪,造成动荡。虽然欧美在 对人工智能风险的定义划分和治理态度上存在一定差异,但算法歧视是双方共同认可且最为关注的治理重点。美国《人工智 能权利法案蓝图》将“算法歧视保护”作为人工智能设计部署的五项基本原则之一,《人工智能问责政策(征求意见稿)》中也将“算法公平”列为人工智能审计和评估的重点领域。欧盟《人工智能法案》谈判授权草案更是将带有算法歧视风险的人工智能系统归类为对人类安全造成不可接受风险的人工智能系统,禁止在欧盟范围内部署。
在治理态度方面,欧盟高度重视,美国则持宽松态度。
欧盟高度重视人工智能安全风险,将其分为不可接受风险、高风险、有限风险和低(无)风险四个风险级别。其中,带有算法歧视的系统、基于敏感属性的生物识别分类系统等被划分为不可接受风险系统,医疗等关键领域受管制的部分系统被划分为高风险系统,其他系统为有限风险或低(无)风险系统。欧盟对不同风险级别的系统设置了不同的监管措施,以确保人工智能的伦理和法律准则得到遵守。相形之下,美国对人工智能安全风险问题的看法相对宽松,虽然也面临人工智能安全挑战,但并未像欧盟一样对人工智能独有风险进行专门研究并分类分级, 而是重点关注算法歧视引发的公平问题与数据隐私安全保护这两个风险点,以求在维护公平和保护隐私的同时,保持本国人工智能技术创新和商业竞争力。
在治理手段方面,美国倾向于行业自律,欧盟则通过立法途径解决。
美国联邦政府和企业普遍更加注重人工智能系统的性能和创新,对算法歧视等安全风险并没有明确的立法和监管框架。联邦政府层面更倾向于通过采用自律和行业准则等方式解决相关安全风险。例如,敦促企业制定自己的AI伦理准则,并通过内部审核和自我监督来减少算法歧视风险。此外,一些学术机构和非营利组织也在推动人工智能系统的公平性和透明性研究,并提供工具和指导方针来减少算法歧视风险。欧盟则倾向于通过立法途径对人工智能进行严格监管与处罚,以确保技术和系统的公正性与透明性。欧盟2021年发布的《欧洲人工智能法规》,对高风险人工智能系统的使用提出了严格要求,并对不合规行为进行罚款和制裁,以限制和减少人工智能系统的算法歧视风险;《人工智能法案》谈判授权草案作为全球首部人工智能管制