欧盟《人工智能法案》对我国在生成式人工智能方面立法的启示主要体现在以下几个方面:
近年来,我国也不断建立自己的人工智能治理监管体系,国家网信办于2023年4月发布的《生成式人工智能服务管理办法(征求意见稿)》以及2023年7月13日最新发布的《生成式人工智能服务管理暂行办法》正是对目前如火如荼的人工智能产业监管作出的及时回应(对该法规的解读具体详见[《“不要温和地走进那良夜”——对<生成式人工智能服务管理办法>的思考》](https://www.kwm.com/cn/zh/insights/latest-thinking/reflections-on-draft-regulation-on-management-of-generative-artificial-intelligence-services.html)[《卧看星河尽意明——全球首部生成式人工智能法规解读》](https://www.kwm.com/cn/zh/insights/latest-thinking/china-first-interim-regulatory-measure-on-aigc.html))。本文将从欧盟《人工智能法案》(使用“《人工智能法案》”或“《AI法案》”概括指代目前为止所有《人工智能法案》的立法文件)的立法进程出发,以比较分析的方法梳理欧洲对人工智能监管的变革和重点制度,并总结其可鉴经验,以提出对中国人工智能治理的进一步展望,供读者参阅。
[heading4](1)依据主体的治理范式与依据风险的治理范式[content]中国与欧盟关于人工智能监管的体系框架表明,两者对人工智能进行规制的出发点有所不同。中国针对不同的涉及算法的互联网信息服务,以落实主体责任作为基本落脚点。实际上,我国针对特定人工智能产品或服务的规定,基本上是将“服务提供者”作为相关义务的履行主体。《互联网信息服务算法推荐管理规定》的义务主体是“算法推荐服务提供者”,《生成式人工智能服务管理办法》的义务主体是“生成式人工智能服务提供者”,《互联网信息服务深度合成管理规定》则明确形成了多义务主体规制模式,包括深度合成服务提供者、深度合成服务技术支持者以及深度合成服务使用者,但从具体条文来看,深度合成服务提供者、深度合成服务技术支持者是该《规定》最主要的规制对象。欧盟《人工智能法案》则是首先确立以风险为基准的人工智能治理框架。通过对人工智能系统进行评估,人工智能系统将被划分为不可接受风险、高风险、有限风险和最小风险四个层级,并匹配了不同的责任措施和差异化的监管。[22]张欣:《生成式人工智能的算法治理挑战与治理型监管》,载《现代法学》,2023年第3期,第108-123页。在风险分级之下,2023年《AI法案》折衷草案进一步界定了提供者、授权代表、分销商、进口商、部署商等主体(根据Art3.1(8),统称为“经营者”),明确在不同风险的人工智能系统统一的责任措施和差异化监管之下,各类经营者在其中具体应该承担何种义务。
[heading4](2)风险分类分级监管与算法安全评估在我国,2021年9月国家网信办发布的《关于加强互联网信息服务算法综合治理的指导意见》中明确提出了风险防控和算法分级分类安全管理的要求,强调了对高风险类算法的有效识别。此外,国家网信办等多部门于2023年7月13日最新发布的《生成式人工智能服务管理暂行办法》第3条及第16条也提出了对生成式人工智能服务的分类分级监管要求。(参见《卧看星河尽意明——全球首部生成式人工智能法规解读》一文)欧美的风险分级监管路径以及算法安全评估方法虽然在具体的分类分级方式以及评估内容上存有一定争议,但总体上对我国仍具借鉴意义。