欧盟人工智能法案对我国在生成式人工智能方面立法具有以下启示:
三、《法案》将对我国AI监管产生何种影响?我国与欧盟对于人工智能立法的工作一直以来处于“齐头并进”的态势,遥遥领先于其余各国,双方的立法理念也不难看出有共通之处,尤其体现在风险分级管理、高风险项目的“备案”、“评估”、“透明”等原则,均在《生成式人工智能服务安全基本要求》、《人工智能法1.0(专家意见稿)》等相关法律法规中已有所体现,此次欧盟的《人工智能法案》也必将对我国人工智能立法工作具有重要参考意义。同时,如果AI项目有意拓展欧洲市场,由于针对不同市场重新训练特有模型的效率不高,将因“木桶原理”而不得不根据欧盟《人工智能法案》而对产品进行调整。四、总结监管过严,则技术发展不畅,监管过松,则乱象丛生。但监管势在必行,毕竟技术侵染的土壤后留下的烂摊子,最终依然是政府出面收场。马老师曾经说过,战胜AI最好的办法是先掌握AI,关注监管动态,是为了稳步跑赢落在最后的那个人,为此你可以关注这个公众号,还可以扫码添加我的微信,找我喝个咖啡。
[heading4](2)在人工智能系统特殊领域的特殊监管达成共识[content]算法推荐,深度合成,生成式人工智能是我国规制人工智能的具体领域。虽然2023年《AI法案》折衷草案适用于所有的人工智能系统,但就上述某些产品或服务而言进行了特殊的回应。这些回应一定程度上印证了我国对这些领域进行特别监管的必要性。面对深度合成,2023年《AI法案》折衷草案在第52条第3款第1项确定了深度合成的标记义务,使用深度合成时,不仅要告知接收者内容为使用深度合成系统下的输出物,同时要标记具体使用深度合成技术的主体的信息。这与《互联网信息服务深度合成管理规定》第16至18条所规定的标记义务保持一致,但相比之下2023年《AI法案》折衷草案更加强化了系统使用主体信息透明度的要求,一定程度上将法律责任分配给了使用深度合成技术的主体。对于生成式人工智能,2023年《AI法案》折衷草案将其视为“基础模型”的一种类型,在第28b条对基础模型所施加的一系列一般义务之外,还通过该条第4款规定了针对生成式人工智能的额外义务。具体而言包括第52条第1款所规定的透明性义务、在保障言论自由等基本权利的同时防止违法内容生成,以及尊重知识产权的要求。欧盟对于深度合成和生成式人工智能的特殊规定仅占据整部法案的极小篇幅,从规定内容上来看虽然抓住了规制重点但并不详尽。相较而言,我国的两个相关规定在义务上更为全面。不过由于缺少统一的横向立法,导致我国的相关规定存在大量重合,可能会导致规定交叉重复适用的问题。
[heading4](1)依据主体的治理范式与依据风险的治理范式[content]中国与欧盟关于人工智能监管的体系框架表明,两者对人工智能进行规制的出发点有所不同。中国针对不同的涉及算法的互联网信息服务,以落实主体责任作为基本落脚点。实际上,我国针对特定人工智能产品或服务的规定,基本上是将“服务提供者”作为相关义务的履行主体。《互联网信息服务算法推荐管理规定》的义务主体是“算法推荐服务提供者”,《生成式人工智能服务管理办法》的义务主体是“生成式人工智能服务提供者”,《互联网信息服务深度合成管理规定》则明确形成了多义务主体规制模式,包括深度合成服务提供者、深度合成服务技术支持者以及深度合成服务使用者,但从具体条文来看,深度合成服务提供者、深度合成服务技术支持者是该《规定》最主要的规制对象。欧盟《人工智能法案》则是首先确立以风险为基准的人工智能治理框架。通过对人工智能系统进行评估,人工智能系统将被划分为不可接受风险、高风险、有限风险和最小风险四个层级,并匹配了不同的责任措施和差异化的监管。[22]张欣:《生成式人工智能的算法治理挑战与治理型监管》,载《现代法学》,2023年第3期,第108-123页。在风险分级之下,2023年《AI法案》折衷草案进一步界定了提供者、授权代表、分销商、进口商、部署商等主体(根据Art3.1(8),统称为“经营者”),明确在不同风险的人工智能系统统一的责任措施和差异化监管之下,各类经营者在其中具体应该承担何种义务。