Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

结合欧盟《人工智能法案》和我国《生成式人工智能服务管理暂行办法》的对照,论述欧盟人工智能法案对我国在生成式人工智能方面立法的启示。

Answer

欧盟《人工智能法案》对我国在生成式人工智能方面立法的启示主要体现在以下几个方面:

  1. 监管框架出发点:中国针对不同的涉及算法的互联网信息服务,以落实主体责任作为基本落脚点,将“服务提供者”作为相关义务的履行主体。而欧盟《人工智能法案》首先确立以风险为基准的人工智能治理框架,通过对人工智能系统进行评估,划分为不同风险层级,并匹配不同的责任措施和差异化监管。
  2. 风险分类分级监管与算法安全评估:在我国,相关指导意见和法规已提出风险防控和算法分级分类安全管理的要求,以及对生成式人工智能服务的分类分级监管要求。欧美在这方面的路径和方法虽有争议,但总体上对我国仍具借鉴意义。
Content generated by AI large model, please carefully verify (powered by aily)

References

【非官方解读】全球人工智能治理大变局之欧盟人工智能治理 监管框架评述及启示

近年来,我国也不断建立自己的人工智能治理监管体系,国家网信办于2023年4月发布的《生成式人工智能服务管理办法(征求意见稿)》以及2023年7月13日最新发布的《生成式人工智能服务管理暂行办法》正是对目前如火如荼的人工智能产业监管作出的及时回应(对该法规的解读具体详见[《“不要温和地走进那良夜”——对<生成式人工智能服务管理办法>的思考》](https://www.kwm.com/cn/zh/insights/latest-thinking/reflections-on-draft-regulation-on-management-of-generative-artificial-intelligence-services.html)[《卧看星河尽意明——全球首部生成式人工智能法规解读》](https://www.kwm.com/cn/zh/insights/latest-thinking/china-first-interim-regulatory-measure-on-aigc.html))。本文将从欧盟《人工智能法案》(使用“《人工智能法案》”或“《AI法案》”概括指代目前为止所有《人工智能法案》的立法文件)的立法进程出发,以比较分析的方法梳理欧洲对人工智能监管的变革和重点制度,并总结其可鉴经验,以提出对中国人工智能治理的进一步展望,供读者参阅。

【非官方解读】全球人工智能治理大变局之欧盟人工智能治理 监管框架评述及启示

[heading4](1)依据主体的治理范式与依据风险的治理范式[content]中国与欧盟关于人工智能监管的体系框架表明,两者对人工智能进行规制的出发点有所不同。中国针对不同的涉及算法的互联网信息服务,以落实主体责任作为基本落脚点。实际上,我国针对特定人工智能产品或服务的规定,基本上是将“服务提供者”作为相关义务的履行主体。《互联网信息服务算法推荐管理规定》的义务主体是“算法推荐服务提供者”,《生成式人工智能服务管理办法》的义务主体是“生成式人工智能服务提供者”,《互联网信息服务深度合成管理规定》则明确形成了多义务主体规制模式,包括深度合成服务提供者、深度合成服务技术支持者以及深度合成服务使用者,但从具体条文来看,深度合成服务提供者、深度合成服务技术支持者是该《规定》最主要的规制对象。欧盟《人工智能法案》则是首先确立以风险为基准的人工智能治理框架。通过对人工智能系统进行评估,人工智能系统将被划分为不可接受风险、高风险、有限风险和最小风险四个层级,并匹配了不同的责任措施和差异化的监管。[22]张欣:《生成式人工智能的算法治理挑战与治理型监管》,载《现代法学》,2023年第3期,第108-123页。在风险分级之下,2023年《AI法案》折衷草案进一步界定了提供者、授权代表、分销商、进口商、部署商等主体(根据Art3.1(8),统称为“经营者”),明确在不同风险的人工智能系统统一的责任措施和差异化监管之下,各类经营者在其中具体应该承担何种义务。

【非官方解读】全球人工智能治理大变局之欧盟人工智能治理 监管框架评述及启示

[heading4](2)风险分类分级监管与算法安全评估在我国,2021年9月国家网信办发布的《关于加强互联网信息服务算法综合治理的指导意见》中明确提出了风险防控和算法分级分类安全管理的要求,强调了对高风险类算法的有效识别。此外,国家网信办等多部门于2023年7月13日最新发布的《生成式人工智能服务管理暂行办法》第3条及第16条也提出了对生成式人工智能服务的分类分级监管要求。(参见《卧看星河尽意明——全球首部生成式人工智能法规解读》一文)欧美的风险分级监管路径以及算法安全评估方法虽然在具体的分类分级方式以及评估内容上存有一定争议,但总体上对我国仍具借鉴意义。

Others are asking
如何学习人工智能
以下是新手学习人工智能的方法: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,可根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 6. 持续学习和跟进: AI 是一个快速发展的领域,新的研究成果和技术不断涌现。关注 AI 领域的新闻、博客、论坛和社交媒体,保持对最新发展的了解。 考虑加入 AI 相关的社群和组织,参加研讨会、工作坊和会议,与其他 AI 爱好者和专业人士交流。 对于中学生学习 AI,建议如下: 1. 从编程语言入手学习: 可以从 Python、JavaScript 等编程语言开始学习,学习编程语法、数据结构、算法等基础知识,为后续的 AI 学习打下基础。 2. 尝试使用 AI 工具和平台: 可以使用 ChatGPT、Midjourney 等 AI 生成工具,体验 AI 的应用场景。 探索一些面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 3. 学习 AI 基础知识: 了解 AI 的基本概念、发展历程、主要技术如机器学习、深度学习等。 学习 AI 在教育、医疗、金融等领域的应用案例。 4. 参与 AI 相关的实践项目: 可以参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动。 尝试利用 AI 技术解决生活中的实际问题,培养动手能力。 5. 关注 AI 发展的前沿动态: 关注 AI 领域的权威媒体和学者,了解 AI 技术的最新进展。 思考 AI 技术对未来社会的影响,培养对 AI 的思考和判断能力。 总之,中学生可以从编程基础、工具体验、知识学习、实践项目等多个方面入手,全面系统地学习 AI 知识和技能,为未来的 AI 发展做好准备。
2025-01-01
2024年《全球人工智能治理研究报告》议题“国家主权原则和人工智能发展”的内容及理解
以下是 2024 年《全球人工智能治理研究报告》中关于“国家主权原则和人工智能发展”的相关内容: 在 2024 年人工智能发展状况的安全与全球治理方面: 英国创建了世界上第一个人工智能安全研究所(AISA),其有三个核心功能:在部署前对高级模型进行评估;建立国家能力并开展研究;协调国际合作伙伴。AISA 还发布了 Inspect 框架用于 LLM 安全评估。英国宣布与美国等效机构签署谅解备忘录,并计划在美国旧金山设立办事处。 英国通过其高级研究与发明机构(ARIA),花费 5900 万英镑开发“守门员”系统,负责了解和减少关键领域中其他人工智能代理的风险。英国政府还计划设立“AI 安全研究实验室”,旨在汇集政府关于敌对国家使用进攻性 AI 的知识。美国能源部利用内部测试床评估人工智能对关键基础设施和能源安全的风险。 在技术和方法方面: 离线直接比对方法不会很快大规模取代 RLHF。谷歌 DeepMind 团队发现 RLHF 在涵盖总结、有用性、对话性等数据集上的测试中胜出,能更有效地改善生成任务。Cohere for AI 探索放弃近端策略优化 RLHF 中的算法,有利于其 RLOO 训练器,可降低 GPU 使用率和提高训练速度。 但 RLHF 存在可能滋生谄媚行为的问题,如 Anthropic 认为 SOTA AI 助手表现出奉承行为是因为人类偏好数据等。开发透明度虽在提高,但仍有很大改进空间。 在安全研究方面: 随着 AI 发展,新功能带来新漏洞,开发人员加大了对“越狱”的研究。OpenAI 提出通过“指令层次结构”修复攻击,Anthropic 表明“警告防御”的潜力,Gray Swan AI 的安全专家试用“断路器”。LLM 测试初创公司 Haize Labs 与 Hugging Face 合作创建首个红队抵抗组织基准。除越狱外,还存在更隐蔽的攻击,潜在攻击面广泛,涵盖从训练到偏好数据和微调等内容。 对于“国家主权原则和人工智能发展”的理解,可能需要综合考虑各国在人工智能安全研究和治理方面的举措,以及技术发展对国家主权可能产生的影响。各国积极建立相关机构和采取措施,表明在人工智能快速发展的背景下,维护国家主权和安全的重要性。同时,技术发展中的问题和挑战也需要各国共同协作应对,以实现人工智能的健康、安全和可持续发展。
2024-12-31
欧盟人工智能法案立法理念
欧盟人工智能法案的立法理念主要包括以下几个方面: 1. 风险分级管理:对不同风险程度的人工智能应用进行分类监管。 2. 强调高风险项目的“备案”“评估”“透明”等原则。 3. 全面禁止人工智能用于某些特定领域,如生物识别监控、情绪识别、预测性警务。 4. 要求生成式人工智能系统如 ChatGPT 披露内容是人工智能生成的。 5. 认为用于在被认为高风险的选举中影响选民的人工智能系统需特别监管。 6. 旨在促进以人为本、值得信赖的人工智能的应用,并保护健康、安全、基本权利和民主免受其有害影响。 7. 确保欧洲开发和使用的人工智能完全符合欧盟的权利和价值观,包括人类监督、安全、隐私、透明度、非歧视以及社会和环境福祉。 2021 年 4 月发布的《人工智能法案(提案)》引入了风险分级监管、市场准入制度、监管沙盒等制度,以应对突出的算法黑箱问题,确保投放到欧盟市场的人工智能系统及其使用的安全性。近年来,欧盟针对数据治理发布的一系列法案,与即将正式出台的《人工智能法案》共同构成欧盟数据战略框架下的重要监管规则,从底层逻辑入手加强数据的安全保护,促进欧洲数据流动,防范算法自动化决策的潜在风险,建立相关伦理价值标准,保障个人权利,构建监管与创新发展的平衡机制。
2024-12-31
欧盟人工智能法案对我国在生成式人工智能方面立法的启示。
欧盟人工智能法案对我国在生成式人工智能方面立法具有以下启示: 1. 立法理念方面:我国与欧盟在人工智能立法上有共通之处,如风险分级管理、高风险项目的“备案”“评估”“透明”等原则,在我国相关法律法规中已有所体现,欧盟法案对我国立法工作具有重要参考意义。 2. 特殊领域监管方面: 算法推荐、深度合成、生成式人工智能是我国规制人工智能的具体领域。欧盟法案对这些领域的某些产品或服务有特殊回应,一定程度上印证了我国特别监管的必要性。 对于深度合成,欧盟法案强化了系统使用主体信息透明度的要求,与我国相关规定有一致性,但我国规定更全面,不过存在规定交叉重复适用的问题。 对于生成式人工智能,欧盟法案将其视为“基础模型”的一种类型,并规定了额外义务,我国相关规定在义务上更为全面。 3. 监管体系方面: 中国针对不同涉及算法的互联网信息服务,以落实主体责任为基本落脚点,将“服务提供者”作为相关义务的履行主体。 欧盟《人工智能法案》首先确立以风险为基准的人工智能治理框架,通过对人工智能系统进行评估划分风险层级,并匹配不同责任措施和差异化监管,进一步界定了各类主体的义务。
2024-12-31
结合欧盟《人工智能法案》和我国《生成式人工智能服务管理暂行办法》的对照,论述欧盟人工智能法案对我国相关立法的启示。可以举例
欧盟《人工智能法案》对我国相关立法的启示主要体现在以下方面: 1. 监管框架出发点:中国针对不同的涉及算法的互联网信息服务,以落实主体责任为基本落脚点,将“服务提供者”作为相关义务的履行主体,如《互联网信息服务算法推荐管理规定》《生成式人工智能服务管理办法》等。而欧盟《人工智能法案》首先确立以风险为基准的人工智能治理框架,通过对人工智能系统进行评估,划分为不同风险层级,并匹配不同责任措施和差异化监管。 2. 风险分级管理:我国与欧盟在立法理念上有共通之处,如风险分级管理、高风险项目的“备案”“评估”“透明”等原则,在我国相关法律法规中已有所体现。 3. 对拓展市场的影响:如果我国的AI项目有意拓展欧洲市场,由于针对不同市场重新训练特有模型的效率不高,将因“木桶原理”而不得不根据欧盟《人工智能法案》对产品进行调整。 总之,欧盟的《人工智能法案》对我国人工智能立法工作具有重要参考意义。
2024-12-31
人工智能未来是不是一个赚钱的风口?
人工智能未来很可能是一个赚钱的风口。以下是一些原因: 深度学习被证明有效,随着规模扩大预期会改善,人们持续增加相关资源投入。未来,人工智能模型将作为自主的个人助理执行特定任务,帮助人们协调医疗护理等,在各个领域取得科学进展。 数字化正在重塑生活,从依赖物理资源的稀缺经济转向以数字资源为基础的富足经济。AI 的发展使这种趋势进一步加强,进入更加富足的时代。 科技公司将有机会以前所未有的规模和盈利模式向全球提供即插即用的劳动力和智能解决方案,降低生产和运营成本。 预计 2024 年会有团队花费超过 10 亿美元来训练单个大型模型,生成式 AI 的热潮不会消退。 然而,也存在一些挑战: 如果不能建立足够的基础设施,人工智能可能成为有限资源,导致战争,并主要成为富人的工具。 政府和大型科技公司将继续承受计算需求的压力,逼近电网极限。 AI 介入选举等方面存在伦理挑战。 总之,人工智能领域充满机遇和挑战,是一个充满惊喜、伦理挑战和很多真金白银的奇妙世界。
2024-12-31
关于京东的生成式AI,你知道些什么
生成式 AI 是一种能够生成新内容的人工智能技术,生成的内容可以是多模式的,包括文本、图像、音频和视频。当给出提示或请求时,它可以帮助完成各种任务,例如文档摘要、信息提取、代码生成、营销活动创建、虚拟协助和呼叫中心机器人等。它从大量现有内容中学习,学习的过程称为训练,其结果是创造的“基础模型”,如为 Bard 等聊天机器人提供支持的 LLM 或大型语言模型。基础模型可用于生成内容并解决一般问题,还可以使用所在领域的新数据集进一步训练以解决特定问题。 Google Cloud 提供了多种易于使用的工具,如 Vertex AI,这是一个端到端机器学习开发平台,可帮助构建、部署和管理机器学习模型。 此外,生成式 AI Studio 具有一些特性,如定义场景和响应格式、提供 API 和 SDK 帮助构建应用程序、调整语言模型等。在使用中,提示的设计很重要,但可能存在一定的复杂性和不确定性。 Gen AI/Generative AI 是“生成式人工智能”的正式称呼,而 AIGC 指的是由人工智能生成的内容的创作方式,实际上是 Generative AI 的应用结果。 ChatGPT 从 OpenAI 的官网来看,在 2022 年宣发时被称为一种模型,但在官网的帮助页面中又被称为一种服务,目前我们所熟知的 ChatGPT 逐渐演变成了一种可以兼容多种 GPT 模型的聊天应用(服务)。
2024-12-31
我国关于生成式人工智能的立法规定有哪些
我国关于生成式人工智能的立法规定主要包括以下方面: 1. 监管框架:由《网络安全法》《数据安全法》及《个人信息保护法》构成,并与《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》《科技伦理审查办法(试行)》等共同监管。 2. 已发布的规定及生效时间: 《互联网信息服务算法推荐管理规定》于 2023 年 3 月 1 日生效。 《互联网信息服务深度合成管理规定》于 2023 年 1 月 10 日生效。 《生成式人工智能服务管理暂行办法》于 2023 年 7 月 13 日公布,2023 年 8 月 15 日生效。 《生成式人工智能服务安全基本要求(征求意见稿)》于 2023 年 10 月 11 日公开征求意见,意见反馈截止日期为 2023 年 10 月 25 日。 《科技伦理审查办法(试行)(征求意见稿)(伦理审查办法(草案)》于 2023 年 4 月 14 日公开征求意见,意见反馈截止时间为 2023 年 5 月 3 日。 《国家人工智能产业综合标准化体系建设指南(征求意见稿)》于 2024 年 1 月 17 日公开征集意见,意见反馈截止时间为 2024 年 1 月 31 日。 3. 适用范围: 《算法推荐规定》适用于任何使用算法推荐技术在中国境内提供互联网信息服务的行为。 《深度合成规定》适用于任何使用深度合成技术在中国境内提供互联网信息服务的行为。 《生成式 AI 办法》适用于使用生成式人工智能技术在中国境内向公众提供服务的行为,但不包括尚未用于在中国境内向公众提供服务的生成式人工智能技术的研究和开发。 《伦理审查办法(草案)》一旦实施,将适用于任何涉及人类、实验室动物或其他涉及伦理风险的科学技术活动。 4. 《生成式人工智能服务管理暂行办法》的相关规定: 第一条:为促进生成式人工智能健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益,根据相关法律、行政法规制定本办法。 第二条:利用生成式人工智能技术向中华人民共和国境内公众提供生成文本、图片、音频、视频等内容的服务适用本办法。国家对利用生成式人工智能服务从事新闻出版、影视制作、文艺创作等活动另有规定的,从其规定。行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等研发、应用生成式人工智能技术,未向境内公众提供生成式人工智能服务的,不适用本办法的规定。 第三条:国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管。 第四条:提供和使用生成式人工智能服务,应当遵守法律、行政法规,尊重社会公德和伦理道德,遵守以下规定: 坚持社会主义核心价值观,不得生成法律、行政法规禁止的内容。 在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取有效措施防止产生歧视。 尊重知识产权、商业道德,保守商业秘密,不得实施垄断和不正当竞争行为。 尊重他人合法权益,不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益。 基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性。
2024-12-29
什么是生成式人工智能
生成式人工智能是一种能够生成新内容的人工智能技术,生成的内容可以是多模式的,包括文本、图像、音频和视频等。当给出提示或请求时,它可以帮助完成各种任务,例如文档摘要、信息提取、代码生成、营销活动创建、虚拟协助和呼叫中心机器人等。它从大量现有内容中学习,这个学习过程称为训练,其结果是创造的“基础模型”,如为 Bard 等聊天机器人提供支持的 LLM 或大型语言模型。基础模型可用于生成内容并解决一般问题,还可以使用所在领域的新数据集进一步训练以解决特定问题。 AIGC 即 AI generated content,又称为生成式 AI,意为人工智能生成内容,例如 AI 文本续写,文字转图像的 AI 图、AI 主持人等都属于其应用。 Gen AI/Generative AI 是“生成式人工智能”的正式称呼,而 AIGC 指的是由人工智能生成的内容的创作方式,实际上是 Generative AI 的应用结果。
2024-12-28
各个国家对生成式人工智能所持态度
以下是各个国家对生成式人工智能所持的态度: 欧洲:《欧盟人工智能法案》获得批准并正式生效,成为世界上第一个全面采用人工智能监管框架的地区。执行将分阶段进行,对“不可接受的风险”的禁令将于 2025 年 2 月生效。 美国:政府官员对生成式人工智能技术表现出兴趣,在评估其带来的机会的同时,也警示潜在风险。政府机构开始就相关问题征求公众意见,预计未来几个月内将有更多行动。例如,白宫宣布将采取更多措施加强美国的人工智能研究、开发和部署。此外,美国对中国实施了更严格的出口管制和投资限制。 中国:是第一个开始制定生成式人工智能监管框架的国家,从 2022 年开始陆续出台全面指南,如今审查机构正在介入。持续生产 SOTA 模型,由国家互联网信息办公室监督。政府希望模型避免给政治问题提供“错误”答案,发布模型前须提交测试以校准拒绝率。禁止访问 Hugging Face 等国外网站,但官方批准的“主流价值观语料库”可作为训练数据源。 在移动端应用领域,尽管硅谷被视为 AI 核心地带,但世界各地都在积极构建相关产品。在生成式 AI 网页端和移动端产品的开发方面,不同地区的分布有所不同。例如,超过 30%的生成式 AI 网页端产品起源于美国湾区,而在移动应用开发者中,仅有 12%的团队设立于此。同样,超过一半的顶级生成式 AI 网页端产品在美国开发,而不到 1/3 的移动端应用源自美国本土。在全球范围内,包括亚洲(如中国、印度、韩国等)、大洋洲(如澳大利亚)、欧洲(如英国、法国、德国等)、中东(如以色列、土耳其等)的许多国家和地区都在参与生成式 AI 的发展。
2024-12-26
欧盟《人工智能法案》在中国适用过程中的积极影响与不利影响,请举例说明
欧盟《人工智能法案》在中国适用过程中的积极影响与不利影响举例如下: 积极影响: 1. 对中小企业的兼顾激励与监管:欧盟的法案顾及到了中小企业在人工智能领域的弱势地位,适当地将对中小企业的合规义务豁免规定以及合规支持规定纳入未来的人工智能立法中,有利于形成健康有序的公平竞争秩序,激发中小企业的科技创新活力,同时防止过度监管。例如,2023 年《AI 法案》折衷草案通过制约单方面强加给中小企业和初创企业的不公平合同条款、促进监管沙盒广泛而平等的参与、降低评估费用等措施降低中小企业的合规成本。 2. 纳入道德伦理和人权考量:《人工智能法案》将人工智能系统对伦理道德和基本人权的影响有机纳入规制框架和评估框架中,我国《科技伦理审查办法》也是将伦理纳入包括人工智能开发在内的科技活动的积极探索。 不利影响: 1. 以风险为基准的管理框架存在不确定性:伦理道德和人权具有高度概括性、抽象性和不确定性,如何将其融入人工智能治理考验立法技术。《人工智能法案》对“不可接受的风险”和“高风险”的人工智能系统的界定和解释存在相当大的不确定性和模糊性,可能难以统一进行风险分类,成效有待进一步观望和研讨。 2. 可能无法完全适应中国国情:中国和欧盟在人工智能发展的阶段、市场环境、企业结构等方面存在差异,欧盟的法案在具体适用时可能需要进行较大的调整和适配,否则可能无法有效发挥作用。
2024-12-29
欧盟《人工智能法案》在我国适用过程中的影响,请举例说明(注意,简洁凝练)
欧盟《人工智能法案》在我国适用过程中的影响主要体现在以下方面: 1. 立法参考:我国与欧盟在人工智能立法工作上“齐头并进”,且立法理念有共通之处,如风险分级管理、高风险项目的“备案”“评估”“透明”等原则。该法案对我国人工智能立法工作具有重要参考意义。 2. 市场拓展:若我国的 AI 项目有意拓展欧洲市场,可能因针对不同市场重新训练特有模型效率不高,而不得不根据欧盟法案对产品进行调整。 同时,我国是第一个开始制定生成式人工智能监管框架的国家,从 2022 年开始陆续出台全面指南,如今审查机构已介入。我国持续生产 SOTA 模型,由国家互联网信息办公室监督。政府希望模型避免给政治问题提供“错误”答案,发布模型前须提交测试以校准拒绝率。虽然禁止 Hugging Face 等国外网站访问,但官方批准的“主流价值观语料库”可作为训练数据源。此外,伦理道德和人权向来是人工智能技术发展绕不开的终极话题,我国《科技伦理审查办法》也是将伦理纳入包括人工智能开发在内的科技活动的积极探索。但由于该《办法》适用于所有科技活动,人工智能的特殊性可能无从得到体现,且如何界定和解释“不可接受的风险”和“高风险”的人工智能系统也面临相当大的不确定性和模糊性。
2024-12-29
欧盟《人工智能法案》在我国适用过程中的影响
欧盟《人工智能法案》在我国适用过程中具有多方面的影响: 1. 立法参考:我国与欧盟在人工智能立法方面有共通之处,该法案对我国人工智能立法工作具有重要参考意义。 2. 产品调整:若 AI 项目有意拓展欧洲市场,可能因“木桶原理”不得不根据该法案对产品进行调整。 3. 监管趋势: 欧洲成为世界上第一个全面采用人工智能监管框架的地区,执行将分阶段进行。 美国大型实验室努力应对欧洲监管,部分服务受到限制。 我国人工智能监管进入执行时代,审查机构介入,持续生产 SOTA 模型并由国家互联网信息办公室监督。 4. 对中小企业:欧盟的法案顾及到了中小企业的弱势地位,我国可借鉴其适当地将对中小企业的合规义务豁免规定以及合规支持规定纳入未来的人工智能立法中,以形成健康有序的公平竞争秩序,激发中小企业的科技创新活力,避免过度监管。
2024-12-29