Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

欧盟人工智能法案立法理念

Answer

欧盟人工智能法案的立法理念主要包括以下几个方面:

  1. 风险分级管理:对不同风险程度的人工智能应用进行分类监管。
  2. 强调高风险项目的“备案”“评估”“透明”等原则。
  3. 全面禁止人工智能用于某些特定领域,如生物识别监控、情绪识别、预测性警务。
  4. 要求生成式人工智能系统如 ChatGPT 披露内容是人工智能生成的。
  5. 认为用于在被认为高风险的选举中影响选民的人工智能系统需特别监管。
  6. 旨在促进以人为本、值得信赖的人工智能的应用,并保护健康、安全、基本权利和民主免受其有害影响。
  7. 确保欧洲开发和使用的人工智能完全符合欧盟的权利和价值观,包括人类监督、安全、隐私、透明度、非歧视以及社会和环境福祉。

2021 年 4 月发布的《人工智能法案(提案)》引入了风险分级监管、市场准入制度、监管沙盒等制度,以应对突出的算法黑箱问题,确保投放到欧盟市场的人工智能系统及其使用的安全性。近年来,欧盟针对数据治理发布的一系列法案,与即将正式出台的《人工智能法案》共同构成欧盟数据战略框架下的重要监管规则,从底层逻辑入手加强数据的安全保护,促进欧洲数据流动,防范算法自动化决策的潜在风险,建立相关伦理价值标准,保障个人权利,构建监管与创新发展的平衡机制。

Content generated by AI large model, please carefully verify (powered by aily)

References

快讯|欧盟《人工智能法案》,已通过谈判

三、《法案》将对我国AI监管产生何种影响?我国与欧盟对于人工智能立法的工作一直以来处于“齐头并进”的态势,遥遥领先于其余各国,双方的立法理念也不难看出有共通之处,尤其体现在风险分级管理、高风险项目的“备案”、“评估”、“透明”等原则,均在《生成式人工智能服务安全基本要求》、《人工智能法1.0(专家意见稿)》等相关法律法规中已有所体现,此次欧盟的《人工智能法案》也必将对我国人工智能立法工作具有重要参考意义。同时,如果AI项目有意拓展欧洲市场,由于针对不同市场重新训练特有模型的效率不高,将因“木桶原理”而不得不根据欧盟《人工智能法案》而对产品进行调整。四、总结监管过严,则技术发展不畅,监管过松,则乱象丛生。但监管势在必行,毕竟技术侵染的土壤后留下的烂摊子,最终依然是政府出面收场。马老师曾经说过,战胜AI最好的办法是先掌握AI,关注监管动态,是为了稳步跑赢落在最后的那个人,为此你可以关注这个公众号,还可以扫码添加我的微信,找我喝个咖啡。

【官方解读】欧盟《人工智能法案》

14-06-2023-12:52Full ban on Artificial Intelligence(AI)for biometric surveillance,emotion recognition,predictive policing全面禁止人工智能(AI)用于生物识别监控、情绪识别、预测性警务Generative AI systems like ChatGPT must disclose that content was AI-generated ChatGPT等生成式人工智能系统必须披露内容是人工智能生成的AI systems used to influence voters in elections considered to be high-risk用于在被认为高风险的选举中影响选民的人工智能系统The rules aim to promote the uptake of human-centric and trustworthy AI and protect the health,safety,fundamental rights and democracy from its harmful effects.这些规则旨在促进以人为本、值得信赖的人工智能的应用,并保护健康、安全、基本权利和民主免受其有害影响。On Wednesday,the European Parliament adopted its negotiating position on the Artificial Intelligence(AI)Act with 499 votes in favour,28 against and 93 abstentions ahead of talks with EU member states on the final shape of the law.The rules would ensure that AI developed and used in Europe is fully in line with EU rights and values including human oversight,safety,privacy,transparency,non-discrimination and social and environmental wellbeing.周三,欧洲议会以499票赞成、28票反对、93票弃权的结果通过了人工智能(AI)法案的谈判立场,随后与欧盟成员国就该法案的最终形式进行了谈判。这些规则将确保欧洲开发和使用的人工智能完全符合欧盟的权利和价值观,包括人类监督、安全、隐私、透明度、非歧视以及社会和环境福祉。

【非官方解读】全球人工智能治理大变局之欧盟人工智能治理 监管框架评述及启示

2021年4月,《人工智能法案(提案)》(以下简称“2021年《AI法案》提案”)正式发布,该法案引入风险分级监管、市场准入制度、监管沙盒等制度,其目的在于应对突出的算法黑箱问题,以确保投放到欧盟市场的人工智能系统及其使用的安全性。在随后的两年,该法案陆续经过两次谈判修订,并于近日进入最终谈判阶段,该法案如正式获得批准,将有望成为全世界首部有关整体人工智能规制的法律。此外,近年来,欧盟针对数据治理也陆续发布《数字服务法案》(Digital Service Act)、《数字市场法案》(Digital Market Act)、《数据治理法案》(Digital Governance Act)。这些法案旨在规范欧洲的数据利用和流转制度,与即将正式出台的《人工智能法案》将共同构成欧盟数据战略框架下的重要监管规则,一方面从底层逻辑入手,加强数据的安全保护,促进欧洲数据流动,防范算法自动化决策的潜在风险;另一方面也建立相关伦理价值标准,保障个人权利,构建监管与创新发展的平衡机制。

Others are asking
人工智能的定义
人工智能是一门研究如何使计算机表现出智能行为的科学。目前对其定义并不统一,以下是一些常见的定义: 从一般角度来看,人工智能是指通过分析环境并采取行动(具有一定程度的自主性)以实现特定目标来展示其智能行为的系统。基于人工智能的系统可以完全依赖于软件,在虚拟世界中运行(例如语音助手、图像分析软件、搜索引擎、语音和人脸识别系统)或者也可以嵌入硬件设备中(例如高级机器人、自动驾驶汽车、无人机或物联网应用程序)。 2021 年《AI 法案》提案第 3 条对人工智能的定义为:“AI 系统指采用附录 1 中所列的一种或多种技术和方法开发的软件,该软件能生成影响交互环境的输出(如内容、预测、建议或决策),以实现人为指定的特定目标。”其中,附录 1 列举的技术方法主要包括:机器学习方法(包括监督、无监督、强化和深度学习);基于逻辑和知识的方法(包括知识表示、归纳编程、知识库、影响和演绎引擎、符号推理和专家系统);统计方法,贝叶斯估计,以及搜索和优化方法。 最初,查尔斯·巴贝奇发明了计算机,用于按照一套明确定义的程序(即算法)来对数字进行运算。现代计算机虽更先进,但仍遵循受控计算理念。然而,对于像从照片判断人的年龄这类任务,我们无法明确解法,无法编写明确程序让计算机完成,这类任务正是人工智能感兴趣的。 需要注意的是,“人工智能”的概念自 1956 年于美国的达特茅斯学会上被提出后,其所涵盖的理论范围及技术方法随着时代的发展在不断扩展。相比于《2018 年人工智能战略》,2021 年《AI 法案》提案对于人工智能的定义采取更加宽泛的界定标准。在 2022 年《AI 法案》妥协版本中,欧盟理事会及欧洲议会认为“AI 系统”的定义范围应适当缩窄,并侧重强调机器学习的方法。
2025-01-02
人工智能的历史
人工智能作为一个领域始于二十世纪中叶。最初,符号推理流行,带来了如专家系统等重要进展,但这种方法因无法大规模拓展应用场景,且从专家提取知识、表现及保持知识库准确性复杂且成本高,导致 20 世纪 70 年代出现“人工智能寒冬”。 随着时间推移,计算资源更便宜,数据更多,神经网络方法在计算机视觉、语音理解等领域展现出卓越性能,过去十年中“人工智能”常被视为“神经网络”的同义词。 例如在创建国际象棋计算机对弈程序时,方法不断变化。 此外,人工智能和机器学习在金融服务行业应用已超十年,促成了诸多改进。大型语言模型通过生成式人工智能代表重大飞跃,正改变多个领域。 最初查尔斯·巴贝奇发明计算机,遵循受控计算理念。但有些任务如根据照片判断人的年龄无法明确编程,这类任务正是人工智能感兴趣的。如今金融、医学和艺术等领域正从人工智能中受益。
2025-01-02
什么是人工智能
人工智能(Artificial Intelligence)是一门研究如何使计算机表现出智能行为的科学,例如做一些人类所擅长的事情。 最初,查尔斯·巴贝奇发明了计算机,用于按照明确的程序进行数字运算。现代计算机虽更先进,但仍遵循相同的受控计算理念。若知道实现目标的每一步骤及顺序,就能编写程序让计算机执行。 然而,像“根据照片判断一个人的年龄”这类任务,我们不清楚大脑完成此任务的具体步骤,无法明确编程,这类任务正是人工智能感兴趣的。 AI 分为 ANI(artificial narrow intelligence 弱人工智能)和 AGI(artificial general intelligence)。ANI 只可做一件事,如智能音箱、网站搜索、自动驾驶、工厂与农场的应用等;AGI 能做任何人类可以做的事。 人工智能术语包括: 机械学习:学习输入输出,从 A 到 B 的映射。是让电脑在不被编程的情况下自己学习的研究领域。 数据科学:分析数据集,从数据中获取结论与提示,输出结果往往是幻灯片、结论、PPT 等。 神经网络/深度学习:有输入层、输出层、中间层(隐藏层)。
2025-01-02
人工智能伦理建设的基本内容
人工智能伦理建设的基本内容包括以下方面: 欧洲议会和欧盟理事会规定了人工智能的统一规则,并修正了一系列相关条例。回顾委员会任命的独立人工智能高级别专家组 2019 年制定的《值得信赖的人工智能的伦理准则》,其中包含七项不具约束力的人工智能伦理原则: 人类主体和监督:人工智能系统的开发和使用应为人服务,尊重人的尊严和个人自主权,其运行可由人类适当控制和监督。 技术稳健性和安全性:开发和使用方式应在出现问题时保持稳健,抵御试图改变其使用或性能的行为,减少意外伤害。 隐私和数据治理:符合现有隐私和数据保护规则,处理的数据应具备高质量和完整性。 透明度:开发和使用方式应允许适当的可追溯性和可解释性,让人类知晓交流或互动情况,并告知部署者系统的能力和局限性以及受影响者的权利。 多样性、非歧视和公平:开发和使用方式应包括不同参与者,促进平等获取、性别平等和文化多样性,避免歧视性影响和不公平偏见。 社会和环境福祉:有助于设计符合《宪章》和欧盟基础价值观的连贯、可信和以人为本的人工智能。 问责制。 人工智能能带来广泛的经济、环境和社会效益,如改进预测、优化运营等,但也可能根据应用、使用情况和技术发展水平产生风险,对受欧盟法律保护的公共利益和基本权利造成损害。 鉴于人工智能的重大影响和建立信任的必要性,其发展必须符合欧盟价值观、基本权利和自由,应以人为本,最终提高人类福祉。 为确保公众利益的高水平保护,应为所有高风险人工智能系统制定统一规则,这些规则应与《宪章》一致,非歧视,符合国际贸易承诺,并考虑相关准则。
2025-01-02
举例说明,医疗人工智能应用的风险及其法理防范
医疗人工智能应用存在以下风险: 1. 可能对受欧盟法律保护的公共利益和基本权利造成损害,包括身体、心理、社会或经济方面的损害。 2. 在决定是否给予、拒绝、减少、取消或收回医疗保健服务等福利时,可能对人们的生计产生重大影响,并侵犯基本权利,如社会保护权、不受歧视权、人的尊严权或有效补救权。 3. 用于评估自然人信用分数或信用度的人工智能系统可能导致对个人或群体的歧视,并延续历史上的歧视模式或造成新形式的歧视性影响。 法理防范措施包括: 1. 为所有高风险人工智能系统制定统一的规则,这些规则应与《宪章》保持一致,是非歧视性的,并符合欧盟的国际贸易承诺,同时考虑相关的伦理准则。 2. 明确价值链上相关经营者的作用和具体义务,促进对法规的遵从,确保法律的确定性。 3. 在特定条件下,明确高风险人工智能系统提供者的责任和义务。 需要注意的是,欧盟法律规定的用于检测提供金融服务过程中的欺诈行为以及用于计算信贷机构和保险企业资本要求的尽职审慎目的的人工智能系统,以及用于自然人健康和人寿保险风险评估和定价的人工智能系统,在符合一定条件时不视为高风险系统。
2025-01-02
全球人工智能治理研究报告
以下是为您整合的关于全球人工智能治理研究报告的相关内容: 2024 AI 年度报告: 正确预测: 好莱坞级别的制作公司开始使用生成式人工智能来制作视觉特效。 美国联邦贸易委员会(FTC)或英国竞争与市场管理局(CMA)基于竞争理由调查微软/OpenAI 的交易。 在全球人工智能治理方面,进展非常有限,会超出高层次的主动承诺。 一首由人工智能创作的歌曲进入公告牌 Hot 100 前 10 名或 Spotify 2024 年热门榜单。 随着推理工作负载和成本的显著增长,一家大型人工智能公司(例如 OpenAI)收购或建立了一个专注于推理的人工智能芯片公司。 错误预测: 有生成式人工智能媒体公司因其在 2024 年美国选举期间的滥用行为受到调查。 自我改进的人工智能智能体在复杂环境中(例如 AAA 级游戏、工具使用、科学探索)超越了现有技术的最高水平。 科技 IPO 市场解冻,至少看到一家以人工智能为重点的公司上市(例如 DBRX)。 2024 人工智能报告: 英国创建了世界上第一个人工智能安全研究所,美国迅速跟进。世界首个人工智能安全研究所 AISA 有三个核心功能:在部署前对高级模型进行评估;建立国家能力并开展研究;协调国际合作伙伴。AISA 还发布了 Inspect,一个用于 LLM 安全评估的框架,涵盖核心知识、推理能力和自主能力等方面。英国宣布与美国等效机构签署谅解备忘录,双方同意共同开发测试,并计划在美国旧金山设立办事处。 政府急于填补关键国家基础设施中的漏洞。英国通过其高级研究与发明机构(ARIA),花费了 5900 万英镑来开发一个“守门员”——一种先进的系统,负责了解和减少在能源、医疗保健和电信等关键领域中其他人工智能代理的风险。英国政府还报道称计划设立一个“AI 安全研究实验室”,旨在汇集政府关于敌对国家使用进攻性 AI 的知识。美国能源部一直在利用其内部测试床评估人工智能可能对关键基础设施和能源安全带来的风险。随着攻击面扩大,开发人员加大了对“越狱”的研究。 2024 年人工智能现状: 全球治理的尴尬局面:全球在 AI 治理上的合作就像一场尴尬的华丽晚宴,大家都不知道该说些什么——承诺满天飞,实际行动却寥寥无几。 国家和地区法规的角力:疫情之后,越发魔幻的世界让我产生了世界在玩一种很新的“闭关锁国”,美国和欧盟等国家或地区正在通过有争议的国家层面立法,科技公司在这场与监管巨头的博弈中,还需面对自身可持续性目标的挑战——发展 AI 的排放量简直就像是一场全国范围的 SUV 自驾游,环保得让人哭笑不得。
2025-01-02
欧盟人工智能法案在实施中对我国未来立法的影响
欧盟人工智能法案在实施中对我国未来立法主要有以下影响: 1. 参考意义:我国与欧盟在人工智能立法方面处于“齐头并进”态势,且立法理念有共通之处,欧盟的《人工智能法案》对我国人工智能立法工作具有重要参考价值。 2. 产品调整:若AI项目有意拓展欧洲市场,可能因不同市场要求而需根据欧盟法案对产品进行调整。 3. 对中小企业的监管:我国法律制度在一般性规定基础上强化对大型企业监管,而欧盟法案顾及到中小企业弱势地位。将对中小企业的合规义务豁免及合规支持规定纳入我国未来人工智能立法,有利于形成公平竞争秩序,激发中小企业科技创新活力,避免过度监管。 4. 法律衔接:我国《个人信息保护法》规定可能对人工智能研发和部署使用中的个人信息处理形成合规障碍,而欧盟《人工智能法案》在不影响GDPR实施的情况下对涉及个人数据的处理进行了解释和衔接。我国若进行统一的人工智能立法,个人数据处理的合法性问题无法回避,可在立法中进行特别规定。
2025-01-02
欧盟人工智能法案对我国在生成式人工智能方面立法的启示。
欧盟人工智能法案对我国在生成式人工智能方面立法具有以下启示: 1. 立法理念方面:我国与欧盟在人工智能立法上有共通之处,如风险分级管理、高风险项目的“备案”“评估”“透明”等原则,在我国相关法律法规中已有所体现,欧盟法案对我国立法工作具有重要参考意义。 2. 特殊领域监管方面: 算法推荐、深度合成、生成式人工智能是我国规制人工智能的具体领域。欧盟法案对这些领域的某些产品或服务有特殊回应,一定程度上印证了我国特别监管的必要性。 对于深度合成,欧盟法案强化了系统使用主体信息透明度的要求,与我国相关规定有一致性,但我国规定更全面,不过存在规定交叉重复适用的问题。 对于生成式人工智能,欧盟法案将其视为“基础模型”的一种类型,并规定了额外义务,我国相关规定在义务上更为全面。 3. 监管体系方面: 中国针对不同涉及算法的互联网信息服务,以落实主体责任为基本落脚点,将“服务提供者”作为相关义务的履行主体。 欧盟《人工智能法案》首先确立以风险为基准的人工智能治理框架,通过对人工智能系统进行评估划分风险层级,并匹配不同责任措施和差异化监管,进一步界定了各类主体的义务。
2024-12-31
结合欧盟《人工智能法案》和我国《生成式人工智能服务管理暂行办法》的对照,论述欧盟人工智能法案对我国在生成式人工智能方面立法的启示。
欧盟《人工智能法案》对我国在生成式人工智能方面立法的启示主要体现在以下几个方面: 1. 监管框架出发点:中国针对不同的涉及算法的互联网信息服务,以落实主体责任作为基本落脚点,将“服务提供者”作为相关义务的履行主体。而欧盟《人工智能法案》首先确立以风险为基准的人工智能治理框架,通过对人工智能系统进行评估,划分为不同风险层级,并匹配不同的责任措施和差异化监管。 2. 风险分类分级监管与算法安全评估:在我国,相关指导意见和法规已提出风险防控和算法分级分类安全管理的要求,以及对生成式人工智能服务的分类分级监管要求。欧美在这方面的路径和方法虽有争议,但总体上对我国仍具借鉴意义。
2024-12-31
结合欧盟《人工智能法案》和我国《生成式人工智能服务管理暂行办法》的对照,论述欧盟人工智能法案对我国相关立法的启示。可以举例
欧盟《人工智能法案》对我国相关立法的启示主要体现在以下方面: 1. 监管框架出发点:中国针对不同的涉及算法的互联网信息服务,以落实主体责任为基本落脚点,将“服务提供者”作为相关义务的履行主体,如《互联网信息服务算法推荐管理规定》《生成式人工智能服务管理办法》等。而欧盟《人工智能法案》首先确立以风险为基准的人工智能治理框架,通过对人工智能系统进行评估,划分为不同风险层级,并匹配不同责任措施和差异化监管。 2. 风险分级管理:我国与欧盟在立法理念上有共通之处,如风险分级管理、高风险项目的“备案”“评估”“透明”等原则,在我国相关法律法规中已有所体现。 3. 对拓展市场的影响:如果我国的AI项目有意拓展欧洲市场,由于针对不同市场重新训练特有模型的效率不高,将因“木桶原理”而不得不根据欧盟《人工智能法案》对产品进行调整。 总之,欧盟的《人工智能法案》对我国人工智能立法工作具有重要参考意义。
2024-12-31
欧盟《人工智能法案》在中国适用过程中的积极影响与不利影响,请举例说明
欧盟《人工智能法案》在中国适用过程中的积极影响与不利影响举例如下: 积极影响: 1. 对中小企业的兼顾激励与监管:欧盟的法案顾及到了中小企业在人工智能领域的弱势地位,适当地将对中小企业的合规义务豁免规定以及合规支持规定纳入未来的人工智能立法中,有利于形成健康有序的公平竞争秩序,激发中小企业的科技创新活力,同时防止过度监管。例如,2023 年《AI 法案》折衷草案通过制约单方面强加给中小企业和初创企业的不公平合同条款、促进监管沙盒广泛而平等的参与、降低评估费用等措施降低中小企业的合规成本。 2. 纳入道德伦理和人权考量:《人工智能法案》将人工智能系统对伦理道德和基本人权的影响有机纳入规制框架和评估框架中,我国《科技伦理审查办法》也是将伦理纳入包括人工智能开发在内的科技活动的积极探索。 不利影响: 1. 以风险为基准的管理框架存在不确定性:伦理道德和人权具有高度概括性、抽象性和不确定性,如何将其融入人工智能治理考验立法技术。《人工智能法案》对“不可接受的风险”和“高风险”的人工智能系统的界定和解释存在相当大的不确定性和模糊性,可能难以统一进行风险分类,成效有待进一步观望和研讨。 2. 可能无法完全适应中国国情:中国和欧盟在人工智能发展的阶段、市场环境、企业结构等方面存在差异,欧盟的法案在具体适用时可能需要进行较大的调整和适配,否则可能无法有效发挥作用。
2024-12-29
欧盟《人工智能法案》在我国适用过程中的影响,请举例说明(注意,简洁凝练)
欧盟《人工智能法案》在我国适用过程中的影响主要体现在以下方面: 1. 立法参考:我国与欧盟在人工智能立法工作上“齐头并进”,且立法理念有共通之处,如风险分级管理、高风险项目的“备案”“评估”“透明”等原则。该法案对我国人工智能立法工作具有重要参考意义。 2. 市场拓展:若我国的 AI 项目有意拓展欧洲市场,可能因针对不同市场重新训练特有模型效率不高,而不得不根据欧盟法案对产品进行调整。 同时,我国是第一个开始制定生成式人工智能监管框架的国家,从 2022 年开始陆续出台全面指南,如今审查机构已介入。我国持续生产 SOTA 模型,由国家互联网信息办公室监督。政府希望模型避免给政治问题提供“错误”答案,发布模型前须提交测试以校准拒绝率。虽然禁止 Hugging Face 等国外网站访问,但官方批准的“主流价值观语料库”可作为训练数据源。此外,伦理道德和人权向来是人工智能技术发展绕不开的终极话题,我国《科技伦理审查办法》也是将伦理纳入包括人工智能开发在内的科技活动的积极探索。但由于该《办法》适用于所有科技活动,人工智能的特殊性可能无从得到体现,且如何界定和解释“不可接受的风险”和“高风险”的人工智能系统也面临相当大的不确定性和模糊性。
2024-12-29
我国关于生成式人工智能的立法规定有哪些
我国关于生成式人工智能的立法规定主要包括以下方面: 1. 监管框架:由《网络安全法》《数据安全法》及《个人信息保护法》构成,并与《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》《科技伦理审查办法(试行)》等共同监管。 2. 已发布的规定及生效时间: 《互联网信息服务算法推荐管理规定》于 2023 年 3 月 1 日生效。 《互联网信息服务深度合成管理规定》于 2023 年 1 月 10 日生效。 《生成式人工智能服务管理暂行办法》于 2023 年 7 月 13 日公布,2023 年 8 月 15 日生效。 《生成式人工智能服务安全基本要求(征求意见稿)》于 2023 年 10 月 11 日公开征求意见,意见反馈截止日期为 2023 年 10 月 25 日。 《科技伦理审查办法(试行)(征求意见稿)(伦理审查办法(草案)》于 2023 年 4 月 14 日公开征求意见,意见反馈截止时间为 2023 年 5 月 3 日。 《国家人工智能产业综合标准化体系建设指南(征求意见稿)》于 2024 年 1 月 17 日公开征集意见,意见反馈截止时间为 2024 年 1 月 31 日。 3. 适用范围: 《算法推荐规定》适用于任何使用算法推荐技术在中国境内提供互联网信息服务的行为。 《深度合成规定》适用于任何使用深度合成技术在中国境内提供互联网信息服务的行为。 《生成式 AI 办法》适用于使用生成式人工智能技术在中国境内向公众提供服务的行为,但不包括尚未用于在中国境内向公众提供服务的生成式人工智能技术的研究和开发。 《伦理审查办法(草案)》一旦实施,将适用于任何涉及人类、实验室动物或其他涉及伦理风险的科学技术活动。 4. 《生成式人工智能服务管理暂行办法》的相关规定: 第一条:为促进生成式人工智能健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益,根据相关法律、行政法规制定本办法。 第二条:利用生成式人工智能技术向中华人民共和国境内公众提供生成文本、图片、音频、视频等内容的服务适用本办法。国家对利用生成式人工智能服务从事新闻出版、影视制作、文艺创作等活动另有规定的,从其规定。行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等研发、应用生成式人工智能技术,未向境内公众提供生成式人工智能服务的,不适用本办法的规定。 第三条:国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管。 第四条:提供和使用生成式人工智能服务,应当遵守法律、行政法规,尊重社会公德和伦理道德,遵守以下规定: 坚持社会主义核心价值观,不得生成法律、行政法规禁止的内容。 在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取有效措施防止产生歧视。 尊重知识产权、商业道德,保守商业秘密,不得实施垄断和不正当竞争行为。 尊重他人合法权益,不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益。 基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性。
2024-12-29