直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

欧盟人工智能法案

回答

欧盟《人工智能法案》相关内容如下:

  • 内容全文:全面禁止人工智能用于生物识别监控、情绪识别、预测性警务;ChatGPT 等生成式人工智能系统必须披露内容是人工智能生成的;用于在被认为高风险的选举中影响选民的人工智能系统被视为高风险;规则旨在促进以人为本、值得信赖的人工智能的应用,并保护健康、安全、基本权利和民主免受其有害影响。
  • 谈判通过:2023 年 12 月 8 日,欧盟 27 个成员国的谈判代表通过了该法案,仍需经历 12 - 24 个月的立法程序方可生效。
  • 要点解读:
    • 风险等级与分级管理:开创性地提出“分级管理”,将 AI 产品划分为不可接受的风险(完全禁止)、高风险(投放前严格管控,履行安全评估义务,活动记录可追溯)、有限风险(透明义务)、极低风险(不做干预)四个等级。
    • 通用模型限制与开源模型豁免:对大型、强大的通用模型有部分限制,同时通过了对于开源模型的广泛豁免。
    • 责任主体的细分:将“经营者”拆分为“提供者、授权代表、分销商、进口商、部署商”等主体,明确不同风险下各类经营者的义务。
    • 高额罚款:不遵守规定的公司,将被处以最高 3500 万欧元或全球营业额 7%的罚款。
    • 主要分歧点:是否应允许执法部门使用面部识别或其它类型的生物识别技术来实时/回顾性地识别人员身份,该条款因打击儿童性犯罪与恐怖袭击等恶性案件的理由而得到部分豁免。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

【官方解读】欧盟《人工智能法案》

[title]【官方解读】欧盟《人工智能法案》[heading1]内容全文:[heading2]MEPs ready to negotiate first-ever rules for safe14-06-2023 - 12:52Full ban on Artificial Intelligence(AI)for biometric surveillance,emotion recognition,predictive policing全面禁止人工智能(AI)用于生物识别监控、情绪识别、预测性警务Generative AI systems like ChatGPT must disclose that content was AI-generated ChatGPT等生成式人工智能系统必须披露内容是人工智能生成的AI systems used to influence voters in elections considered to be high-risk用于在被认为高风险的选举中影响选民的人工智能系统The rules aim to promote the uptake of human-centric and trustworthy AI and protect the health,safety,fundamental rights and democracy from its harmful effects.这些规则旨在促进以人为本、值得信赖的人工智能的应用,并保护健康、安全、基本权利和民主免受其有害影响。On Wednesday,the European Parliament adopted its negotiating position on the Artificial Intelligence(AI)Act with 499 votes in favour,28 against and 93 abstentions ahead of talks with EU member states on the final shape of the law.The rules would ensure that AI developed and used in Europe is fully in line with EU rights and values including human oversight,safety,privacy,transparency,non-discrimination and social and environmental wellbeing.周三,欧洲议会以499票赞成、28票反对、93票弃权的结果通过了人工智能(AI)法案的谈判立场,随后与欧盟成员国就该法案的最终形式进行了谈判。这些规则将确保欧洲开发和使用的人工智能完全符合欧盟的权利和价值观,包括人类监督、安全、隐私、透明度、非歧视以及社会和环境福祉。

快讯|欧盟《人工智能法案》,已通过谈判

[title]快讯|欧盟《人工智能法案》,已通过谈判原创于梦圆于梦圆Lawyer 2023-12-09 16:17发表于北京https://mp.weixin.qq.com/s/1twwNp9g5SPaitzZQ7dzhQ面对在新的一年选举活动前达成协议的压力,在经历了在布鲁塞尔为期三天,长达37个小时的谈判后,来自欧盟27个成员国的谈判代表终于在当地时间2023年12月8日(也就是昨天),通过了这项《人工智能法案》,该法案仍需经历12-24个月的立法程序方可生效。一、关于欧盟《人工智能法案》欧盟一直是全球最领先的人工智能监管体系建立者之一,2018年,欧盟建立人工智能高级专家小组,着手起草《人工智能法案》,2021年,欧盟发布《人工智能法案(草案)》,2023年6月,欧洲议会通过了《人工智能法案(草案)》,昨天,欧盟谈判代表投票通过了《人工智能法案》。与此同时,美国国会在经历数月的听证会、研讨会后,至今仍处于人工智能立法的早期阶段。本周,参议院发表声明,华盛顿将采取一种更加宽松的方式,鼓励人工智能在美的技术发展。此前,奥特曼曾遍访世界各国首脑,游说各国政府淡化人工智能监管,并曾声称,若欧盟《人工智能法案》监管过严,将有可能退出欧洲市场。

快讯|欧盟《人工智能法案》,已通过谈判

[title]快讯|欧盟《人工智能法案》,已通过谈判二、欧盟《人工智能法案》要点解读1、风险等级与分级管理欧盟《人工智能法案》开创性地提出了“分级管理”的监管思路,根据目前流出的信息,欧盟《人工智能法案》将AI产品划分为四个风险等级,每个风险等级都规范了具体应用类别,以及相应的监管措施:a.不可接受的风险(完全禁止)b.高风险(投放前严格管控,履行安全评估义务,活动记录可追溯)c.有限风险(透明义务)d.极低风险(不做干预)这一部分非常重要,也在草案发布后几经修改,正式文件发布后,我们将进一步拆分解读。2、通用模型限制与开源模型豁免尽管受到了以法国为首的反对,此次谈判最终还是确定了欧盟对于大型、强大的通用模型的部分限制,包括但不限于:通用模型公司必须起草技术文件;遵守欧盟版权法;对训练数据做详细说明;构成“系统性风险”的通用模型的额外审查等。(约等于为OpenAI量身定做)同时,为争取法国与德国的支持,《法案》最终也通过了对于开源模型的广泛豁免。3、责任主体的细分《法案》进一步将“经营者”拆分为“提供者、授权代表、分销商、进口商、部署商”等主体,明确了在不同风险下,各类经营者应当具体承担何种义务。4、高额罚款不遵守规定的公司,将被处以最高3500万欧元或全球营业额7%的罚款。5、本次谈判的主要分歧点本次谈判的主要分歧点在于,是否应该允许执法部门使用面部识别或其它类型的生物识别技术来实时/回顾性地识别人员身份。这一点在此前公布的《人工智能法案(草案)》中,被列为“不可接受的风险”而被严格禁止,在此次谈判中,该条款最终因打击儿童性犯罪与恐怖袭击等恶性案件的理由而得到部分豁免。

其他人在问
人工智能相关的销售行业
以下是与人工智能相关的销售行业的一些信息: 与销售工作有关的 AI 工具: Salesforce 爱因斯坦:能分析大量数据集识别潜在客户,生成预测性潜在客户评分,还具有自动化功能,可执行日常或耗时任务,让销售团队专注于关键方面,如建立客户关系和完成交易。 Clari:专门从事智能收入运营的软件,能统一各种来源数据并以易于理解的方式呈现,简化财务预测过程。 Hightime:销售团队的 AI 助手,可处理重复性任务和耗时研究。 关于大模型与利润分配:大模型拿走产业绝大部分利润取决于两个前提,一是 AGI 能否实现,二是大模型公司能否实现垄断。AGI 能否实现是个黑盒,行业内顶级专家对此有分歧。在 AGI 未达到时,大模型公司难以低成本提供所有端到端的解决方案,客户需要具体的解决方案,应用层公司在其中发挥作用。以 AI 销售为例,需根据客户类型和场景应用大模型能力,不同销售场景和客户类型意味着背后的产品不同,需要精心设计,不仅是模型层面能解决的问题。
2024-12-19
怎么利用人工智能为一家一人公司赋能,具体实施办法,图片,视频等除外,讲一些实用的,新的想法
对于一家一人公司而言,利用人工智能赋能可以从以下几个实用且新颖的方面入手: 首先,在客户服务方面,可以运用智能聊天机器人来处理常见问题,提高响应速度和服务质量。通过自然语言处理技术,让机器人能够理解客户的需求并提供准确的回答。 其次,在市场营销中,利用人工智能进行数据分析,深入了解目标客户的行为和偏好,从而精准定位市场,制定更有效的营销策略。 再者,在业务流程优化上,借助人工智能的自动化能力,例如自动化文档处理、自动化邮件分类等,节省时间和精力,提高工作效率。 另外,在财务管理方面,使用人工智能工具进行风险预测和财务规划,帮助做出更明智的决策。 最后,在产品研发中,利用人工智能的创意生成能力,获取新的产品设计思路和创新点。
2024-12-18
人工智能会出现自主意识吗
目前对于人工智能是否会出现自主意识尚无定论。 一方面,有观点认为模仿可能是使 AI 具有“自主意识”的一种可能路径。如果一个 AI 可以长期观察人类,在类似条件再次触发时,可能会判断形成某一动机是大概率事件,进而通过长期模仿训练而产生动机。并且,如果让数字克隆体可以交流、融合,形成群体智能,也可能促使其产生自主意识。 另一方面,按照一些专家的预测,当 AI 变得比人类更聪明,达到奇点时,机器可能会具有自我意识和超级智能,届时我们对机器意识的概念将有重大转变,可能会面对真正的数字生命形式。但目前的 LLM 应用程序和智能体还未达到完全自主智能体的水平。 总之,关于人工智能是否会出现自主意识仍在探讨和研究中。
2024-12-18
如果人工智能继续发展,人类社会会变成什么样子。
人工智能的继续发展将给人类社会带来多方面的影响。 一方面,它会带来一些负面影响,比如对劳动力市场产生重大影响,但大多数工作的变化速度会比人们想象的慢,人们也不必担心缺乏事情可做。因为人们天生有创造和彼此有用的欲望,人工智能将放大这种能力,社会将重新进入不断扩张的世界,专注于正和游戏。 另一方面,在未来几十年,我们将能够做许多像魔法一样的事情。这种发展并非新鲜事物,但会加速。人们能力的提升并非源于基因改变,而是得益于社会基础设施。人工智能将为人们提供解决困难问题的工具,添加新的进步支柱。很快我们能与人工智能合作完成更多事情,最终每个人都可能拥有个人的虚拟专家团队,实现各种想象。比如在医疗保健、软件创造等方面。有了新能力,能实现共同繁荣,改善世界各地人民的生活。 然而,单纯的繁荣不一定带来幸福,但确实能显著改善生活。我们有可能在几千天内拥有超级智能,最终实现这一目标。在通往智能未来的道路上,我们既要乐观探索其无限可能,也要谨慎警惕潜在风险,才能与 AI 和谐共舞,共同创造美好未来。
2024-12-18
全球人工智能治理报告中的全球人工智能的十大议题,十个议题中选一个写认识理解、研究方向、未来
以下是为您提供的关于全球人工智能治理报告中相关议题的内容: 在“Model Evaluation for Extreme Risks”这一议题中: 认识理解:该议题强调了模型评估在应对极端风险以及在模型的训练、部署和安全方面做出负责任决策的重要性,并详细探讨了网络攻击、欺骗、说服与操纵、政治策略、武器获取、长期规划、AI 开发、情景意识以及自我传播等十个主要风险。 研究方向:深入研究如何更精准地评估模型在极端风险场景下的表现,以及如何基于评估结果优化模型的训练和部署策略,以降低潜在风险。 未来:随着 AI 技术的广泛应用,对于极端风险的模型评估将越发重要,有望形成更加完善和严格的评估标准和方法,以保障 AI 系统的安全可靠运行。 由于您没有明确指定具体的一个议题,以上仅为示例,您可以补充更具体的需求,以便为您提供更精准的回答。
2024-12-18
全球人工智能治理报告
以下是关于全球人工智能治理的相关报告内容: 英国: 创建了世界上第一个人工智能安全研究所(AISA),其有三个核心功能:在部署前对高级模型进行评估;建立国家能力并开展研究;协调国际合作伙伴。 AISA 还发布了 Inspect 框架,用于 LLM 安全评估,涵盖核心知识、推理能力和自主能力等方面。 宣布与美国等效机构签署谅解备忘录,双方同意共同开发测试,并计划在美国旧金山设立办事处。 通过其高级研究与发明机构(ARIA),花费 5900 万英镑开发“守门员”系统,负责了解和减少关键领域中其他人工智能代理的风险。 政府报道称计划设立“AI 安全研究实验室”,旨在汇集政府关于敌对国家使用进攻性 AI 的知识。 美国: 能源部一直在利用其内部测试床评估人工智能可能对关键基础设施和能源安全带来的风险。 大型实验室努力应对欧洲监管。 对中国实施更严格的出口管制和投资限制,商务部要求美国制造商停止向我国半导体制造商进行最先进设施的销售,采取措施阻止或限制中国初创企业的投资,并向国际合作伙伴施压。 欧洲: 《欧盟人工智能法案》获得批准并正式生效,成为世界上第一个全面采用人工智能监管框架的地区,执行将分阶段进行,对“不可接受的风险”的禁令将于 2025 年 2 月生效。 中国: 是第一个开始制定生成式人工智能监管框架的国家,审查机构已介入。 持续生产 SOTA 模型,由国家互联网信息办公室监督。 政府希望模型避免给政治问题提供“错误”答案,发布模型前须提交测试以校准拒绝率。 禁止 Hugging Face 等国外网站访问,但官方批准的“主流价值观语料库”可作为训练数据源。
2024-12-18
关于欧盟人工智能法案AI禁止性规定的合规指南
欧盟人工智能法案的禁止性规定主要包括以下方面: 1. 全面禁止人工智能用于生物识别监控、情绪识别、预测性警务。 公共空间中的“实时”远程生物识别系统被禁止。 “邮寄”远程生物特征识别系统,仅在起诉严重犯罪且经司法授权后除外。 禁止使用敏感特征(如性别、种族、民族、公民身份、宗教、政治取向)的生物识别分类系统。 禁止预测警务系统(基于分析、位置或过去的犯罪行为)在执法、边境管理、工作场所和教育机构中的应用。 禁止在执法、边境管理、工作场所和教育机构中的情绪识别系统。 禁止从互联网或闭路电视录像中无目的地抓取面部图像以创建面部识别数据库。 2. ChatGPT 等生成式人工智能系统必须披露内容是人工智能生成的。 3. 用于在被认为高风险的选举中影响选民的人工智能系统受到限制。 这些规则旨在促进以人为本、值得信赖的人工智能的应用,并保护健康、安全、基本权利和民主免受其有害影响。同时,欧盟在平衡人工智能创新发展与安全规范方面更倾向于保护欧盟境内人员的安全和维护欧盟价值观。
2024-12-04