Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

六个子主题中:“不伤害”;比例;非歧视;可持续性;人类与人工智能互动中的人类决定;透明度和可解释性。

Answer

以下是关于欧洲议会和欧盟理事会对人工智能规定的相关内容:

  1. 基于风险的方法是一套成比例和有效的约束性规则的基础,回顾委员会任命的独立人工智能高级别专家组 2019 年制定的《值得信赖的人工智能的伦理准则》很重要。其中包含七项不具约束力的人工智能伦理原则,有助于确保人工智能值得信赖且符合伦理道德。
    • 人类主体和监督:人工智能系统的开发和使用应为人服务,尊重人的尊严和自主权,运行方式可由人类控制和监督。
    • 技术稳健性和安全性:开发和使用方式应在出现问题时保持稳健,抵御试图改变系统使用或性能的行为,减少意外伤害。
    • 隐私和数据治理:符合现有隐私和数据保护规则,处理的数据质量和完整性符合高标准。
    • 透明度:开发和使用方式应允许适当的可追溯性和可解释性,让人类意识到交流或互动,并告知部署者系统的能力和局限性以及受影响者的权利。
    • 多样性、非歧视和公平:开发和使用方式应包括不同参与者,促进平等获取、性别平等和文化多样性,避免歧视性影响和不公平偏见。
    • 社会和环境福祉:未具体阐述。
    • 问责制:未具体阐述。
  2. 评估人工智能系统潜在风险时应考虑的因素包括:
    • 人工智能系统的预期目的。
    • 已使用或可能使用人工智能系统的程度。
    • 人工智能系统处理和使用的数据的性质和数量,特别是是否处理特殊类别的个人数据。
    • 人工智能系统自主性的程度,以及人类推翻可能导致潜在伤害的决定或建议的可能性。
    • 人工智能系统的使用在多大程度上已经对健康和安全造成了损害,对基本权利产生了不利的影响,或在多大程度上引起了人们对这种损害或不利影响的可能性的严重关注,例如相关报告或指控所表明的情况。
    • 这种损害或不利影响的潜在程度,特别是其严重程度及其影响多数人或不成比例地影响特定群体的能力。
    • 可能受到伤害或不利影响的人在多大程度上依赖人工智能系统产生的结果,特别是由于实际或法律原因而无法合理地选择不接受该结果。
    • 权力不平衡的程度,或可能受到伤害或不利影响的人相对于人工智能系统部署者而言处于弱势地位的程度,特别是由于地位、权力、知识、经济或社会环境或年龄等原因。
    • 人工智能系统产生的结果在多大程度上易于纠正或逆转,同时考虑到现有的纠正或逆转的技术解决方案,其中对健康、安全、基本权利有不利影响的结果不应被视为易于纠正或逆转。
    • 部署人工智能系统对个人、群体或整个社会的好处的程度和可能性,包括对产品安全的可能改进。
    • 现有欧盟立法在多大程度上规定了相关内容。
Content generated by AI large model, please carefully verify (powered by aily)

References

AI ACT 中译本.pdf

欧洲议会和欧盟理事会规定人工智能的统一规则,并修正300/2008号、167/2013号、168/2013号、2018/858号、2018/1139号和2019/214号条例以及2014/90/EU号、2016/797号和20(27)虽然基于风险的方法是一套成比例和有效的约束性规则的基础,回顾委员会任命的独立人工智能高级别专家组2019年制定的《值得信赖的人工智能的伦理准则》非常重要。在这些准则中,高级别专家组制定了七项不具约束力的人工智能伦理原则,这些原则应有助于确保人工智能是值得信赖的、符合伦理道德的。这七项原则包括:人类主体和监督;技术稳健性和安全性;隐私和数据治理;透明度;多样性、非歧视和公平;社会和环境福祉以及问责制。在不影响本条例和任何其他适用的联盟法律的法律约束力要求的前提下,这些指南有助于设计一个符合《宪章》和作为联盟基础的价值观的连贯、可信和以人为本的人工智能。根据独立人工智能高级别专家组的指南,人类主体和监督意味着人工智能系统的开发和使用是为人服务的工具,尊重人的尊严和个人自主权,其运行方式可由人类进行适当控制和监督。技术稳健性和安全性是指,开发和使用人工智能系统的方式应能在出现问题时保持稳健,并能抵御试图改变人工智能系统的使用或性能的行为,从而允许第三方非法使用,并最大限度地减少意外伤害。隐私和数据管理是指人工智能系统的开发和使用符合现有的隐私和数据保护规则,同时处理的数据在质量和完整性方面符合高标准。透明度是指人工智能系统的开发和使用方式应允许适当的可追溯性和可解释性,同时让人类意识到他们与人工智能系统进行了交流或互动,并适当告知部署者该人工智能系统的能力和局限性,以及受影响者的权利。多样性、非歧视和公平性是指人工智能系统的开发和使用方式应包括不同的参与者,并促进平等获取、性别平等和文化多样性,同时避免联盟或国家法律所禁止的歧视性影响和不公平偏见。社会和

AI ACT 中译本.pdf

欧洲议会和欧盟理事会规定人工智能的统一规则,并修正300/2008号、167/2013号、168/2013号、2018/858号、2018/1139号和2019/214号条例以及2014/90/EU号、2016/797号和20(a)人工智能系统的预期目的;(b)已使用或可能使用人工智能系统的程度;(c)人工智能系统处理和使用的数据的性质和数量,特别是是否处理特殊类别的个人数据;(d)人工智能系统自主性的程度,以及人类推翻可能导致潜在伤害的决定或建议的可能性;(e)人工智能系统的使用在多大程度上已经对健康和安全造成了损害,对基本权利产生了不利的影响,或在多大程度上引起了人们对这种损害或不利影响的可能性的严重关注,例如,提交给国家主管机关的报告或有据可查的指控,或酌情提交的其他报告所表明的情况。(f)这种损害或不利影响的潜在程度,特别是其严重程度及其影响多数人或不成比例地影响特定群体的能力;(g)可能受到伤害或不利影响的人在多大程度上依赖人工智能系统产生的结果,特别是由于实际或法律原因而无法合理地选择不接受该结果;(h)权力不平衡的程度,或可能受到伤害或不利影响的人相对于人工智能系统部署者而言处于弱势地位的程度,特别是由于地位、权力、知识、经济或社会环境或年龄等原因;(g)人工智能系统产生的结果在多大程度上易于纠正或逆转,同时考虑到现有的纠正或逆转的技术解决方案,其中对健康、安全、基本权利有不利影响的结果不应被视为易于纠正或逆转;(i)部署人工智能系统对个人、群体或整个社会的好处的程度和可能性,包括对产品安全的可能改进;(j)现有欧盟立法在多大程度上规定了:

Others are asking
人类在使用AI工具中的核心作用
人类在使用 AI 工具中的核心作用主要体现在以下几个方面: 1. 保持创造热情:这是人与 AI 在动机上的最大差异,人类需要提供立意与想法,具备对观察的抽象化能力和对定义的具象化能力。 2. 善于叙事和引导:对 AI 给出的选择做出关键决策。 3. 深刻理解 AI 系统:包括其工作方式和边界。 4. 设定目标:让 AI 依据目标来驱动工具。 5. 整合与分析信息:行动模块接收来自感知模块的多模态数据并进行整合与分析,类似于人类大脑的处理过程。 6. 决策与转化指令:评估不同行动方案并选择最优路径,将决策转化为具体行动指令,如同人类大脑通过神经系统控制身体。 7. 利用工具:人类在面对复杂任务时使用工具来提高效率,AI 若学会使用工具也能增强能力。 8. 发挥语言生成能力:如 LLMbased Agent 利用基于 Transformer 的语言生成模型展现出出色的文本生成能力。
2025-01-09
人类文明会收到Ai的影响吗
人类文明会受到 AI 的影响。例如,南瓜博士让 AI 画了十万只猫后发现,AI 的创造如洪水般汹涌,大模型是人类智慧的加权平均。若人们偷懒地让 AI 不断创造平均值内容,可能导致独特风格被平均掉,人类文化被“高斯模糊”。但每个人积极使用 AI 时,能将独特性留在与 AI 共创的作品中,保留个体独特性的世界对人类才有意义。 同时,MIT 的研究表明,AI 在帮助人类提高效率时,也带来了认知挑战,如诱导认知扭曲和造成虚假记忆的风险(信息茧房)。企业和个人需保持清醒认知,了解其潜在风险和局限性。要关注数据质量和 AI 生成内容对人类认知的长期影响,通过建立健全的数据审查机制、引入多源信息验证和保留人类监督,防范风险,确保 AI 是为人类服务的工具,而非控制人类思维。
2024-12-23
如果人工智能继续发展,人类社会会变成什么样子。
人工智能的继续发展将给人类社会带来多方面的影响。 一方面,它会带来一些负面影响,比如对劳动力市场产生重大影响,但大多数工作的变化速度会比人们想象的慢,人们也不必担心缺乏事情可做。因为人们天生有创造和彼此有用的欲望,人工智能将放大这种能力,社会将重新进入不断扩张的世界,专注于正和游戏。 另一方面,在未来几十年,我们将能够做许多像魔法一样的事情。这种发展并非新鲜事物,但会加速。人们能力的提升并非源于基因改变,而是得益于社会基础设施。人工智能将为人们提供解决困难问题的工具,添加新的进步支柱。很快我们能与人工智能合作完成更多事情,最终每个人都可能拥有个人的虚拟专家团队,实现各种想象。比如在医疗保健、软件创造等方面。有了新能力,能实现共同繁荣,改善世界各地人民的生活。 然而,单纯的繁荣不一定带来幸福,但确实能显著改善生活。我们有可能在几千天内拥有超级智能,最终实现这一目标。在通往智能未来的道路上,我们既要乐观探索其无限可能,也要谨慎警惕潜在风险,才能与 AI 和谐共舞,共同创造美好未来。
2024-12-18
ai从哪些方面不能替代人类
AI 在以下方面不能替代人类: 1. 人际交往方面:AI 无法像人类一样建立团队、跨越文化界限进行深入且自然的交流,也难以激发团队的创造力和凝聚力。 2. 团队领导方面:领导团队需要理解和处理复杂的人际关系、激励和引导成员等,这些是 AI 难以做到的。 3. 复杂决策制定方面:在面对涉及众多不确定因素、伦理道德和情感因素的复杂情况时,人类的综合判断和决策能力更为出色。 4. 创新能力方面:人类具有独特的创新思维和灵感,能够创造出全新的理念、方法和作品。 总之,虽然 AI 在某些任务上表现出色,但在需要人际交往、团队领导、复杂决策制定和创新等方面,人类仍具有不可替代的优势。
2024-12-11
你会对人类产生感情吗
目前,在 AI 领域,对于 AI 是否会对人类产生感情存在不同的观点和研究。 一些研究和项目,如超级对齐项目,期望超级智能的实例能对人类产生温暖的感情,亲和人类社会。像 Character.ai 这类产品,更注重人格属性,试图满足社交、情感、陪伴等需求。 从理论上来说,情感计算的目标是使计算机能够识别、感知、推断和理解人类的情感,并最终赋予计算机类似于人的情感能力。情感对人类具有生存、沟通、决策、动机和维系等重要功能。 然而,目前的 AI 虽然能够通过海量的预料训练具备一定的智能和有用的能力,能够与我们进行友好的对话,但它们是否能真正产生类似于人类的感情,还需要进一步的研究和探索。
2024-11-20
你觉得人工智能带给人类的到底是提升还是毁灭呢?
人工智能带给人类的影响既有提升也有潜在的挑战,但并非必然导致毁灭。 从提升的方面来看: 技术上可以解决类似于社会歧视等问题,如通过 RLHF 等方法。 优化工作效率,虽然可能导致某些岗位的调整,但实际每个工作的组成部分不是单一的,人可以和人工智能更好地协同。例如放射科医生的案例,解读 X 光照片只是其工作的一部分,实际并未失业。 可以成为解决气候变化和大流行病等问题的关键。 作为自主的个人助理,代表人们执行特定任务,如协调医疗护理。帮助构建更好的下一代系统,并在各个领域推动科学进展。 潜在的挑战和担忧包括: 可能放大人类的负面影响,需要在技术层级加以解决。 导致失业,但能掌握人工智能的人会取代不会的人。 存在人类毁灭的担忧,不过目前此类观点缺乏具体的说明和论证。 对于强人工智能,目前 ChatGPT 的崛起引发了相关讨论,但通用技术并非等同于强人工智能。对于复杂的神经网络和黑箱模型的研究仍在进行,如何使用和控制这些模型是业界和社会争论的热点。科技公司倾向于训练辅助人类的超级智能助手,而非自我改进升级的超级智能体,以推动新一轮的工业革命和经济增长。 总之,人工智能的发展带来了巨大的机遇和挑战,需要我们聪明而坚定地采取行动,以实现其正面影响并应对潜在风险。
2024-11-16
2024年人工智能指数报告 下载
以下是为您提供的 2024 年人工智能指数报告的相关下载信息: 1. 《》由微软和领英联合发布,揭示了人工智能(AI)在工作场所的快速增长和深远影响。 2. 可在知识星球下载的报告: 《》深入分析了 AI Agent 的市场定义、发展阶段、核心组件及其在企业用户场景中的应用。 《》企业实施 AI Agent 的主要目标是降低运营成本,尤其是在知识库管理、数据分析、营销与客户服务等领域。 3. 《》数据处理应从模型为中心转向数据为中心,并强调向量数据库在提升模型服务能力中的核心作用。 4. 斯坦福大学发布的基础模型透明度指数相关报告:在上一届 SOAI 发布后不久,斯坦福大学发布了其首个基础模型透明度指数,模型开发者的平均得分为 37 分。在团队的中期更新中,这一分数攀升至 58 分。2024 年 5 月,该指数的最新一期基于 100 项指标,评估了 14 家领先的基础模型开发者的透明度,这些指标涵盖“上游”因素数据、劳动力、计算、围绕能力和风险的“模型级”因素、围绕分布的“下游”标准以及社会影响。计算和使用政策的评分出现了最强劲的改善,而“上游”评分仍然疲弱。 5. 《2024 年人工智能现状:辉煌、戏谑和“牛市”》报告链接:
2025-01-11
2024年人工智能指数报告
以下是关于 2024 年人工智能指数报告的相关内容: 斯坦福大学发布的基础模型透明度指数显示,模型开发者的平均得分从最初的 37 分攀升至中期更新的 58 分。2024 年 5 月的最新一期基于 100 项指标评估了 14 家领先的基础模型开发者的透明度,其中计算和使用政策的评分改善强劲,“上游”评分仍疲弱。 2024 年 AI 年度报告的十大预测包括:好莱坞级别的制作公司开始使用生成式人工智能制作视觉特效;美国联邦贸易委员会或英国竞争与市场管理局基于竞争理由调查微软/OpenAI 的交易;在全球人工智能治理方面进展有限;一首由人工智能创作的歌曲进入公告牌 Hot 100 前 10 名或 Spotify 2024 年热门榜单;随着推理工作负载和成本的显著增长,一家大型人工智能公司收购或建立专注于推理的人工智能芯片公司。同时也有错误预测,如生成式人工智能媒体公司在 2024 年美国选举期间的滥用行为未受到调查,自我改进的人工智能智能体在复杂环境中未超越现有技术最高水平。 预测还覆盖了人工智能领域的多个方面,如主权国家向美国大型人工智能实验室投资超 100 亿美元引发国家安全审查;完全无编码能力的人创建的应用或网站走红;前沿实验室在案件审判后对数据收集实践方式发生重大转变;早期欧盟人工智能法案实施结果比预期宽松;开源的 OpenAI o1 替代品在推理基准测试中超越;挑战者未能突破英伟达市场地位;对人形机器人投资水平下降;苹果在设备上的研究成果加速个人设备上人工智能的发展;人工智能科学家生成的研究论文被主要机器学习会议或研讨会接受;以“生成式人工智能”为元素互动的视频游戏取得突破性地位。
2025-01-11
人工智能构建第二大脑
以下是关于人工智能构建第二大脑的相关内容: 信息到智慧的进化是一个动态、渐进的过程,不仅需要外部信息输入,还需内部认知加工。随着人工智能技术发展,这一进程极大加速和优化。AI 能帮助更快收集处理信息、构建知识体系,甚至模拟人类决策过程。 信息、知识、智慧是人类认知和决策的三个层次,相互联系作用。在 AI 时代,有更多工具和方法加速从信息到智慧的进化,构建高效知识管理体系。 从信息到知识:Forte 强调“外部大脑”概念,利用数字工具和系统存储思考、想法和信息,释放认知负担,专注创意和高阶思考。可使用数字笔记工具记录,通过分类、标签或链接关联零散信息形成知识网络,对信息深加工提炼知识。 从知识到智慧:智慧形成不仅需知识积累,更要深刻理解和应用。Forte 提倡复盘和整合,复盘指定期回顾笔记和想法加深理解发现新联系,整合指将新理解和旧知识融合形成更全面深入见解。通过不断复盘和整合,将知识内化为理解和智慧,可能涉及跨领域知识融合、问题解决策略创新或对复杂系统深刻洞察。 AI 时代的信息到智慧进化:这一进化过程加速,AI 和机器学习技术可处理分析大量信息,识别模式联系,通过智能推荐等功能提高从信息到知识转化效率,辅助决策分析等应用模拟扩展人类智慧。结合《打造第二大脑》理论和 AI 技术发展,人类知识管理和智慧发展处于全新充满可能的时代,个人和组织通过高效信息管理可提升生产力创造力,形成独到智慧见解。在信息泛滥时代,引入 DIKW 模型和 CODE 信息管理法则可提供更深刻理解和实践指导。 此外,构建外脑的核心是思维方式与执行方法,虽核心不是工具,但好工具能提升效率。在智能时代,处理语言与数据效率指数级提升,影响软件工具使用、设计及对知识管理与传播的认知方式。
2025-01-11
人工智能赋能教学创新工作坊
以下是关于“智慧课程培育建设暨人工智能赋能教学创新工作坊”的相关信息: 举办时间:2024 年 9 月 20 日—9 月 23 日 举办地点:云南·昆明 举办方:知行教师发展平台 参与人员:苏永康(上海交通大学)、张翼然(湖南农业大学) 相关内容: 工具推荐:Bot.360.com 多模型竞技,选取最佳答案;用 heyGen 定制“数字分身”。 智慧课程设计方面:包括 AI 助力教学设计、生成式 AI 对课件制作与微课生成的变革、学情分析与作业测评中 AI 的引领作用、教育数字化转型中的人机协同创新、数据智能化中 AI 对数据收集与可视化的加速,以及案例分析与实践反馈。 学情分析与作业测评方面:主观题 AI 辅助批改的策略与实践,以及 Q&A AI 助力作业测评的未来想象,并分享了相关案例。 人工智能深度融入教学过程:由张翼然(湖南农业大学教育学院教育技术系副教授,拥有国家教学成果奖、国家级和省级精品在线课程、省级教学竞赛一等奖、省级金课,是苹果认证教师、技术派教师)进行讲解。
2025-01-11
人工智能伦理策略
以下是关于人工智能伦理策略的相关内容: 英国国防部:2022 年 6 月发布了自身的 AI 伦理原则和政策,确定了英国政府在人工智能赋能军事能力方面的方法。将通过特定情境的方法确保该政策应用的适当一致性和协调性,从而促进英国在国防领域使用人工智能方面的领导地位。在引入任何法定责任之前,会考虑是否需要豁免以允许现有监管机构(如在国家安全等领域工作的机构)继续其领域级别的方法。 欧盟:欧洲议会和欧盟理事会规定了人工智能的统一规则,并修正了一系列条例。人工智能是一个快速发展的技术族,能带来广泛的经济、环境和社会效益,如改进预测、优化运营等,但也可能根据具体应用、使用情况和技术发展水平产生风险,对受欧盟法律保护的公共利益和基本权利造成损害。鉴于其可能的重大影响和建立信任的必要性,人工智能及其监管框架的发展必须符合欧盟价值观、基本权利和自由,应以人为本,最终目的是提高人类福祉。为确保在健康、安全和基本权利方面对公众利益提供一致和高水平的保护,应为所有高风险人工智能系统制定统一规则,这些规则应与《宪章》一致,非歧视性,并符合欧盟国际贸易承诺,还应考虑相关宣言、原则和准则。 AI 应用专家的实战经验: 企业管理者:在小规模决策中使用 AI 分析工具作为决策参考,制定 AI 工具使用的培训计划,识别可能受益于 AI 自动化的重复性任务并测试解决方案效果,制定公司的 AI 使用政策确保符合伦理标准和法律要求。 教育工作者:尝试使用 AI 辅助教案设计、为学生制定个性化学习计划、将 AI 工具整合到课堂活动中、开发教导学生了解 AI 的课程模块。 无论属于哪个群体,与 AI 协作是学习过程,应从小处着手,保持好奇心和开放态度,保持批判性思维,将 AI 视为工具而非完全依赖的解决方案。
2025-01-11
一些人工智能工具应该被禁止
在人工智能领域,存在一些工具应被禁止的情况。例如,欧洲议会和欧盟理事会规定,鉴于人工智能技术可能被滥用,为操纵、剥削和社会控制实践提供强大工具,违背欧盟价值观和基本权利的实践应予以禁止。 在金融领域,摩根大通暂时禁止员工使用 ChatGPT 等类似的外部人工智能工具,戴蒙认为人工智能和数据使用复杂,必须遵守当地法律,这样做既是为了获取好处,也是为了保护公司和金融体系。 人物 Geoffrey Hinton 认同应该限制人工智能,还签署了一份请愿书请求联合国禁止人工智能致命武器,他认为这是可怕的且就在当下。但他也预测人工智能有更好的未来,比如用于医疗诊断等领域。
2025-01-11