以下是关于欧洲议会和欧盟理事会对人工智能规定的相关内容:
欧洲议会和欧盟理事会规定人工智能的统一规则,并修正300/2008号、167/2013号、168/2013号、2018/858号、2018/1139号和2019/214号条例以及2014/90/EU号、2016/797号和20(27)虽然基于风险的方法是一套成比例和有效的约束性规则的基础,回顾委员会任命的独立人工智能高级别专家组2019年制定的《值得信赖的人工智能的伦理准则》非常重要。在这些准则中,高级别专家组制定了七项不具约束力的人工智能伦理原则,这些原则应有助于确保人工智能是值得信赖的、符合伦理道德的。这七项原则包括:人类主体和监督;技术稳健性和安全性;隐私和数据治理;透明度;多样性、非歧视和公平;社会和环境福祉以及问责制。在不影响本条例和任何其他适用的联盟法律的法律约束力要求的前提下,这些指南有助于设计一个符合《宪章》和作为联盟基础的价值观的连贯、可信和以人为本的人工智能。根据独立人工智能高级别专家组的指南,人类主体和监督意味着人工智能系统的开发和使用是为人服务的工具,尊重人的尊严和个人自主权,其运行方式可由人类进行适当控制和监督。技术稳健性和安全性是指,开发和使用人工智能系统的方式应能在出现问题时保持稳健,并能抵御试图改变人工智能系统的使用或性能的行为,从而允许第三方非法使用,并最大限度地减少意外伤害。隐私和数据管理是指人工智能系统的开发和使用符合现有的隐私和数据保护规则,同时处理的数据在质量和完整性方面符合高标准。透明度是指人工智能系统的开发和使用方式应允许适当的可追溯性和可解释性,同时让人类意识到他们与人工智能系统进行了交流或互动,并适当告知部署者该人工智能系统的能力和局限性,以及受影响者的权利。多样性、非歧视和公平性是指人工智能系统的开发和使用方式应包括不同的参与者,并促进平等获取、性别平等和文化多样性,同时避免联盟或国家法律所禁止的歧视性影响和不公平偏见。社会和
欧洲议会和欧盟理事会规定人工智能的统一规则,并修正300/2008号、167/2013号、168/2013号、2018/858号、2018/1139号和2019/214号条例以及2014/90/EU号、2016/797号和20(a)人工智能系统的预期目的;(b)已使用或可能使用人工智能系统的程度;(c)人工智能系统处理和使用的数据的性质和数量,特别是是否处理特殊类别的个人数据;(d)人工智能系统自主性的程度,以及人类推翻可能导致潜在伤害的决定或建议的可能性;(e)人工智能系统的使用在多大程度上已经对健康和安全造成了损害,对基本权利产生了不利的影响,或在多大程度上引起了人们对这种损害或不利影响的可能性的严重关注,例如,提交给国家主管机关的报告或有据可查的指控,或酌情提交的其他报告所表明的情况。(f)这种损害或不利影响的潜在程度,特别是其严重程度及其影响多数人或不成比例地影响特定群体的能力;(g)可能受到伤害或不利影响的人在多大程度上依赖人工智能系统产生的结果,特别是由于实际或法律原因而无法合理地选择不接受该结果;(h)权力不平衡的程度,或可能受到伤害或不利影响的人相对于人工智能系统部署者而言处于弱势地位的程度,特别是由于地位、权力、知识、经济或社会环境或年龄等原因;(g)人工智能系统产生的结果在多大程度上易于纠正或逆转,同时考虑到现有的纠正或逆转的技术解决方案,其中对健康、安全、基本权利有不利影响的结果不应被视为易于纠正或逆转;(i)部署人工智能系统对个人、群体或整个社会的好处的程度和可能性,包括对产品安全的可能改进;(j)现有欧盟立法在多大程度上规定了: