人工智能伦理建设的基本内容包括以下方面:
欧洲议会和欧盟理事会规定人工智能的统一规则,并修正300/2008号、167/2013号、168/2013号、2018/858号、2018/1139号和2019/214号条例以及2014/90/EU号、2016/797号和20(27)虽然基于风险的方法是一套成比例和有效的约束性规则的基础,回顾委员会任命的独立人工智能高级别专家组2019年制定的《值得信赖的人工智能的伦理准则》非常重要。在这些准则中,高级别专家组制定了七项不具约束力的人工智能伦理原则,这些原则应有助于确保人工智能是值得信赖的、符合伦理道德的。这七项原则包括:人类主体和监督;技术稳健性和安全性;隐私和数据治理;透明度;多样性、非歧视和公平;社会和环境福祉以及问责制。在不影响本条例和任何其他适用的联盟法律的法律约束力要求的前提下,这些指南有助于设计一个符合《宪章》和作为联盟基础的价值观的连贯、可信和以人为本的人工智能。根据独立人工智能高级别专家组的指南,人类主体和监督意味着人工智能系统的开发和使用是为人服务的工具,尊重人的尊严和个人自主权,其运行方式可由人类进行适当控制和监督。技术稳健性和安全性是指,开发和使用人工智能系统的方式应能在出现问题时保持稳健,并能抵御试图改变人工智能系统的使用或性能的行为,从而允许第三方非法使用,并最大限度地减少意外伤害。隐私和数据管理是指人工智能系统的开发和使用符合现有的隐私和数据保护规则,同时处理的数据在质量和完整性方面符合高标准。透明度是指人工智能系统的开发和使用方式应允许适当的可追溯性和可解释性,同时让人类意识到他们与人工智能系统进行了交流或互动,并适当告知部署者该人工智能系统的能力和局限性,以及受影响者的权利。多样性、非歧视和公平性是指人工智能系统的开发和使用方式应包括不同的参与者,并促进平等获取、性别平等和文化多样性,同时避免联盟或国家法律所禁止的歧视性影响和不公平偏见。社会和
欧洲议会和欧盟理事会规定人工智能的统一规则,并修正300/2008号、167/2013号、168/2013号、2018/858号、2018/1139号和2019/214号条例以及2014/90/EU号、2016/797号和20(4)人工智能是一个快速发展的技术族,能够为各行各业和社会活动带来广泛的经济、环境和社会效益。通过改进预测、优化运营和资源配置,以及为个人和组织个性化可用的数字解决方案,人工智能的使用可以为企业提供关键的竞争优势,并支持有益于社会和环境的成果,例如在医疗保健、农业、食品安全、教育和培训、媒体、体育、文化、基础设施管理、能源、运输和物流、公共服务、安全、司法、资源和能源效率、环境监测、生物多样性和生态系统的保护和修复,以及气候变化的减缓和适应。(5)同时,根据其具体应用、使用情况和技术发展水平,人工智能可能会产生风险,并对受欧盟法律保护的公共利益和基本权利造成损害。这种损害可能是物质性的,也可能是非物质性的,包括身体、心理、社会或经济的损害。(6)鉴于人工智能可能对社会产生的重大影响以及建立信任的必要性,人工智能及其监管框架的发展必须符合《欧盟条约》第2条所载的欧盟价值观、各项条约和《宪章》所载的基本权利和自由。作为前提条件,人工智能应是以人为本的技术。人工智能应作为人类的工具,最终目的是提高人类福祉。(7)为了确保在健康、安全和基本权利方面对公众利益提供一致和高水平的保护,应为所有高风险人工智能系统制定统一的规则。这些规则应与《宪章》保持一致,并应当是非歧视性的,且符合欧盟的国际贸易承诺。这些规则还应考虑到《欧洲数字权利宣言》和《数字十年原则》以及人工智能高级别专家组的《值得信赖的人工智能的伦理准则》。
INTELLIGENCE ACTI(1)provide for interagency coordination of Fed11 eral artificial intelligence research,development,and 12 demonstration activities,development of voluntary 13 consensus standards and guidelines for research,de14 velopment,testing,and adoption of ethically devel15 oped,safe,and trustworthy artificial intelligence sys16 tems,and education and training activities and pro17 grams of Federal departments and agencies under18 taken pursuant to the Initiative;19