人工智能伦理建设的内容和体系包括以下方面:
在国际层面,例如美国国会的相关法案,提出要为联邦人工智能研究、开发和示范活动提供跨机构协调,制定自愿共识标准和指南,开展教育和培训活动等。
在国家层面,以中国为例,《国家人工智能产业综合标准化体系建设指南(征求意见稿)》中,行业应用标准方面,涵盖智能制造、智能家居、智慧城市、科学智算等重点领域,规范了各领域的技术要求和应用场景。安全/治理标准方面,包括全生命周期的安全要求,如基础安全、数据与模型安全等,以及治理要求,如伦理风险评估、公平性与可解释性等伦理治理技术要求与评测方法、伦理审查等标准。
在欧盟层面,规定人工智能应符合欧盟价值观、基本权利和自由,是以人为本的技术,最终目的是提高人类福祉。为确保公众利益的保护,应为高风险人工智能系统制定统一规则,且规则应与相关宪章和原则保持一致,并符合国际贸易承诺。同时指出人工智能能带来广泛效益,但也可能根据应用和发展水平产生风险和损害。
INTELLIGENCE ACTI(1)provide for interagency coordination of Fed11 eral artificial intelligence research,development,and 12 demonstration activities,development of voluntary 13 consensus standards and guidelines for research,de14 velopment,testing,and adoption of ethically devel15 oped,safe,and trustworthy artificial intelligence sys16 tems,and education and training activities and pro17 grams of Federal departments and agencies under18 taken pursuant to the Initiative;19
人工智能行业应用重点领域包括智能制造、智能家居、智慧城市、科学智算等。1.1.智能制造标准。规范人工智能在工业领域的融合应用,围绕智能工厂、智慧供应链建设中的智能化技术要求,开展工业知识表达、工业知识图谱构建、工业场景大模型等标准研制。2.2.智能家居标准。规范家居智能硬件、智能软件、智能网联、服务平台和应用平台等技术要求,促进智能家居产品的互联互通,提升智能家居在室内环境、安防监控等场景的用户体验。3.3.智慧城市标准。规范智慧城市建设、治理、生态宜居等智能化技术要求,提升人工智能系统在城市经济发展、韧性构建、社会治理、辅助决策中的应用水平。4.4.科学智算标准。规范人工智能规模化应用加速基础科研的相关标准。结合农业、工业、服务业等应用人工智能技术的需求,加快开展智慧农业、智慧能源、智慧环保、智慧金融、智慧物流、智慧教育、智慧医疗、智慧交通、智慧文旅等领域标准研究。[heading2](六)安全/治理标准[content]安全/治理标准包括人工智能领域的安全、治理等部分。1.1.安全标准。规范人工智能技术、产品、系统、应用和服务等全生命周期的安全要求,包括基础安全,数据、算法和模型安全,网络技术和系统安全,安全管理和服务,安全测试评估,安全标注,内容标识,产品和应用安全等标准。2.2.治理标准。结合人工智能治理实际需求,规范人工智能的技术研发和运营服务等要求,包括人工智能鲁棒性、可靠性、可追溯性的技术要求与评测方法,人工智能治理支撑技术;规范人工智能全生命周期的伦理治理要求,包括人工智能伦理风险评估,人工智能的公平性、可解释性等伦理治理技术要求与评测方法,人工智能伦理审查等标准。
欧洲议会和欧盟理事会规定人工智能的统一规则,并修正300/2008号、167/2013号、168/2013号、2018/858号、2018/1139号和2019/214号条例以及2014/90/EU号、2016/797号和20(4)人工智能是一个快速发展的技术族,能够为各行各业和社会活动带来广泛的经济、环境和社会效益。通过改进预测、优化运营和资源配置,以及为个人和组织个性化可用的数字解决方案,人工智能的使用可以为企业提供关键的竞争优势,并支持有益于社会和环境的成果,例如在医疗保健、农业、食品安全、教育和培训、媒体、体育、文化、基础设施管理、能源、运输和物流、公共服务、安全、司法、资源和能源效率、环境监测、生物多样性和生态系统的保护和修复,以及气候变化的减缓和适应。(5)同时,根据其具体应用、使用情况和技术发展水平,人工智能可能会产生风险,并对受欧盟法律保护的公共利益和基本权利造成损害。这种损害可能是物质性的,也可能是非物质性的,包括身体、心理、社会或经济的损害。(6)鉴于人工智能可能对社会产生的重大影响以及建立信任的必要性,人工智能及其监管框架的发展必须符合《欧盟条约》第2条所载的欧盟价值观、各项条约和《宪章》所载的基本权利和自由。作为前提条件,人工智能应是以人为本的技术。人工智能应作为人类的工具,最终目的是提高人类福祉。(7)为了确保在健康、安全和基本权利方面对公众利益提供一致和高水平的保护,应为所有高风险人工智能系统制定统一的规则。这些规则应与《宪章》保持一致,并应当是非歧视性的,且符合欧盟的国际贸易承诺。这些规则还应考虑到《欧洲数字权利宣言》和《数字十年原则》以及人工智能高级别专家组的《值得信赖的人工智能的伦理准则》。