以下是关于人工智能伦理规范的相关内容:
现有规范具体内容:
现有问题: 文中未明确提及现有规范存在的具体问题。
应当如何规范:
以金融人工智能为例: 在金融领域应用人工智能时,应遵循上述的伦理规范和要求。例如,要确保数据的隐私和安全,模型的稳健性和可靠性,避免歧视和不公平,保证透明度和可解释性,同时要接受监管和审查,以降低金融风险,保障金融市场的稳定和公平。
人工智能行业应用重点领域包括智能制造、智能家居、智慧城市、科学智算等。1.1.智能制造标准。规范人工智能在工业领域的融合应用,围绕智能工厂、智慧供应链建设中的智能化技术要求,开展工业知识表达、工业知识图谱构建、工业场景大模型等标准研制。2.2.智能家居标准。规范家居智能硬件、智能软件、智能网联、服务平台和应用平台等技术要求,促进智能家居产品的互联互通,提升智能家居在室内环境、安防监控等场景的用户体验。3.3.智慧城市标准。规范智慧城市建设、治理、生态宜居等智能化技术要求,提升人工智能系统在城市经济发展、韧性构建、社会治理、辅助决策中的应用水平。4.4.科学智算标准。规范人工智能规模化应用加速基础科研的相关标准。结合农业、工业、服务业等应用人工智能技术的需求,加快开展智慧农业、智慧能源、智慧环保、智慧金融、智慧物流、智慧教育、智慧医疗、智慧交通、智慧文旅等领域标准研究。[heading2](六)安全/治理标准[content]安全/治理标准包括人工智能领域的安全、治理等部分。1.1.安全标准。规范人工智能技术、产品、系统、应用和服务等全生命周期的安全要求,包括基础安全,数据、算法和模型安全,网络技术和系统安全,安全管理和服务,安全测试评估,安全标注,内容标识,产品和应用安全等标准。2.2.治理标准。结合人工智能治理实际需求,规范人工智能的技术研发和运营服务等要求,包括人工智能鲁棒性、可靠性、可追溯性的技术要求与评测方法,人工智能治理支撑技术;规范人工智能全生命周期的伦理治理要求,包括人工智能伦理风险评估,人工智能的公平性、可解释性等伦理治理技术要求与评测方法,人工智能伦理审查等标准。
欧洲议会和欧盟理事会规定人工智能的统一规则,并修正300/2008号、167/2013号、168/2013号、2018/858号、2018/1139号和2019/214号条例以及2014/90/EU号、2016/797号和20(27)虽然基于风险的方法是一套成比例和有效的约束性规则的基础,回顾委员会任命的独立人工智能高级别专家组2019年制定的《值得信赖的人工智能的伦理准则》非常重要。在这些准则中,高级别专家组制定了七项不具约束力的人工智能伦理原则,这些原则应有助于确保人工智能是值得信赖的、符合伦理道德的。这七项原则包括:人类主体和监督;技术稳健性和安全性;隐私和数据治理;透明度;多样性、非歧视和公平;社会和环境福祉以及问责制。在不影响本条例和任何其他适用的联盟法律的法律约束力要求的前提下,这些指南有助于设计一个符合《宪章》和作为联盟基础的价值观的连贯、可信和以人为本的人工智能。根据独立人工智能高级别专家组的指南,人类主体和监督意味着人工智能系统的开发和使用是为人服务的工具,尊重人的尊严和个人自主权,其运行方式可由人类进行适当控制和监督。技术稳健性和安全性是指,开发和使用人工智能系统的方式应能在出现问题时保持稳健,并能抵御试图改变人工智能系统的使用或性能的行为,从而允许第三方非法使用,并最大限度地减少意外伤害。隐私和数据管理是指人工智能系统的开发和使用符合现有的隐私和数据保护规则,同时处理的数据在质量和完整性方面符合高标准。透明度是指人工智能系统的开发和使用方式应允许适当的可追溯性和可解释性,同时让人类意识到他们与人工智能系统进行了交流或互动,并适当告知部署者该人工智能系统的能力和局限性,以及受影响者的权利。多样性、非歧视和公平性是指人工智能系统的开发和使用方式应包括不同的参与者,并促进平等获取、性别平等和文化多样性,同时避免联盟或国家法律所禁止的歧视性影响和不公平偏见。社会和
欧洲议会和欧盟理事会规定人工智能的统一规则,并修正300/2008号、167/2013号、168/2013号、2018/858号、2018/1139号和2019/214号条例以及2014/90/EU号、2016/797号和20(165)按照本条例的要求开发高风险人工智能系统以外的其他人工智能系统,可能导致在欧盟更多地采用合乎道德和值得信赖的人工智能。应鼓励非高风险人工智能系统的提供者制定行为守则,包括相关的治理机制,以促进自愿适用适用于高风险人工智能系统的部分或全部强制性要求,这些要求应根据系统的预期目的和所涉及的较低风险进行调整,并考虑到可用的技术解决方案和行业最佳实践,如模型卡和数据卡。还应鼓励所有人工智能系统,无论是否高风险的提供者和模型的提供者,并酌情鼓励其部署者,在自愿的基础上适用与欧洲可信人工智能伦理准则要素、环境可持续性、人工智能素养措施、人工智能系统的包容性和多样化设计与开发等有关的额外要求、在设计和开发人工智能系统时,酌情让利益相关方,如企业和公民社会组织、学术和研究组织、工会和消费者保护组织,参与进来,以及开发团队的多样性,包括性别平衡。为确保自愿行为守则行之有效,守则应基于明确的目标和关键绩效指标,以衡量这些目标的实现情况。在制定守则时,应酌情让有关各方参与,例如商界和公民社会组织、学术界和研究机构、工会和消费者保护组织。委员会可制定包括部门性质在内的倡议,以促进阻碍促进人工智能发展的跨境数据交换的技术壁垒的降低,包括数据访问的基础设施、不同类型数据的语义和技术的互操作性。(166)重要的是,根据本条例不属于高风险的与产品有关人工智能系统,因而不需要遵守为高风险人工智能系统规定的要求,尽管如此,在投放市场或提供服务时仍然应是安全的。为促进实现这一目标,欧洲议会和欧盟理事会2023/988号条例56将作为安全网而适用。