欧盟人工智能法案的禁止性规定主要包括以下方面:
这些规则旨在促进以人为本、值得信赖的人工智能的应用,并保护健康、安全、基本权利和民主免受其有害影响。同时,欧盟在平衡人工智能创新发展与安全规范方面更倾向于保护欧盟境内人员的安全和维护欧盟价值观。
14-06-2023 - 12:52Full ban on Artificial Intelligence(AI)for biometric surveillance,emotion recognition,predictive policing全面禁止人工智能(AI)用于生物识别监控、情绪识别、预测性警务Generative AI systems like ChatGPT must disclose that content was AI-generated ChatGPT等生成式人工智能系统必须披露内容是人工智能生成的AI systems used to influence voters in elections considered to be high-risk用于在被认为高风险的选举中影响选民的人工智能系统The rules aim to promote the uptake of human-centric and trustworthy AI and protect the health,safety,fundamental rights and democracy from its harmful effects.这些规则旨在促进以人为本、值得信赖的人工智能的应用,并保护健康、安全、基本权利和民主免受其有害影响。On Wednesday,the European Parliament adopted its negotiating position on the Artificial Intelligence(AI)Act with 499 votes in favour,28 against and 93 abstentions ahead of talks with EU member states on the final shape of the law.The rules would ensure that AI developed and used in Europe is fully in line with EU rights and values including human oversight,safety,privacy,transparency,non-discrimination and social and environmental wellbeing.周三,欧洲议会以499票赞成、28票反对、93票弃权的结果通过了人工智能(AI)法案的谈判立场,随后与欧盟成员国就该法案的最终形式进行了谈判。这些规则将确保欧洲开发和使用的人工智能完全符合欧盟的权利和价值观,包括人类监督、安全、隐私、透明度、非歧视以及社会和环境福祉。
“Real-time” remote biometric identification systems in publicly accessible spaces;公共空间中的“实时”远程生物识别系统;“Post” remote biometric identification systems,with the only exception of law enforcement for the prosecution of serious crimes and only after judicial authorization; “邮寄”远程生物特征识别系统,唯一的例外是起诉严重犯罪的执法,并且只有在司法授权之后;biometric categorisation systems using sensitive characteristics(e.g.gender,race,ethnicity,citizenship status,religion,political orientation);使用敏感特征(例如性别、种族、民族、公民身份、宗教、政治取向)的生物识别分类系统;predictive policing systems(based on profiling,location or past criminal behaviour);预测警务系统(基于分析、位置或过去的犯罪行为);emotion recognition systems in law enforcement,border management,the workplace,and educational institutions; and执法、边境管理、工作场所和教育机构中的情绪识别系统;和untargeted scraping of facial images from the internet or CCTV footage to create facial recognition databases(violating human rights and right to privacy).从互联网或闭路电视录像中无目的地抓取面部图像以创建面部识别数据库(侵犯人权和隐私权)。
由于情绪识别系统在检测情绪、身体或生理特征时使用的人工智能技术可能缺乏可靠性、特异性和普适性,折衷草案也禁止情绪识别系统的应用。在执法、边境管理、工作场所和教育机构等现实生活中部署该系统时,也可能出现可靠性问题,会有滥用的重大风险,因此,应禁止将这些用于检测个人情绪状态的人工智能系统投放市场、投入服务或使用。2023年《AI法案》折衷草案引入了对“预测性警务”的禁止。所谓“预测性警务”是指根据对自然人的画像,或者基于个性特征的数据分析,包括个人的位置,或者自然人或群体过去的犯罪行为,进行预测、画像或风险评估以预测实际或潜在的刑事犯罪或其他违法行为再次发生,包括欺诈预测系统,该类人工智能系统具有歧视某些人或群体的风险,可能侵犯人类尊严以及无罪推定的法律原则。在“预测性警务”人工智能应用方面,美国对这类预测性警务人工智能的应用更为普遍和广泛,其中在较有代表性的COMPAS(Correctional Offender Management Profiling for Alternative Sanctions)系统的相关案例中曾引发关于人工智能再犯风险评估系统对于被告人质证权等正当权利损害的广泛讨论和争议,COMPAS系统以对犯罪者的访谈以及司法部门提供的信息为依据,来评估再犯的风险系数,被告人并没有机会了解和评估法院所使用的COMPAS的算法和结果的准确性,也没有机会与该工具的开发者进行对质和辩论,因此COMPAS被认为可能侵犯被告人的正当诉讼权利。因此,欧盟采取对“预测性警务”的禁止行动,体现了欧盟在平衡人工智能创新发展与安全规范方面更倾向于保护欧盟境内人员的安全和维护欧盟价值观。