监督 AI 被动做出违法事情可从以下方面考虑:
2023年《AI法案》折衷草案要求,对于高风险人工智能系统,在入市前的设计应当保证能够实施人为干预。增加对人工智能人为监督的主要原因在于以下几个方面。首先,人工智能(AI)可能会做出涉及道德和伦理问题的决策,比如对个人隐私的侵犯、不公平的偏见和歧视等。人类不能放心地把这些决策交给人工智能,但如果有了人类的监督,则可以在充分利用人工智能的基础上预防相关的道德风险。其次,人为监督是降低人工智能风险的主要措施。如果AI产生错误决策甚至有违法行为,由于AI无法承担法律责任,责任的承担者只能是人类自己,所以人类需要监督AI以保证它们的行为符合法律规定。最后,尽管AI在很多领域都有显著的性能,但是它们并不能理解伴随着历史逐步形成的人类社会。AI必须在人类的监督下,以保证它们能够正确地处理这些复杂的涉及人类社会的问题。还有一点需要引起人们注意的是,风险较高的人工智能系统,往往需要更高程度的人为监督。高风险的AI系统可能在未经恰当处理的情况下,造成重大的个人、环境乃至社会的损害。人类监督可以确保在经验层面使AI系统的运行符合人类社会的价值观和道德观,最大降低高风险AI对人类社会的伤害。AI系统的决策过程往往是不透明的,这使得其决策的有效性和合理性难以判断。人类监督可以要求AI系统提供更多的透明度和可解释性,以便理解和质疑其决策。且人为监督也可以促进AI的普及与发展。高风险的AI系统本身可能会引发公众的恐慌和反感,人类监督能够帮助建立公众的信任,提高AI系统的社会接受度。[heading4](6)监管沙盒制度[heading4]
矛盾在于,无论像OpenAI这样的公司如何孜孜不倦地对其产品进行重新设计,以减少深度伪造、错误信息和垃圾邮件犯罪等不当行为,未来的模型都有可能变得足够聪明,从而挫败那些发明了这项技术却仍然天真地认为自己能够控制它的头脑简单的人类的努力。另一方面,如果他们在确保模型安全性方面做得太过分,可能会削弱产品的功能,使其变得不那么有用。一项研究表明,安全性能有所提高的最新版GPT实际上比以前的版本更笨,在一些基本的数学问题上会出现错误,而以前的程序却能应对自如。(Altman说,OpenAI的数据并不能证实这一点。他问道:“那项研究不是被撤回了吗?没有”)。Altman将自己定位为监管的拥护者是有道理的;毕竟,他的使命是AGI,但要安全。批评者指责他在玩弄监管程序,这样一来,监管就会阻碍小型初创企业的发展,并给OpenAI和其他大型企业带来优势。Altman对此予以否认。虽然他原则上赞同由一个国际机构来监督AI的想法,但他确实认为一些拟议的规则,比如禁止使用数据集中的所有受版权保护的材料,构成了不公平的障碍。他明确表示,自己没有在一封广泛传播的敦促暂停开发AI系统六个月的信上签名。但他和OpenAI的其他领导人确实在一份只有一句话的声明上签上了自己的名字:“减轻AI带来的灭绝风险,应该与大流行病和核战争等其他社会规模的风险一样,成为全球的优先事项。”Altman解释说:“我说,是的,我同意。一分钟讨论。”正如一位著名的硅谷创始人所指出的:“一个行业举起手说‘我们将成为人类的终结者’——然后继续兴高采烈地开发产品,这种情况是很少见的。”OpenAI拒绝接受这种批评。Altman和他的团队表示,工作和发布尖端产品是应对社会风险的途径。只有通过分析ChatGPT和GPT-4用户对数百万条提示的反应,他们才能获得知识,使未来的产品符合道德规范。