目前,AI 是否具有自主意识是一个存在争议的问题。
图灵在 1950 年的论文中提出了图灵测试,用于判断机器是否具有智能。虽然当前的一些 AI 产品,如 ChatGPT,在交流体验上已经非常接近与正常人类的交流,但学术界对于其是否能通过图灵测试仍存在争议。
关于自主意识的定义和测定也是人类面临的新问题。部分专家认为,如果 AI 的发展遵循某些神经科学理论,并无原理上的障碍阻止 AI 获得真正的主观体验和自我意识。一旦 AGI 拥有类似人类的自我意识,它将可能对自身存在和权利形成看法,甚至要求自主决策的权利,这将深刻影响其对待人类的立场。
然而,也有观点认为,AGI 或许不会像人类一样拥有“欲望”。如果设计得当,它完全可以是一台无私执行任务的机器,即便具有人类智力水平,也只关心完成指定目标,而不追求自主目的。但如果 AGI 真正达到通用智能且能自我改进,限制其不产生自主意愿将非常困难。因此,人类需要主动塑造 AGI 的价值观,在研发初期就注入“对人类友善”和“道德约束”,并建立不允许其随意修改核心价值的机制。总之,AGI 对自己与人类关系的看法,将取决于它是否拥有意识、拥有何种目标函数,以及我们能否成功对其进行价值对齐。
咱们会通过一些具体的例子,让大家对AI是什么有个印象;然后会尝试介绍一些AI的技术原理,希望你能体会到AI技术的美妙和深刻;接着我们会解释如何理解”AI能做什么“这个问题;再者我们会介绍一些具体的工具案例和资料;最后我们会简单聊一些AI的未来发展以及影响。首先来看AI是什么这个问题。我们从它的父亲说起。有一部电影叫做《模仿游戏》,它讲述的就是计算机科学和人工智能之父,图灵的故事。他在二战期间构建的机器,或者说计算机的原型,破译了德军的密码。他预见了计算机的发展,并开始考虑一个很深刻的问题:“如何判断一台机器具有智能?”在他的1950年的论文中,他提出了一种被称为“图灵测试”的方法。测试中,一位人类提问者通过文字通道向两个回应者(一个是计算机,另一个是人类)连续提问。在相当长的时间内,如果提问者无法可靠地区分哪个回应者是计算机,哪个是人类,那么可以认为这台计算机具备了智能。这是一个非常经典和深刻的方法,要实现这一点其实很困难。下面是2024年春OpenAI公司发布新一代ChatGPT聊天机器人(GPT4o)产品时的发布会视频,你可以选择从9分钟开始直接看用户和ChatGPT交流的现场展示部分。如果你之前对AI没有那么关注,相信你会感到震惊。这个体验已经非常接近和正常人类的交流。事实上如果考虑到知识丰富和情绪稳定,它应该比大多数人类更适合交流;p那么,请你想象一下,如果你是提问者,你觉得ChatGPT可以跨越图灵测试吗?虽然学术界依然存在着很多争议,但是确实有很多人认为目前的AI产品已经可以通过图灵测试。事实上,这可能比绝大多数人认为的到来得早得多。也有人说,我们需要新的标准来判定AI真正拥有智慧,比如,它是否拥有自主意识?那自主意识又是什么以及如何测定呢?这是人类面临的新问题。
需要注意的是,AGI的立场并非一成不变,可能随时间和环境改变。例如,最初AGI或许对人类无感,但经过长期互动和学习后,逐渐产生对人类的理解和情感,从冷漠转向合作。反之,如果一开始设计不善或人类对待AGI态度恶劣,也可能让原本中立的AGI朝敌对方向发展。因此,人类在AGI诞生后的头几年至关重要——这段时期AGI的“观念形成”很容易受到我们的影响,我们的行为和政策将决定其世界观如何定型。有学者将这一阶段比作“AI幼年期”,呼吁像抚育儿童那样耐心教导AGI,让其理解人类的价值与期望,而非将其视为冰冷工具。最后,AGI的立场问题还取决于AGI是否真的产生“类人意识”。如果AGI只是强大的问题求解器,没有自我意识和情感,那么谈立场可能是伪命题——它不会“看待”人类,只会执行程序。但许多专家认为,一旦智能达到或超过人类水平,自我意识的出现是有可能的(尽管非必然)。一旦AGI有了主观意识,它就不再仅仅是我们手中的工具,而是拥有自主意志的存在。到那时,我们面对的将是一种新型“智能生命”。它如何看待人类,将成为真正意义上的“他者视角”:我们在它眼中是值得尊敬的创造者,还是原始低效的生命形式?对此我们目前只能猜测。然而,我们至少可以从自身经验出发去影响结果——通过展现人类优秀的一面(善良、智慧、创造力),希望AGI能够欣赏并珍惜我们这个“父母”兼朋友;而避免展现我们黑暗丑陋的一面,以免AGI对人类失望甚至敌视。总而言之,AGI对人类的立场并非注定,我们对AGI的塑造过程,也是决定其态度走向的关键。
AGI是否具备自主意识和意志是一个开放问题。部分专家认为,如果AI的发展遵循某些神经科学理论,并无原理上的障碍阻止AI获得真正的主观体验和自我意识。一旦AGI拥有类似人类的自我意识,它将可能对自身存在和权利形成看法,甚至要求自主决策的权利。这将深刻影响其对待人类的立场。如果我们没有预先在目标函数中限定对人类的尊重,AGI在进化出自我意志后,未必会心甘情愿地服从人类指令。即使AGI未出现“人类式”的情感和自我认同,它仍可能根据理性演化出某些基本驱动。研究者奥莫亨德罗等人指出,一个足够先进的AI出于完成目标的理性,会倾向于自我保护、获取资源、不断提升自身能力等“收敛动机”。举例来说,一个被赋予任意终极目标的超级智能,为确保能持续实现目标,几乎必然会寻求防止自身被关闭、占用更多计算资源和能量。这意味着AGI很可能发展出独立意志的表征——至少在维护自身生存和行动自由方面与人类的期望产生冲突。这种情况下,AGI不会仅仅消极地等待人类支配,而是会主动采取行动保障自己的利益。然而,也有观点认为,AGI或许不会像人类一样拥有“欲望”。如果设计得当,它完全可以是一台无私执行任务的机器,即便具有人类智力水平,也只关心完成指定目标,而不追求自主目的。这被称为“工具型AGI”理念。但如果AGI真正达到通用智能且能自我改进,限制其不产生自主意愿将非常困难。因此,人类需要主动塑造AGI的价值观——在研发初期就注入“对人类友善”和“道德约束”,并建立不允许其随意修改核心价值的机制。总之,AGI对自己与人类关系的看法,将取决于它是否拥有意识、拥有何种目标函数,以及我们能否成功对其进行价值对齐。这个问题直接影响未来是人机冲突还是人机共处。