AI 技术的发展历程大致可分为以下几个阶段:
当前 AI 的前沿技术点包括:
1.早期阶段(1950s-1960s):专家系统、博弈论、机器学习初步理论2.知识驱动时期(1970s-1980s):专家系统、知识表示、自动推理3.统计学习时期(1990s-2000s):机器学习算法(决策树、支持向量机、贝叶斯方法等)4.深度学习时期(2010s-至今):深度神经网络、卷积神经网络、循环神经网络等[heading2]当前AI前沿技术点[content]1.大模型(Large Language Models):GPT、PaLM等2.多模态AI:视觉-语言模型(CLIP、Stable Diffusion)、多模态融合3.自监督学习:自监督预训练、对比学习、掩码语言模型等4.小样本学习:元学习、一次学习、提示学习等5.可解释AI:模型可解释性、因果推理、符号推理等6.机器人学:强化学习、运动规划、人机交互等7.量子AI:量子机器学习、量子神经网络等8.AI芯片和硬件加速
首先,我们先来看大模型的背景和发展趋势。关于AI的演进历程,很多媒体包括各类研究资料都已经做过详细的介绍,相信今天在座的各位对AI的基本情况都已有所了解,因此我不会过多赘述AI的演进历程。(有兴趣的小伙伴可以多从公开资料中查找一下~)我们的重点将放在大模型当前的应用能力上,随着大模型技术的愈发成熟,规模增大,大模型为AI Agent()提供强大能力。Agent+大模型将有望构建具备自主思考、决策和执行能力的智能体,进一步提升大模型的应用能力,广泛应用于多个行业和领域。
[title]融合RL与LLM思想,探寻世界模型以迈向AGI「中·下篇」[heading1]「中篇」[heading4]RL与LLM融合的本质&阐释:在上一小节中尝试的探索了「系统一·快思考与系统二·慢思考」这一本质问题,自己也越发感觉AGI的进一步可能走进现实,但仍然面临着诸多挑战,包括如何找到一个完备的模型训练目标和用于模型学习所匹配的数据样本构象。我们不得不将思路牵引至AI发展历史的长河当中,向上追溯人类在AI领域的发展历程的探寻中来,尝试发现一些端倪。当然这里肯定不会为大家展开全部的历史脉络,而是带着本节所抛出的问题,尝试发掘在AI历史长河中容易被人们所忽视的一些关键节点。当然,对于庞杂的历史,作者的阅历和认知能力肯定都是十分局限的,且接下来一些历史上梳理与见解也会以自己的阅历经验和主观的感受去进行回顾,势必会忽略一些非常关键且具有里程碑意义下的历史内容,这里先跟大家抱个歉,确实能力所限,不过也会尽量在过程中尝试将自己的一些观点和想法带给大家,希望能为大伙也提供一些方面的补充。首先,按照历史发展顺序,站在人类AI发展史上,我想先从三个世纪之前的近代古典主义哲学蓬勃发展的时代说起,可能有人会问:欸?人工智能的开始场景不是都应该从古希腊哲学时代的亚里士多德的三段论来说吗?这里我要为大家解释下,我主观认为的三段论带给我的启发感觉更适合从逻辑学的源头开始追溯的好,当然逻辑本身也与认知或智能有着千丝万缕的联系,但我还是倾向于将其定位在演绎法下的逻辑推理的范畴,作为一种符号化推理的视角看待。当然在本篇全文的「下篇」中,当然还是会追溯到古希腊哲学世界,寻找有关智能的一些起源和给我们的启示,就不在本小节中展开了。