AI 的研究可以分为多个不同的分类,并非仅仅局限于神经网络与知识图谱这两个大的分类。
在常见的分类中:
此外,从技术和应用的角度来看:
对于希望精进的学习者,还需要了解 AI 的背景知识,包括基础理论、历史发展、数学基础(统计学、线性代数、概率论),掌握算法和模型(监督学习、无监督学习、强化学习),学会评估和调优(性能评估、模型调优),以及神经网络基础(网络结构、激活函数)等。
1、NLG:这里我们可以先分析NLG,因为传统方案的NLG基本是落地难落地少,而LLM最大的特点就是生成内容非常的牛,因此NLG可以当做一个全新的场景进行讨论,这也是当前很多偏ToC的业务探索方向,探索生成内容可以怎样创建新的场景。生成内容又可以分为:根据任务要求生成标准结果、根据信息进行内容创作两类,其中前者偏向B端,对指令遵循、准确性、输出可控等有较高的要求;后者偏向C端,在内容的趣味性、探索性、建议性、想象性上有一定的需求。而且,现在AI可以24小时不间断生成内容,理论上来说内容的供给变得无限大了,内容供给无限大后是否会出现质变的场景呢?2、NLP:NLP能做的事情都比较标准化了,也有相当多的落地技术案例,比如客服、评论分析、信息抽取等等,而LLM的出现,很明显可以在这些场景上有更进一步的效果和效率的提升,甚至可以算是对原有的Bert方案的降维打击。也因此这个领域很多成熟企业现在都不太好过(很多原有的Bert方案的流程全部不需要了,在这个领域长期的经验积累被清空),后面会以智能客服为例分析。3、知识图谱KG:这个领域本身其实分为了多个技术路径,有NLP作为图谱前期构建的技术,有图数据库作为承载和查询的底座,也有图计算作为图谱应用推理的技术方案。并且知识图谱更像是符号派的分支,与LLM这个连接派的终极产物其实不那么搭。目前看来LLM在知识图谱的前期构建上(比如实体识别、三元组抽取)是可以有较好的效率提升的。但进一步想,知识图谱与LLM很可能是互补关系,毕竟LLM的参数难以理解,但知识图谱这种结构化的展示确实很好理解的,因此可以想象,今后的业务中使用知识图谱织成一张网来包裹住LLM,来让其输出的更加可控是很有可能的,并且图上的关联关系可以很好的为LLM做信息补足。
非监督学习:非监督学习最著名的就是聚类。非监督学习并不需要准确告诉AI系统需要输出什么。只是需要给出大量数据,然后让AI从中找出有趣的信息。迁移学习:任务A中学习的内容,可以用于帮助完成任务B。许多计算机视觉实际是使用了迁移学习。强化学习:当输出好时强化。输出差时惩罚。使用“奖励信号”来告诉AI什么时候做的好或差,AI会自动学习最大化奖励。做得好时,给一个正数权重,做得差时,给一个负数权重。缺点是需要大量的数据。生成对抗网络:生成对抗网络是一种深度学习模型,由两个神经网络构成:生成器和判别器。生成器负责生成虚拟数据,判别器则负责判断这些数据是真实数据还是虚拟数据。两个网络不断反复训练和竞争,从而不断提高生成器生成真实数据的能力,直到生成的数据与真实数据无法区分。GAN可以用于图像、声音、文本等各种类型的数据生成和合成,被广泛应用于计算机视觉、自然语言处理等领域。知识图谱:在搜索时,展示知识图谱。这些信息是从知识图谱中产生的,意味着列出这些人和与其相关的关键信息,如生日,年纪等。酒店知识图谱可能包含大量信息,让人们在查地图时,可以快速找到准确信息。
[heading3]如果希望继续精进...对于AI,可以尝试了解以下内容,作为基础AI背景知识基础理论:了解人工智能、机器学习、深度学习的定义及其之间的关系。历史发展:简要回顾AI的发展历程和重要里程碑。数学基础统计学基础:熟悉均值、中位数、方差等统计概念。线性代数:了解向量、矩阵等线性代数基本概念。概率论:基础的概率论知识,如条件概率、贝叶斯定理。算法和模型监督学习:了解常用算法,如线性回归、决策树、支持向量机(SVM)。无监督学习:熟悉聚类、降维等算法。强化学习:简介强化学习的基本概念。评估和调优性能评估:了解如何评估模型性能,包括交叉验证、精确度、召回率等。模型调优:学习如何使用网格搜索等技术优化模型参数。神经网络基础网络结构:理解神经网络的基本结构,包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)。激活函数:了解常用的激活函数,如ReLU、Sigmoid、Tanh。