以下是关于 AI 相关的知识:
所以在深入讨论Brain模块的其他功能之前,我们首先需要了解大模型中所蕴含的知识类型。训练大模型其本质上就是将知识进行压缩,没有这些知识,模型是无法进行进一步推理、规划、反思的。[heading3]4.1内置知识[content]知识在大模型中通常被分为两大类。第一类是内置知识,这类知识在模型训练阶段就已经被整合进模型中。我们可以将内置知识进一步细分为三个主要类别:1.常识知识:常识知识包括了日常生活中广泛认可的事实和逻辑规则。这些信息帮助智能体具备了强大的泛化能力,使其在不进行特殊指导下也能进行基本的推理和判断。例如,它包括季节变化、物体的基本物理属性、社会行为准则等。这类知识对于构建智能体的世界观极为重要,使其能够在多种常见场景下作出符合逻辑的反应。1.专业知识:与常识知识不同,专业知识涉及深入特定领域的详细信息。这包括但不限于医学、法律、科技、艺术等领域的专有概念和操作方法。例如,在医学领域中,智能体需要了解疾病症状、治疗方法和药物作用机制;在法律领域,则需掌握法律条文、案例判例及其应用方式。这些专业知识使智能体在特定咨询或操作时更加精准有效。1.语言知识:语言是人类沟通的基础,对智能体同样重要。语言知识不仅仅是单纯的单词意义理解,更包括语法规则、句型结构、语境含义以及文化背景等。智能体通过这些复杂的语言系统来解析和生成自然语言,从而与人类进行有效交流。此外,语言知识还涉及到非文字部分如语调、停顿和强调等,这些都是理解和生成自然对话不可或缺的部分。
RAG对大语言模型(Large Language Model,LLM)的作用,就像开卷考试对学生一样。在开卷考试中,学生可以带着参考资料进场,比如教科书或笔记,用来查找解答问题所需的相关信息。开卷考试的核心在于考察学生的推理能力,而非对具体信息的记忆能力。同样地,在RAG中,事实性知识与LLM的推理能力相分离,被存储在容易访问和及时更新的外部知识源中,具体分为两种:参数化知识(Parametric knowledge):模型在训练过程中学习得到的,隐式地储存在神经网络的权重中。非参数化知识(Non-parametric knowledge):存储在外部知识源,例如向量数据库中。
由于库和框架的支持不断增加,机器学习开始变得越来越流行。我们现在很容易在所有领域找到人工智能和机器学习的应用。然而,通过库和框架使用人工智能,并不足以让我们成为机器学习领域的所谓”专业人士“。有编码框架的支持直接套用固然很方便,但要实现落地AI行业;我们必须了解这些代码背后的逻辑。一旦我们取消了现有框架的支持,了解这些框架背后的数学细节,编写这些算法中包含的复杂模式就会显得非常重要。可以参照上面的图例,我们至少需要了解概率、统计、线性代数、微积分和图论方面的知识。[heading1]如何利用数学成为机器学习领域的专家[content]有了具体的数学知识,我们就可以充分利用机器学习的潜力,在我们感兴趣的所有领域内构建各种各样有趣的应用程序。比如:凭借算法背后的内联数学知识,为数据集选择最佳算法。利用正则化器背后的数学知识帮助解决模型过拟合或高方差问题。利用图论的知识来分析数据特征之间更复杂的关系。利用优化器背后的数学知识来设计适当的成本函数。[heading1]机器学习需要什么水平的数学知识?[content]这个问题的答案相对比较主观,取决于每个人的具体需求。比如我们正在进行机器学习的底层研究,可能需要具有深厚的数学知识,因为研究要求彻底深入。但对单纯的应用者来说,我们可能不需要任何高等数学的相关知识,掌握prompt的基础框架就可以很好的应用。