Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

大模型的基础知识

Answer

大模型的基础知识包括以下方面:

  • 知识类型:
    • 内置知识:又可细分为常识知识、专业知识和语言知识。常识知识涵盖日常生活中的事实和逻辑规则;专业知识涉及特定领域的详细信息;语言知识包含语法规则、句型结构、语境含义及文化背景等。
    • 模型架构:
      • encoder-only:适用于自然语言理解任务,如分类和情感分析,代表模型是 BERT。
      • encoder-decoder:同时结合 Transformer 架构的 encoder 和 decoder 来理解和生成内容,代表是 Google 的 T5。
      • decoder-only:更擅长自然语言生成任务,众多 AI 助手采用此架构。
    • 大模型的特点:
      • 预训练数据量大,往往来自互联网,包括论文、代码和公开网页等,通常用 TB 级别的数据进行预训练。
      • 参数众多,如 Open 在 2020 年发布的 GPT-3 就已达到 170B 的参数。
    • 数字化与 embedding:为让计算机理解 Token 之间的联系,需将 Token 表示成稠密矩阵向量,即 embedding,常见算法有基于统计的 Word2Vec、GloVe,基于深度网络的 CNN、RNN/LSTM,基于神经网络的 BERT、Doc2Vec 等。以 Transform 为代表的大模型采用自注意力机制来学习不同 token 之间的依赖关系,生成高质量 embedding。大模型的“大”主要指用于表达 token 之间关系的参数多,如 GPT-3 拥有 1750 亿参数。
Content generated by AI large model, please carefully verify (powered by aily)

References

AI Agent系列(二):Brain模块探究

所以在深入讨论Brain模块的其他功能之前,我们首先需要了解大模型中所蕴含的知识类型。训练大模型其本质上就是将知识进行压缩,没有这些知识,模型是无法进行进一步推理、规划、反思的。[heading3]4.1内置知识[content]知识在大模型中通常被分为两大类。第一类是内置知识,这类知识在模型训练阶段就已经被整合进模型中。我们可以将内置知识进一步细分为三个主要类别:1.常识知识:常识知识包括了日常生活中广泛认可的事实和逻辑规则。这些信息帮助智能体具备了强大的泛化能力,使其在不进行特殊指导下也能进行基本的推理和判断。例如,它包括季节变化、物体的基本物理属性、社会行为准则等。这类知识对于构建智能体的世界观极为重要,使其能够在多种常见场景下作出符合逻辑的反应。1.专业知识:与常识知识不同,专业知识涉及深入特定领域的详细信息。这包括但不限于医学、法律、科技、艺术等领域的专有概念和操作方法。例如,在医学领域中,智能体需要了解疾病症状、治疗方法和药物作用机制;在法律领域,则需掌握法律条文、案例判例及其应用方式。这些专业知识使智能体在特定咨询或操作时更加精准有效。1.语言知识:语言是人类沟通的基础,对智能体同样重要。语言知识不仅仅是单纯的单词意义理解,更包括语法规则、句型结构、语境含义以及文化背景等。智能体通过这些复杂的语言系统来解析和生成自然语言,从而与人类进行有效交流。此外,语言知识还涉及到非文字部分如语调、停顿和强调等,这些都是理解和生成自然对话不可或缺的部分。

从 0 到 1 了解大模型安全,看这篇就够了

encoder-only:这些模型通常适用于可以自然语言理解任务,例如分类和情感分析.最知名的代表模型是BERTencoder-decoder:此类模型同时结合了Transformer架构的encoder和decoder来理解和生成内容。该架构的一些用例包括翻译和摘要。encoder-decoder的代表是google的T5decoder-only:此类模型更擅长自然语言生成任务。典型使用包括故事写作和博客生成。这也是我们现在所熟知的众多AI助手的结构我们目前耳熟能详的AI助手基本都来自左侧的灰色分支,当然也包括ChatGPT。这些架构都是根据谷歌2017年发布的论文“attention is all you need”中提出的transformer衍生而来的,在transformer中,包括Encoder,Decoder两个结构目前的大型语言模型就是右侧只使用Decoder的Decoder-only架构的模型大模型又大在哪呢?第一,大模型的预训练数据非常大,这些数据往往来自于互联网上,包括论文,代码,以及可进行爬取的公开网页等等,一般来说,现在最先进的大模型一般都是用TB级别的数据进行预训练。第二,参数非常多,Open在2020年发布的GPT-3就已经达到170B的参数在GPT3中,模型可以根据用户输入的任务描述,或给出详细的例子,完成任务但这与我们熟知的ChatGPT仍然有着很大的差距,使用ChatGPT只需要像和人类一样对话,就可以完成任务。除了形式上的不同之外,还有一个更加重要的差距,那就是安全性上的差别。

大模型入门指南

数字化的好处是便于计算机处理。但为了让计算机理解Token之间的联系,还需要把Token表示成稠密矩阵向量,这个过程称之为embedding([3]),常见的算法有:基于统计Word2Vec,通过上下文统计信息学习词向量GloVe,基于词共现统计信息学习词向量基于深度网络CNN,使用卷积网络获得图像或文本向量RNN/LSTM,利用序列模型获得文本向量基于神经网络BERT,基于Transformer和掩码语言建模(Masked LM)进行词向量预训练Doc2Vec,使用神经网络获得文本序列的向量以Transform为代表的大模型采用自注意力(Self-attention)机制来学习不同token之间的依赖关系,生成高质量embedding。大模型的“大”,指的是用于表达token之间关系的参数多,主要是指模型中的权重(weight)与偏置(bias),例如GPT-3拥有1750亿参数,其中权重数量达到了这一量级,而词汇表token数只有5万左右。参考:[How does an LLM"parameter"relate to a"weight"in a neural network?](https://datascience.stackexchange.com/questions/120764/how-does-an-llm-parameter-relate-to-a-weight-in-a-neural-network"How does an LLM"parameter"relate to a"weight"in a neural network?")

Others are asking
你觉得作为一个普通不懂得程序的人来说,在面对未来的AI时代,需要学习编程的基础知识吗?系统性的学习Python或者你觉得学习Python哪些主要知识注音对了。
对于普通不懂得程序的人来说,在面对未来的 AI 时代,学习编程的基础知识是有一定必要的。如果想系统性地学习 Python,以下是一些需要重点关注的主要知识: 1. Python 基础: 基本语法:了解 Python 的基本语法规则,如变量命名、缩进等。 数据类型:熟悉字符串(String)、整数(Integer)、浮点数(Float)、列表(List)、元组(Tuple)、字典(Dictionary)等基本数据类型。 控制流:学会使用条件语句(if)、循环语句(for 和 while)来控制程序执行流程。 2. 函数: 定义和调用函数:学习如何定义自己的函数以及调用现有的函数。 参数和返回值:理解函数接收参数和返回结果的方式。 作用域和命名空间:了解局部变量和全局变量的概念及工作方式。 3. 模块和包: 导入模块:学习如何导入 Python 标准库中的模块或第三方库。 使用包:理解如何安装和使用 Python 包来扩展程序功能。 4. 面向对象编程(OOP): 类和对象:了解类的定义和实例化等基本概念。 属性和方法:学习为类定义属性和方法,并通过对象调用。 继承和多态:了解类之间的继承关系及实现多态的方法。 5. 异常处理: 理解异常:了解异常的概念及在 Python 中的工作原理。 异常处理:学会使用 try 和 except 语句处理程序中可能出现的错误。 6. 文件操作: 文件读写:学习如何打开文件、读取文件内容和写入文件。 文件与路径操作:理解如何使用 Python 处理文件路径及列举目录下的文件。 对于中学生学习 AI,建议如下: 1. 从编程语言入手学习:可以从 Python、JavaScript 等编程语言开始,学习编程语法、数据结构、算法等基础知识。 2. 尝试使用 AI 工具和平台:使用 ChatGPT、Midjourney 等 AI 生成工具体验应用场景,探索如百度的“文心智能体平台”、Coze 智能体平台等面向中学生的教育平台。 3. 学习 AI 基础知识:了解 AI 的基本概念、发展历程、主要技术(如机器学习、深度学习),学习其在教育、医疗、金融等领域的应用案例。 4. 参与 AI 相关的实践项目:参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动,尝试利用 AI 技术解决实际问题,培养动手能力。 5. 关注 AI 发展的前沿动态:关注权威媒体和学者,了解最新进展,思考 AI 技术对未来社会的影响,培养思考和判断能力。 总之,中学生可以从编程基础、工具体验、知识学习、实践项目等多方面入手,全面系统地学习 AI 知识和技能,为未来的 AI 发展做好准备。但需注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-01-24
ai 基础知识学习
以下是新手和中学生学习 AI 基础知识的方法和建议: 新手学习 AI : 1. 了解 AI 基本概念:阅读「」,熟悉术语和基础概念,了解主要分支及联系。 2. 浏览入门文章:了解 AI 的历史、应用和发展趋势。 3. 开始学习之旅:在「」中找到初学者课程,推荐李宏毅老师的课程。也可通过在线教育平台(如 Coursera、edX、Udacity)按自己节奏学习并获取证书。 4. 选择感兴趣模块深入:AI 领域广泛,如图像、音乐、视频等,可根据兴趣选择特定模块,掌握提示词技巧。 5. 实践和尝试:理论学习后进行实践,巩固知识,尝试使用各种产品创作,分享实践成果。 6. 体验 AI 产品:与 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人互动,了解其工作原理和交互方式。 中学生学习 AI : 1. 从编程语言入手:学习 Python、JavaScript 等编程语言,掌握编程语法、数据结构、算法等基础知识。 2. 尝试使用工具和平台:使用 ChatGPT、Midjourney 等生成工具,探索百度“文心智能体平台”、Coze 智能体平台等面向中学生的教育平台。 3. 学习基础知识:了解 AI 基本概念、发展历程、主要技术及在各领域的应用案例。 4. 参与实践项目:参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动,尝试用 AI 技术解决实际问题,培养动手能力。 5. 关注前沿动态:关注权威媒体和学者,了解最新进展,思考 AI 对未来社会的影响。 对于希望继续精进的学习者,还可以尝试了解以下 AI 基础内容: 1. AI 背景知识:包括基础理论、历史发展。 2. 数学基础:统计学基础(如均值、中位数、方差)、线性代数(向量、矩阵)、概率论(条件概率、贝叶斯定理)。 3. 算法和模型:监督学习(线性回归、决策树、支持向量机)、无监督学习(聚类、降维)、强化学习。 4. 评估和调优:性能评估(交叉验证、精确度、召回率)、模型调优(网格搜索)。 5. 神经网络基础:网络结构(前馈网络、卷积神经网络、循环神经网络)、激活函数(ReLU、Sigmoid、Tanh)。
2025-01-16
作为一名小学班主任,我想将AI作为辅助班级管理的工具,我可以怎么做?需要学习哪些基础知识,如何创建AI工具呢?
作为一名小学班主任,若想将 AI 作为辅助班级管理的工具,您可以参考以下建议: 基础知识学习: 1. AI 背景知识:了解人工智能、机器学习、深度学习的定义及其之间的关系。 2. 历史发展:简要回顾 AI 的发展历程和重要里程碑。 3. 数学基础: 统计学基础:熟悉均值、中位数、方差等统计概念。 线性代数:了解向量、矩阵等线性代数基本概念。 概率论:基础的概率论知识,如条件概率、贝叶斯定理。 4. 算法和模型: 监督学习:了解常用算法,如线性回归、决策树、支持向量机(SVM)。 无监督学习:熟悉聚类、降维等算法。 强化学习:简介强化学习的基本概念。 5. 评估和调优: 性能评估:了解如何评估模型性能,包括交叉验证、精确度、召回率等。 模型调优:学习如何使用网格搜索等技术优化模型参数。 6. 神经网络基础: 网络结构:理解神经网络的基本结构,包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)。 激活函数:了解常用的激活函数,如 ReLU、Sigmoid、Tanh。 创建 AI 工具: 1. 了解 AI 基本概念:首先,建议阅读「」部分,熟悉 AI 的术语和基础概念。了解什么是人工智能,它的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。浏览入门文章,这些文章通常会介绍 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅:在「」中,您将找到一系列为初学者设计的课程。这些课程将引导您了解生成式 AI 等基础知识,特别推荐李宏毅老师的课程。通过在线教育平台(如 Coursera、edX、Udacity)上的课程,您可以按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习:AI 领域广泛(比如图像、音乐、视频等),您可以根据自己的兴趣选择特定的模块进行深入学习。建议您一定要掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试:理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 5. 体验 AI 产品:与现有的 AI 产品进行互动是学习 AI 的另一种有效方式。尝试使用如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。通过与这些 AI 产品的对话,您可以获得对 AI 在实际应用中表现的第一手体验,并激发您对 AI 潜力的认识。 需要注意的是,AI 技术在不断发展,您需要持续学习和探索,以更好地将其应用于班级管理中。
2025-01-15
了解AI的基础知识
以下是关于 AI 基础知识的介绍: 一、新手学习 AI 1. 了解基本概念 阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能的定义、主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前应用和未来发展趋势。 2. 开始学习之旅 在「」中找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)按照自己的节奏学习,并争取获得证书。 3. 选择感兴趣的模块深入学习 AI 领域广泛,如图像、音乐、视频等,可根据兴趣选择特定模块深入学习。 掌握提示词技巧,因其上手容易且实用。 4. 实践和尝试 理论学习后,通过实践巩固知识,尝试使用各种产品创作作品。 知识库中有很多实践后的作品和文章分享。 5. 体验 AI 产品 与 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人互动,了解其工作原理和交互方式,获得实际应用中的第一手体验。 二、不会代码者学习 AI 1. AI 背景知识 基础理论:了解人工智能、机器学习、深度学习的定义及其之间的关系。 历史发展:简要回顾 AI 的发展历程和重要里程碑。 2. 数学基础 统计学基础:熟悉均值、中位数、方差等统计概念。 线性代数:了解向量、矩阵等线性代数基本概念。 概率论:掌握基础的概率论知识,如条件概率、贝叶斯定理。 3. 算法和模型 监督学习:了解常用算法,如线性回归、决策树、支持向量机(SVM)。 无监督学习:熟悉聚类、降维等算法。 强化学习:了解其基本概念。 4. 评估和调优 性能评估:学会如何评估模型性能,包括交叉验证、精确度、召回率等。 模型调优:学习使用网格搜索等技术优化模型参数。 5. 神经网络基础 网络结构:理解神经网络的基本结构,包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)。 激活函数:了解常用的激活函数,如 ReLU、Sigmoid、Tanh。 三、中学生学习 AI 1. 从编程语言入手学习 从 Python、JavaScript 等编程语言开始,学习编程语法、数据结构、算法等基础知识。 2. 尝试使用 AI 工具和平台 使用 ChatGPT、Midjourney 等 AI 生成工具体验应用场景。 探索面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 3. 学习 AI 基础知识 了解 AI 的基本概念、发展历程、主要技术(机器学习、深度学习等)。 学习 AI 在教育、医疗、金融等领域的应用案例。 4. 参与 AI 相关的实践项目 参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动。 尝试利用 AI 技术解决生活中的实际问题,培养动手能力。 5. 关注 AI 发展的前沿动态 关注 AI 领域的权威媒体和学者,了解最新进展。 思考 AI 技术对未来社会的影响,培养思考和判断能力。 总之,中学生可以从编程基础、工具体验、知识学习、实践项目等多个方面入手,全面系统地学习 AI 知识和技能,为未来的 AI 发展做好准备。
2024-12-30
AI基础知识
以下是关于 AI 基础知识的介绍: 一、AI 背景知识 1. 基础理论:了解人工智能、机器学习、深度学习的定义及其之间的关系。 2. 历史发展:简要回顾 AI 的发展历程和重要里程碑。 二、数学基础 1. 统计学基础:熟悉均值、中位数、方差等统计概念。 2. 线性代数:了解向量、矩阵等线性代数基本概念。 3. 概率论:基础的概率论知识,如条件概率、贝叶斯定理。 三、算法和模型 1. 监督学习:了解常用算法,如线性回归、决策树、支持向量机(SVM)。 2. 无监督学习:熟悉聚类、降维等算法。 3. 强化学习:简介强化学习的基本概念。 四、评估和调优 1. 性能评估:了解如何评估模型性能,包括交叉验证、精确度、召回率等。 2. 模型调优:学习如何使用网格搜索等技术优化模型参数。 五、神经网络基础 1. 网络结构:理解神经网络的基本结构,包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)。 2. 激活函数:了解常用的激活函数,如 ReLU、Sigmoid、Tanh。 对于新手学习 AI 的建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念。了解人工智能及其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: 根据自己的兴趣选择特定的模块进行深入学习,如图像、音乐、视频等。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,通过实践巩固知识,尝试使用各种产品做出作品。 在知识库分享实践后的作品和文章。 5. 体验 AI 产品: 与如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人互动,了解其工作原理和交互方式。 对于中学生学习 AI 的建议: 1. 从编程语言入手学习: 可以从 Python、JavaScript 等编程语言开始学习,学习编程语法、数据结构、算法等基础知识。 2. 尝试使用 AI 工具和平台: 使用 ChatGPT、Midjourney 等 AI 生成工具,体验 AI 的应用场景。 探索面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 3. 学习 AI 基础知识: 了解 AI 的基本概念、发展历程、主要技术如机器学习、深度学习等。 学习 AI 在教育、医疗、金融等领域的应用案例。 4. 参与 AI 相关的实践项目: 参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动。 尝试利用 AI 技术解决生活中的实际问题,培养动手能力。 5. 关注 AI 发展的前沿动态: 关注 AI 领域的权威媒体和学者,了解 AI 技术的最新进展。 思考 AI 技术对未来社会的影响,培养对 AI 的思考和判断能力。
2024-10-30
怎么用ai学习电子基础基础知识
以下是关于如何用 AI 学习电子基础知识的建议: 1. 从编程语言入手:可以选择 Python 等编程语言,学习编程语法、数据结构、算法等基础知识,为后续学习打下基础。 2. 尝试使用相关工具和平台:例如利用 ChatGPT 等 AI 生成工具,体验其应用场景。也可以探索一些专门的教育平台。 3. 学习 AI 基础知识:了解 AI 的基本概念、发展历程、主要技术(如机器学习、深度学习等),以及在电子领域的应用案例。 4. 参与实践项目:参加相关的竞赛或活动,尝试利用 AI 技术解决电子方面的实际问题,培养动手能力。 5. 关注前沿动态:关注权威媒体和学者,了解 AI 技术在电子领域的最新进展,思考其对未来的影响。 同时,您可以参考以下资源: 阅读「」部分,熟悉相关术语和基础概念。 学习「」中的课程。 需要注意的是,以上内容由 AI 大模型生成,请仔细甄别。
2024-10-29
请给我推荐一个能够阅读网页链接内部信息的AI模型
以下为您推荐能够阅读网页链接内部信息的 AI 模型相关内容: 有一款 AI 浏览器插件,在产品化开发阶段,需要考虑如何稳定获取网页内容、如何选择适合的 AI 大模型 API 服务以及如何构建生产级提示词等问题。 在获取网页内容方面,由于大模型对话产品的外链解析方式容易遭到平台反爬机制制裁,通过用户浏览器以浏览器插件形式本地提取网页内容是一种稳定、经济的解决方案。比如 AI Share Card 插件,可以获取网页元素清单。开发时,您可以拿着初版提示词,询问 AI 来设计获取相关元素的 js 代码。 对于大模型 API,需要利用插件预先获取的网页内容变量、提示词和 API 请求参数,拼搭出完整的 API 提示请求,精确引导 API 返回想要的生成结果。根据 BigModel 官网给出的请求示例,需要传递 Model 类型、系统提示词、用户提示词、top_p、temperature 等关键参数。如果缺少参数设定经验,可以先询问 AI 相关设定的合适值,再逐步调试效果。 同时需要注意,使用 AI 写东西时,它可能会“产生幻觉”生成错误内容,需要检查所有内容。而且 AI 不会真正解释自己,可能给出编造的答案,使用时要对其输出负责。
2025-02-07
有没有能够阅读网页链接内部信息的AI模型?
目前存在能够阅读网页链接内部信息的相关技术和工具。例如,有一些 AI 浏览器插件可以实现这一功能。 在实现过程中,需要考虑以下几个关键方面: 1. 稳定获取网页内容:在初版提示词实验中,获取网页内容依赖大模型对话产品的外链解析能力,但易受平台反爬机制制裁。转换思路,通过用户浏览器以插件形式本地提取网页内容是一种稳定且经济的解决方案。开发时需确定需要插件获取的网页元素,可拿着初版提示词询问 AI 来设计获取相关元素的 js 代码。 2. 选择适合的 AI 大模型 API 服务:需要综合考虑多种因素来选择合适的服务。 3. 构建生产级提示词:对于大模型 API,要利用插件预先获取的网页内容变量、提示词和 API 请求参数,拼搭出完整的 API 提示请求,精确引导 API 返回想要的生成结果。同时,要根据不同模型的特点和要求设置相关参数,也可先询问 AI 相关参数的设定经验再进行调试。 此外,在初版提示词的开发中,将设计要求拆分为“设计规范”和“内容结构”,再细分为独立模块,并结合“内容结构”进行要求提示,这种提示词组织方式具有模型通用性、提示简易性和生成稳定性等显著优势。
2025-02-07
2025年出的模型有哪些
以下是 2025 年可能出现的一些模型: DeepSeek 发布了最新模型 V3 与 R1,采用混合专家(MoE)架构,V3 引入多头潜注意力(MLA),R1 通过强化学习激活推理能力。 字节跳动推出新技术 OmniHuman,利用单张图片和音频生成生动的视频。 OpenAI 发布新模型 o1,基于思维链和强化学习的新训练和推理方法,展现出明显超出 GPT4 等传统模型的复杂推理能力。 苹果公司发布面向 iPhone、iPad 和 Mac 的个人智能化系统 Apple Intelligence,嵌入一个大约 30 亿参数的本地模型。 此外,2024 年的一些模型发展趋势也可能延续到 2025 年,如: 多模态能力的提升,包括视频生成模型的发展,如 OpenAI 的 Sora 引发业界轰动,带动一众模型公司追逐,到年底视频生成已成为各大模型公司的标配能力。 开源项目的发展,如 Meta 推出的 Llama 3.1 405B 版本,中国的开源项目 Qwen2、DeepSeek 等在全球范围内赢得众多用户。 随着“蒸馏”和“量化”等技术的发展,模型的小型化和端侧化逐渐形成趋势,多家公司推出 40 亿参数以下的专业或端侧小模型。
2025-02-07
deepseek与其他大模型有什么区别
DeepSeek 与其他大模型的区别主要体现在以下几个方面: 1. 模型类型:DeepSeek 是推理型大模型,与指令型大模型不同,不需要用户提供详细步骤指令,而是通过理解用户真实需求和场景提供答案。 2. 语言理解:能够理解用户用“人话”表达的需求,不需要用户学习和使用特定提示词模板。 3. 思考深度:在回答问题时能够进行深度思考,而非简单罗列信息。 4. 文风转换:可以模仿不同作家的文风进行写作,适用于多种文体和场景。 5. 技术路线:DeepSeek R1 与 OpenAI 现在最先进的模型 o1、o3 同属于基于强化学习 RL 的推理模型,在回答用户问题前会先进行“自问自答”式的推理思考,提升最终回答质量。 6. 发展路径:从一开始,DeepSeek 与国内诸多大模型新秀选择的不是同一个战场。它不拿融资,不抢座次,不比国内舆论声势,不搞产品投放投流,而是选择走全球开源社区,分享直接的模型、研究方法和成果,吸引反馈,再迭代优化。开源彻底,包括模型权重、数据集、预训练方法和高质量论文。
2025-02-07
未来类似deepseek这种推理大模型普及,结构化提示词是不是会成为过时的知识
未来类似 DeepSeek 这种推理大模型普及,结构化提示词不会成为过时的知识。 虽然未来模型可能在某些情况下无需提示词,仅通过简单对话就能理解用户意图,但基础的如何与模型对话的认知仍需具备,这就涉及提示词。例如李继刚老师的结构化提示词能让模型给出更优质、完整的答案。操作过程中有很多有意思的提示词,如“酷老师”“抬杠高手”等,近期提示词有升级,李继刚老师将其玩到新高度,cloud 等大语言模型可直接显示编译结果内容。输入特定提示词可生成卡片,小创业项目可利用并改变提示词形成独到见解或小应用。 从工程视角看,AI 提示词在游戏创作及优化中也有应用。此外,提示工程的本质是提供足够的信息来明确指定要求,即使模型在理解上下文方面变得更好,能够清晰地陈述目标始终很重要,仍需要明确预期结果的能力和技巧。未来可能会更多地利用提示工程来让模型为我们生成、调整提示词,对于没有太多提示工程经验的人来说,提示词生成器可以帮助他们。未来的提示可能更像是一种自省,模型会尝试理解用户真正在思考什么、需要什么。 在 R1 时代,使用 AI 提示词的关键在于提供足够的背景信息,而非复杂的结构。简单大白话仍然有效,但信息量不足则难以得到理想结果。示例和框架可帮助理清思路,但最终影响在于用户的思考和表达。利用乔哈里视窗分析信息需求,避免过度指令化,让 AI 自由思考,从而激发更高的创意和效果。“有用的不是技巧,而是你的思考!”
2025-02-07
模型能力测评方法有哪些,比如ragas这种
以下是一些常见的模型能力测评方法: 1. 从模型角度(generation): 回答真实性:评估模型结果的真实性,减少模型幻觉。 回答相关度:衡量结果与问题的相关性,避免南辕北辙。 2. 从检索角度(retrieval): 召回率(recall):考查相关信息在返回的检索内容中的包含程度,越全越好。 准确率(precision):评估返回的检索内容中有用信息的占比,越多越好。 RAGAS 是一个用于 RAG 评估的知名开源库,您可以通过了解和使用。 RAG 具有一定的优势和局限性: 优势: 能够解决大语言模型技术中输出结果的不可预测性、知识的局限性、幻觉问题、数据安全性等问题。 可以让大模型从权威的、预先确定的知识来源中检索、组织相关信息,更好地控制大模型生成的文本输出,并且用户可以深入了解 LLM 如何生成最终的结果。 可以和微调结合使用。 局限性: 适合打造专才,不适合打造通才,不适合为模型提供通用领域知识。 难以让模型保持稳定的风格或结构输出,降低 token 消耗等,需要使用微调技术解决。
2025-02-07