Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

大模型相关的硬件知识请介绍一下

Answer

以下是关于大模型相关硬件的知识介绍:

运行大模型需要较高的机器配置,不同类型的大模型有不同的硬件要求。

  • 生成文字大模型:
    • 最低配置:8G RAM + 4G VRAM
    • 建议配置:16G RAM + 8G VRAM
    • 理想配置:32G RAM + 24G VRAM(如果要跑 GPT-3.5 差不多性能的大模型)
  • 生成图片大模型(比如跑 SD):
    • 最低配置:16G RAM + 4G VRAM
    • 建议配置:32G RAM + 12G VRAM
  • 生成音频大模型:
    • 最低配置:8G VRAM
    • 建议配置:24G VRAM

需要注意的是,最低配置可能运行速度非常慢。

大模型的整体架构可以分为以下几层:

  1. 基础层:为大模型提供硬件支撑,数据支持等,例如 A100、数据服务器等等。
  2. 数据层:这里的数据层指的不是用于基层模型训练的数据基集,而是企业根据自己的特性,维护的垂域数据。分为静态的知识库,和动态的三方数据集。
  3. 模型层:包括 LLm 或多模态模型。LLm 即 large-language-model 大语言模型,例如 GPT,一般使用 transformer 算法来实现。多模态模型即市面上的文生图、图生图等的模型,训练所用的数据与 llm 不同,用的是图文或声音等多模态的数据集。
  4. 平台层:模型与应用间的平台部分,比如大模型的评测体系,或者 langchain 平台等,提供模型与应用间的组成部分。
  5. 表现层:也就是应用层,是用户实际看到的地方。

通俗来讲,大模型就是输入大量语料,来让计算机获得类似人类的“思考”能力,使之能够理解自然语言,能够进行『文本生成』、『推理问答』、『对话』、『文档摘要』等工作。其训练和使用过程可以类比为“上学参加工作”:

  1. 找学校:训练 LLM 需要大量的计算,因此 GPU 更合适,只有购买得起大量 GPU 的才有资本训练自己的大模型。
  2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。
  3. 找老师:即用什么样的算法讲述“书本”中的内容,让大模型能够更好理解 Token 之间的关系。
  4. 就业指导:学完书本中的知识后,为了让大模型能够更好胜任某一行业,需要进行微调(fine tuning)指导。
  5. 搬砖:就业指导完成后,下面就要正式干活了,比如进行一次翻译、问答等,在大模型里称之为推导(infer)。

在 LLM 中,Token 被视为模型处理和生成的文本单位。它们可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。Token 是原始文本数据与 LLM 可以使用的数字表示之间的桥梁。在将输入进行分词时,会对其进行数字化,形成一个词汇表。

Content generated by AI large model, please carefully verify (powered by aily)

References

手把手教你本地部署大模型以及搭建个人知识库

所有人都会手把手教你部署XX大模型,听起来很诱人,因为不需要科学上网,不需要高昂的ChatGPT会员费用。但是在开启下面的教程之前,我希望你能有个概念:运行大模型需要很高的机器配置,个人玩家的大多数都负担不起所以:虽然你的本地可能可以搭建出一个知识库,但是它不一定能跑的起来下面我通过一组数据来让大家有个感性的认知。以下文字来源于视频号博主:黄益贺,非作者实操生成文字大模型最低配置:8G RAM+4G VRAM建议配置:16G RAM+8G VRAM理想配置:32G RAM+24G VRAM(如果要跑GPT-3.5差不多性能的大模型)生成图片大模型(比如跑SD)最低配置:16G RAM+4G VRAM建议配置:32G RAM+12G VRAM生成音频大模型最低配置:8G VRAM+建议配置:24G VRAM而最低配置我就不建议了,真的非常慢,这个我已经用我自己8G的Mac电脑替你们试过了。讲这个不是泼大家冷水,而是因为我的文章目标是要做到通俗易懂,不希望通过夸大的方式来吸引你的眼球。这是这篇文章的第二次修改,我专门加的这段。原因就是因为好多小伙伴看了文章之后兴致冲冲的去实验,结果发现电脑根本带不动。但是这并不妨碍我们去手把手实操一遍,因为实操可以加深我们对大模型构建的知识库底层原理的了解。如果你想要私滑的体验知识库,可以参考我的另一篇文章:[胎教级教程:万字长文带你使用Coze打造企业级知识库](https://waytoagi.feishu.cn/wiki/CT3UwDM8OiVmOOkohPbcV3JCndb)好了,废话不多说,下面教程还是值得亲自上手搞一遍的,相信走完一遍流程后,你会对知识库有更深的理解。

大模型入门指南

通俗来讲,大模型就是输入大量语料,来让计算机获得类似人类的“思考”能力,使之能够理解自然语言,能够进行『文本生成』、『推理问答』、『对话』、『文档摘要』等工作。既然是学习,那我们就可以用『上学参加工作』这件事来类比大模型的训练、使用过程:1.找学校::训练LLM需要大量的计算,因此GPU更合适,因此只有购买得起大量GPU的贵族学校才有资本训练自己的大模型2.确定教材::大模型顾名思义就是大,需要的数据量特别多,几千亿序列(Token)的输入基本是标配3.找老师::即用什么样的算法讲述“书本”中的内容,让大模型能够更好理解Token之间的关系4.就业指导::学完书本中的知识后,为了让大模型能够更好胜任某一行业,需要进行微调(fine tuning)指导5.搬砖::就业指导完成后,下面就要正式干活了,比如进行一次翻译、问答等,在大模型里称之为推导(infer)在LLM中,Token([2])被视为模型处理和生成的文本单位。它们可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。Token是原始文本数据与LLM可以使用的数字表示之间的桥梁。在将输入进行分词时,会对其进行数字化,形成一个词汇表(Vocabulary),比如:The cat sat on the mat,会被分割成“The”、“cat”、“sat”等的同时,会生成下面的词汇表:|Token|ID||-|-||The|345||cat|1256||sat|1726||…|…|

非技术背景,一文读懂大模型(长文)

首先为方便大家对大模型有一个整体的认知,我们先从大模型的整体架构着手,来看看大模型的组成是怎么样的。下面是我大致分的个层。从整体分层的角度来看,目前大模型整体架构可以分为以下几层:[heading3]1.基础层:为大模型提供硬件支撑,数据支持等[content]例如A100、数据服务器等等。[heading3]2.数据层[content]这里的数据层指的不是用于基层模型训练的数据基集,而是企业根据自己的特性,维护的垂域数据。分为静态的知识库,和动态的三方数据集[heading3]3.模型层:LLm或多模态模型[content]LLm这个大家应该都知道,large-language-model,也就是大语言模型,例如GPT,一般使用transformer算法来实现。多模态模型即市面上的文生图、图生图等的模型,训练所用的数据与llm不同,用的是图文或声音等多模态的数据集[heading3]4.平台层:模型与应用间的平台部分[content]比如大模型的评测体系,或者langchain平台等,提供模型与应用间的组成部分[heading3]5.表现层:也就是应用层,用户实际看到的地方[content]这个就很好理解了,就不用我多作解释了吧

Others are asking
如何基于你的模型对一台工业设备(钢板划线印字装备)进行故障诊断和预测性维护,从以下几个方面进行分析 1.技术栈:数据采集与通讯,数据库,算法,前端,微服务、应用等,并进行软件选型 2.硬件选型:工业设备、边缘计算设备,软件部署硬件,分别列出性能最优和国产化替代方案 3.算法创新性:要求可发表高水平论文和申请发明专利 4.算法通用性:考虑如何通过一个通用模型经过简单配置适应不同船舶建造工业设备的故障诊断和预测性维护 5.考虑前后合理性,若以此进行招标,如何描述招标内容
以下是为您整合的相关内容: Transformer 模型和 BERT 模型: 模型训练与评估:定义模型后,传递训练数据集和验证数据集及训练时期数,训练完成后评估性能,如达到 85%准确率。 模型性能可视化:绘制准确性和随时间的损失图。 保存与加载模型:使用 model.save 方法导出并保存模型到本地路径,保存后可加载进行预测。 预测示例:对不同情感的评论句子进行预测。 部署模型到 Vertex AI:检查模型签名,上传本地保存的模型到 Google Cloud 存储桶,在 Vertex 上部署模型并获得在线预测。 提示工程: 策略:将复杂任务分解为更简单的子任务。 技巧:使用意图分类识别用户查询中最相关的指令。例如在故障排除场景中,根据客户查询分类提供具体指令,如检查路由器连接线、询问路由器型号、根据型号提供重启建议等。模型会在对话状态变化时输出特定字符串,使系统成为状态机,更好控制用户体验。 OpenAI 官方指南: 战术:将复杂任务拆分为更简单的子任务。 策略:使用意图分类来识别与用户查询最相关的指令。例如在故障排除场景中,基于客户查询分类向 GPT 模型提供具体指令。已指示模型在对话状态变化时输出特殊字符串,将系统变成状态机,通过跟踪状态等为用户体验设置护栏。
2025-02-12
我是科研人员,有什么方法能构建自己专业领域的知识库吗?请给出详细的操作步骤,并说明需要什么样的软硬件设备?预算多少?
构建自己专业领域的知识库可以按照以下步骤进行: 步骤一:明确知识库的目标和范围 首先,确定您想要涵盖的专业领域的具体范围和知识库的主要目标,例如是为了内部研究使用、对外分享知识还是其他特定用途。 步骤二:收集和整理资料 收集相关的文献、研究报告、实验数据、案例等各种资料,并对其进行分类和整理。 步骤三:选择合适的技术架构 1. 考虑使用数据库管理系统,如 MySQL、Oracle 等。 2. 或者采用知识图谱技术来构建更直观的知识关系。 步骤四:确定软硬件设备 1. 硬件方面,需要一台性能较好的计算机,具备足够的内存和存储空间。预算大约在 5000 10000 元,具体取决于配置要求。 2. 软件方面,需要操作系统(如 Windows 或 Linux)、数据库管理软件、文本编辑工具等。 步骤五:设计知识库的结构 规划好知识的分类体系、标签系统和索引方式,以便于快速检索和查找。 步骤六:数据录入和维护 将整理好的资料录入到知识库中,并定期更新和维护,确保知识的准确性和时效性。 步骤七:测试和优化 在初步构建完成后,进行测试,检查检索功能是否正常,知识的展示是否清晰,并根据测试结果进行优化。 需要注意的是,实际的预算和设备需求可能会因具体情况而有所不同,您可以根据自己的需求和资源进行调整。
2025-02-06
deepseek的本地化部署对于软硬件的具体要求
DeepSeek 的本地化部署对于软硬件的具体要求如下: 系统:Windows 7 以上(不建议使用 XP 系统)。 显卡要求:NVDIA 独立显卡且显存至少 4G 起步。 硬盘:留有足够的空间,最低 100G 起步(包括模型)。 内存和显存配置: 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型) 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 需要注意的是,mac 系统、AMD 显卡、低显卡的情况也可以安装使用,但功能不全,出错率偏高,严重影响使用体验,个人建议升级设备或者采用云服务器玩耍。最低配置可能运行非常慢。
2025-02-06
使用O1来控制智能硬件
O1 是一个完全开源的可以控制家里电脑的 AI 语音智能助手。它能够看到您的屏幕内容,学习使用您常用的应用,无论您身在何处,都能通过按下按钮、讲话让它帮您操作电脑完成任务。其 CAD 文件、电路设计、代码完全开源,有能力的开发者可以直接制作该设备。灵感来自 Andrej Karpathy 的 LLM 操作系统,10 月份他的 LLM 科普视频含金量仍在上升。O1 运行一个代码解释语言模型,并在计算机内核发生特定事件时调用它。项目地址:https://github.com/OpenInterpreter/01
2025-02-05
介绍一下有没有适合一个5个人软件开发公使用的AI服务器,包含软硬件
目前市面上有多种适合 5 人软件开发公司使用的 AI 服务器,软硬件的选择需要综合考虑多方面因素。 在硬件方面,服务器的处理器性能至关重要,例如英特尔至强系列处理器具有较强的计算能力。内存容量应足够大,以满足数据处理和模型训练的需求,建议至少 32GB 或更高。存储方面,高速的固态硬盘(SSD)可以提供快速的数据读写速度。 在软件方面,常见的操作系统如 Linux(如 Ubuntu、CentOS 等)具有较好的稳定性和兼容性。深度学习框架如 TensorFlow、PyTorch 等是进行 AI 开发的重要工具。同时,还需要配备相关的数据库管理软件、开发工具和监控软件等。 然而,具体的选择还需根据公司的业务需求、预算以及技术团队的熟悉程度来决定。
2025-02-05
如果想做一个智能硬件接入豆包的话,应该怎么做?
要将智能硬件接入豆包,您可以参考以下步骤和相关信息: 1. 了解智能体的交互能力:包括大模型本身的交互能力、多 Agent 的灵活性以及 workflow 的妙用,通过引导用户输入相关信息,便于大模型理解和分析,同时注意上下文说明。 2. 构建智能体的知识体量:利用豆包大模型本身的行业数据和语料库,创建知识库(结构化数据),包括步骤一至步骤五的处理过程。您可以参考。同时,了解参赛用知识库,包括大模型 RAG 检索、大模型的选择和参数设定以及新模型的调用方法,可参考https://console.volcengine.com/ark/region:ark+cnbeijing/model?projectName=undefined&vendor=Bytedance&view=LIST_VIEW 。 3. 关注智能体的记忆能力:涉及变量和数据库等方面的信息记录。 在具体的应用场景中,如火山引擎 AI 创造者大赛中,不同赛道有不同的要求和核心目标。例如,在汽车品牌相关的赛道中: AI 座舱赛道:利用豆包大模型、扣子专业版以及吉利原子化能力,探索 AI 在智能座舱中的多样化应用,通过智能座舱内的智能体开发,满足车主定制化的需求。 AI 营销赛道:利用豆包大模型和扣子专业版,开发出能高效投放广告、精准用户画像、提升销售能力、优化线索转化智能体方案,助力汽车行业实现高效营销。 AI 售后赛道:利用豆包大模型和扣子专业版,提供创新且实际可行的智能体应用,提升汽车售后服务效率与用户体验,优化汽车售后服务体系,助力汽车行业智能化升级。 此外,在飞书多维表格 AI 共学中,也有基于豆包大模型的能力升级与产品化探索,包括大模型在综合能力、推理能力、指令遵循、代码数学专业知识和图片理解等方面的升级,以及将其能力接入多维表格的字段捷径等尝试。在使用相关功能前,可能需要注册豆包大模型账号并进行关联。
2025-01-22
你用的是什么ai模型
以下是关于所使用的 AI 模型的相关信息: 我使用的是 GPT4,其他模型的效果不太好。如果您使用 GPT4 总结的内容质量不行,可以点击“重试”按钮让其重新总结。 默认情况下,Cursor Chat 将 OpenAI 的 GPT4(具体为 GPT4Turbo 实例)用于其 AI 模型,您可以通过选择喜欢的 AI 模型,且为 Chat 选择的模型会保存供未来使用。 有实例中使用的是阿里千问模型。
2025-02-20
你是基于什么模型?
我调用的是抖音集团的云雀大模型。 Gemini 模型是基于 Transformer 解码器构建的,对模型结构进行了优化,主要为大规模稳定训练及在 Google 的 TPU 上推理优化。它能适应与各种音频和视觉输入交织的文本输入,并生成文本和图像输出,经过训练支持 32k 的上下文长度,采用高效的注意机制。 麦橘超然 MajicFlus 是一款基于 flux.dev 微调融合的模型,专注于高质量人像生成,尤其擅长亚洲女性,有卓越人像生成能力、广泛适用性、简单易用等特点。多位社区成员基于模型制作的 LoRA 一同发布,扩展了功能与表现力,但它对社区大部分的 lora 不完美兼容,需降低权重至 0.5 以下。
2025-02-20
模型微调是怎么实现的
模型微调是一种迁移学习技术,常用于深度学习中。其基本思路是先有一个在大量数据上预训练的模型,已学会一些基本模式和结构,然后在特定任务数据上继续训练以适应新任务。 以下是关于模型微调的具体实现步骤: 1. 准备和上传训练数据。 2. 训练新的微调模型: LoRA 微调: 脚本见:。 具体实现代码见。 单机多卡的微调可通过修改脚本中的include localhost:0 来实现。 全量参数微调: 脚本见:。 具体实现代码见。 3. 加载微调模型: LoRA 微调:基于 LoRA 微调的模型参数见基于 Llama2 的中文微调模型,LoRA 参数需和基础模型参数结合使用。通过加载预训练模型参数和微调模型参数。 全量参数微调:调用方式同模型调用代码示例,只需修改其中的模型名称或保存路径。 微调的优点包括: 1. 比即时设计更高质量的结果。 2. 能够训练比提示中更多的例子。 3. 由于更短的提示而节省了 Token。 4. 更低的延迟请求。 微调目前仅适用于以下基础模型:davinci、curie、babbage 和 ada。 以下是两个帮助理解微调概念的例子: 1. 情感分类:先使用大量语料库预训练模型,使其学会基本语法和单词语义,再收集标注过的电影评论(积极或消极)继续训练模型,使其学会判断评论情感。 2. 图像分类:先使用大量图片(如 ImageNet 数据集)预训练模型,使其学会识别图片中的基本形状和纹理,再收集标注过的猫和狗的图片继续训练模型,使其学会区分猫和狗。
2025-02-19
汇总一下现在的大语言模型都有哪些,国外和国内的模型分别列出来
以下是国内外的大语言模型汇总: 国外大语言模型: GPT4(OpenAI):目前最先进的自然语言生成模型,可用于回答问题、撰写文章等。 Gemini Ultra(Google):多模态人工智能模型,采用神经网络架构,对标 GPT4,可用于回答问题、生成代码、处理文本等。 Claude 3 Opus(Anthropic):多模态模型,能处理超过 1 百万 token 的输入,具有实时聊天、数据处理、分析预测等功能;实现了接近完美的召回率。 国内大语言模型: 文心一言(百度):大语言模型,可用以文学创作、商业文案创作、数理逻辑推算、中文理解、多模态生成。 讯飞星火:目前体验效果较好。 悟道・天鹰(北京智源人工智能研究院):首个具备中英文双语知识、支持商用许可协议、国内数据合规需求的开源语言大模型。 清华 ChatGLM 。 此外,国内还有通用模型如通用模型如文心一言、讯飞星火等,处理自然语言;还有垂直模型,专注特定领域如小语种交流、临床医学、AI 蛋白质结构预测等。
2025-02-19
0到1使用大语言模型
以下是关于 0 到 1 使用大语言模型的相关内容: Ollama 框架: 1. 支持多种大型语言模型,如通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 2. 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 CPU 和 GPU。 3. 提供模型库,用户可从中下载不同参数和大小的模型,通过 https://ollama.com/library 查找。 4. 支持用户自定义模型,例如修改温度参数调整创造性和连贯性,或设置特定系统消息。 5. 提供 REST API 用于运行和管理模型,以及与其他应用程序的集成选项。 6. 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 7. 安装完后,确保 ollama 后台服务已启动(在 mac 上启动 ollama 应用程序,在 linux 上通过 ollama serve 启动),可通过 ollama list 确认。 大模型安全: 1. 通过对齐(指令调优)使语言模型更好理解人类意图并增加安全保障,可拆解为监督微调、获取 reward model 和强化学习调整输出分布两部分。 2. LLAMA2 专门使用安全有监督微调确保语言模型安全。 3. 强化学习通过引入人类反馈数据调整模型输出分布,使模型面对训练分布外数据时能拒绝不当回答。 4. 但 Alignment 并不足以防护所有安全问题,存在越狱(Jailbreak)情况,导致模型对齐失效。 5. 还需关注隐私问题。 大模型架构与特点: 1. 包括 encoderonly、encoderdecoder 和 decoderonly 三种架构,目前熟知的 AI 助手多为 decoderonly 架构。 2. 大模型预训练数据量大,来自互联网,参数多,如 Open 在 2020 年发布的 GPT3 已达 170B 参数。 3. GPT3 可根据任务描述和示例完成任务,ChatGPT 则通过对话完成任务,二者在形式和安全性上有差别。
2025-02-19
deepseek的论文里面讲的混合专家模型怎么理解
混合专家(MoE)模型是一种在深度学习中提升计算效率的架构。以 DeepSeek 为例,其最新模型 V3 与 R1 采用了这种架构。 在 DeepSeek 的 V3 模型中,引入了多头潜注意力(MLA),将 KV 缓存压缩至新低,从而提升了计算性能。R1 模型则通过强化学习激活推理能力,首次验证无需监督微调即可实现推理。 DeepSeek 的 2360 亿参数的 DeepSeekV2 是 60 位专家混合开源模型,在数学、编码和推理方面表现出色,具有 236B 参数,21B 在生成过程中被激活,在 MTBench 上表现优异,中文能力强且性价比高。 您可以通过以下链接获取更详细的介绍:https://xiaohu.ai/p/7468 、https://zhuanlan.zhihu.com/p/21208287743 。
2025-02-19
DeepSeek搭建 个人知识库
以下是关于 DeepSeek 搭建的相关知识: 对于个人知识库的搭建,您可以参考以下内容: 章节“三.使用 DeepSeek R1 给老外起中文名”:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcshareDyEMdmCPOo98S6xbPfNcsuEOnuh 知识点“Node.JS 安装”:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcsharePVnndBSV5oWOukx38tKcw2CPnub 申请“DeepSeek R1 API”:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcshareTrXednqLAoH3VLxrUiYc1Pb9nhf 网页接入“DeepSeek API”:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcshareUK5xdzhiaoo9RkxHR5bcs30pnV8 章节“一.Trae 的介绍/安装/疑难杂症”:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcshareR4GvdgOzeoC9mOxd1hScuql6nVY Python 安装:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcshareKcojdhid9oWJPjxAvEOczRt0nkg 一个提示词让 DeepSeek 的能力更上一层楼的相关内容: 效果对比:用 Coze 做了个小测试,大家可以对比看看,视频链接: 如何使用: 搜索 www.deepseek.com,点击“开始对话” 将装有提示词的代码发给 Deepseek 认真阅读开场白之后,正式开始对话 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担 通过提示词文件,让 DeepSeek 实现:同时使用联网功能和深度思考功能 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改 用 XML 来进行更为规范的设定,而不是用 Lisp(对我来说有难度)和 Markdown(运行下来似乎不是很稳定) 完整提示词:v 1.3 特别鸣谢:李继刚的【思考的七把武器】在前期为提供了很多思考方向;Thinking Claude 是现在最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源;Claude 3.5 Sonnet 是最得力的助手 五津:DeepSeek+扣子:1 分钟生成小红书爆款单词视频: 先观察此类视频规律,如先问这是什么→再揭晓结果,反复多次。 拆解视频模板的制作流程,逐个轨道分析,注意各轨道上的元素时间对应关系。 涉及的知识点可用于用扣子工作流来搭建。
2025-02-20
现在有哪些个人知识库软件可以用,请推荐。
以下是为您推荐的个人知识库软件: 1. Coze:如果您想使用专门搭建个人知识库的软件,可以参考文章,忽略本地部署大模型环节,直接看其中推荐的软件。但使用该软件可能需要对接一些额外的 API,建议先了解 RAG 的原理再使用。 2. AnythingLLM:包含所有 Open WebUI 的能力,并且额外支持选择文本嵌入模型和向量数据库。安装地址:https://useanything.com/download 。安装完成后,配置页面主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。在 AnythingLLM 中有 Workspace 的概念,可以创建自己独有的 Workspace 跟其他项目数据进行隔离,包括创建工作空间、上传文档并进行文本嵌入、选择对话模式(Chat 模式和 Query 模式),配置完成后即可进行对话测试。 此外,还有通过 GPT 打造个人知识库的方法,比如将文本转换成向量节省空间,拆分成小文本块并通过 embeddings API 转换成 embeddings 向量,在向量储存库中保存这些向量和文本块作为问答的知识库。当用户提问时,将问题转换成向量与库中向量比对,提取关联度高的文本块与问题组合成新的 prompt 发送给 GPT API 。
2025-02-19
waytoagi的知识库基于哪个LLM创建的
目前没有明确的信息表明 waytoagi 的知识库基于哪个 LLM 创建。但以下信息可能对您有所帮助: AnythingLLM 包含了所有 Open WebUI 的能力,并且额外支持选择文本嵌入模型、选择向量数据库等。安装地址为:https://useanything.com/download 。安装完成后配置主要分为三步,包括选择大模型、选择文本嵌入模型、选择向量数据库。AnythingLLM 中有 Workspace 的概念,可创建自己独有的 Workspace 跟其他项目数据进行隔离,包括创建工作空间、上传文档并进行文本嵌入、选择对话模式(Chat 模式和 Query 模式)等。 GitHubDaily 开源项目列表中提到了 AnythingLLM,它是一个可打造成企业内部知识库的私人专属 GPT,可以将任何文档、资源或内容转换为大语言模型(LLM)知识库。
2025-02-19
用飞书搭建知识库并进行AI问答
以下是关于用飞书搭建知识库并进行 AI 问答的相关内容: 知识库问答是机器人的基础功能,可根据用户问题从知识库中找到最佳答案,这利用了大模型的 RAG 机制。RAG 机制全称为“检索增强生成”(RetrievalAugmented Generation),是一种用于自然语言处理的技术,结合了检索和生成两种主要的人工智能技术,以提高机器对话和信息处理的能力。 简单来说,RAG 机制先从大型数据集中检索与问题相关的信息,然后利用这些信息生成更准确、相关的回答。可以想象成当问复杂问题时,RAG 机制先在巨大图书馆里找相关书籍,再基于这些书籍信息给出详细回答。这种方法结合大量背景信息和先进语言模型能力,使生成内容更精确,提升对话 AI 的理解力和回答质量。 基于 RAG 机制实现知识库问答功能,首先要创建包含大量社区 AI 相关文章和资料的知识库,比如创建有关 AI 启蒙和信息来源的知识库,通过手工录入方式上传栏目所有文章内容,陆续将社区其他板块文章和资料导入。在设计 Bot 时,添加知识库,并设置合适的搜索策略、最大召回数量和最小匹配度,以更好地利用知识库返回内容结合回答。 另外,全程白嫖拥有一个 AI 大模型的微信助手的搭建步骤如下: 1. 搭建,用于汇聚整合多种大模型接口,方便后续更换使用各种大模型,并获取白嫖大模型接口的方法。 2. 搭建,这是个知识库问答系统,放入知识文件,接入上面的大模型作为分析知识库的大脑来回答问题。若不想接入微信,搭建到此即可使用,它有问答界面。 3. 搭建,其中的 cow 插件能进行文件总结、MJ 绘画。
2025-02-19
有哪些比较好的AI知识库学习网站
以下是一些比较好的 AI 知识库学习网站及相关学习建议: 通往 AGI 之路知识库: 提供了全面系统的 AI 学习路径,帮助您了解从 AI 常见名词到 AI 应用等各方面知识。 包含关于 AI 知识库使用及 AIPO 活动的介绍、AIPO 线下活动及 AI 相关探讨、way to AGI 社区活动与知识库介绍等内容。 信息来源有赛博蝉星公众号、国外优质博主的 blog 或 Twitter 等,推荐大家订阅获取最新信息并投稿。 有社区共创项目,如 AIPU、CONFIUI 生态大会,每月有切磋大会等活动,还发起了新活动 AIPO。 学习路径方面,有李弘毅老师的生成式 AI 导论等高质量学习内容,可系统化学习或通过社区共创活动反推学习,鼓励整理学习笔记并分享交流。 有经典必读文章,如介绍 GPT 运作原理、Transformer 模型、扩散模型等的文章,还包括软件 2.0 时代相关内容。 初学者入门推荐看 open AI 的官方 Cookbook,小琪姐做了中文精读翻译,也可查看 cloud 的相关内容。 有历史脉络类资料,整理了 open AI 的发展时间线和万字长文回顾等。 网站:ytoAGI.com 相关渠道:公众号“通往 AGI 之路”、 在线教育平台:如 Coursera、edX、Udacity 等,上面有一系列为初学者设计的课程,您可以按照自己的节奏学习,并有机会获得证书。 对于新手学习 AI,建议: 了解 AI 基本概念:阅读「」部分,熟悉 AI 的术语和基础概念。了解什么是人工智能,它的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 开始 AI 学习之旅:在「」中,找到一系列为初学者设计的课程。特别推荐李宏毅老师的课程。 选择感兴趣的模块深入学习:AI 领域广泛(比如图像、音乐、视频等),根据自己的兴趣选择特定的模块进行深入学习。掌握提示词的技巧,它上手容易且很有用。 实践和尝试:理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 体验 AI 产品:与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。
2025-02-18
有什么提升 RAG 知识库问答的好的 prompt
以下是一些提升 RAG 知识库问答的好的 prompt 相关内容: RAG 在 Natural Questions、WebQuestions 和 CuratedTrec 等基准测试中表现出色,在使用 MSMARCO 和 Jeopardy 问题进行测试时,生成的答案更符合事实、具体且多样,FEVER 事实验证使用 RAG 后也有更好结果,说明 RAG 是可行方案,能增强知识密集型任务中语言模型的输出,基于检索器的方法常与 ChatGPT 等流行 LLM 结合提高能力和事实一致性,可在 LangChain 文档中找到相关例子。 RAG 能显著提高大模型在处理私域知识或垂直领域问答时的效果。其流程包括:上传文档(支持多种格式,会转换为 Markdown 格式)、文本切割、文本向量化(存入向量数据库)、问句向量化、语义检索匹配(匹配出与问句向量最相似的 top k 个)、提交 Prompt 至 LLM、生成回答返回给用户。RAG 研究范式分为基础 RAG、高级 RAG 和模块化 RAG。 高级 RAG 特点:支持多模态数据处理,增强对话性,具备自适应检索策略,能进行知识融合,扩展了基础 RAG 功能,解决复杂任务局限,在广泛应用中表现出色,推动自然语言处理和人工智能发展。 模块化 RAG 侧重于提供更高定制性和灵活性,将系统拆分成多个独立模块或组件,每个组件负责特定功能,便于根据不同需求灵活组合和定制。
2025-02-18
我是少儿编程老师,现在我需要知道编程每个语言之间的区别,并绘制出一张思维导图给我详细介绍
很抱歉,目前没有关于编程各语言区别的详细内容来为您绘制思维导图。但一般来说,不同的编程语言在语法、应用场景、性能特点等方面存在差异。例如,Python 语法简洁,常用于数据科学和人工智能;Java 应用广泛,在企业级开发中表现出色;C++ 性能高效,常用于系统编程和游戏开发等。您可以通过在线编程学习网站、相关书籍以及技术论坛获取更详细准确的信息来绘制思维导图。
2025-02-19
请介绍一下如何使用AI进行PPT生成
以下是使用 AI 进行 PPT 生成的方法: 1. 利用闪击: 访问国内网站 https://ppt.isheji.com/?code=ysslhaqllp&as=invite ,无需魔法。 选择模板。 将准备的大纲转换成适配闪击的语法,可参考官方使用指南:https://zhuanlan.zhihu.com/p/607583650 。 点击文本转 PPT,并在提示框中选择确定,得到转换后的 PPT。 可在线编辑,但导出有会员限制。 2. 以爱设计为例: 导入大纲到工具生成 PPT,其他工具操作方式大同小异,基本基于 Markdown 语法的内容来完成 PPT 生成。 优化整体结构,按照公司要求自行优化字体、图片等元素,针对下载后的 PPT 可删改内容。 3. 结合 GPT4、WPS AI 和 chatPPT: 先让 GPT4 生成 PPT 大纲。 把大纲导入到 WPS 当中,启用 WPS AI 一键生成 PPT。 让 chatPPT 添加一些动画。 手动修改细节,如字体、事实性错误等。
2025-02-18
通往AGI之路的介绍
“通往 AGI 之路”(WaytoAGI)是一个致力于人工智能(AI)学习的中文知识库和社区平台。 社区由开发者、学者和 AI 爱好者共同参与建设,提供丰富的学习资源,包括文章、教程、工具推荐以及最新的 AI 行业资讯等。 品牌 VI 方面,融合了独特的设计元素,以彩虹色彰显多元性和创新,以鹿的形象象征智慧与优雅,通过非衬线字体展现现代感和清晰性。 为学习者提供系统全面的 AI 学习路径,涵盖从基础概念到实际应用的各个方面。 汇集了上千个人工智能网站和工具,拥有丰富多样的技术活动、学习资源和大量的社区成员。在没有任何推广的情况下,一年时间已有超过 100 万用户和超千万次的访问量。 社区定期组织活动,如视频挑战赛、模型创作大赛等,鼓励成员在实践中学习,促进交流与合作。 引领并推广开放共享的知识体系,倡导共学共创等形式,孵化了 AI 春晚、离谱村等大型共创项目。 目标是让每个人的学习过程少走弯路,让更多的人因 AI 而强大。目前合作过众多公司/产品,如阿里云、通义千问、淘宝、智谱、支付宝等。 如果您对 AI 学习感兴趣,加入“通往 AGI 之路”社区将是一个不错的选择。在这里,您可以获取最新的 AI 知识,参与实践活动,与志同道合的学习者共同成长。
2025-02-17
DEEPSEEK发展现状介绍一下
DeepSeek 的发展现状如下: 1. 训练成本方面:远高于传闻的 600 万美元,总计约 13 亿美元。定价低于实际成本,导致高额亏损。MixtureofExpert 方法虽降低计算需求,但大规模内存使用可能增加总成本。 2. 竞争优势方面:以低成本开发顶级 AI 模型的 Mistral AI 被中国 DeepSeek 迅速赶超,DeepSeek 的“极简算力”模式可能削弱 Mistral 的竞争优势。 3. 市场表现方面:展示出媲美领先 AI 产品性能的模型,成本仅为一小部分,在全球主要市场的 App Store 登顶。 4. 实际使用体验方面:在文字能力上表现突出,尤其在中文场景中高度符合日常、写作习惯,但在专业论文总结方面稍弱。数学能力经过优化表现不错,编程能力略逊于 GPT。GRPO 算法替代传统 PPO,降低价值函数估计难度,提高语言评价场景的灵活性与训练速度。 5. 热度方面:微信指数达 10 亿多次,陈财猫将分享提示词及小说创作心得。
2025-02-17
有关agent的介绍
AI Agent 是当前 AI 领域中较为热门的概念,被认为是大模型未来的主要发展方向之一。 从原理上看,中间的“智能体”通常是 LLM(语言模型)或大模型。为其增加的四个能力分别是工具、记忆、行动和规划。目前行业中主要使用 langchain 框架,将 LLM 与 LLM 之间以及 LLM 与工具之间通过代码或 prompt 的形式进行串接。例如,给大模型提供长期记忆,相当于给予一个数据库工具让其记录重要信息;规划和行动则是在大模型的 prompt 层进行逻辑设计,如将目标拆解并输出不同的固定格式 action 指令给工具。 从产品角度,Agent 可以有不同的设定。比如是一个历史新闻探索向导,身份为历史新闻探索向导,性格知识渊博、温暖亲切、富有同情心,角色是主导新闻解析和历史背景分析,还可以为其设计背景故事使其更加生动。 在人工智能领域,Agent 智能代理是一种能够感知环境并根据感知信息做出决策以实现特定目标的系统,能够自动执行任务,如搜索信息、监控系统状态或与用户交互。
2025-02-16
详细介绍下langchain
LangChain 是一个用于构建高级语言模型应用程序的框架,旨在简化开发人员使用语言模型构建端到端应用程序的过程。 它具有以下特点和优势: 1. 提供一系列工具、组件和接口,使基于大型语言模型(LLM)和聊天模型创建应用程序更轻松。 2. 核心概念包括组件和链,组件是模块化构建块,可组合创建强大应用,链是一系列组件或其他链的组合,用于完成特定任务。 3. 具有模型抽象功能,提供对大型语言模型和聊天模型的抽象,便于开发人员选择合适模型并利用组件构建应用。 4. 支持创建和管理提示模板,引导语言模型生成特定输出。 5. 允许开发人员定义处理步骤链,按顺序执行完成复杂任务。 6. 支持构建代理,能使用语言模型做决策并根据用户输入调用工具。 7. 支持多种用例,如特定文档问答、聊天机器人、代理等,可与外部数据源交互收集数据,还提供内存功能维护状态。 LangChain 是一个开源框架,为简化大模型应用开发而设计。它通过提供模块化的工具和库,允许开发者轻松集成和操作多种大模型,将更多精力投入到创造应用的核心价值上。其设计注重简化开发流程,支持广泛的模型,具备良好的可扩展性以适应业务需求变化。作为社区广泛支持的开源项目,拥有活跃的贡献者和持续更新,提供全面的文档和示例代码帮助新用户快速掌握。同时,在设计时充分考虑应用的安全性和用户数据的隐私保护,是多语言支持的灵活框架,适用于各种规模的项目和不同背景的开发者。 LangChain 官方手册:https://python.langchain.com/docs/get_started/introduction/
2025-02-14