Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

大模型搭建知识库的逻辑是什么

Answer

大模型搭建知识库的逻辑主要包括以下几个方面:

  1. 理解 RAG 技术:利用大模型搭建知识库本质上是 RAG 技术的应用。在大模型训练数据有截止日期或不包含所需数据时,通过检索增强生成(RAG)来解决。RAG 可抽象为 5 个过程:
    • 文档加载:从多种来源加载包括非结构化、结构化和代码等不同类型的文档。
    • 文本分割:把文档切分为指定大小的块。
    • 存储:包括将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。
    • 检索:通过检索算法找到与输入问题相似的嵌入片。
    • 输出:把问题及检索出来的嵌入片一起提交给大模型,生成更合理的答案。
  2. 构建知识库各个流程:
    • 从用户提出问题开始,经历用户问题的理解、路由、初步检索、重排序等环节,最终将重排序后的结果和用户的查询意图组合成上下文输入给大模型生成输出结果。需要注意重排序结果的使用限制,如设置阈值进行截断或筛选相关性分数等。
    • 后置处理包括敏感内容检测和移除、格式化输出等。
  3. 知识库的需求:大模型并非 100%准确,存在数据日期限制和无法感知公司内部私有数据等问题,知识库的出现就是为解决大模型的数据准确性问题。例如在客服系统中,公司将用户问题及答案记录在文档中以知识库形式投喂给大模型,使其能更准确回答用户自然语言询问的问题。
Content generated by AI large model, please carefully verify (powered by aily)

References

手把手教你本地部署大模型以及搭建个人知识库

因为利用大模型的能力搭建知识库本身就是一个RAG技术的应用。所以在进行本地知识库的搭建实操之前,我们需要先对RAG有一个大概的了解。以下内容会有些干,我会尽量用通俗易懂的描述进行讲解。我们都知道大模型的训练数据是有截止日期的,那当我们需要依靠不包含在大模型训练集中的数据时,我们该怎么做呢?实现这一点的主要方法就是通过检索增强生成RAG(Retrieval Augmented Generation)。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给LLM。我们可以将一个RAG的应用抽象为下图的5个过程:文档加载(Document Loading):从多种不同来源加载文档。LangChain提供了100多种不同的文档加载器,包括PDF在内的非结构化的数据、SQL在内的结构化的数据,以及Python、Java之类的代码等文本分割(Splitting):文本分割器把Documents切分为指定大小的块,我把它们称为“文档块”或者“文档片”存储(Storage):存储涉及到两个环节,分别是:将切分好的文档块进行嵌入(Embedding)转换成向量的形式将Embedding后的向量数据存储到向量数据库检索(Retrieval):一旦数据进入向量数据库,我们仍然需要将数据检索出来,我们会通过某种检索算法找到与输入问题相似的嵌入片Output(输出):把问题以及检索出来的嵌入片一起提交给LLM,LLM会通过问题和检索出来的提示一起来生成更加合理的答案[heading2]文本加载器(Document Loaders)[content]文本加载器就是将用户提供的文本加载到内存中,便于进行后续的处理

胎教级教程:万字长文带你理解 RAG 全流程

从用户提出问题开始:我们经历了用户问题的理解根据用户问题进行路由进行初步的检索对初步检索的结果进行重排序现在终于要到了生成结果的时候了,这个环节的流程可以简化如下:将重排序后的结果和用户的查询意图组合成上下文输入给大模型大模型通过指定的提示词生成输出结果这个环节理解起来很简单,但是同样有几个需要注意的点重排序的结果通常不会都被用作大模型的上下文,因为大模型的上下文有限制可以设置一个阈值进行截断,比如只使用前3-5个文档可以设置一个相关性分数的阈值,只取相关性分数大于某个值的文档一些先进的RAG系统会对选中的文档进行摘要或压缩,以在有限的空间内包含更多相关信息。[heading3]后置处理[heading3][content]在大模型输出结果后就是一些后置的处理了,这可能包括敏感内容检测和移除格式化输出.....这些不是本文的重点,我们就不再这里展开了至此,关于普通的RAG的原理基本就全部讲完了,非常感谢你能耐心看到这里!这里我再引用智谱清言的一张图给大家复习,看完上述流程,我理解这张图理解起来更容易

大圣:胎教级教程:万字长文带你使用Coze打造企业级知识库

大模型并不是100%准确的,它会产生幻觉,主要是因为以下两点训练大模型的数据是有日期限制的,如果你询问大模型超出日期限制的问题,则大模型无法准确回答大模型的数据来源于互联网,如果是公司内部的私有数据,则大模型无法感知因此知识库的出现就是为了解决大模型的数据准确性的问题。大模型可以额外学习外接知识库中的知识,从而来精准回复用户。知识库中最典型的一个应用就是客服系统:公司可以将用户所有问题以及答案记录在文档中,然后以知识库的形式投喂给大模型。这样当用户通过自然语言询问问题时,大模型就可以根据知识库中的内容给出更加准确的回答。

Others are asking
企业微信客服号能对接dify知识库,实现智能客服功能吗?
企业微信客服号能对接 Dify 知识库实现智能客服功能。以下是相关步骤: 1. 在 Dify 平台创建基础编排聊天助手应用,获取 API 密钥和 API 服务器地址。 2. 下载 Dify on WeChat 项目并安装依赖。 3. 在项目根目录创建 config.json 文件,填写 API 密钥和服务器地址。 4. 把基础编排聊天助手接入微信,可选择源码部署或 Docker 部署,进行快速启动测试,扫码登录并对话测试。 5. 把工作流编排聊天助手接入微信,创建知识库,导入知识库文件,创建工作流编排聊天助手应用,设置知识检索节点和 LLM 节点,发布更新并访问 API。 6. 把 Agent 应用接入微信,创建 Agent 应用,设置对话模型和添加工具,生成 API 密钥,填写配置文件,启动程序并进行测试。 更多内容请访问原文:https://docs.dify.ai/v/zhhans/learnmore/usecases/difyonwechat 另外,通过云服务器、Dify、智能微秘书免费搭建微信机器人的部署 Dify 步骤如下: https://docs.dify.ai/v/zhhans/gettingstarted/installselfhosted/dockercompose ,这些命令在宝塔面板的终端安装。 零成本、零代码搭建一个智能微信客服的步骤如下: 1. 访问微信客服 https://kf.weixin.qq.com/,点击开通。 2. 勾选同意,点击下一步。 3. 按步骤填写,勾选同意,注册企业微信。 4. 点击配置>到微信客服的企业信息,复制企业 ID>到 coze 页面进行粘贴填写企业 ID,并点击下一步。 5. 到微信客服的开发配置,找到到回调配置,复制 Token、EncodingAESKey(如果还是空的,点击“随机获取”即可),到 coze 页面进行粘贴,点击下一步。 6. 到微信客服的开发配置,配置回调地址 URL、复制 Secret 到 coze 的页面粘贴。 7. 到微信客服的客服账号,创建一个客服账号,复制客服账号名称,到 coze 的页面粘贴,点击保存。 第一次设置回调地址时,注意目前需要企业认证,才可以进行接入微信客服。如果企业没有进行认证,则会在配置回调 URL 时报错:回调域名校验失败。另外,之前未进行企业认证就发布过微信客服的不受影响。第一次设置成功后,后面再修改是特定页面。保存后,在 coze 发布页面的发布平台的微信客服这里,显示“已配置”,剩下的就是勾选,点击发布。
2025-02-05
dify知识库能接入企业微信客服 了吗?
Dify 可以接入企业微信,以下是接入的步骤: 1. 创建聊天助手应用:在 Dify 平台创建基础编排聊天助手应用,获取 API 密钥和 API 服务器地址。 2. 下载 Dify on WeChat 项目:下载并安装依赖。 3. 填写配置文件:在项目根目录创建 config.json 文件,填写 API 密钥和服务器地址。 4. 把基础编排聊天助手接入微信:快速启动测试,扫码登录,进行对话测试,可以选择源码部署或 Docker 部署。 5. 把工作流编排聊天助手接入微信:创建知识库,导入知识库文件,创建工作流编排聊天助手应用,设置知识检索节点和 LLM 节点,发布更新并访问 API。 6. 把 Agent 应用接入微信:创建 Agent 应用,设置对话模型和添加工具,生成 API 密钥,填写配置文件,启动程序并进行测试。 更多内容请访问原文:https://docs.dify.ai/v/zhhans/learnmore/usecases/difyonwechat
2025-02-05
如何用AI工具做一个个人工作知识库
以下是使用 AI 工具创建个人工作知识库的方法: 1. 使用 AnythingLLM 软件: 安装地址:https://useanything.com/download 。 安装完成后进入配置页面,主要分为三步: 第一步:选择大模型。 第二步:选择文本嵌入模型。 第三步:选择向量数据库。 在 AnythingLLM 中创建自己独有的 Workspace 与其他项目数据隔离。 首先创建一个工作空间,上传文档并在工作空间中进行文本嵌入,选择对话模式。 AnythingLLM 提供了两种对话模式:Chat 模式(大模型会根据自己的训练数据和上传的文档数据综合给出答案)和 Query 模式(大模型仅仅会依靠文档中的数据给出答案)。 完成配置后即可与大模型进行对话。 2. 基于 Coze 免费打造: 确定功能范围,编写 prompt 提示词,设定 Bot 的身份和目标。 创建知识库,整理“关键字”与“AI 相关资料链接”的对应关系,并将信息存储起来。创建知识库路径:个人空间 知识库 创建知识库。知识库文档类型支持本地文档、在线数据、飞书文档、Notion 等,本次使用【本地文档】。按照操作指引上传文档、分段设置、确认数据处理。小技巧:在内容中加上一些特殊分割符,比如“”,以便于自动切分数据。分段标识符号要选择“自定义”,内容填“”。 创建工作流,告诉 AI 机器人应该按什么流程处理信息。创建工作流路径:个人空间 工作流 创建工作流。工作流设计好后,先点击右上角“试运行”,测试工作流无误后,就可以点击发布。如果任务和逻辑复杂,可以结合左边“节点”工具来实现。 私人知识库中的内容一般有两种:日常从互联网收集的优质信息和个人日常的思考以及分享。如果想基于这套知识库打造个人专属的 ChatGPT,常见的有两种技术方案:训练专有大模型和利用 RAG(检索增强生成)技术。训练专有大模型效果虽好,但存在高成本、更新难度大等缺陷,并非当下主流方案。
2025-02-04
lmstudio可以支持联网搜索和本地知识库rag吗?如何实现?
LMStudio 能否支持联网搜索和本地知识库 RAG 以及如何实现的问题如下: 实现本地知识库 RAG 需加载所需的库和模块,如用于解析 RSS 订阅源的 feedparse,用于在 Python 程序中跑大模型的 ollama(使用前需确保 ollama 服务已开启并下载好模型)。 从订阅源获取内容,通过特定函数从指定的 RSS 订阅 URL 提取内容,若需接收多个 URL 稍作改动即可。然后用专门的文本拆分器将长文本拆分成较小的块,并附带相关元数据,最终合并成列表返回用于后续处理或提取。 为文档内容生成向量,可使用文本向量模型 bgem3(从 hf 下载好模型假设放置在某个路径,通过函数利用 FAISS 创建高效的向量存储)。 实现 RAG 包括文档加载(从多种来源加载文档,LangChain 提供 100 多种文档加载器)、文本分割(把 Documents 切分为指定大小的块)、存储(将切分好的文档块嵌入转换成向量形式并存储到向量数据库)、检索(通过检索算法找到与输入问题相似的嵌入片)、Output(把问题及检索出的嵌入片提交给 LLM 生成答案)。 基于用户问题从向量数据库中检索相关段落,根据设定阈值过滤,让模型参考上下文信息回答,从而实现 RAG。 还可创建网页 UI 并进行评测,对于同样的问题和上下文,基于不同模型进行多次测试,其中 GPT4 表现最好,Mixtral 次之,Qwen7b 第三,Gemma 和 Mistral 表现一般。总结来说,本文展示了如何使用 Langchain 和 Ollama 技术栈在本地部署资讯问答机器人,结合 RSSHub 处理和提供资讯,上下文数据质量和大模型性能决定 RAG 系统性能上限,RAG 能提升答案质量和相关性,但不能完全消除大模型幻觉和信息滞后问题。
2025-02-04
飞书文档如何作为知识库输入到coze平台
要将飞书文档作为知识库输入到 Coze 平台,主要有以下步骤: 1. 在线知识库: 点击创建知识库,创建一个画小二课程的 FAQ 知识库。 选择飞书文档,选择自定义的自定义,输入。 飞书的文档内容会以区分开来,可以点击编辑修改和删除。 点击添加 Bot,添加好可以在调试区测试效果。 2. 本地文档: 注意如何拆分内容,提高训练数据准确度,将海报的内容训练的知识库里面。 画小二这个课程 80 节课程,分为了 11 个章节,不能一股脑全部放进去训练。 正确的方法是首先将 11 章的大的章节名称内容放进来,章节内详细内容按固定方式进行人工标注和处理。 然后选择创建知识库自定义清洗数据。 3. 发布应用: 点击发布,确保在 Bot 商店中能够搜到。 此外,创建知识库并上传文本内容有以下方式: 1. 在线数据: 自动采集方式:适用于内容量大,需要批量快速导入的场景。 在文本格式页签下,选择在线数据,然后单击下一步。 单击自动采集。 单击新增 URL。在弹出的页面完成输入要上传的网站地址、选择是否需要定期同步网站内容及周期等操作。 当上传完成后单击下一步,系统会自动根据网站的内容进行内容分片。 手动采集方式:适用于需要精准采集网页上指定内容的场景。 安装扩展程序,详情请参考。 在文本格式页签下,选择在线数据,然后单击下一步。 点击手动采集,然后在弹出的页面点击权限授予完成授权。 在弹出的页面输入要采集内容的网址,然后单击确认。 在弹出的页面上,点击页面下方文本标注按钮,开始标注要提取的内容,然后单击文本框上方的文本或链接按钮。 单击查看数据查看已采集的内容,确认无误后再点击完成并采集。 Coze 的知识库功能不仅支持上传和存储外部知识内容,还提供了多样化的检索能力,主要包括两大核心能力:一是能够存储和管理外部数据;二是增强检索能力。Coze 支持从多种数据源,如本地文档、在线数据、Notion、飞书文档等渠道上传文本和表格数据。上传后,系统会自动将知识内容切分成多个片段进行存储,并允许用户自定义内容分片规则。Coze 还提供了多种检索方式来对存储的内容片段进行高效检索,例如全文检索可以通过关键词快速找到相关的内容片段并召回。基于这些召回的内容片段,大模型将生成最终的回复内容。Coze 支持上传文本内容及结构化表格数据,以适应各种使用场景。
2025-02-04
如何建立个人领域的个人知识库
以下是建立个人领域个人知识库的方法: 1. 使用 embeddings: 将文本转换成向量(一串数字),可理解为索引,能节省空间。 把大文本拆分成若干小文本块(chunk),通过 embeddings API 将其转换成 embeddings 向量,与文本块语义相关。 在向量储存库保存 embeddings 向量和文本块,作为问答的知识库。 当用户提问时,将问题转换成向量,与向量储存库的向量比对,提取关联度高的文本块,与问题组合成新的 prompt 发送给 GPT API。 例如,对于“此文作者是谁?”的问题,可提取关联度高的文本块,如“本文作者:越山。xxxx。”“《反脆弱》作者塔勒布xxxx。” 2. 理解 embeddings: embeddings 是浮点数字的向量(列表),向量之间的距离衡量关联性,小距离表示高关联度,大距离表示低关联度。 向量是用一串数字表示大小和方向的量,在计算机科学中常用列表表示。 常见的计算向量距离的方法是欧几里得距离。 在 OpenAI 词嵌入中,靠近的向量词语在语义上相似。 3. GPT 模型索引库 LlamaIndex: LlamaIndex 是更高一层 LangChain 的抽象,之前叫 GPT Index。 它简化了 LangChain 对文本分割和查询的接口,提供了更丰富的 Data Connector。 LlamaIndex 只针对 GPT Model 做 Index,而 LangChain 可对接多个 LLMs,可扩展性更强。 需要注意的是,GPT3.5 一次交互支持的 Token 有限,OpenAI 提供了 embedding API 解决方案。随着技术发展,AI 的开发和使用门槛会降低,垂直领域知识库的搭建和优化更多是业务问题。
2025-02-03
coze工作流搭建
以下是在 Coze 上搭建工作流的步骤: 1. 进入 Coze ,点击「个人空间 工作流 创建工作流」,打开创建工作流的弹窗。 2. 根据弹窗要求,自定义工作流信息,点击确认完成工作流的新建。 3. 新建完成后,可以看到整个编辑视图与功能。在左侧「选择节点」模块中,根据子任务需要,实际用到的有: 插件:提供一系列能力工具,拓展 Agent 的能力边界。例如本案例中涉及的思维导图、英文音频,因无法通过 LLM 生成,需依赖插件实现。 大模型:调用 LLM ,实现各项文本内容的生成。如本案例中的中文翻译、英文大纲、单词注释等都依赖大模型节点。 代码:支持编写简单的 Python、JS 脚本,对数据进行处理。 4. 编辑面板中的开始节点、结束节点,分别对应分解子任务流程图中的原文输入和结果输出环节。 5. 按照流程图,在编辑面板中拖入对应的 LLM 大模型、插件、代码节点,即可完成工作流框架的搭建。 此外,在“用 Coze 搭建一个神奇宠物诞生器”的工作流中,“定制召唤”工作流是“随机召唤”工作流的变种。对于“定制召唤”工作流,需要修改的节点包括: 开始节点:新增一个输入变量,定义为 keywords ,用于接收用户输入的宠物种类(动物或者植物)。 代码节点:要将特定的宠物种类关键词嵌入到描述 prompt 里。例如,如果召唤师输入“熊猫”,R 属性的宠物描述就要修改为“一个朴素小熊猫宠物,可爱,圆滚滚的,大眼睛,毛茸茸的。画风参考著名动画片《神奇宝贝》”,SR 和 SSR 依次类推。描述 prompt 变成三段字符串相加的情况,即原描述第一段+宠物种类+原描述第二段。其余节点均与“随机召唤工作流一致”。
2025-02-03
Coze + 飞书 + 飞书多维表格:通过飞书机器人与 Coze 搭建的智能体进行对话,在聊天窗口中完成链接输入和阅读计划输出。由 Coze 调用大模型、插件完成内容的整理、推荐,利用飞书多维表格存储和管理稍后读数据,无需开发任何插件、APP,能实现跨平台的稍后读收集与智能阅读计划的推荐。其设计思路包括简化“收集”,实现跨平台收集和通过输入 URL 完成收集;自动化“整理入库”,自动整理关键信息并支持跨平台查看;智能“选择”推荐,根据收藏记录和用户兴趣生成阅读计划——这个方法具体如何操作?
以下是关于通过飞书机器人与 Coze 搭建的智能体进行对话,并利用飞书多维表格存储和管理稍后读数据,实现跨平台的稍后读收集与智能阅读计划推荐的具体操作方法: 前期准备: 1. 简化“收集”: 实现跨平台收集功能,支持电脑(web 端)、安卓、iOS 多端操作。 输入一个 URL 即可完成收集,借鉴微信文件传输助手的方式,通过聊天窗口完成收集输入。 2. 自动化“整理入库”: 系统在入库时自动整理每条内容的关键信息,包括标题、摘要、作者、发布平台、发布日期、收集时间和阅读状态。 阅读清单支持跨平台查看。 3. 智能“选择”推荐: 根据当前收藏记录和用户阅读兴趣进行相关性匹配,生成阅读计划。 使用飞书·稍后读助手: 1. 设置稍后读存储地址: 首次使用,访问。 点击「更多创建副本」,复制新表格的分享链接。 将新链接发送到智能体对话中。 还可以发送“查询存储位置”、“修改存储位置”来更换飞书多维表格链接,调整稍后读存储位置。 2. 收藏待阅读的页面链接: 在对话中输入需要收藏的页面链接,第一次使用会要求授权共享数据,授权通过后再次输入即可完成收藏。但目前部分页面链接可能小概率保存失败。 3. 智能推荐想看的内容: 在对话中发送“我想看 xx”、“xx 内容”,即可按个人兴趣推荐阅读计划。 至此,专属 AI 稍后读智能体大功告成,您可以尽情享受相关服务。
2025-01-27
如何用飞书搭建自己的智能体详细步骤
以下是用飞书搭建自己的智能体的详细步骤: 1. 了解智能体的基本概念: 智能体大多建立在大模型之上,从基于符号推理的专家系统逐步演进而来。 基于大模型的智能体具有强大的学习能力、灵活性和泛化能力。 提示词的设计对智能体的表现和输出结果有直接影响。 2. 动手实践: 基于公开的大模型应用产品(如 Chat GLM、Chat GPT、Kimi 等)尝试开发。 具体步骤: 点击“浏览 GPTs”按钮。 点击“Create”按钮创建自己的智能体。 使用自然语言对话进行具体设置或手工设置。 开始调试智能体并发布。 3. 利用 Coze + 飞书多维表格搭建: 配置得到两个可用的工作流(整理入库、选择内容)。 编排成为完整的智能体,配置过程包括: 创建 Bot。 填写 Bot 介绍。 切换模型为“通义千问”(测试下来,通义对提示词理解、执行效果最好)。 把配置好的工作流添加到 Bot 中。 新增变量{{app_token}}。 添加外层 bot 提示词(可按需求和实际效果优化调整)。 完成上述步骤后,可在「预览与调试」窗口与 AI 稍后读智能体对话并使用全部功能。
2025-01-26
如何用飞书搭建自己的智能体
以下是用飞书搭建自己的智能体的步骤: 1. 智能体配置: 在“选择智能体配置模式”环节,如果选择“Zion 默认智能体”,系统会自动填充官方 Bot ID、OAuth 应用 ID 以及一对公私钥,并预设头像与昵称。 若要配置自己的 Coze 智能体,需将“准备工作”环节中获取的 Bot ID、OAuth 应用 ID 以及一对公私钥填写进对应输入框并完成配置。 进行用户权限配置,包括新用户注册赠送时长(以分钟为单位)和未登录用户免费体验时长(以分钟为单位),且时长可自行修改。 2. 逐步搭建 AI 智能体: 创建 Bot。 填写 Bot 介绍。 切换模型为“通义千问”,测试表明通义对提示词理解和执行效果较好。 把配置好的工作流添加到 Bot 中。 新增变量{{app_token}}。 添加外层 bot 提示词(可按需求和实际效果优化调整)。完成上述步骤后,在「预览与调试」窗口,即可与 AI 智能体对话并使用全部功能。
2025-01-26
如何搭建自己的智能体
搭建自己的智能体可以参考以下步骤: 1. 注册智谱 Tokens 智谱 AI 开放平台:https://bigmodel.cn/ 。获取资源包的方式有: 新注册用户,注册即送 2000 万 Tokens。 充值/购买多种模型的低价福利资源包,如直接充值现金,所有模型可适用:https://open.bigmodel.cn/finance/pay ;语言资源包:免费 GLM4Flash 语言模型/ 。所有资源包购买地址:https://bigmodel.cn/finance/resourcepack 。 共学营报名赠送资源包。 2. 先去【财务台】左侧的【资源包管理】看看自己的资源包,本次项目会使用到的有 GLM4、GLM4VPlus、CogVideoX、CogView3Plus 模型。 3. 进入智能体中心我的智能体,开始创建智能体。 4. 对于一些平台,如 Coze 平台,定义了超级管理员和普通用户两种角色。只有超级管理员才可对“Coze 变现模板”的 bot 进行相关配置。成为超级管理员的步骤为:点击【成为超级管理员】按钮,进入用户注册登录页面,完成注册后获得超级管理员账户。然后选择智能体配置模式,如模式 A:Zion 默认智能体,适用于测试,系统会自动填充相关信息;模式 B:你的 Coze 智能体,需要在“管理后台”页自行配置在 Coze 平台上获取的 Bot ID、OAuth 应用 ID 以及一对公私钥。 5. 对于其他平台,如 Chat GPT 版本,可按以下步骤操作: Step.1 点击“浏览 GPTs”按钮。 Step.2 点击“Create”按钮创建自己的智能体。 Step.3 使用自然语言对话或手工设置进行具体设置。 Step.4 开始调试你的智能体并发布。
2025-01-26
如何搭建自己的智能体
搭建自己的智能体可以参考以下步骤: 1. 注册智谱 Tokens 智谱 AI 开放平台:https://bigmodel.cn/ 。获取资源包的方式有: 新注册用户,注册即送 2000 万 Tokens。 充值/购买多种模型的低价福利资源包,如直接充值现金,所有模型可适用:https://open.bigmodel.cn/finance/pay ;语言资源包:免费 GLM4Flash 语言模型/ 。所有资源包购买地址:https://bigmodel.cn/finance/resourcepack 。 共学营报名赠送资源包。 2. 先去【财务台】左侧的【资源包管理】看看自己的资源包,本次项目会使用到的有 GLM4、GLM4VPlus、CogVideoX、CogView3Plus 模型。 3. 进入智能体中心我的智能体,开始创建智能体。 4. 基于一些公开的大模型应用产品(如 Chat GLM、Chat GPT、Kimi 等): 点击“浏览 GPTs”按钮。 点击“Create”按钮创建自己的智能体。 使用自然语言对话进行具体设置或手工设置。 开始调试你的智能体并发布。 在 Coze 变现模板项目中,只有超级管理员才可对“Coze 变现模板”的 bot 进行相关配置: 1. 成为超级管理员:点击【成为超级管理员】按钮,进入用户注册登录页面。 2. 注册并登录:完成注册后,将获得超级管理员账户,拥有管理项目的权限。 3. 选择智能体配置模式: 模式 A:Zion 默认智能体。选择此模式,将直接使用 Zion 在 Coze 平台预配置的官方智能体,适用于测试。系统自动填充 Zion 官方的 Bot ID、OAuth 应用 ID 以及一对公私钥,并预设头像与昵称。选择该模式后,项目自动创建完成,可将平台首页分享给用户,让他们体验聊天页面。若后续想自定义修改智能体的各种收费模式、前端展示,可在“管理后台”进行修改。 模式 B:你的 Coze 智能体。选择此模式,需要在“管理后台”页自行配置在 Coze 平台上获取的 Bot ID、OAuth 应用 ID 以及一对公私钥。
2025-01-26
Deepseek 使用逻辑
DeepSeek 的使用逻辑如下: 效果对比:用 Coze 做了小测试,可对比查看相关视频。 如何使用: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 DeepSeek。 认真阅读开场白后正式开始对话。 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用,减轻调试负担。 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 在模型默认能力基础上优化输出质量,减轻 AI 味,增加可读性。 设计了阈值系统,可能会根据反馈修改。 用 XML 进行更为规范的设定,而非 Lisp 和 Markdown。 关于 DeepSeek 的其他信息: 1 月 26 日社区动态速览: 提示词框架包含四大模块:任务目的、计划规则、格式规则、输出说明。通过明晰的任务拆分与规则定义,让提示更具可操作性,但不可过度依赖,有示例模板可清晰展现相关内容。 Anthropic 的“计算机使用”模型,Claude 有新能力,如可识别屏幕截图,计算光标像素坐标并执行操作,结合了图像识别、推理和动作能力,能将用户指令转化为具体步骤并执行,少量软件训练后能自我纠正并迅速上手。 OpenAI Operator 工作机制,利用虚拟主机、Chrome 浏览器、CUA 实现网页实时操控,能执行复杂导航任务,结合 GPT4o 的视觉处理与强化学习,可处理屏幕截图、推理操作并发送指令,在感知—推理—动作循环中迭代,遇敏感任务则提示用户确认。 开源项目 Browser Use。 1 月 28 日社区动态速览: 华尔街分析师认为 DeepSeek 以小成本实现媲美领先 AI 产品的性能,并在全球主要市场 App Store 登顶,高盛认为其或改变科技格局,降低 AI 行业进入门槛。 DeepSeek 中文场景表现优秀,日常写作和表达习惯贴近人类,但专业论文总结略弱,数学能力不错,编程能力逊于 GPT,采用 GRPO 算法替代传统 PPO,提升语言评价灵活性与训练速度。 复旦大学 OpenMOSS 发布实时语音交互模型,中文语音体验近似 GPT4o 高级语音,响应时间低于 200 毫秒,支持打断和自然互动,可生成多情感、多风格语音,包含方言、戏剧化台词等,多语言适配,嘈杂环境下仍具备强逻辑推理能力。 阿里巴巴推出 Qwen2.51M 模型。
2025-01-30
如何优化ai对话脚本和逻辑(多轮对话测试提升ai上下文理解)
以下是优化 AI 对话脚本和逻辑(多轮对话测试提升 AI 上下文理解)的方法: 1. 样例驱动的渐进式引导法 评估样例,尝试提炼模板:独自产出高质量样例较难,可借助擅长扮演专家角色的 AI 改进初始正向样例,如使用 Claude 3.5 进行对话,输入初始指令,通过其回复侧面印证对样例的理解与建议。 多轮反馈,直至达到预期:AI 可能犯错输出要求外内容,需多轮对话引导,使其不断修正理解,直至达成共识。 用例测试,看看 AI 是否真正理解:找 13 个用例,让 AI 根据模板生成知识卡片,根据结果验证是否符合预期,不符合则继续探讨调整。用例测试和多轮反馈步骤灵活,可根据需要自由反馈调整。 2. Coze 全方位入门剖析 标准流程创建 AI Bot(进阶推荐) 为 Bot 添加技能:国内版暂时只支持使用“云雀大模型”作为对话引擎,可根据业务需求决定上下文轮数。在 Bot 编排页面的“技能”区域配置所需技能,可选择自动优化插件或自定义添加插件。还可根据需求配置知识库、数据库、工作流等操作,参考相关介绍和实战操作或官方文档学习。 测试 Bot:在“预览与调试”区域测试 Bot 是否按预期工作,可清除对话记录开始新测试,确保能理解用户输入并给出正确回应。
2024-12-29
目前最前沿的应用在游戏领域的AI技术点是什么,包括游戏开发过程中的成本降低、效率提升,包括游戏内容生成,包括游戏后期运营推广。介绍技术点的技术逻辑以及技术细节。
目前在游戏领域应用的前沿 AI 技术点主要包括以下几个方面: 1. 利用 AIGC 技术实现游戏产业的生产力革命: 降低开发成本:借助人工智能的内容创作工具,如生成新的游戏内容(地图、角色和场景)、驱动游戏中的非玩家角色(NPC)、改进游戏的图像和声音效果等,能够缩减游戏开发的成本。 缩短制作周期:例如通过程序化内容生成,包括利用人工智能生成文字、图像、音频、视频等来创作游戏剧本、人物、道具、场景、用户界面、配音、音效、配乐、动画和特效等,从而减少游戏开发时间。 提升游戏质量和带来新交互体验:AIGC 技术为游戏带来不同以往的新体验,甚至创造出新的游戏类型以及新的交互方式。 2. 游戏内容辅助生成: 生成文、生成图、生成 3D 以及生成音乐。应用场景包括游戏策划人和制作人、美术设计师等。 对于工业化的游戏公司,基于 Stable Difussion 的生成能够通过 2D 美术素材的辅助生成提高创业效率 50%,降低 20%80%的成本。 文生图:通过提示词加参数就可以形成 2D 的参考图,适配度高。 图生图:原画师或美术可以使用,用一个线稿或原画,在原画基础上加一些 Prompt 和参数,就可以形成一个效果图和二级的素材。 动画辅助渲染:用 Lora 对角色背景、关键帧进行风格渲染,例如将真人视频渲染成二次元风。 3. 游戏的智能运营: 智能 NPC 互动:保持长期记忆,保持人物个性和对话表现形式,同时满足成本平衡。 客服、攻略的问答、代码和脚本的生成。主要针对游戏的产品经理、运营经理和社区的运营经理。 游戏社区运营:如海外的 Discord,国内的 Fanbook,让更多玩家在游戏之外,在社群里面很好地互动,基于游戏的美术素材进行二创、查询攻略和使用智能客服。 这些技术的技术逻辑和技术细节如下: 1. AIGC 技术:基于大语言模型和扩散模型,通过机器学习、强化学习等先进技术进行训练,能够理解和生成各种游戏相关的内容。 2. 游戏内容辅助生成:利用深度学习算法对大量的游戏相关数据进行学习和分析,从而能够根据给定的提示或参数生成相应的游戏内容。 3. 智能运营方面:通过构建智能模型,对玩家的行为和需求进行分析和预测,从而提供个性化的服务和互动。
2024-12-22
如何利用GPT进行逻辑回归分析
利用 GPT 进行逻辑回归分析可以参考以下步骤: 1. 首先,在数据准备阶段,明确需要分析的数据内容,例如用户描述想分析的内容,或者上传相关文件并描述其数据、字段意义或作用等,以辅助 GPT 理解数据。 2. 对于 SQL 分析,后台连接数据库,附带表结构信息让 GPT 输出 SQL 语句,校验其是否为 SELECT 类型,其他操作如 UPDATE/DELETE 绝不能通过。校验通过后执行 SQL 返回结果数据,再将数据传给 GPT(附带上下文),让其学习并分析数据。 3. 在与 GPT 的交互过程中,不断输入真实的业务需求场景以及现存的问题,帮助 GPT 更好地理解需求,例如输入旧代码、需求和问题,让 GPT 给出针对性的优化建议。 4. 根据 GPT 给出的结果进行调试和优化,可能需要多轮的输入输出(类似讨论),不断强化 GPT 对真实需求的认知。 5. 例如在 SQL 优化方面,GPT 可能提出如每次更新 1 天而不是 30 天的数据、创建中间结果表存储非二次计算的数据、利用 CASE WHEN 合并查询约束条件基本相同的指标等建议。然后根据这些建议结合自身的能力进行代码优化和测试。 需要注意的是,整个过程可能比较繁琐,需要有一定的耐心,包括查资料、处理报错、纠正 GPT、不断补充需求细节等。
2024-12-13
当前国内逻辑推理能力最强的大模型是什么
目前国内逻辑推理能力较强的大模型有以下几种: 1. Baichuan213BChat(百川智能):是百川智能自主训练的开源大语言模型。在逻辑推理、知识百科、生成与创作、上下文对话等基础能力上排名 200 亿参数量级国内模型第一,其中逻辑推理能力超过 34B 参数量级的大模型,生成与创作能力超过 72B 参数量级的模型。可应用于小说/广告/公文写作等内容创作场景、智能客服/语音助手以及任务拆解规划等场景,还能部署在教育、医疗、金融等垂直行业中应用,同时可部署在低算力终端处理基础智能任务。 2. 智谱清言(清华&智谱 AI):是智谱 AI 和清华大学推出的大模型产品,基础模型为 ChatGLM 大模型。在工具使用排名国内第一,在计算、逻辑推理、传统安全能力上排名国内前三。可应用于 AI 智能体方面相关的应用,包括任务规划、工具使用及一些长文本记忆相关的场景,在较复杂推理应用上的效果也不错,广告文案、文学写作方面也是很好的选择。 3. 文心一言 4.0API(百度):在计算、逻辑推理、生成与创作、传统安全这 4 大基础能力上排名国内第一。另外在代码、知识与百科、语言理解与抽取、工具使用能力上排名国内前三。能力栈较为广泛,可应用于查询搜索知识应用、任务拆解规划 Agent、文案写作以及代码编写及纠错等方面,在科学研究、教育、工业方面的落地能力也值得关注。
2024-12-08
不确定逻辑增长模型
对于逻辑增长模型的相关问题,以下是为您提供的信息: 张俊林在相关研究中指出,对于简单或中等难度的逻辑推理问题,通过 inferencetime 增加算力,比如树搜索等方式,比增强模型“预训练”阶段的逻辑推理能力效果更明显。这一结论来自于文献“Scaling LLM TestTime Compute Optimally can be More Effective than Scaling Model Parameters”及“Are More LM Calls All You Need?Towards the Scaling Properties of Compound AI Systems”。 其原因在于,对于简单或中等难度的问题,模型在 inference 时很可能给出答案中的大部分步骤是对的(或多次采样中多数是对的),只有个别步骤错误,通过如 BestofN Sampling 这种简单树搜索方法增加输出的多样性,加上靠谱的 Verifier 筛选,较容易修正小错误。但对于高难度的逻辑问题,模型输出内容中大部分步骤可能都是错的(或多次采样中大多数都是错的),此时仅靠 inferencetime 增加算力难以解决。 此外,OpenAI o1 的基座模型,在 Pretraining 还是 Posttraining 阶段,大概率极大增强了基座模型的复杂逻辑推理能力,这是它能在后续 inferencetime 增加算力解决复杂问题的根基。所以,只靠 inferencetime 增加算力,仅对容易和中等难度的逻辑问题有用,想要不断提升模型的复杂推理能力,还需要继续在 PreTrain 和 PostTraining 阶段下功夫。
2024-12-05
大模型在数据分析上的应用
大模型在数据分析上有广泛的应用。 首先,了解一下大模型的基本概念。数字化便于计算机处理,为让计算机理解 Token 之间的联系,需将 Token 表示成稠密矩阵向量,即 embedding,常见算法有基于统计的 Word2Vec、GloVe,基于深度网络的 CNN、RNN/LSTM,基于神经网络的 BERT、Doc2Vec 等。以 Transform 为代表的大模型采用自注意力机制来学习不同 token 之间的依赖关系,生成高质量 embedding。大模型的“大”在于用于表达 token 之间关系的参数多,如 GPT3 拥有 1750 亿参数。 大模型因其强大能力,在多个领域有热门应用场景: 1. 文本生成和内容创作:撰写文章、生成新闻报道、创作诗歌和故事等。 2. 聊天机器人和虚拟助手:进行自然对话,提供客户服务、日常任务提醒和信息咨询等。 3. 编程和代码辅助:自动补全、修复 bug 和解释代码,提高编程效率。 4. 翻译和跨语言通信:理解和翻译多种语言,促进不同语言背景用户的沟通和信息共享。 5. 情感分析和意见挖掘:分析社交媒体等中的文本,为市场研究和产品改进提供支持。 6. 教育和学习辅助:创建个性化学习材料、回答学生问题和提供语言学习支持。 7. 图像和视频生成:如 DALLE 等模型可根据文本描述生成相应图像,未来可能扩展到视频。 8. 游戏开发和互动体验:创建游戏角色对话、生成故事情节和增强玩家沉浸式体验。 9. 医疗和健康咨询:回答医疗相关问题,提供初步健康建议和医疗信息查询服务。 10. 法律和合规咨询:解读法律文件,提供合规建议,降低法律服务门槛。 大型模型主要分为两类:大型语言模型专注于处理和生成文本信息;大型多模态模型能处理包括文本、图片、音频等多种类型信息。二者在处理信息类型、应用场景和数据需求方面有所不同。大型语言模型主要用于自然语言处理任务,依赖大量文本数据训练;大型多模态模型能处理多种信息类型,应用更广泛,需要多种类型数据训练。 相对大模型,也有所谓的“小模型”,它们通常是为完成特定任务而设计。
2025-02-05
flux1-depth-dev模型存放路径
flux1depthdev 模型的存放路径如下: 1. 下载 flux1depthdev 模型放到 ComfyUI/models/diffusion_models/文件夹中。 夸克网盘:链接:https://pan.quark.cn/s/571d174ec17f 百度网盘:见前文 2. 也可以将 depth lora 模型存放到 ComfyUI/models/loras 文件夹中。 depth lora 模型:https://huggingface.co/blackforestlabs/FLUX.1Depthdevlora 3. 百度网盘中也有相关模型: 链接:https://pan.baidu.com/s/10BmYtY3sU1VQzwUy2gpNlw?pwd=qflr 提取码:qflr
2025-02-05
你目前使用的是哪个模型
以下是一些关于模型的信息: 在 Cursor Chat、Ctrl/⌘K 和终端 Ctrl/⌘K 中,您可以在 AI 输入框下方的下拉列表中选择要使用的模型。默认情况下,Cursor 已准备好使用的模型包括:、cursorsmall。您还可以在 Cursor Settings>Models>Model Names 下添加其他模型。cursorsmall 是 Cursor 的自定义模型,不如 GPT4 智能,但速度更快,用户可无限制访问。 在 Morph Studio 中,支持以下模型生成视频: TexttoVideoMorph0.1:内部文本到视频生成模型,默认具有逼真色调,可通过描述性形容词修改拍摄风格和外观。 ImagetoVideoMorph0.1:内部图像到视频生成模型,用文本提示引导效果更好,使用时可不输入文本,在角色特写和对象动画方面表现较好。 VideotoVideoMorph0.1:内部风格转换模型,支持在文本提示下进行视频到视频的渲染,可将视频风格更改为预设,同时保留原始视频的字符和布局。 ImagetoVideoSVD1.1:由 Stability.ai 提供支持的图像到视频模型,适用于构图中有清晰层次的镜头(风景镜头、B 卷等)。 文本到视频形态0.1 被设置为新创建射击卡的默认模型,型号选择会根据是否上传图像或视频而更改,每个模型有自己的一组参数可供调整,如相机运动(支持静态、放大、缩小、向左平移、向右平移、向上平移、向下平移、顺时针旋转和逆时针旋转,未来将支持一次选择多个相机移动选项)、时间(支持最多 10 秒的视频生成,默认持续时间为 3 秒)。 ComfyUI instantID 目前只支持 sdxl。主要的模型需下载后放在 ComfyUI/models/instantid 文件夹(若没有则新建),地址为:https://huggingface.co/InstantX/InstantID/resolve/main/ipadapter.bin?download=true 。InsightFace 模型是 antelopev2(不是经典的 buffalo_l),下载解压后放在 ComfyUI/models/insightface/models/antelopev2 目录中,地址为:https://huggingface.co/MonsterMMORPG/tools/tree/main 。还需要一个 ControlNet 模型,放在 ComfyUI/models/controlnet 目录下,地址为:https://huggingface.co/InstantX/InstantID/resolve/main/ControlNetModel/diffusion_pytorch_model.safetensors?download=true 。上述模型网络环境不好的,可在网盘 https://pan.baidu.com/s/1FkGTXLmM0Ofynz04NfCaQ?pwd=cycy 下载。
2025-02-05
图生图美食模型
以下是关于图生图美食模型的相关知识: 概念与功能说明: 首页模型、帖子、排行榜:展示其他用户生成的模型、图片。不同模型有 checkpoint 和 lora 两种标签,部分还有 SDXL 标签。点击可查看模型详情,下方有返图区。 基础模型(checkpoint):生图必需,任何生图操作都要先选定。 lora:低阶自适应模型,类似 checkpoint 的小插件,可控制细节,权重可调整。 ControlNet:控制图片中特定图像,如人物姿态、特定文字等,高阶技能。 VAE:编码器,类似滤镜,调整生图饱和度,可无脑选 840000。 Prompt 提示词:描述想要 AI 生成的内容。 负向提示词(Negative Prompt):描述想要 AI 避免产生的内容。 图生图:上传图片后,SD 会根据图片、所选模型、输入的 prompt 等信息重绘,重绘幅度越大,输出图与输入图差别越大。 简明操作流程(文生图): 定主题:确定生成图片的主题、风格和表达信息。 选择基础模型(checkpoint):按主题找贴近的模型,如麦橘、墨幽的系列模型。 选择 lora:寻找与生成内容重叠的 lora 控制图片效果和质量。 ControlNet:高阶技能,可控制特定图像。 局部重绘:下篇再教。 设置 VAE:选 840000。 Prompt 提示词:用英文写需求,单词、短语组合,用英文半角逗号隔开。 负向提示词(Negative Prompt):用英文写避免的内容,单词、短语组合,用英文半角逗号隔开。 采样算法:如选 DPM++2M Karras,留意 checkpoint 详情页作者推荐的采样器。 采样次数:根据采样器特征,选 DPM++2M Karras 时,采样次数在 30 40 之间。 尺寸:根据个人喜好和需求选择。
2025-02-04
请问你的大模型底座用的是什么
大模型的底座相关知识如下: 大模型像一个多功能的基础平台(有时也被称为“基座模型”),可以处理多种不同的任务,应用范围广泛,拥有更多通识知识。 大模型的知识来源于训练过程中接触到的数据,这些数据是有限的,其知识库不会自动更新,只能回答在训练过程中见过或类似的问题,在某些特定或专业领域的知识可能不够全面。 从整体分层的角度来看,大模型整体架构的基础层为大模型提供硬件支撑和数据支持,例如 A100、数据服务器等。数据层包括企业根据自身特性维护的垂域数据,分为静态的知识库和动态的三方数据集。模型层有 LLm(大语言模型)或多模态模型,如 GPT 一般使用 transformer 算法实现,多模态模型训练所用数据与 llm 不同,用的是图文或声音等多模态的数据集。平台层是模型与应用间的部分,如大模型的评测体系或 langchain 平台等。表现层即应用层,是用户实际看到的地方。 零跑汽车基于百炼实现大模型落地零跑座舱,阿里云通过百炼平台实现大模型落地零跑座舱,为用户的多种互动提供支持,零跑汽车构建了开放、可扩展的大模型应用架构,基于统一的大模型底座,实现了零跑座舱大模型应用场景的快速扩展与迭代。
2025-02-04
各个ai大模型的优势
以下是一些常见的 AI 大模型的优势: OpenAI 的 GPT4: 是大型多模态模型,接受图像和文本输入,输出文本。 在各种专业和学术基准测试中表现出与人类相当的水平。 Midjourney v5: 具有极高的一致性。 擅长以更高分辨率解释自然语言 prompt。 支持像使用 tile 这样的重复图案等高级功能。 DALL·E 3: 能轻松将想法转化为极其精准的图像。 代表了生成完全符合文本的图像能力的一大飞跃。 Mistral 7B: 在所有基准测试上超越了 Llama 2 13B。 在许多基准测试上超越了 Llama 1 34B。 在代码任务上接近 CodeLlama 7B 的性能,同时在英语任务上表现良好。 OpenAI 的 o3 及 o3mini: o3 在编码、数学和科学等领域表现出色,在多个衡量基准上远超 o1。 在 ARCAGI 公共基准得分高。 在 EpochAI 的 Frontier Math 创下新纪录。 在 SWEBench Verified 上表现突出。 在 Codeforces 上得分高。 在 AIME 2024 上得分高。 在 GPQA Diamond 上表现远高于人类专家。 o3mini 具有 3 个推理级别,最低级别将比肩 o1,在许多编码任务上性能优于 o1,且成本大幅降低。 大模型的优势还包括: 像一个多功能的基础平台,能处理多种不同的任务,应用范围广泛,拥有更多的通识知识。 但大模型并非拥有无限知识,其知识来源于有限的训练数据,且知识库不会自动更新,在某些特定或专业领域的知识可能不够全面。
2025-02-04