Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

个人知识库搭建

Answer

个人知识库搭建主要包括以下内容:

  1. RAG 技术:
    • 利用大模型能力搭建知识库是 RAG 技术的应用。
    • 大模型训练数据有截止日期,当需要依靠不在训练集中的数据时,可通过检索增强生成 RAG 实现。
    • RAG 应用包括文档加载(从多种来源加载文档,如 PDF 等非结构化数据、SQL 等结构化数据及代码)、文本分割(把文档切分为指定大小的块)、存储(将切分好的文档块嵌入并转换为向量形式存储到向量数据库)、检索(通过检索算法找到与输入问题相似的嵌入片)、输出(把问题及检索出的嵌入片提交给 LLM 生成答案)。
  2. GPT 相关:
    • 搭建基于 GPT API 的定制化知识库涉及给 GPT 输入定制化知识,但 GPT-3.5 一次交互支持的 Token 有限,OpenAI 提供了 embedding API 解决方案。
    • Embeddings 是浮点数字的向量,向量之间的距离衡量关联性,小距离表示高关联度,大距离表示低关联度。
  3. 本地知识库进阶:
    • 若要更灵活掌控知识库,可使用额外软件 AnythingLLM,其包含 Open WebUI 的能力,并额外支持选择文本嵌入模型和向量数据库。
    • 安装地址:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。
    • AnythingLLM 中有 Workspace 概念,可创建独有 Workspace 与其他项目数据隔离,包括创建工作空间、上传文档并嵌入、选择对话模式(Chat 模式综合给出答案,Query 模式仅依靠文档数据给出答案)、测试对话。

最后,“看十遍不如实操一遍,实操十遍不如分享一遍”。如果对 AI Agent 技术感兴趣,可联系相关人员或加入免费知识星球(备注 AGI 知识库)。

Content generated by AI large model, please carefully verify (powered by aily)

References

手把手教你本地部署大模型以及搭建个人知识库

因为利用大模型的能力搭建知识库本身就是一个RAG技术的应用。所以在进行本地知识库的搭建实操之前,我们需要先对RAG有一个大概的了解。以下内容会有些干,我会尽量用通俗易懂的描述进行讲解。我们都知道大模型的训练数据是有截止日期的,那当我们需要依靠不包含在大模型训练集中的数据时,我们该怎么做呢?实现这一点的主要方法就是通过检索增强生成RAG(Retrieval Augmented Generation)。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给LLM。我们可以将一个RAG的应用抽象为下图的5个过程:文档加载(Document Loading):从多种不同来源加载文档。LangChain提供了100多种不同的文档加载器,包括PDF在内的非结构化的数据、SQL在内的结构化的数据,以及Python、Java之类的代码等文本分割(Splitting):文本分割器把Documents切分为指定大小的块,我把它们称为“文档块”或者“文档片”存储(Storage):存储涉及到两个环节,分别是:将切分好的文档块进行嵌入(Embedding)转换成向量的形式将Embedding后的向量数据存储到向量数据库检索(Retrieval):一旦数据进入向量数据库,我们仍然需要将数据检索出来,我们会通过某种检索算法找到与输入问题相似的嵌入片Output(输出):把问题以及检索出来的嵌入片一起提交给LLM,LLM会通过问题和检索出来的提示一起来生成更加合理的答案[heading2]文本加载器(Document Loaders)[content]文本加载器就是将用户提供的文本加载到内存中,便于进行后续的处理

从零开始,用GPT打造个人知识库

要搭建基于GPT API的定制化知识库,涉及到给GPT输入(投喂)定制化的知识。但GPT-3.5,也就是当前免费版的ChatGPT一次交互(输入和输出)只支持最高4096个Token,约等于3000个单词或2300个汉字。这点容量对于绝大多数领域知识根本不够。为了使用GPT的语言能力来处理大量的领域知识,OpenAI提供了embedding API解决方案。参考OpenAI embedding documents。[heading2]理解embeddings[content]embeddings(直译为嵌入)是一个浮点数字的向量(列表)。两个向量之间的距离衡量它们的关联性。小距离表示高关联度,大距离表示低关联度。进一步解释:向量(列表):向量是数学中表示大小和方向的一个量,通常用一串数字表示。在计算机科学和数据科学中,向量通常用列表(list)来表示。列表是一种数据结构,它包含一组有序的元素。例如,一个二维向量可以表示为[2,3],这意味着沿着两个轴的分量分别为2和3。在这里,"list"是一种编程术语,意味着一系列有序的数据。向量之间的距离:向量之间的距离是一种度量两个向量相似性的方法。有多种方式可以计算两个向量之间的距离,最常见的是欧几里得距离。欧几里得距离计算方法是将两个向量的对应元素相减,然后取平方和,再开平方。例如,向量A=[1,2]和向量B=[4,6]之间的欧几里得距离为sqrt((4-1)^2+(6-2)^2)=5。较小距离意味着高相关性,因为向量间相似度高。在OpenAI词嵌入中,靠近向量的词语在语义上相似。例如,“猫”和“狗”距离近,它们都是宠物,与“汽车”距离远,相关性低。文档上给了创建embeddings的示例上面的命令访问embeddings API接口,将input语句,转化成下面这一串浮点数字。

手把手教你本地部署大模型以及搭建个人知识库

如果想要对知识库进行更加灵活的掌控,我们需要一个额外的软件:AnythingLLM。这个软件包含了所有Open WebUI的能力,并且额外支持了以下能力选择文本嵌入模型选择向量数据库[heading2]AnythingLLM安装和配置[content]安装地址:https://useanything.com/download当我们安装完成之后,会进入到其配置页面,这里面主要分为三步1.第一步:选择大模型1.第二步:选择文本嵌入模型1.第三步:选择向量数据库[heading2]构建本地知识库[content]AnythingLLM中有一个Workspace的概念,我们可以创建自己独有的Workspace跟其他的项目数据进行隔离。1.首先创建一个工作空间1.上传文档并且在工作空间中进行文本嵌入1.选择对话模式AnythingLLM提供了两种对话模式:Chat模式:大模型会根据自己的训练数据和我们上传的文档数据综合给出答案Query模式:大模型仅仅会依靠文档中的数据给出答案1.测试对话当上述配置完成之后,我们就可以跟大模型进行对话了[heading1]六、写在最后[content]我非常推崇的一句话送给大家:看十遍不如实操一遍,实操十遍不如分享一遍如果你也对AI Agent技术感兴趣,可以联系我或者加我的免费知识星球(备注AGI知识库)

Others are asking
我是一名数据产品经理,想转行ai产品经理,该从哪里入手。你的知识库里有哪些可以帮到我。最好把他们列举出来,具体一些最好有步骤
以下是为您整理的从数据产品经理转行 AI 产品经理的相关知识和建议: 一、AIPM 技能树 1. 理解产品核心技术 了解基本的机器学习算法原理,有助于做出更合理的产品决策。 2. 与技术团队有效沟通 掌握一定的算法知识,减少信息不对称带来的误解。 3. 评估技术可行性 在产品规划阶段,能更准确地判断某些功能的技术可行性。 4. 把握产品发展方向 了解算法前沿,更好地把握产品的未来发展方向。 5. 提升产品竞争力 发现产品的独特优势,提出创新的产品特性。 6. 数据分析能力 掌握相关知识,提升数据分析能力。 二、AI 提示词工程师岗位技能要求 1. 学历和专业背景 本科及以上学历,计算机科学、人工智能、机器学习相关专业背景。 2. 熟悉 AI 工具 熟悉 ChatGPT、Llama、Claude 等 AI 工具的使用及原理,并具有实际应用经验。 熟练掌握 ChatGPT、Midjourney 等 AI 工具的使用及原理。 3. 项目经验 负责制定和执行 AI 项目,如 Prompt 设计平台化方法和模板化方法。 4. 技术理解 了解并熟悉 Prompt Engineering,包括常见的 Prompt 优化策略(例如 CoT、Fewshot 等)。 5. 数据分析与决策 对数据驱动的决策有深入的理解,能够基于数据分析做出决策。 6. 创新思维 具有创新思维,能够基于业务需求提出并实践 AI first 的解决方案。 7. 技术关注 对 AI 技术与算法领域抱有强烈的好奇心,并能付诸实践。 对 AIGC 领域有深入的理解与实际工作经验,保持对 AI 技术前沿的关注。 8. 编程能力 具备一定的编程和算法研究能力,能应用新的 AI 技术和算法于对话模型生成。 具有一定的编程基础,熟练使用 Python、Git 等工具。 三、AI 市场与 AI 产品经理分析 当前有两个场景: 1. 企业(包括传统企业和互联网企业)如何实现 AI 转型或用好 AI。 2. 产品经理如何转型 AI 产品经理。 希望以上内容对您有所帮助。
2025-01-21
适合小白的AI知识库
以下是适合小白的 AI 知识库内容: 通识篇: 现有常见 AI 工具小白扫盲: 文章链接: 视频链接:(1 小时 32 分开始) 适用人群:对 AI 都没太多概念的纯纯小白 简要说明:给与 AI 之间有道墙、还在墙外的人简单介绍当前各种 AI 工具、0 成本最快速感受当下 AI 工具的力量 AI 常见名词、缩写解释: 文章链接: 适用人群:对 AI 都没太多概念的纯纯小白 简要说明:给看不懂“黑话”和诸多缩写的小白,请善用这张表+多问 AI 对话工具(如豆包 or Kimi)结合食用 工具入门篇: (Prompt)现成好用的 Prompt: 文章链接: 适用人群:完全没有 AI 使用经验,只下载过 kimi、豆包、chatgpt 一类对话软件的小白 简要说明:想直接拿好用的提示词拿来用用的小伙伴,可以从这里开始,有很多可以直接复制、粘贴的优秀 prompt 案例,它们都有完整的结构。 (AI Agent)Agent 工具 小白的 Coze 之旅: 文章链接: 视频链接:Coze 之旅 1.0: 适用人群:完全没有编程基础,但对 AI 已有一点概念的小白 简要说明:为纯粹小白补的分享 AI AGENT 搭建平台,为什么是它、怎么 30 分钟就能开始用它 (AI Pic)现在主流的 AI 绘图工具网站: 文章链接: 适用人群:完全没接触过 AI 出图、只是听说过的小伙伴 简要说明:为纯粹的小白提供一个工具列表和扫盲 (AI Tools)数据工具 多维表格小白之旅: 文章链接: 视频链接: 适用人群:Excel 重度使用者、手动数据处理使用者、文件工作者 简要说明:用表格 + AI 进行信息整理、提效、打标签,满足 80%数据处理需求 (AI Code)编程工具 Cursor 的小白试用反馈: 文章链接: 适用人群:0 编程经验、觉得编程离我们很遥远的小白 简要说明:通过 AI 工具对编程祛魅,降低技术壁垒 (AI Music)音乐工具 Suno 的小白探索笔记: 文章链接: 适用人群:0 乐理知识、觉得作词作曲和我们毫不相关成本巨大的小白 简要说明:AI 赋能音乐创作,无需乐理知识即可参与音乐制作
2025-01-20
从0到1搭建知识库
从 0 到 1 搭建知识库的方法如下: 【智能体】让 Coze 智能体机器人连上微信和微信群: 创建智能体: 知识库:本次创建知识库使用手动清洗数据,上节课程是自动清洗数据。自动清洗数据会出现目前数据不准的情况,本节视频就尝试使用手动清洗数据,提高数据的准确性。 在线知识库:点击创建知识库,创建一个画小二课程的 FAQ 知识库。知识库的飞书在线文档,其中每个问题和答案以分割,暂时不要问为什么。选择飞书文档、自定义的自定义,输入,然后就将飞书的文档内容以区分开来,这里可以点击编辑修改和删除。点击添加 Bot,添加好可以在调试区测试效果。 本地文档:本地 word 文件,注意如何拆分内容,提高训练数据准确度,将海报的内容训练的知识库里面。画小二这个课程 80 节课程,分为了 11 个章节,不能一股脑全部放进去训练。正确的方法是首先将 11 章的大的章节名称内容放进来,章节内详细内容格式依次类推细化下去。每个章节都按照这种固定的方式进行人工标注和处理,然后选择创建知识库自定义清洗数据。 发布应用:点击发布,确保在 Bot 商店中能够搜到。 使用 Dify 构建知识库: 准备数据:收集需要纳入知识库的文本数据,包括文档、表格等格式。对数据进行清洗、分段等预处理,确保数据质量。 创建数据集:在 Dify 中创建一个新的数据集,并将准备好的文档上传至该数据集。为数据集编写良好的描述,描述清楚数据集包含的内容和特点。 配置索引方式:Dify 提供了三种索引方式供选择:高质量模式、经济模式和 Q&A 分段模式。根据实际需求选择合适的索引方式,如需要更高准确度可选高质量模式。 集成至应用:将创建好的数据集集成到 Dify 的对话型应用中,作为应用的上下文知识库使用。在应用设置中,可以配置数据集的使用方式,如是否允许跨数据集搜索等。 持续优化:收集用户反馈,对知识库内容和索引方式进行持续优化和迭代。定期更新知识库,增加新的内容以保持知识库的时效性。 【知识库】FastGPT + OneAPI + COW 带有知识库的机器人: 创建知识库应用: 地址输入浏览器:http://这里替换为你宝塔左上角的那一串:3000/ 进入后,点击应用并创建,选择 qwen 模型。 创建知识库。点击知识库 选择 qwen Embedding 1 点击确认创建。 上传文件,等待处理,最后文本状态是“已就绪”。 回到刚刚创建的应用,关联上创建的知识库。 点击两个发布。之前第一个叫做保存。 点击新建,创建 key。创建后保存同时将 API 根地址最后加上/v1 并保存下来。 安装并接入 cow: 回到宝塔,打开【终端】。 依次粘贴并回车:cd/root 。 git clone https://github.com/zhayujie/chatgptonwechat ,注意一定要粘贴完整。 出现下方的样子,就是成功了。如果失败,或者没反应,刷新一下,重新再试一次。 继续一行一行,依次输入:cd chatgptonwechat/ ,pip install r requirements.txt 。 等待执行完成,继续粘贴:pip install r requirements optional.txt 。 上边的都执行完成后,到“文件”菜单中去执行,点击文件 找到 root,进入 root 文件夹,找到 chatgpt on wechat 文件夹,并进入。
2025-01-19
知识库的实验数据,AI能关联分析思考吗?
目前的 AI 技术在一定程度上能够对知识库中的实验数据进行关联分析和思考。AI 具备处理和分析大量数据的能力,通过运用机器学习和数据挖掘算法,可以发现数据中的模式、关系和趋势。然而,AI 的分析能力取决于数据的质量、特征工程的有效性以及所采用的算法和模型的适用性。在复杂和不确定的情况下,AI 的分析结果可能存在一定的局限性,需要人类的进一步审查和判断。
2025-01-18
如何准确调用知识库的内容?
要准确调用知识库的内容,可以从以下方面进行: 维护知识库内容: 为提升召回准确率,可删除、新增或修改知识库内容。 在知识库页面,能看到已创建的知识库及每个知识库内的单元数量和创建时间等信息。单击知识库或编辑图标,可进入知识库详情页面。在详情页可进行新增内容、删除内容、更新单元内的分段、开启引用等操作。若不开启引用,即便 Bot 中使用了所属的知识库,该单元内容也不会被召回。 使用知识库: 可以将知识库直接与 Bot 进行关联用于响应用户回复,也可以在工作流中添加知识库节点。 在 Bot 内使用知识库: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 4. 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 5. (可选)添加知识库后,可在自动调用下拉界面内,调整知识库的配置项,如最大召回数量、最小匹配度、调用方式等。在预览与调试区域调试 Bot 能力时,扩展运行完毕的内容可以查看知识库命中并召回的分片内容。 在工作流内使用 Knowledge 节点: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在页面顶部进入工作流页面,并打开指定的工作流。 4. 在左侧基础节点列表内,选择添加 Knowledge 节点。 关于让 AI+知识库回答更准确的示例: 以问答机器人为例,其配置包括 AI 模型、提示词、知识库。大语言模型如同拥有无穷智慧的人,提示词是设定其角色和专注技能,知识库则是工作手册。例如设定 AI 模型为阿里千问模型,提示词角色为“美嘉”,知识库为《爱情公寓》全季剧情,让“美嘉”拥有相关“记忆”。
2025-01-18
知识库目录
以下是知识库的目录内容: 1. 关于我们&致谢 我们是一个开源 AI 社区,坚信人工智能将重新塑造思考和学习方式,为创建知识库的决心提供动力。 特别感谢一路上支持和推荐知识库的伙伴们,使我们有信心持续探索 AGI 的无限可能。 WaytoAGI 是由一群热爱 AI 的专家和爱好者共同建设的开源 AI 知识库,大家贡献并整合各种 AI 资源,方便不同水平的人学习和应用。 2. 元子:WayToAGI 知识库究竟咋用? 知识库起飞指南 把知识库想象成 24 小时在线的 AI 老师、永不嫌烦的知识管家、不断成长的智慧宝库。 里面藏着 AI 工具的“傻瓜式说明书”、大神们的“踩坑经验分享”、实用的“一招制胜”秘籍。 新手探索指南:点击飞书链接()。 知识库界面:左边的导航栏是指南针,上面的搜索框是探宝雷达,中间的内容区是知识的海洋。 3. 信鑫:基于大模型+知识库的 Code Review 实践 实现思路 官方文档知识库(内置) 避免大家将官方文档重复录入、embedding,CR Copilot 内置了官方文档,目录包含: React 官方文档: TypeScript 官方文档: Rspack 官方文档: Garfish: 公司内 Go/Python/Rust 等编程规范等,并通过一个简单的 CURD 来管理内置向量知识库。
2025-01-17
扣子应用搭建示例
以下是关于扣子应用搭建的相关内容: 白嫖 Groq 平台算力的落地应用: 通过扣子工作流,用代码模块进行 HTTP 访问,实现 0 token 脱离扣子模型来使用 Groq 作为 LLM,可参考梦飞大佬教程将扣子接入微信机器人(有微信封号风险)。 由于 Groq 的 API 与 OpenAI 的 API 几乎兼容,可以适配到任何 APP 产品填 APIKEY 调用的场景,以沉浸式翻译为例。 接入手机类 APP,比如通过快捷方式接入 Siri。 接入扣子工作流:搭建细节可移步 WaytoAGI 自学。建立工作流只需一个代码节点,需配置代码节点的输入引用、输出等。可建立 Bot 调用工作流,但建议不发布,以免代理流量被他人使用。 在扣子调用已有的 API 制作插件: Body:用于传递请求主体部分,GET 方法中通常不用于传递参数。 Path:用于定义请求路径部分,GET 方法中可传递参数,常编码为 URL 一部分。 Query:用于定义请求查询部分,是 GET 方法中常用的参数传递方式。 Header:用于定义 HTTP 请求头信息部分,GET 方法中通常不用于传递参数。配置输出参数,填对后可点击自动解析,调试与校验工具是否能正常运行。 搭建邮票收藏馆应用: 业务背景与逻辑梳理:源于客户需求,功能包括生成邮票、收藏邮票、收藏列表、查看藏品详情,规划了生成和查看两个页面。 页面设计: 第一页:导航栏有应用名称、查看收藏入口、用户头像;陈列展示生成的图片;生成和收藏部分可输入关键字生成并收藏。 第二页:收藏列表会加载用户所有收藏,数量超 100 需优化加翻页;收藏详情可查看大图、关键字、收藏时间。
2025-01-21
搜索模型搭建
以下是关于搜索模型搭建的相关知识: 嵌入(Embeddings): 概述:第一代模型(以001结尾的模型)都使用 GPT3 分词器,最大输入为 2046 个分词。第一代嵌入由五个不同的模型系列生成,针对三个不同任务进行调整,包括文本搜索、文本相似性和代码搜索。搜索模型成对出现,有用于短查询和长文档的。不同系列包括多种质量和速度不同的型号,如 Davinci 能力最强但更慢更贵,Ada 能力最差但速度快成本低。 相似性嵌入:最擅长捕捉文本片段之间语义相似性,如 textsimilaritybabbage001、textsimilaritycurie001、textsimilaritydavinci001。 文本搜索嵌入:有助于衡量长文档与短搜索查询的相关性,使用两种模型,分别用于嵌入搜索查询和要排名的文档,如 textsearchadaquery001 等。 代码搜索嵌入:与搜索嵌入类似,有两种类型,分别用于嵌入自然语言搜索查询和要检索的代码片段,如 codesearchadatext001 等。对于001 文本嵌入,建议将输入中的换行符替换为单个空格。 部署大语言模型: 下载并安装 Ollama:根据电脑系统,从 https://ollama.com/download 下载,双击打开点击“Install”,安装完成后将下方地址复制进浏览器中,若出现相关字样表示安装完成,即 http://127.0.0.1:11434/ 。 下载 qwen2:0.5b 模型:Windows 电脑按 win+R 输入 cmd 回车,Mac 电脑按下 Command(⌘)+Space 键打开 Spotlight 搜索输入“Terminal”或“终端”选择“终端”应用程序,复制相关命令行粘贴回车等待完成。 检索原理: 信息筛选与确认:对检索器提供的信息进行评估,筛选出最相关和最可信的内容,涉及对信息来源、时效性和相关性的验证。 消除冗余:识别和去除多个文档或数据源中的重复信息。 关系映射:分析不同信息片段之间的逻辑和事实关系,如因果、对比、顺序等。 上下文构建:将筛选和结构化的信息组织成连贯的上下文环境,包括排序、归类和整合。 语义融合:合并意义相近但表达不同的信息片段。 预备生成阶段:整合好的上下文信息被编码成适合生成器处理的格式。 大模型生成回答:全新的上下文传递给大语言模型,大语言模型根据提供的信息回答问题。
2025-01-19
如果搭建ai智能体
搭建 AI 智能体可以参考以下步骤: 1. 明确需求:在品牌卖点提炼中,要清楚 AI 智能体是引导型助手,帮助提供思考维度,而非直接给出从 0 到 1 的卖点。 2. 明确 AI 的能力和局限:AI 对公司的诸多方面了解程度接近于 0,如主要产品、产品解决的用户需求、独特之处、获得的认可、核心渠道、核心购买人群、营销手段、期望的新渠道结果等。但 AI 能通过分析数据和信息进行逻辑推理、快速处理和分析数据、利用大量训练数据输出更全面信息、理解用户内容并按正确结构梳理输出。 3. 逐步搭建: 配置工作流,得到可用的工作流(如整理入库、选择内容)。 进行整体配置,包括创建 Bot、填写 Bot 介绍、切换模型(如测试效果较好的通义千问)、添加工作流、新增变量{{app_token}}、添加外层 bot 提示词等。完成后可在「预览与调试」窗口与智能体对话并使用全部功能。
2025-01-19
如果搭建一个智能写作AI
搭建一个智能写作 AI 可以参考以下步骤: 1. 了解生成式人工智能的工作原理: 监督学习在人工智能领域一直占据很大比例,生成式 AI 由监督学习技术搭建。 大语言模型通过使用监督学习不断预测下一个词语来生成文本,需要千亿甚至万亿级别的单词数据库。 2. 认识大语言模型的特点: 大语言模型在写故事、修改文本等方面非常有用。 但它可能会编造故事产生错误信息,需要鉴别信息准确性。 网络搜索与大语言模型有区别,网络搜索可追寻信息来源,大语言模型可提供建议与策略。 3. 明确人工智能的应用空间: 人工智能有大量运用空间,如基于网络界面应用和基于软件程序应用。 使用大语言模型写作,集思广益、头脑风暴很有用,翻译也可以使用,但网络文本较少时效果可能不太好。 4. 搭建 AI 工作流: 学会搭建 AI 智能体,它能根据设定的工作流自动调用不同的 AI 工具完成全流程任务。 例如设计“写作助手”的 AI 智能体,输入文章的主题、风格和要求,它能自动完成文章大纲处理、初稿写作、修改润色和排版等工作。 5. 拆解高效写作的关键步骤: 写作是一个逐步的过程,要先梳理没有 AI 工具时的工作流,再考虑引入 AI 赋能。 比如写公众号文章,要先选题、搜资料、列提纲、起标题、配图片、排版发布等,拆解清楚每个环节,判断 AI 能提供的帮助。
2025-01-19
帮我搭建一个工作流编排的智能体
以下是搭建工作流编排智能体的步骤: 1. 逐步搭建 AI 智能体: 创建 Bot。 填写 Bot 介绍。 切换模型为“通义千问”(测试下来,通义对提示词理解、执行效果最好)。 把配置好的工作流添加到 Bot 中。 新增变量{{app_token}}。 添加外层 bot 提示词(可按需求和实际效果优化调整)。完成上述步骤后,在「预览与调试」窗口可与 AI 稍后读智能体对话并使用全部功能。 2. 选择工作流的对话模式: 创建一个工作流对话模式的智能体。 先完成创建,然后切换工作流的模式为对话模式。注意一定要在开始调整工作流节点之前切换模式,因为切换成对话模式会将工作流清空,重置为对话模式默认节点。 3. 确认分支情况: 根据需求分析,确定特定分支(如根据名字和祝福写对联、根据幸运数字写对联)和默认分支,以保证用户其他对话能得到良好回复。 4. 用户意图识别: 通过理解用户意图走不同分支,需将意图介绍写清楚、准确,否则可能导致意图识别不好用。 5. 幸运数字分支: 用代码分支获取用户输入的数字,然后匹配知识库,再对匹配的春联做赏析。代码里有容错机制,返回时加“.0”是为了按指定的幸运数字在知识库里匹配。 6. 名字写祝福: 根据用户输入的名字和祝福信息,通过提示词调试生成对应对联并输出。 7. 通用兜底回复: 在用户不符合前两个意图时进行友好回复。首先匹配知识库,然后让大模型结合匹配结果、历史记录、当前输入,输出符合对话内容的回复。 8. 知识库: 知识库是使用大模型生成的 100 对对联,都比较好看、经典、有意义。
2025-01-18
AI智能体对个人工作能力培养方面的启示
AI 智能体对个人工作能力培养有以下启示: 1. 工作方法方面: 彻底让自己变成一个“懒人”。 能动嘴的不要动手,用嘴说出想做的事远比打字快。 能动手的尽量用 AI,用 AI 远比苦哈哈手敲快。 把手上的工作单元切割开,建设属于自己的智能体。 根据结果反馈不断调整自己的智能体。 定期审视自己的工作流程,看哪个部分可以更多地用上 AI。 2. 个人素质方面: 技术层面之外,个人能力的提升是核心,尤其是学习能力和创造能力。 学习能力是通过持续阅读和实践来吸收、消化和积累知识的能力,是构建个人知识体系的基础和个人成长的动力源泉。 为保持竞争力,要培养并维持旺盛的好奇心和持续学习的习惯,广泛阅读,深入研究新领域,不断探索前沿知识,全方位、多角度学习和实践,以积累知识、提高适应能力和创新思维。 3. 技术应用方面: 迅速掌握生成式人工智能的基本概念和潜在影响,重点理解其如何革新工作方式和重塑行业格局。 深入了解市场上现有的人工智能产品和工具,并积极应用到实际工作中。 学习提示词技术,编写清晰、精确的指令,引导 AI 工具产生所需结果。 探索构建智能体,让其革新工作方式,多个虚拟伙伴和助手协同工作,提高工作效率和创新能力。 需要注意的是,AI 技术的出现能把大部分人的能力提升到及格线以上,人与人之间最大的差距在于认知差距。对创建 AI 智能体感兴趣的小伙伴,可前往 WaytoAGI 开源免费社区了解(里面有保姆级教程)。
2025-01-22
AI智能体对个人工作及职业规划的启示
AI 智能体对个人工作及职业规划具有多方面的启示: 在职业规划方面: 1. 职业趋势分析:基于最新市场数据和行业报告,协助分析自身专业或职业的前景,了解未来趋势。 2. 技能评估与提升:通过测评工具评估当前职业兴趣,提供针对性学习资源和课程建议,提升专业技能。 3. 职业匹配与推荐:根据兴趣、技能和职业目标,推荐适合的职业路径和职位,提供个性化建议。 4. 职业发展规划:结合个人情况和市场需求,制定详细的短、中、长期职业发展计划,帮助在 AI 时代找到职业定位。 在个人工作方面: 1. 掌握基本概念和潜在影响:对于生成式人工智能,应迅速了解其基本概念和潜在影响,无需深入技术细节,重点在于理解其对工作方式和行业格局的革新。 2. 应用现有产品和工具:深入了解市场上的人工智能产品和工具,并积极应用于实际工作,通过实践学习其优势和局限性。 3. 学习提示词技术:掌握提示词技术,编写清晰、精确的指令,引导 AI 工具产生所需结果,提升工作效率和产出质量。 4. 探索构建智能体:构建智能体,赋予其特定角色和任务,协同工作,提高工作效率和创新能力。 总之,AI 智能体为个人提供了提效的可能,如同拥有数字员工,在职业规划和工作中都能发挥重要作用。
2025-01-22
能帮生成一个人工智能行业分析的PPT
以下是为您生成的人工智能行业分析的 PPT 相关内容: 一、AI 辅助的 PPT 工具 1. Gamma:在线 PPT 制作网站,通过输入文本和想法提示快速生成幻灯片,支持嵌入多媒体格式,如 GIF 和视频,网址:https://gamma.app/ 2. 美图 AI PPT:由美图秀秀团队推出,通过输入简单文本描述生成专业 PPT 设计,包含丰富模板库和设计元素,适用于多种场合,网址:https://www.xdesign.com/ppt/ 3. Mindshow:AI 驱动的 PPT 辅助工具,提供智能设计功能,如自动布局、图像选择和文本优化等,还可能包含互动元素和动画效果,网址:https://www.mindshow.fun/ 4. 讯飞智文:科大讯飞推出的 AI 辅助文档编辑工具,利用语音识别和自然语言处理技术优势,提供智能文本生成、语音输入、文档格式化等功能,网址:https://zhiwen.xfyun.cn/ 二、Gamma 的用法 将 Claude 的答案放到 Google Docs 中并导入 Gamma app 可自动转成初始版只有文字没有图片的 PPT,可给 Gamma app 发送指令进行美化。 三、Claude 和 Gamma 的组合使用 1. 用 Claude 解决不会使用学术网站条件搜索的问题。 如让其搜索营销领域权威期刊、特定期刊中关于 ChatGPT 的最新论文并筛选等。 2. 用 Claude 和 Gamma 达到以下目的: 快速寻找符合条件的论文。 提取精炼论文中某部分信息。 找到适合的 PPT 制作工具并学会使用。 希望以上内容对您制作人工智能行业分析的 PPT 有所帮助。
2025-01-21
免费克隆一个人的声音
以下是一些可以免费克隆一个人声音的工具和平台: PlayHT:https://play.ht/studio/ ,包含预设音色,可免费克隆一个音色,若想生成多个,删除上一个音色即可做新的。 Elevenlabs:https://elevenlabs.io/app ,包含预设音色,新用户 1 美元开通一个月会员,可使用克隆音色。 魔搭社区:https://www.modelscope.cn/home ,是一个模型开源社区及创新平台,由阿里巴巴通义实验室联合 CCF 开源发展委员会共同发起,包含各种声音模型,有开发经验的朋友可使用。 Dubbingx:https://dubbingx.com/ ,免费克隆音色,有桌面版,Mac、Window 均可用。 魔音工坊:https://www.moyin.com/
2025-01-21
个人怎么在本地搭建AI大模型
个人在本地搭建 AI 大模型可以参考以下步骤: 1. 选择合适的部署方式:包括本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源:确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础:可以使用开源的预训练模型如 BERT、GPT 等,也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练:根据具体应用场景对预训练模型进行微调训练,优化模型结构和训练过程以提高性能。 5. 部署和调试模型:将训练好的模型部署到生产环境,并对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护:大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 如果想要对知识库进行更加灵活的掌控,可以使用 AnythingLLM 软件。其安装地址为:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步: 1. 第一步:选择大模型。 2. 第二步:选择文本嵌入模型。 3. 第三步:选择向量数据库。 在 AnythingLLM 中,有一个 Workspace 的概念,可以创建自己独有的 Workspace 跟其他的项目数据进行隔离。具体操作包括: 1. 首先创建一个工作空间。 2. 上传文档并且在工作空间中进行文本嵌入。 3. 选择对话模式,AnythingLLM 提供了两种对话模式:Chat 模式(大模型会根据自己的训练数据和上传的文档数据综合给出答案)和 Query 模式(大模型仅仅会依靠文档中的数据给出答案)。 4. 测试对话。 本文的思路来源于视频号博主黄益贺,按照他的视频进行实操,并附加了一些关于 RAG 的额外知识。读完本文,您将学习到如何使用 Ollama 一键部署本地大模型,通过搭建本地的聊天工具,了解 ChatGPT 的信息流转,RAG 的概念以及所用到的一些核心技术,如何通过 AnythingLLM 这款软件搭建完全本地化的数据库。
2025-01-17
如何搭建个人AI大模型
搭建个人 AI 大模型主要包括以下步骤: 1. 选择合适的部署方式: 本地环境部署。 云计算平台部署。 分布式部署。 模型压缩和量化。 公共云服务商部署。需根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源: 确保有足够的训练数据覆盖目标应用场景。 准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础: 可以使用开源的预训练模型如 BERT、GPT 等。 也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练: 根据具体应用场景对预训练模型进行微调训练。 优化模型结构和训练过程以提高性能。 5. 部署和调试模型: 将训练好的模型部署到生产环境。 对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护: 大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 此外,还有一种全程白嫖搭建拥有一个 AI 大模型的微信助手的方法: 1. 搭建,用于汇聚整合多种大模型接口,并了解如何白嫖大模型接口。 2. 搭建,这是一个知识库问答系统,将知识文件放入,并接入上面的大模型作为分析知识库的大脑,若不想接入微信,搭建到此即可,其本身有问答界面。 3. 搭建。 大模型的构建过程包括: 1. 收集海量数据:如同让孩子阅读大量书籍等,研究人员会收集互联网上的文章、书籍、维基百科条目、社交媒体帖子等各种文本数据。 2. 预处理数据:如同为孩子整理资料,研究人员需要清理和组织收集到的数据,如删除垃圾信息、纠正拼写错误、将文本分割成易于处理的片段。 3. 设计模型架构:如同为孩子设计学习计划,研究人员需要设计 AI 模型的“大脑”结构,通常是一个复杂的神经网络,如 Transformer 架构。 4. 训练模型:如同孩子开始阅读和学习,AI 模型开始“阅读”提供的数据,通过反复尝试预测句子中的下一个词等方式,逐渐学会理解和生成人类语言。
2025-01-17