Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

用deepseek建立个人知识库

Answer

以下是关于用 DeepSeek 建立个人知识库的相关知识:

RAG(Retrieval Augmented Generation,检索增强生成)是利用大模型的能力搭建知识库的关键技术。在进行本地知识库搭建实操前,需先了解 RAG。大模型训练数据有截止日期,当需要依靠不在训练集中的数据时,可通过 RAG 实现。RAG 应用包括 5 个过程:

  1. 文档加载:从多种来源加载文档,如 PDF 等非结构化数据、SQL 等结构化数据以及代码等。
  2. 文本分割:把文档切分为指定大小的块,称为“文档块”或“文档片”。
  3. 存储:包括将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。
  4. 检索:通过检索算法找到与输入问题相似的嵌入片。
  5. 输出:把问题及检索出来的嵌入片一起提交给 LLM,生成更合理的答案。

此外,搭建基于 GPT API 的定制化知识库,涉及给 GPT 输入定制化知识。由于 GPT-3.5 一次交互支持的 Token 有限,OpenAI 提供了 embedding API 解决方案。embeddings 是浮点数字的向量,向量之间的距离衡量关联性,小距离表示高关联度。将文本转换成向量能节省空间,可理解为索引。比如有大文本,可拆分成小文本块并转换成 embeddings 向量,保存在向量储存库作为问答知识库。当用户提问时,问题先转换成向量,与储存库中的向量比对,提取关联度高的文本块与问题组合成新的 prompt 发送给 GPT API。例如,对于一篇万字长文拆分成多个文本块,提问“此文作者是谁?”,可通过比较 embeddings 向量得出关联度高的文本块。

Content generated by AI large model, please carefully verify (powered by aily)

References

手把手教你本地部署大模型以及搭建个人知识库

因为利用大模型的能力搭建知识库本身就是一个RAG技术的应用。所以在进行本地知识库的搭建实操之前,我们需要先对RAG有一个大概的了解。以下内容会有些干,我会尽量用通俗易懂的描述进行讲解。我们都知道大模型的训练数据是有截止日期的,那当我们需要依靠不包含在大模型训练集中的数据时,我们该怎么做呢?实现这一点的主要方法就是通过检索增强生成RAG(Retrieval Augmented Generation)。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给LLM。我们可以将一个RAG的应用抽象为下图的5个过程:文档加载(Document Loading):从多种不同来源加载文档。LangChain提供了100多种不同的文档加载器,包括PDF在内的非结构化的数据、SQL在内的结构化的数据,以及Python、Java之类的代码等文本分割(Splitting):文本分割器把Documents切分为指定大小的块,我把它们称为“文档块”或者“文档片”存储(Storage):存储涉及到两个环节,分别是:将切分好的文档块进行嵌入(Embedding)转换成向量的形式将Embedding后的向量数据存储到向量数据库检索(Retrieval):一旦数据进入向量数据库,我们仍然需要将数据检索出来,我们会通过某种检索算法找到与输入问题相似的嵌入片Output(输出):把问题以及检索出来的嵌入片一起提交给LLM,LLM会通过问题和检索出来的提示一起来生成更加合理的答案[heading2]文本加载器(Document Loaders)[content]文本加载器就是将用户提供的文本加载到内存中,便于进行后续的处理

从零开始,用GPT打造个人知识库

要搭建基于GPT API的定制化知识库,涉及到给GPT输入(投喂)定制化的知识。但GPT-3.5,也就是当前免费版的ChatGPT一次交互(输入和输出)只支持最高4096个Token,约等于3000个单词或2300个汉字。这点容量对于绝大多数领域知识根本不够。为了使用GPT的语言能力来处理大量的领域知识,OpenAI提供了embedding API解决方案。参考OpenAI embedding documents。[heading2]理解embeddings[content]embeddings(直译为嵌入)是一个浮点数字的向量(列表)。两个向量之间的距离衡量它们的关联性。小距离表示高关联度,大距离表示低关联度。进一步解释:向量(列表):向量是数学中表示大小和方向的一个量,通常用一串数字表示。在计算机科学和数据科学中,向量通常用列表(list)来表示。列表是一种数据结构,它包含一组有序的元素。例如,一个二维向量可以表示为[2,3],这意味着沿着两个轴的分量分别为2和3。在这里,"list"是一种编程术语,意味着一系列有序的数据。向量之间的距离:向量之间的距离是一种度量两个向量相似性的方法。有多种方式可以计算两个向量之间的距离,最常见的是欧几里得距离。欧几里得距离计算方法是将两个向量的对应元素相减,然后取平方和,再开平方。例如,向量A=[1,2]和向量B=[4,6]之间的欧几里得距离为sqrt((4-1)^2+(6-2)^2)=5。较小距离意味着高相关性,因为向量间相似度高。在OpenAI词嵌入中,靠近向量的词语在语义上相似。例如,“猫”和“狗”距离近,它们都是宠物,与“汽车”距离远,相关性低。文档上给了创建embeddings的示例上面的命令访问embeddings API接口,将input语句,转化成下面这一串浮点数字。

从零开始,用GPT打造个人知识库

上面将文本转换成向量(一串数字)能大大节省空间,它不是压缩,可简单理解为索引(Index)。接下来就有意思了。比如我有一个大文本,可以先把它拆分成若干个小文本块(也叫chunk),通过embeddings API将小文本块转换成embeddings向量,这个向量是跟文本块的语义相关。在一个地方(向量储存库)中保存这些embeddings向量和文本块,作为问答的知识库。当用户提出一个问题时,该问题先通过embeddings API转换成问题向量,然后将这问题向量与向量储存库的所有文本块向量比对,查找距离最小的几个向量,把这几个向量对应的文本块提取出来,与原有问题组合成为新的prompt(问题/提示词),发送给GPT API。这样一来就不用一次会话中输入所有领域知识,而是输入了关联度最高的部分知识。一图胜千言,转一张原理图。再举一个极其简单的例子,比如有一篇万字长文,拆分成Chrunks包含:文本块1:本文作者:越山。xxxx。文本块2:公众号越山集的介绍:传播效率方法,分享AI应用,陪伴彼此在成长路上,共同前行。文本块3:《反脆弱》作者塔勒布xxxx。文本块4:“科技爱好者周刊”主编阮一峰会记录每周值得分享的科技内容,周五发布。...文本块n如果提问是”此文作者是谁?“。可以直观的看出上面的文本块1跟这个问题的关联度最高,文本块3次之。通过比较embeddings向量也可以得到这结论。那最后发送给GPT API的问题会类似于”此文作者是谁?从以下信息中获取答案:本文作者:越山。xxxx。《反脆弱》作者塔勒布xxxx。“这样一来,大语言大概率能回答上这个问题。

Others are asking
想要对deepseek进行提问需要什么技巧吗?有没有什么高校组织给出的方案?
对 DeepSeek 进行提问时,以下是一些技巧: 1. 身份定位技巧:目的是让 AI 理解您的背景和专业水平。例如,差的表述是“帮我写一篇营销方案”,好的表述是“作为一名刚入职的电商运营,需要为天猫美妆店铺制定 618 活动方案”。 2. 场景描述技巧:提供具体的应用场景和限制条件。比如,差的表述是“写一篇新品发布文案”,好的表述是“为新上市的儿童智能手表写一篇朋友圈文案,目标用户是 25 35 岁的年轻父母,预算 3000 以内,需强调安全定位功能”。 3. 结构化输出技巧:指定具体的输出格式和内容结构。例如,差的表述是“分析最近的新能源汽车销量数据”,好的表述是“请用表格对比 2024 年 Q1 特斯拉、比亚迪的销量数据,包含以下维度:月度销量、同比增长、市场份额,并在表格下方总结三个关键发现”。 4. 分步骤提问技巧:将复杂问题拆解为可管理的小任务。比如,差的表述是“怎么做短视频运营?”,好的表述是“请分三步指导新手做美食短视频:前期准备:需要哪些设备和技能 拍摄阶段:关键场景和机位选择 后期制作:剪辑节奏和音乐配合建议”。 5. 反馈优化技巧:通过追问获得更精准的答案。例如,第一轮“帮我做一份产品分析报告”,追问 1:“内容太专业了,能用更通俗的语言解释吗?”追问 2:“可以增加一些具体的用户案例来支撑观点吗?” 6. 深度思考引导技巧:目的是获得更深入的分析和见解。
2025-02-07
deepseek入门到精通
以下是关于 DeepSeek 从入门到精通的相关内容: 效果对比:用 Coze 做了小测试,可对比查看相关视频。 如何使用: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 Deepseek。 认真阅读开场白之后,正式开始对话。 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担。 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。 照猫画虎参考大模型的 temperature 设计了阈值系统,可能形式大于实质,之后根据反馈可能会修改。 用 XML 来进行更为规范的设定,而不是用 Lisp(对作者有难度)和 Markdown(运行下来似乎不是很稳定)。 完整提示词:v 1.3 特别鸣谢:李继刚的【思考的七把武器】在前期为作者提供了很多思考方向;Thinking Claude 是作者现在最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源;Claude 3.5 Sonnet 是最得力的助手。 此外,《》是清华大学新闻与传播学院新媒体研究中心出品的指南,详细阐述了 DeepSeek 的功能,包括智能对话、文本生成、代码生成、自然语言理解等,并探讨了如何使用 DeepSeek,包括推理模型与通用模型的区别、提示语设计策略以及如何从入门到精通。文章还介绍了提示语设计的核心技能、常见陷阱及应对方法,旨在帮助用户更好地掌握 AI 工具的使用,提升工作效率和创新能力。 DeepSeek R1 不同于先前的普通模型,它与 OpenAI 现在最先进的模型 o1、o3 一样,同属于基于强化学习 RL 的推理(Reasoning)模型。其标志性表现是在回答用户问题前,会先进行“自问自答”式的推理思考,凭此提升最终回答的质量。这种能力源于其背后独特的“教育方式”,在许多其他的 AI 模型还在接受“填鸭式教育”时,DeepSeek R1 已经率先进入了“自学成才”的新阶段。
2025-02-07
提供一些deepseek提示词
以下是一些关于 DeepSeek 的提示词相关信息: 1. 效果对比:用 Coze 做了小测试,可对比查看。访问 www.deepseek.com 点击“开始对话”,将装有提示词的代码发给 DeepSeek,认真阅读开场白后正式开始对话。 2. 设计思路:将 Agent 封装成 Prompt 并储存在文件,实现同时使用联网和深度思考功能,优化输出质量,设计阈值系统,用 XML 进行规范设定。 3. 完整提示词:v 1.3 ,特别鸣谢李继刚和 Thinking Claude 等。 4. 使用案例: 借助 AI 分析好文章,如找出喜欢的文章投喂给 deepseek R1,从写作和读者角度分析,询问文章缺点和提升空间,对作者进行侧写等。 让 AI 对自己写的文章点评,给出详细优缺点分析和指导建议。 根据文章内容对作者心理侧写。 5. 集合·DeepSeek 提示词方法论:可查看相关文章,如南瓜博士的相关内容,以及 DeepSeek 官方提示词等。最新文章观点学术报告及业界评论可参考特定链接。R1 模型也有一些使用建议。
2025-02-07
你比deepseek聪明吗
DeepSeek 具有以下优秀特点: 1. 在语气上能够还原特定角色的语气,如帝王的语气,相比其他模型输出更准确恰当,兼顾了古典文字和可读性。 2. 对历史细节非常熟悉,这可能与支持“深度探索”和“联网搜索”同时开启有关,能准确还原历史称谓。 3. 输出极其具体且充满惊人细节,行文的隐喻拿捏到位,高级感十足。 此外,DeepSeek R1 属于基于强化学习 RL 的推理模型,在回答用户问题前会先进行“自问自答”式的推理思考,提升回答质量,这种能力源于其独特的“教育方式”,在其他模型还在接受“填鸭式教育”时,它已进入“自学成才”新阶段。 至于我是否比 DeepSeek 聪明,这很难直接比较,因为我们在不同的方面和场景中可能各有优势。
2025-02-07
帮我找到deepseek的培训教程,我是一个技术小白
以下是关于 DeepSeek R1 的培训教程相关内容: DeepSeek R1 引入了纯强化学习(RL),不依赖大量人类标注数据,而是通过自我探索和试错来学习。在“冷启动”阶段,仅通过少量(数千条)人工精选的思维链数据进行初步引导,建立起符合人类阅读习惯的推理表达范式。随后主要依靠强化学习,在奖励系统的反馈下(只对结果准确率与回答格式进行奖励),自主探索推理策略,不断提升回答的准确性,实现自我进化。 准确率奖励用于评估 AI 提供的最终答案是否正确,格式奖励强制结构化输出,让模型把思考过程置于<think></think>标签之间,以便人类观察模型的推理过程。 更有趣的是,DeepSeek 还有一个更加聪明的 R1zero 实验版本,这个版本甚至没有进行任何的初始引导,而是采用了完全从零开始的强化学习。实验表明,无需任何人类的监督训练,R1zero 自然而然地学会了用更多的思考步骤来解决推理任务,还学会了在推理过程中反思先前的推理步骤,探索解决问题的替代方法。但因为没有微调,R1zero 的输出内容可读性差、语言混合,且风险不可控。所以我们见到的是经过符合人类阅读偏好的冷启动与微调过的 R1 版本,确保 AI 生成内容的稳定、安全、道德、无害。 附:DeepSeek R1 完整训练过程,因文章定位与行文节奏设计,上文仅对影响 R1 涌现关键智能的前两个训练步骤进行了讲解。更加完善的训练说明,可直接阅读官方论文:DeepSeekAI《DeepSeekR1:Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》https://arxiv.org/html/2501.12948 参考文献: 1. 碎瓜波斯兔子《Deepseek R1 可能找到了超越人类的办法》https://mp.weixin.qq.com/s/YgRgDw8ndSHJwcPNMqWZNQ 2. 大聪明赛博禅心《DeepSeek R1 是怎么训练的?》https://mp.weixin.qq.com/s/Wuz0H9jmZYV1jM1YtwTlA 3. 老刘说 NLP《可视化角度具象化理解 DeepSeekR1 类推理大模型的习得进程》https://mp.weixin.qq.com/s/ytKTGTgU2T7jSNrBghX1cA 4. Tianzhe Chu et al.《SFT 记忆,RL 泛化:基础模型训练后的比较研究》https://arxiv.org/html/2501.17161 5. Metaso 长思考对话《RL 和 SFT 在后训练中的区别》https://metaso.cn/s/WGdOwPC
2025-02-07
deepseek
DeepSeek 是一家具有独特特点和影响力的公司: 1. 秘方特点:DeepSeek 不是“中国式创新”的产物,其秘方是硅谷味儿的。早在 2024 年 5 月 DeepSeekV2 发布时,就以多头潜在注意力机制(MLA)架构的创新在硅谷引发轰动。同时,它在国内舆论场被描摹成“大模型价格战的发起者”,形成了一种平行时空的感觉。 2. V3 时刻:如果 V3 是 DeepSeek 的 GPT3 时刻,接下来的发展充满未知,但 DeepSeek 作为中国最全球化的 AI 公司之一,赢得全球同行尊重的秘方也是硅谷味儿的。 3. 提示词提升:一个提示词“HiDeepSeek”能让 DeepSeek 的能力更上一层楼。通过 Coze 做了效果对比测试,使用方法包括搜索 www.deepseek.com 点击“开始对话”,将装有提示词的代码发给 DeepSeek 等步骤。其设计思路包括将 Agent 封装成 Prompt 并储存、实现联网和深度思考功能、优化输出质量等。完整提示词版本为 v1.3,特别鸣谢了李继刚和 Thinking Claude 等。
2025-02-07
有哪些AI知识库
以下是一些常见的 AI 知识库: 1. 通往 AGI 之路:这是一个由开发者、学者和有志人士参与的学习社区和开源的 AI 知识库。它提供了全面系统的 AI 学习路径,帮助用户了解从 AI 常见名词到 AI 应用等各方面知识。用户可以通过在飞书大群中与机器人对话获取对应的资料。其相关信息包括公众号、网站、内置知识库 AI 助手、B 站、小红书、X(Twitter)等渠道的内容。 2. 大圣的相关知识库:在大圣的中,以 AI 时代的知识库作为例子进行了讲解,目的是帮助非编程人士理解 AI 时代的知识库。
2025-02-07
新手入门该看这个知识库里的哪些文章/视频,给我列一个学习 路径
以下是为新手入门提供的学习路径: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛(比如图像、音乐、视频等),根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,进行实践巩固知识,尝试使用各种产品做出作品。 在知识库查看大家实践后的作品、文章分享,并分享自己实践后的成果。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 此外,对于 WayToAGI 知识库的使用: 1. 如果觉得视频太多很晕,可以从 Agent 板块开始,比如链接: ,从下往上看,一个一个点进去,都有视频。共学都有视频,都是手把手从注册开始的教学,不会就多看几遍,基本保障一个工具能调通、一个 Agent 能搭好。如果觉得内容多,可以先挑听过的工具开始。 2. 看了一些视频之后,如果想看理论或应用,可以找到导航,想看哪里点哪里。比如链接: 。 3. 还可以从常见工具开始体验,比如: 工具入门篇(AI Tools):数据工具多维表格小白之旅,文章链接: ,适用人群为 Excel 重度使用者、手动数据处理使用者、文件工作者,可满足 80%数据处理需求。 工具入门篇(AI Code):编程工具Cursor 的小白试用反馈,文章链接: ,适用人群为 0 编程经验、觉得编程离我们很遥远的小白,可降低技术壁垒。 工具入门篇(AI Music):音乐工具Suno 的小白探索笔记,文章链接: ,适用人群为 0 乐理知识、觉得作词作曲和我们毫不相关成本巨大的小白,可参与音乐制作。
2025-02-07
从你的知识库中总结提炼一下,形成一个表格,告诉我目前已经有哪些面向个人和面向企业的AI应用\工具\智能体,以及具体的功能简介
|应用类型|应用名称|使用技术|功能简介|示例场景| |||||| |智能体应用(Assistant)|无|基于上下文对话,自主决策并调用工具|客户服务:了解客户诉求,解决客户问题。如查询订单状态、处理退款等。个人助理:管理日程安排、提醒事项、发送邮件等。技术支持:了解技术问题,提供解决方案,帮助用户排除故障。| |工作流应用(Workflow)|无|将复杂任务拆解为若干子任务|AI 翻译:实现初步翻译、内容审校、再次优化的翻译流程,提升翻译质量。| |智能体编排应用|无|支持多智能体协作|综合调研报告:组建一个报告撰写团队,包括负责写作意图识别、大纲书写、总结摘要、智能绘图、事件研判、段落撰写、文笔润色等任务的智能体。软件开发团队:组建一个智能体开发团队,包括负责需求分析、系统设计、编码实现、测试调试、文档编写等任务的智能体。| |AI 游戏道具推荐系统|游戏内商城推荐功能|数据分析、机器学习|根据玩家需求推荐游戏道具。|在一些游戏中,利用 AI 分析玩家的游戏风格和进度,为玩家推荐合适的游戏道具,如武器、装备等。| |AI 天气预报分时服务|彩云天气分时预报|数据分析、机器学习|提供精准的分时天气预报。|彩云天气利用 AI 提供每小时的天气预报,帮助用户更好地安排出行和活动。| |AI 医疗病历分析平台|医渡云病历分析系统|数据分析、自然语言处理|分析医疗病历,辅助诊断。|医渡云利用 AI 分析医疗病历中的症状、检查结果等信息,为医生提供辅助诊断建议。| |AI 会议发言总结工具|讯飞听见会议总结功能|自然语言处理、机器学习|自动总结会议发言内容。|讯飞听见在会议中利用 AI 自动总结发言者的主要观点和重点内容,方便回顾和整理。| |AI 书法作品临摹辅助工具|书法临摹软件|图像识别、数据分析|帮助书法爱好者进行临摹。|书法临摹软件利用 AI 识别书法作品的笔画和结构,为用户提供临摹指导和评价。| |超级简历优化助手|无|自然语言处理|帮助用户优化简历提高求职成功率。|超级简历优化助手分析简历内容并提供优化建议。| |AI 室内设计方案生成|酷家乐|图像生成、机器学习|快速生成个性化室内设计方案。|酷家乐允许用户上传户型图,通过 AI 生成多种设计方案。| |AI 音乐创作辅助工具|Amper Music|机器学习、音频处理|协助音乐创作者进行创作。|Amper Music 根据用户需求生成旋律和编曲。| |AI 情感咨询助手|松果倾诉智能助手|自然语言处理、情感分析|提供情感支持和建议。|松果倾诉智能助手通过文字或语音交流为用户提供情感咨询。| |AI 宠物健康监测设备|小佩宠物智能设备|传感器数据处理、机器学习|实时监测宠物健康状况。|小佩宠物智能设备可监测宠物活动、饮食等,提供健康预警。| |AI 旅游行程规划器|马蜂窝智能行程规划|数据分析、自然语言处理|根据用户需求生成个性化旅游行程。|马蜂窝智能行程规划根据目的地、时间等因素为用户定制旅游路线。|
2025-02-06
我想要搭建一个能够帮我阅读并总结提炼,同时能在我提出问题时,随时在我给他提供的知识库中检索的AI Agent,如何用Coze搭建?
搭建能够阅读、总结提炼并在给定知识库中检索的 AI Agent 可以使用 Coze 按照以下步骤进行: 1. 规划 制定任务的关键方法。 总结任务目标与执行形式。 将任务分解为可管理的子任务,确立逻辑顺序和依赖关系。 设计每个子任务的执行方法。 2. 实施 在 Coze 上搭建工作流框架,设定每个节点的逻辑关系。 详细配置子任务节点,并验证每个子任务的可用性。 3. 完善 整体试运行 Agent,识别功能和性能的卡点。 通过反复测试和迭代,优化至达到预期水平。 关于一些其他问题: 1. 如何判断自己的任务/Prompt 是否需要拆解为工作流? 构建稳定可用的 AI Agent 是一个需要不断调试和迭代的过程。通常先从当前性能最强的 LLM(如 ChatGPT4 和 Claude 3.5 sonnet)着手,先用单条 Prompt 或 Prompt Chain 来测试任务的执行质量和稳定性。然后,根据实际执行情况、最终投产使用的 LLM,逐步拆解子任务,降低 LLM 执行单任务的难度,直到达成工程目标。一般对于场景多样、结构复杂、对输出格式要求严格的内容,基本可以预见到需要将其拆解为工作流。此外,如果涉及生成多媒体内容或从网络自主获取额外信息等能力,必然需要通过工作流来调用相应的插件。 2. 只用了一段 Prompt 的 Agent,还算 AI Agent 吗? 算。详见
2025-02-06
好的,告诉我知识库有些什么知识
以下是关于知识库的相关知识: 知识表示和专家系统:专家系统是符号人工智能的早期成就之一,它基于从人类专家提取的知识库,并包含推理引擎。专家系统像人类推理系统一样包含短期记忆和长期记忆,以知识为基础的系统分为问题记忆(包含与当前问题有关的静态知识)、知识库(代表问题领域的长期知识)、推理引擎(协调问题状态空间的搜索过程)。例如,有根据动物物理特征判断动物的专家系统,其规则左侧的条件和操作本质上是对象属性值三元组。 银海有话说:“通往 AGI 之路”是由开发者、学者和有志人士等参与的学习社区和开源的 AI 知识库,在这里大家既是知识的消费者也是创作者。这个知识库以“无弯路,全速前进”为目标,其成长得益于大家的支持,它不仅是知识库,还是连接学习者、实践者和创新者的社区。 知识库起飞指南:可以把知识库想象成 24 小时在线的 AI 老师、永不嫌烦的知识管家、不断成长的智慧宝库。里面藏着 AI 工具的“傻瓜式说明书”、大神们的“踩坑经验分享”、实用的“一招制胜”秘籍。开启宝藏的第一步是点击飞书链接,知识库的界面左边导航栏是指南针,上面搜索框是探宝雷达,中间内容区是知识的海洋。里面具体有什么可以参考文章。
2025-02-06
deepseek适合做ai知识库检索工具吗
DeepSeek 是基于 AI 模型的产品,只是品牌名,需要搭配具体模型,如 DeepSeek V3(类 GPT4o)和 DeepSeek R1(类 OpenAI o1)。 文本嵌入可用于实现高效的知识检索,相似或相关的字符串在嵌入空间中靠得更近,利用快速向量搜索算法,一个文本语料库可以被分割成块,给定的查询被嵌入后,能进行向量搜索找到最相关的嵌入文本块。 知识库就像 AI 的“活字典”,可以随时更新,例如包含最新新闻、科技发展、法律法规等内容,AI 遇到不确定问题时可从中检索相关信息给出更准确回答,像很火的 AI 搜索就是将整个互联网实时数据作为知识库。 但仅根据上述信息,不能明确判断 DeepSeek 是否适合做 AI 知识库检索工具,还需要综合考虑其具体性能、与您需求的匹配度等多方面因素。
2025-02-06
如何做一个AI智能体,能具备某个人的思考能力和方法,比如马斯克,金枪大叔或者毛泽东。
要创建一个具备像马斯克等人思考能力和方法的 AI 智能体并非易事,以下是一些相关的要点和思路: xAI 的使命在于探索宇宙本质与智能体。从宇宙尺度看,意识进化存在狭窄窗口,计算机若不能解决至少一个基本问题,不能称之为 AGI。 对于使命陈述,短期内致力于更好地理解深度学习技术,工作中应始终记住构建与理解并重,追求科学是基础。 主要目标是创建能帮助更好理解宇宙的聪明智能体,相关数学研究可能为对基本物理或其他现实的思考开辟新方式,带来有趣视角,对现有问题产生启发,但目前多为推测性,尚无具体结论。 但需要注意的是,完全复制某个人的思考能力和方法在当前技术水平下是极具挑战性的,甚至可能无法实现。
2025-02-07
如何用AI搭建个人和企业知识库
以下是关于如何用 AI 搭建个人和企业知识库的相关内容: 一、使用飞书搭建 可以参考。读完相关文章,您将收获: 1. AI 时代的知识库的概念、实现原理以及能力边界。 2. 通往 AGI 之路大群中通过对话就能获取知识库中资料的原理。 3. 更好地使用 Coze 等 AI Agent 平台中的知识库组件,打造更加强大的智能体。 另外,作者正在规划一个关于 AI 时代您应该具备的编程基础系列,包括数据库、知识库、变量、JSON、API、操作系统与服务器、Docker 等内容。 二、本地部署大模型以及搭建个人知识库 1. 若要对知识库进行更灵活的掌控,需要额外的软件 AnythingLLM,其包含了所有 Open WebUI 的能力,并额外支持选择文本嵌入模型和向量数据库。 2. 安装地址:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步: 第一步:选择大模型。 第二步:选择文本嵌入模型。 第三步:选择向量数据库。 3. 在 AnythingLLM 中有 Workspace 的概念,可以创建自己独有的 Workspace 跟其他项目数据进行隔离。具体操作包括: 首先创建一个工作空间。 上传文档并且在工作空间中进行文本嵌入。 选择对话模式,提供了 Chat 模式(大模型会根据自己的训练数据和上传的文档数据综合给出答案)和 Query 模式(大模型仅仅会依靠文档中的数据给出答案)。 完成上述配置后,即可跟大模型进行对话。 三、AI 时代的知识管理体系构建案例 1. 一条书摘:在读书(万维钢的新书《拐点》)时,看到一段有触动但保持批判性思考和怀疑的文本,提到如果足够强势,当前 AI 对人的作用有三个:信息杠杆、发现自己真正想要的、帮助形成自己的观点和决策。 2. 一个笔记:将上述书摘整理归纳,标记重点,打赏标签,放入笔记系统,准备展开深度思考和实践。 3. 对笔记的思考和实践:基于笔记中提到的 AI 对人的三种最终的赋能模式,以自己深度思考的问题为例,践行这套方法论,体会何谓“信息杠杆”可以令你的“思维换挡”,感受如何“让自己发现究竟想要什么”。 4. 生长出的自己的观点和内容:基于上述实践,生成“自己的观点和决策”。 5. 教授和分享:基于“自己的观点和决策”,打造成体系化的内容产品,实现价值。 总结:通过一个碎片化知识在左侧知识库中的“点、线、面、体”式的流转,从一个书摘变成一个体系化内容或课程,把“别人说的话”变成“我自己的智慧”。希望大家都能利用 AI 高效地把自己的知识管理体系搭建起来,运用起来。
2025-02-06
介绍一下有没有适合一个5个人软件开发公使用的AI服务器,包含软硬件
目前市面上有多种适合 5 人软件开发公司使用的 AI 服务器,软硬件的选择需要综合考虑多方面因素。 在硬件方面,服务器的处理器性能至关重要,例如英特尔至强系列处理器具有较强的计算能力。内存容量应足够大,以满足数据处理和模型训练的需求,建议至少 32GB 或更高。存储方面,高速的固态硬盘(SSD)可以提供快速的数据读写速度。 在软件方面,常见的操作系统如 Linux(如 Ubuntu、CentOS 等)具有较好的稳定性和兼容性。深度学习框架如 TensorFlow、PyTorch 等是进行 AI 开发的重要工具。同时,还需要配备相关的数据库管理软件、开发工具和监控软件等。 然而,具体的选择还需根据公司的业务需求、预算以及技术团队的熟悉程度来决定。
2025-02-05
个人如何通过AI获取收入
个人通过 AI 获取收入的方式主要有以下几种: 1. 学习 AI 技术,从事相关高薪工作,如成为数据科学家、机器学习工程师等,在金融、医疗、制造业等行业找到工作机会,获得不错的收入。但能否赚钱取决于个人的学习能力、实际应用能力、对市场和商业的理解等,需要持续学习和实践。 2. 在公司给自己贴“AI 大神”标签,提升个人影响力。 3. 在社交网络分享相关成果,扩大影响力。 4. 承接项目开发,例如通过增加画板节点,结合公司 Logo 生成一系列公司主题的产品邮票,或者承接类似需求,扩充工作流以适应更复杂的业务。 5. 对于内容创作,利用生成式 AI 进行艺术创作,从消费者“仅为了娱乐”地创造内容,到创作者或个体创业者通过内容实现盈利。
2025-02-05
如何用AI工具做一个个人工作知识库
以下是使用 AI 工具创建个人工作知识库的方法: 1. 使用 AnythingLLM 软件: 安装地址:https://useanything.com/download 。 安装完成后进入配置页面,主要分为三步: 第一步:选择大模型。 第二步:选择文本嵌入模型。 第三步:选择向量数据库。 在 AnythingLLM 中创建自己独有的 Workspace 与其他项目数据隔离。 首先创建一个工作空间,上传文档并在工作空间中进行文本嵌入,选择对话模式。 AnythingLLM 提供了两种对话模式:Chat 模式(大模型会根据自己的训练数据和上传的文档数据综合给出答案)和 Query 模式(大模型仅仅会依靠文档中的数据给出答案)。 完成配置后即可与大模型进行对话。 2. 基于 Coze 免费打造: 确定功能范围,编写 prompt 提示词,设定 Bot 的身份和目标。 创建知识库,整理“关键字”与“AI 相关资料链接”的对应关系,并将信息存储起来。创建知识库路径:个人空间 知识库 创建知识库。知识库文档类型支持本地文档、在线数据、飞书文档、Notion 等,本次使用【本地文档】。按照操作指引上传文档、分段设置、确认数据处理。小技巧:在内容中加上一些特殊分割符,比如“”,以便于自动切分数据。分段标识符号要选择“自定义”,内容填“”。 创建工作流,告诉 AI 机器人应该按什么流程处理信息。创建工作流路径:个人空间 工作流 创建工作流。工作流设计好后,先点击右上角“试运行”,测试工作流无误后,就可以点击发布。如果任务和逻辑复杂,可以结合左边“节点”工具来实现。 私人知识库中的内容一般有两种:日常从互联网收集的优质信息和个人日常的思考以及分享。如果想基于这套知识库打造个人专属的 ChatGPT,常见的有两种技术方案:训练专有大模型和利用 RAG(检索增强生成)技术。训练专有大模型效果虽好,但存在高成本、更新难度大等缺陷,并非当下主流方案。
2025-02-04
怎么快速建立本地知识库
以下是快速建立本地知识库的方法: 1. 了解 RAG 技术: 利用大模型的能力搭建知识库是 RAG 技术的应用。 大模型训练数据有截止日期,RAG 可通过检索外部数据并在生成步骤中传递给 LLM 来解决。 RAG 应用包括文档加载、文本分割、存储、检索和输出 5 个过程。 文档加载可从多种来源加载,包括非结构化、结构化和代码等。 文本分割将文档切分为指定大小的块。 存储包括将文档块嵌入转换为向量形式并存储到向量数据库。 检索通过算法找到与输入问题相似的嵌入片。 输出是将问题和检索出的嵌入片提交给 LLM 生成答案。 文本加载器将用户提供的文本加载到内存中。 2. 使用 AnythingLLM 软件: 安装地址:https://useanything.com/download 。 安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。 在 AnythingLLM 中创建 Workspace 与其他项目数据隔离。 操作步骤:首先创建工作空间,上传文档并进行文本嵌入,选择对话模式(包括 Chat 模式和 Query 模式),最后测试对话。 3. 本地文档上传: 在文本格式页签选择本地文档,单击下一步。 将文档拖拽到上传区或选择上传,支持.txt、.pdf、.docx 格式,每个文件不大于 20M,一次最多上传 10 个文件。 上传完成后选择内容分段方式,包括自动分段与清洗(系统自动处理)和自定义(手动设置分段规则和预处理规则)。 自定义分段时可设置分段标识符、分段最大长度和文本预处理规则,如替换连续空格、换行符和制表符,删除所有 URL 和电子邮箱地址。 单击下一步完成内容上传和分片。 总之,看十遍不如实操一遍,实操十遍不如分享一遍,如果您对 AI Agent 技术感兴趣,可以联系相关人员或加入免费知识星球(备注 AGI 知识库)。
2025-02-05
如何建立个人领域的个人知识库
以下是建立个人领域个人知识库的方法: 1. 使用 embeddings: 将文本转换成向量(一串数字),可理解为索引,能节省空间。 把大文本拆分成若干小文本块(chunk),通过 embeddings API 将其转换成 embeddings 向量,与文本块语义相关。 在向量储存库保存 embeddings 向量和文本块,作为问答的知识库。 当用户提问时,将问题转换成向量,与向量储存库的向量比对,提取关联度高的文本块,与问题组合成新的 prompt 发送给 GPT API。 例如,对于“此文作者是谁?”的问题,可提取关联度高的文本块,如“本文作者:越山。xxxx。”“《反脆弱》作者塔勒布xxxx。” 2. 理解 embeddings: embeddings 是浮点数字的向量(列表),向量之间的距离衡量关联性,小距离表示高关联度,大距离表示低关联度。 向量是用一串数字表示大小和方向的量,在计算机科学中常用列表表示。 常见的计算向量距离的方法是欧几里得距离。 在 OpenAI 词嵌入中,靠近的向量词语在语义上相似。 3. GPT 模型索引库 LlamaIndex: LlamaIndex 是更高一层 LangChain 的抽象,之前叫 GPT Index。 它简化了 LangChain 对文本分割和查询的接口,提供了更丰富的 Data Connector。 LlamaIndex 只针对 GPT Model 做 Index,而 LangChain 可对接多个 LLMs,可扩展性更强。 需要注意的是,GPT3.5 一次交互支持的 Token 有限,OpenAI 提供了 embedding API 解决方案。随着技术发展,AI 的开发和使用门槛会降低,垂直领域知识库的搭建和优化更多是业务问题。
2025-02-03
我想建立一个知识库,有什么工具可以使用吗
以下是一些可用于建立知识库的工具及相关步骤: 使用 Dify 构建知识库的步骤: 1. 准备数据:收集需要纳入知识库的文本数据,包括文档、表格等格式。对数据进行清洗、分段等预处理,确保数据质量。 2. 创建数据集:在 Dify 中创建一个新的数据集,并将准备好的文档上传至该数据集。为数据集编写良好的描述,描述清楚数据集包含的内容和特点。 3. 配置索引方式:Dify 提供了三种索引方式供选择,包括高质量模式、经济模式和 Q&A 分段模式。根据实际需求选择合适的索引方式,如需要更高准确度可选高质量模式。 4. 集成至应用:将创建好的数据集集成到 Dify 的对话型应用中,作为应用的上下文知识库使用。在应用设置中,可以配置数据集的使用方式,如是否允许跨数据集搜索等。 5. 持续优化:收集用户反馈,对知识库内容和索引方式进行持续优化和迭代。定期更新知识库,增加新的内容以保持知识库的时效性。 使用扣子创建并上传文本内容到知识库的方式: 1. 在线数据: 自动采集方式:适用于内容量大,需要批量快速导入的场景。 在文本格式页签下,选择在线数据,然后单击下一步。 单击自动采集。 单击新增 URL。在弹出的页面完成以下操作: 输入要上传的网站地址。 选择是否需要定期同步网站内容,如果需要选择内容同步周期。 单击确认。 当上传完成后单击下一步。系统会自动根据网站的内容进行内容分片。 手动采集:适用于需要精准采集网页上指定内容的场景 安装扩展程序,详情请参考。 在文本格式页签下,选择在线数据,然后单击下一步。 点击手动采集,然后在弹出的页面点击权限授予完成授权。 在弹出的页面输入要采集内容的网址,然后单击确认。 在弹出的页面上,点击页面下方文本标注按钮,开始标注要提取的内容,然后单击文本框上方的文本或链接按钮。 单击查看数据查看已采集的内容,确认无误后再点击完成并采集。 使用 Coze 智能体创建知识库: 1. 手动清洗数据: 在线知识库:点击创建知识库,创建一个画小二课程的 FAQ 知识库。知识库的飞书在线文档,其中每个问题和答案以分割。选择飞书文档、自定义的自定义,输入,然后可编辑修改和删除。点击添加 Bot,添加好可以在调试区测试效果。 本地文档:本地 word 文件,注意拆分内容以提高训练数据准确度。将海报的内容训练的知识库里面。画小二这个课程 80 节课程,分为了 11 个章节,不能一股脑全部放进去训练。正确的方法是首先将 11 章的大的章节名称内容放进来,章节内详细内容依次类推细化下去。每个章节都按照这种固定的方式进行人工标注和处理,然后选择创建知识库自定义清洗数据。 2. 发布应用:点击发布,确保在 Bot 商店中能够搜到。
2025-01-13
现在智算非常火热,大家都在建立智算中心,提供大量的算力,请问一下,这些算力,都是哪些行业,哪些企业在消耗这些算力?
目前消耗大量算力的行业和企业主要包括以下方面: 1. 科技巨头:如 Google 拥有大量的 GPU 和 TPU 算力,用于复杂的推理任务和模型训练。 2. 云计算公司:例如 Amazon 和 Microsoft,其 AI 云计算收入主要来自模型托管。 3. 从事 AI 研发的公司:像 xAI 计划用十万块 H100 连成巨大集群,OpenAI 拉上微软打造算力中心 StarGate。 4. 特定领域的企业:如 Apple 利用自身优势发展边缘和远端混合的组合模型。 对于小公司而言,直接参与基础设施建设机会较小,但为当地企业提供 AI 训练的算力支持,并配备服务团队帮助整理知识、寻找业务场景、做垂直训练和微调等,可能存在一定机会。
2025-01-02
ai建立网站
以下是关于使用 AI 建立网站的相关信息: 如何选择合适的 AI 网站制作工具: 1. 明确目标和需求:确定您的网站用途(如个人博客、商业网站、在线商店)以及所需功能。 2. 考虑预算:部分工具提供免费计划或试用版,高级功能可能需付费订阅。 3. 注重易用性:选择符合自身技术水平的工具,确保能轻松使用和管理网站。 4. 查看自定义选项:检查工具是否提供足够的自定义功能,以满足设计和功能需求。 5. 关注支持和资源:了解是否有充足的客户支持和学习资源(如教程、社区论坛)来协助解决问题。 一些流行的 AI 驱动的网站制作工具: 1. Wix ADI 网址:https://www.wix.com/ 特点:基于用户提供的信息自动生成定制化网站;提供多个设计选项和布局,可进一步调整和自定义;集成了 SEO 工具和分析功能,有助于优化网站表现。 2. Bookmark 网址:https://www.bookmark.com/ 特点:AIDA通过询问几个简单问题快速生成网站;提供直观的拖放编辑器,方便自定义网站内容和布局;包含多种行业模板和自动化营销工具。 3. Firedrop 网址:https://firedrop.ai/ 特点:Sacha 是 Firedrop 的 AI 设计助手,能根据用户指示创建和修改网站设计;提供实时编辑和预览功能,随时查看网站效果;包含多种现代设计风格和自定义选项。 4. The Grid 网址:https://thegrid.io/ 特点:Molly 是 The Grid 的 AI 设计助手,可自动调整网站设计和布局;基于内容和用户互动进行优化,提供个性化网站设计体验;支持多种内容类型,如博客、商店和画廊等。 第一天 AI 辅助从 0 开始搭建网站: 在生成式 AI 大爆发前,IT 领域已积累大量基础设施,AI 使这些设施的使用更轻松。对于编程有抵触的人,在 AI 帮助下,全栈工程师和超级个体的实现变得简单。此次共学案例是一个写剧本的网站,通过 2 天时间探索完整搭建过程,为后续学习实践打基础。导入现有代码可打开 github 仓库 https://github.com/iaiuse/NovelListAI 并点击 fork,这样可省去复杂的代码获取步骤。
2024-12-30
工作流怎么建立
建立工作流的方式有多种,以下为您分别介绍: 1. 【拔刀刘】自动总结公众号内容,定时推送到微信的工作流搭建: 工作流全貌:双击画板可查看高清大图,结合后边具体细节反复查看。 开始节点:用户在开始节点输入 server 酱的 sendkey 和 rss 列表。其中,server 酱的 sendkey 获取方式参看文档「相关资源」部分;rss_list 没有的可以先白嫖提供的测试数据。 分割 RSS 列表:使用「文本处理」节点,处理输入的 rss 列表为一行一个,输出为数组,方便后边节点批处理。 读取 RSS 内容:在插件中找到链接读取节点,配置节点选择批处理,批处理输入参数选择「分割 rss 列表」的 output,下方输入参数中 url 选择当前节点中的 item1。 汇总 RSS 中所有文章内容:承接上一步所有文章内容,格式化输出。代码使用「代码」节点,左侧节点选择代码,输入项选择上一步中输出的 outputList,在 IDE 中编辑选择「Python」并输入相应代码。配置输出项类型选择「Array<Object>」,分别输出 title、url、author。 2. 智谱 BigModel 共学营第二期把微信变成超级 AI 助理的工作流搭建: 注册智谱 Tokens 智谱 AI 开放平台:https://bigmodel.cn/ 。参与课程至少需要有 token 体验资源包,获取资源包的方式有新注册用户注册即送 2000 万 Tokens、充值/购买多种模型的低价福利资源包(直接充值现金,所有模型可适用:https://open.bigmodel.cn/finance/pay ;语言资源包:免费 GLM4Flash 语言模型/ ;所有资源包购买地址:https://bigmodel.cn/finance/resourcepack ;共学营报名赠送资源包。 先去【财务台】左侧的【资源包管理】查看自己的资源包,本次项目会使用到的有 GLM4、GLM4VPlus、CogVideoX、CogView3Plus 模型。 进入智能体中心我的智能体,开始创建智能体。 3. 【ComfyUI】本地部署 ComfyUI 上手指南的工作流搭建: 清空所有节点,从零开始。先加载一个模型选择器的节点,右键点击空白处选择【add node】,生成节点后可选择安装好的大模型,后面还有三个连接点可指向下一个模块。 按住 clip 后面的点进行拖拽,点击【CLIPTextEncode】,得到一个提示词输入框。同理,再加一个提示词框,形成正向提示词和负向提示的架构。 为方便管理,可右键给节点添加颜色,如正向提示词为绿色,负向提示词为红色。还可以添加一个组,组里的节点可一起移动。 使用采样器给提示词内容添加噪声,从提示词节点后面再次拉出一根线,选择【KSampler】,里面有熟悉的参数:种子数、迭代步数、CFG、采样器等。 设置输出图片尺寸,从【latent image】中拉出一个节点,选择【EmptyLatentImage】,在节点里填写想要输出的尺寸和一次性生成的数量。 使用 VAE 对之前的噪声进行解码,从【LATENT】中拉出一个节点,选择【VAEDecode】,建立好之后将最开始的 VAE 节点与之相连。
2024-12-27