Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何搭建私人知识库

Answer

搭建私人知识库可以参考以下方法:

  1. 基于 GPT 搭建:
    • 给 GPT 输入(投喂)定制化的知识,但 GPT-3.5(即当前免费版的 ChatGPT)一次交互(输入和输出)只支持最高 4096 个 Token,约等于 3000 个单词或 2300 个汉字,容量对于绝大多数领域知识不够。
    • OpenAI 提供了 embedding API 解决方案,embeddings 是一个浮点数字的向量(列表),两个向量之间的距离衡量它们的关联性,小距离表示高关联度,大距离表示低关联度。
    • 将大文本拆分成若干个小文本块(chunk),通过 embeddings API 将小文本块转换成 embeddings 向量,在一个地方(向量储存库)中保存这些 embeddings 向量和文本块,当用户提出问题时,将问题先通过 embeddings API 转换成问题向量,然后与向量储存库的所有文本块向量比对,查找距离最小的几个向量,把这几个向量对应的文本块提取出来,与原有问题组合成为新的 prompt(问题/提示词),发送给 GPT API。
  2. 本地部署大模型搭建:
    • 利用大模型的能力搭建知识库本身就是一个 RAG 技术的应用,在进行本地知识库的搭建实操之前,需要先对 RAG 有大概的了解。
    • RAG 的应用包括文档加载(从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器)、文本分割(把 Documents 切分为指定大小的块)、存储(将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库)、检索(通过某种检索算法找到与输入问题相似的嵌入片)、Output(把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案)。
    • 文本加载器就是将用户提供的文本加载到内存中,便于进行后续的处理。
Content generated by AI large model, please carefully verify (powered by aily)

References

从零开始,用GPT打造个人知识库

要搭建基于GPT API的定制化知识库,涉及到给GPT输入(投喂)定制化的知识。但GPT-3.5,也就是当前免费版的ChatGPT一次交互(输入和输出)只支持最高4096个Token,约等于3000个单词或2300个汉字。这点容量对于绝大多数领域知识根本不够。为了使用GPT的语言能力来处理大量的领域知识,OpenAI提供了embedding API解决方案。参考OpenAI embedding documents。[heading2]理解embeddings[content]embeddings(直译为嵌入)是一个浮点数字的向量(列表)。两个向量之间的距离衡量它们的关联性。小距离表示高关联度,大距离表示低关联度。进一步解释:向量(列表):向量是数学中表示大小和方向的一个量,通常用一串数字表示。在计算机科学和数据科学中,向量通常用列表(list)来表示。列表是一种数据结构,它包含一组有序的元素。例如,一个二维向量可以表示为[2,3],这意味着沿着两个轴的分量分别为2和3。在这里,"list"是一种编程术语,意味着一系列有序的数据。向量之间的距离:向量之间的距离是一种度量两个向量相似性的方法。有多种方式可以计算两个向量之间的距离,最常见的是欧几里得距离。欧几里得距离计算方法是将两个向量的对应元素相减,然后取平方和,再开平方。例如,向量A=[1,2]和向量B=[4,6]之间的欧几里得距离为sqrt((4-1)^2+(6-2)^2)=5。较小距离意味着高相关性,因为向量间相似度高。在OpenAI词嵌入中,靠近向量的词语在语义上相似。例如,“猫”和“狗”距离近,它们都是宠物,与“汽车”距离远,相关性低。文档上给了创建embeddings的示例上面的命令访问embeddings API接口,将input语句,转化成下面这一串浮点数字。

从零开始,用GPT打造个人知识库

上面将文本转换成向量(一串数字)能大大节省空间,它不是压缩,可简单理解为索引(Index)。接下来就有意思了。比如我有一个大文本,可以先把它拆分成若干个小文本块(也叫chunk),通过embeddings API将小文本块转换成embeddings向量,这个向量是跟文本块的语义相关。在一个地方(向量储存库)中保存这些embeddings向量和文本块,作为问答的知识库。当用户提出一个问题时,该问题先通过embeddings API转换成问题向量,然后将这问题向量与向量储存库的所有文本块向量比对,查找距离最小的几个向量,把这几个向量对应的文本块提取出来,与原有问题组合成为新的prompt(问题/提示词),发送给GPT API。这样一来就不用一次会话中输入所有领域知识,而是输入了关联度最高的部分知识。一图胜千言,转一张原理图。再举一个极其简单的例子,比如有一篇万字长文,拆分成Chrunks包含:文本块1:本文作者:越山。xxxx。文本块2:公众号越山集的介绍:传播效率方法,分享AI应用,陪伴彼此在成长路上,共同前行。文本块3:《反脆弱》作者塔勒布xxxx。文本块4:“科技爱好者周刊”主编阮一峰会记录每周值得分享的科技内容,周五发布。...文本块n如果提问是”此文作者是谁?“。可以直观的看出上面的文本块1跟这个问题的关联度最高,文本块3次之。通过比较embeddings向量也可以得到这结论。那最后发送给GPT API的问题会类似于”此文作者是谁?从以下信息中获取答案:本文作者:越山。xxxx。《反脆弱》作者塔勒布xxxx。“这样一来,大语言大概率能回答上这个问题。

手把手教你本地部署大模型以及搭建个人知识库

因为利用大模型的能力搭建知识库本身就是一个RAG技术的应用。所以在进行本地知识库的搭建实操之前,我们需要先对RAG有一个大概的了解。以下内容会有些干,我会尽量用通俗易懂的描述进行讲解。我们都知道大模型的训练数据是有截止日期的,那当我们需要依靠不包含在大模型训练集中的数据时,我们该怎么做呢?实现这一点的主要方法就是通过检索增强生成RAG(Retrieval Augmented Generation)。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给LLM。我们可以将一个RAG的应用抽象为下图的5个过程:文档加载(Document Loading):从多种不同来源加载文档。LangChain提供了100多种不同的文档加载器,包括PDF在内的非结构化的数据、SQL在内的结构化的数据,以及Python、Java之类的代码等文本分割(Splitting):文本分割器把Documents切分为指定大小的块,我把它们称为“文档块”或者“文档片”存储(Storage):存储涉及到两个环节,分别是:将切分好的文档块进行嵌入(Embedding)转换成向量的形式将Embedding后的向量数据存储到向量数据库检索(Retrieval):一旦数据进入向量数据库,我们仍然需要将数据检索出来,我们会通过某种检索算法找到与输入问题相似的嵌入片Output(输出):把问题以及检索出来的嵌入片一起提交给LLM,LLM会通过问题和检索出来的提示一起来生成更加合理的答案[heading2]文本加载器(Document Loaders)[content]文本加载器就是将用户提供的文本加载到内存中,便于进行后续的处理

Others are asking
deepseek本地部署知识库
以下是关于 DeepSeek 本地部署知识库的相关信息: 您可以参考以下链接获取更多详细内容: DeepSeek 资料库:照着做可直接上手🔗 需要注意的是,日报中提到本地部署并不适合普通用户,纳米 AI 搜索是目前较为稳定的第三方替代方案,其满血版推理能力接近官方但速度较慢,高速版速度快、体验流畅但推理能力稍弱。体验地址:🔗或下载纳米 AI 搜索 APP 。
2025-02-21
waytoagi 的飞书知识库智能问答机器人是怎么做的
waytoagi 的飞书知识库智能问答机器人是基于飞书 aily 搭建的。在飞书 5000 人大群里内置了名为「waytoAGI 知识库智能问答」的智能机器人,它会根据通往 AGI 之路的文档及知识进行回答。 其具有以下功能和特点: 1. 自动问答:自动回答用户关于 AGI 知识库内涉及的问题,可以对多文档进行总结、提炼。 2. 知识搜索:在内置的「waytoAGI」知识库中搜索特定的信息和数据,快速返回相关内容。 3. 文档引用:提供与用户查询相关的文档部分或引用,帮助用户获取更深入的理解。 4. 互动教学:通过互动式的问答,帮助群成员学习和理解 AI 相关的复杂概念。 5. 最新动态更新:分享有关 AGI 领域的最新研究成果、新闻和趋势。 6. 社区互动:促进群内讨论,提问和回答,增强社区的互动性和参与度。 7. 资源共享:提供访问和下载 AI 相关研究论文、书籍、课程和其他资源的链接。 8. 多语言支持:支持多语言问答,满足不同背景用户的需求。 使用方法: 1. 在飞书群里发起话题时即可,它会根据 waytoAGI 知识库的内容进行总结和回答。 2. 可以在 WaytoAGI 飞书知识库首页找到加入飞书群的链接(二维码需在获取),然后点击加入,直接@机器人即可。 3. 也可以在 WaytoAGI.com 的网站首页,直接输入问题,即可得到回答。 搭建问答机器人的相关情况: 1. 2024 年 2 月 22 日的会议介绍了 WaytoAGI 社区的成立愿景和目标,以及其在飞书平台上的知识库和社区的情况。 2. 讨论了利用 AI 技术帮助用户更好地检索知识库中的内容,引入了 RAG 技术,通过机器人来帮助用户快速检索内容。 3. 介绍了基于飞书的知识库智能问答技术的应用场景和实现方法,可以快速地给大模型补充新鲜的知识,提供大量新的内容。 4. 讨论了如何使用飞书的智能伙伴功能来搭建 FAQ 机器人,以及智能助理的原理和使用方法。 5. 飞书智能伙伴创建平台(英文名:Aily)是飞书团队旗下的企业级 AI 应用开发平台,提供了一个简单、安全且高效的环境,帮助企业轻松构建和发布 AI 应用,推动业务创新和效率提升。为企业探索大语言模型应用新篇章、迎接企业智能化未来提供理想选择。
2025-02-20
如何搭建自己的知识库
搭建自己的知识库可以参考以下步骤: 1. 了解 RAG 技术: 利用大模型的能力搭建知识库是 RAG 技术的应用。 大模型训练数据有截止日期,当需要依靠不在训练集中的数据时,可通过检索增强生成 RAG 实现。 RAG 应用包括文档加载、文本分割、存储、检索和输出 5 个过程。 文档加载:从多种来源加载文档,如 PDF 等非结构化数据、SQL 等结构化数据及代码。 文本分割:把文档切分为指定大小的块。 存储:包括将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 检索:通过检索算法找到与输入问题相似的嵌入片。 输出:把问题及检索出来的嵌入片提交给 LLM 生成答案。 2. 文本加载器:将用户提供的文本加载到内存中,便于后续处理。 3. 基于 GPT API 搭建: 涉及给 GPT 输入定制化知识,但 GPT3.5 一次交互支持的 Token 有限。 OpenAI 提供了 embedding API 解决方案,embeddings 是浮点数字的向量,向量间距离衡量关联性,小距离表示高关联度。 4. 本地知识库进阶: 可使用额外软件 AnythingLLM,其包含 Open WebUI 的能力,并支持选择文本嵌入模型和向量数据库。 安装地址:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。 在 AnythingLLM 中创建 Workspace 构建本地知识库,包括创建工作空间、上传文档并进行文本嵌入、选择对话模式(Chat 模式综合给出答案,Query 模式仅依靠文档数据给出答案),最后进行测试对话。 总之,搭建知识库需要不断实践和探索,“看十遍不如实操一遍,实操十遍不如分享一遍”。
2025-02-20
DeepSeek搭建 个人知识库
以下是关于 DeepSeek 搭建的相关知识: 对于个人知识库的搭建,您可以参考以下内容: 章节“三.使用 DeepSeek R1 给老外起中文名”:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcshareDyEMdmCPOo98S6xbPfNcsuEOnuh 知识点“Node.JS 安装”:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcsharePVnndBSV5oWOukx38tKcw2CPnub 申请“DeepSeek R1 API”:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcshareTrXednqLAoH3VLxrUiYc1Pb9nhf 网页接入“DeepSeek API”:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcshareUK5xdzhiaoo9RkxHR5bcs30pnV8 章节“一.Trae 的介绍/安装/疑难杂症”:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcshareR4GvdgOzeoC9mOxd1hScuql6nVY Python 安装:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcshareKcojdhid9oWJPjxAvEOczRt0nkg 一个提示词让 DeepSeek 的能力更上一层楼的相关内容: 效果对比:用 Coze 做了个小测试,大家可以对比看看,视频链接: 如何使用: 搜索 www.deepseek.com,点击“开始对话” 将装有提示词的代码发给 Deepseek 认真阅读开场白之后,正式开始对话 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担 通过提示词文件,让 DeepSeek 实现:同时使用联网功能和深度思考功能 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改 用 XML 来进行更为规范的设定,而不是用 Lisp(对我来说有难度)和 Markdown(运行下来似乎不是很稳定) 完整提示词:v 1.3 特别鸣谢:李继刚的【思考的七把武器】在前期为提供了很多思考方向;Thinking Claude 是现在最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源;Claude 3.5 Sonnet 是最得力的助手 五津:DeepSeek+扣子:1 分钟生成小红书爆款单词视频: 先观察此类视频规律,如先问这是什么→再揭晓结果,反复多次。 拆解视频模板的制作流程,逐个轨道分析,注意各轨道上的元素时间对应关系。 涉及的知识点可用于用扣子工作流来搭建。
2025-02-20
现在有哪些个人知识库软件可以用,请推荐。
以下是为您推荐的个人知识库软件: 1. Coze:如果您想使用专门搭建个人知识库的软件,可以参考文章,忽略本地部署大模型环节,直接看其中推荐的软件。但使用该软件可能需要对接一些额外的 API,建议先了解 RAG 的原理再使用。 2. AnythingLLM:包含所有 Open WebUI 的能力,并且额外支持选择文本嵌入模型和向量数据库。安装地址:https://useanything.com/download 。安装完成后,配置页面主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。在 AnythingLLM 中有 Workspace 的概念,可以创建自己独有的 Workspace 跟其他项目数据进行隔离,包括创建工作空间、上传文档并进行文本嵌入、选择对话模式(Chat 模式和 Query 模式),配置完成后即可进行对话测试。 此外,还有通过 GPT 打造个人知识库的方法,比如将文本转换成向量节省空间,拆分成小文本块并通过 embeddings API 转换成 embeddings 向量,在向量储存库中保存这些向量和文本块作为问答的知识库。当用户提问时,将问题转换成向量与库中向量比对,提取关联度高的文本块与问题组合成新的 prompt 发送给 GPT API 。
2025-02-19
waytoagi的知识库基于哪个LLM创建的
目前没有明确的信息表明 waytoagi 的知识库基于哪个 LLM 创建。但以下信息可能对您有所帮助: AnythingLLM 包含了所有 Open WebUI 的能力,并且额外支持选择文本嵌入模型、选择向量数据库等。安装地址为:https://useanything.com/download 。安装完成后配置主要分为三步,包括选择大模型、选择文本嵌入模型、选择向量数据库。AnythingLLM 中有 Workspace 的概念,可创建自己独有的 Workspace 跟其他项目数据进行隔离,包括创建工作空间、上传文档并进行文本嵌入、选择对话模式(Chat 模式和 Query 模式)等。 GitHubDaily 开源项目列表中提到了 AnythingLLM,它是一个可打造成企业内部知识库的私人专属 GPT,可以将任何文档、资源或内容转换为大语言模型(LLM)知识库。
2025-02-19
怎么用AI搭建工作流
搭建 AI 工作流可以参考以下步骤: 1. 搭建 AI 工作流的三种能力: 熟悉各种 AI 工具:了解多个不同 AI 工具的特点和用途,根据具体细分任务选择合适的工具。例如,写标题可用 ChatGPT,写文章可用 Claude,检查文本中的错别字和病句可用秘塔写作猫的 AI 纠错功能。 编写提示词:搭建起人与 AI 之间的“沟通桥梁”,用 AI 能听懂的语言清晰说明需求、任务内容和步骤。 搭建 AI 智能体。 2. 搭建 AI 工作流的工作流: 找到一个工作场景:选择熟悉的工作场景,如写文章、做 PPT 等。 拆解工作流程:将工作拆解成几个小步骤,如写文章可拆分为选题、写稿、改稿、写标题等。 给每一个步骤嵌入工具:针对每个小步骤,思考有无 AI 工具可帮忙,若想不到可参考他人做法,注意灵活选择最优解,目的是提高工作效率而非增加工作的含 AI 量。 此外,在搭建工作流时还需注意: 打开 Comfyui 界面后,右键点击界面,可找到 Comfyui LLM party 的目录,学习手动连接节点实现最简单的 AI 女友工作流,或直接将工作流文件拖拽到 Comfyui 界面中一键复刻提示词工程实验。 从 ollama 的 github 仓库找到对应版本并下载,启动 ollama 后,在 cmd 中输入 ollama run gemma2 将自动下载 gemma2 模型到本地并启动。将 ollama 的默认 base URL=http://127.0.0.1:11434/v1/以及 api_key=ollama 填入 LLM 加载器节点即可调用 ollama 中的模型进行实验。 若 ollama 连接不上,可能是代理服务器的问题,需将 127.0.0.1:11434 添加到不使用代理服务器的列表中。
2025-02-20
多智能体应用搭建
多智能体是由多个自主、独立的智能体组成的系统,每个智能体都能感知环境、决策并执行任务,且相互间能信息共享、任务协调与协同行动以实现整体目标。 随着大型语言模型的出现,以其为核心构建的 Agent 系统受广泛关注。单 Agent 核心在于语言模型与工具的协同配合,可能需与用户多轮交互。而多 Agent 为不同 Agent 分配角色并通过协作完成复杂任务,与用户交互可能减少。 构建多 Agent 框架的主要组成部分包括: 1. 环境:所有 Agent 处于同一环境,包含全局状态信息,且 Agent 与环境有信息交互与更新。 2. 阶段:通常采用 SOP 思想将复杂任务分解为多个子任务。 3. 控制器:可以是语言模型或预先定义好的规则,负责环境在不同 Agent 和阶段间切换。 4. 记忆:因 Agent 数量增多,消息数量及相关字段记录更复杂。 创建智能体时,输入人设等信息并配置工作流,配置完成后可测试,但注意工作流中某些插件的 api_token 不能直接发布,可作为输入让用户购买后输入使用再发布。 OpenAI 官方开源的多智能体框架「Swarm」受欢迎,其在多智能体通信方面表现出色,解决了不同智能体之间传递信息及传递哪些信息等核心难题。例如构建客服多智能体,只需准备普通接线客服和宽带客服两个 Agent,「Swarm」的「Handoffs」处理了交接逻辑。
2025-02-20
搭建AI智能体
搭建 AI 智能体的步骤和要点如下: 1. 创建智能体:输入人设等信息,并放上相关工作流。配置完成后可以进行测试,但千万不要直接发布。 工作流中如【所有视频片段拼接】节点使用的插件 api_token 填的是您的 token,其他人调用会消耗您的费用。您可以将 api_token 作为工作流最开始的输入,用户购买后输入 token 再发布。 2. 明确需求和 AI 能力: 在搭建智能体帮助提炼品牌卖点时,需要先明确 AI 的能力边界,例如 AI 对公司及所在市场不了解的部分,包括公司的主要产品、产品解决的用户需求、产品独特之处、获得的认可、核心渠道、核心购买人群、营销手段、期望在新渠道获得的结果等。 AI 真正的能力在于通过分析数据和信息进行逻辑推理、快速处理和分析数据并提取有价值的信息和模式、拥有大量训练数据并能输出更全面的相关信息、理解用户提供的内容并按正确结构梳理有效输出内容。因此,更适合将智能体作为引导型的灵感提问助手。 3. 学会搭建 AI 智能体: AI 智能体如同员工或智能助手,能根据设定的工作流自动调用不同 AI 工具完成全流程任务,无需人类时刻干预。 例如设计“写作助手”的 AI 智能体,输入文章主题、风格和要求,它能自动完成文章大纲处理、初稿撰写、修改润色和排版等工作,大大提高效率。
2025-02-19
用飞书搭建知识库并进行AI问答
以下是关于用飞书搭建知识库并进行 AI 问答的相关内容: 知识库问答是机器人的基础功能,可根据用户问题从知识库中找到最佳答案,这利用了大模型的 RAG 机制。RAG 机制全称为“检索增强生成”(RetrievalAugmented Generation),是一种用于自然语言处理的技术,结合了检索和生成两种主要的人工智能技术,以提高机器对话和信息处理的能力。 简单来说,RAG 机制先从大型数据集中检索与问题相关的信息,然后利用这些信息生成更准确、相关的回答。可以想象成当问复杂问题时,RAG 机制先在巨大图书馆里找相关书籍,再基于这些书籍信息给出详细回答。这种方法结合大量背景信息和先进语言模型能力,使生成内容更精确,提升对话 AI 的理解力和回答质量。 基于 RAG 机制实现知识库问答功能,首先要创建包含大量社区 AI 相关文章和资料的知识库,比如创建有关 AI 启蒙和信息来源的知识库,通过手工录入方式上传栏目所有文章内容,陆续将社区其他板块文章和资料导入。在设计 Bot 时,添加知识库,并设置合适的搜索策略、最大召回数量和最小匹配度,以更好地利用知识库返回内容结合回答。 另外,全程白嫖拥有一个 AI 大模型的微信助手的搭建步骤如下: 1. 搭建,用于汇聚整合多种大模型接口,方便后续更换使用各种大模型,并获取白嫖大模型接口的方法。 2. 搭建,这是个知识库问答系统,放入知识文件,接入上面的大模型作为分析知识库的大脑来回答问题。若不想接入微信,搭建到此即可使用,它有问答界面。 3. 搭建,其中的 cow 插件能进行文件总结、MJ 绘画。
2025-02-19
怎么用已经公布的源代码,自己拥有一个私人ai。详细步骤让小白都能成功,并且列出硬件设施。
以下是使用已公布的源代码拥有一个私人 AI 的详细步骤,适合小白操作,并列出所需的硬件设施: 硬件设施: 云服务器 步骤: 1. 利用云服务器,在宝塔面板的终端安装相关命令。可通过以下链接获取详细信息:https://docs.dify.ai/v/zhhans/gettingstarted/installselfhosted/dockercompose 。这些命令在宝塔面板的终端安装,安装的 dockercompose 文件位于 /root/dify/docker 目录下。 2. 检查运行情况,使用 docker compose ps 命令,如果 nginx 容器无法运行,可能是 80 端口被占用。将终端输出的代码粘贴给 AI ,按照 AI 的方法检查谁占用了端口,并停止占用进程。确保每一步成功后再进行下一步,可将代码复制询问 AI 以确认。 3. 在浏览器地址栏输入公网 IP(可在腾讯云服务器或宝塔面板地址栏查看,去掉后面的:8888),随便填写邮箱密码建立一个知识库,在知识库中选择设置。 4. 选择模型,国内模型通常有免费额度,例如智谱 AI 。点击设置,从智谱 AI 获取钥匙,进入智谱官网用手机号注册,添加 API keys 并复制。查看免费额度(智谱在资源包管理中查看,赠送 500 万一个月)。 5. 回到之前的页面,复制钥匙并保存,随便创建一个应用。 6. 可以先选择智谱 glm4 进行测试,聊两句看是否有回应,然后点击发布。 7. 点击 api 秘钥,创建一个并复制。
2024-12-20
怎么用已经公布的源代码,自己拥有一个私人ai。详细步骤,并且列出硬件设施,说明jetson orin nano可以使用什么模型?
目前已公布的源代码种类繁多,要利用其拥有一个私人 AI 并非简单直接的过程,且需要一定的技术知识和经验。 一般来说,以下是大致的步骤: 1. 选择合适的源代码:根据您的需求和技术能力,从众多已公布的源代码中选择适合的项目。 2. 环境搭建:安装所需的开发工具、编程语言和相关依赖库。 3. 数据准备:收集和整理适合训练和优化模型的数据。 4. 代码理解与修改:深入理解所选源代码的结构和逻辑,根据您的需求进行必要的修改和优化。 5. 训练模型:使用准备好的数据对模型进行训练。 6. 评估与优化:对训练好的模型进行评估,根据评估结果进行进一步的优化。 关于硬件设施,Jetson Orin Nano 是一款性能不错的嵌入式计算设备。它可以支持多种模型,例如常见的深度学习模型如卷积神经网络(CNN)、循环神经网络(RNN)等。但具体能使用哪些模型,还取决于模型的规模、计算需求以及您对性能和资源的要求。
2024-12-20
AI+交易:来定制专属于你的私人高级交易顾问吧!
以下是关于“AI+交易:来定制专属于你的私人高级交易顾问吧!”的相关内容: 原本是一名 AIGC 创作者,在接触交易后,希望将交易与 AIGC 相结合,打造私人高级交易顾问。学习交易知识后认识到,单纯迷信技术分析提高胜率实现长期稳定盈利对个人投资者不可行,心态关键。新人对交易理论不熟悉更致命,成熟交易员单一策略熟练运用能找进出点、良好心态能长期盈利,但不熟悉行情只能观望。借助 AI 分析行情,期望在不熟悉市场时找到合适进场点,提高资金使用效率,多种策略配合提高理论胜率(有统计数据显示几千名专业交易员一年里平均胜率 70)。 此外,还有以下 AI 与工作场景结合的案例: 1. 销售方面:包括话术总结优缺点、定制销售解决方案。 2. 客服方面:定制客服话术,有关键词库,如产品知识、使用方法等。 3. HR 方面:团队绩效管理,根据绩效数据输出考评和改进建议;面试工具,如使用 GPT4 技术的实时转录工具帮助求职者生成回答。 另外,在七大行业的商业化应用中: 1. 企业运营:包括日常办公文档撰写整理、营销对话机器人等。 2. 教育:协助评估学生学习情况、定制学习内容等。 3. 游戏/媒体:如定制化游戏、出海文案生成等。 4. 零售/电商:包括舆情监测分析、品牌营销内容撰写等。 5. 金融/保险:如个人金融理财顾问、识别欺诈活动风险等。
2024-12-17
私人助理领域,如今有没有成熟的产品
在私人助理领域,目前有一些相关产品,但成熟的产品相对较少。 AI Agent 应用大多集中在 2B 场景,面向个人消费者的产品少之又少。一方面是高度智能化的 Agent 能力需要打磨,概念落地还有较长一段距离;另一方面是 AI 和娱乐消费诉求的结合还几乎没有,其主要带来的是生产方式变革和效率变革。个人消费者方向,目前只看到“私人助理”场景。 Dots 是目前看到的最接近理想 AI Agent 形态的 C 端私人助理。它支持用户发送文本和图像、音频信息并理解内容,能够为用户制定计划、进行文件管理、推荐咖啡店,帮助用户访问互联网中的最新工具和服务。不过,该产品需要排队较久的 waitlist,官方也较少更新动态。其官方 twitter 为:https://twitter.com/newcomputer ,官网介绍:https://new.computer/about 。
2024-12-12
如何通过投喂文档做私人智能体
要通过投喂文档做私人智能体,可以参考以下步骤: 1. 了解智能体的基本概念: 智能体大多建立在大模型之上,从基于符号推理的专家系统逐步演进而来。 具有强大的学习能力、灵活性和泛化能力。 核心在于有效控制和利用大型模型,提示词设计直接影响智能体的表现和输出结果。 2. 基于公开的大模型应用产品进行实践: 如 Chat GLM、Chat GPT、Kimi 等。 以 Chat GPT 为例: 点击“浏览 GPTs”按钮。 点击“Create”按钮创建自己的智能体。 使用自然语言对话或手工设置进行具体设置。 开始调试智能体并发布。 以 Chat GLM 为例: 点击“创建智能体”按钮。 输入对智能体的描述,如有准备好的提示词模板可直接粘贴。 智能体配置可自动生成,默认勾选增强能力,可根据实际需求调整,也可上传本地文件作为知识原料形成知识库。 3. 创建知识库: 手动清洗数据,提高数据准确性。 在线知识库:点击创建知识库,创建一个如画小二课程的 FAQ 知识库。选择飞书文档、自定义,输入区分内容,可编辑修改和删除,添加 Bot 并在调试区测试效果。 本地文档:注意合理拆分内容,如将课程章节按固定方式人工标注和处理,再选择创建知识库自定义清洗数据。 4. 发布应用:点击发布,确保在 Bot 商店中能够搜到,只有通过发布才能获取 API。 此外,还涉及多智能体协同的概念,以及个人和社区提示词分享等内容。由于最近盗版事件频发,获取在线课件需要扫群主二维码。
2024-10-26
私人知识库
以下是关于私人知识库的相关知识: 使用 GPT 打造个人知识库: 可先将大文本拆分成若干小文本块(chunk),通过 embeddings API 将小文本块转换成与语义相关的 embeddings 向量,并在向量储存库中保存这些向量和文本块作为问答的知识库。 当用户提出问题时,问题先通过 embeddings API 转换成问题向量,然后与向量储存库的所有文本块向量比对,查找距离最小的几个向量,把这几个向量对应的文本块提取出来,与原有问题组合成新的 prompt 发送给 GPT API。 理解 embeddings: embeddings 是一个浮点数字的向量(列表),两个向量之间的距离衡量它们的关联性,小距离表示高关联度,大距离表示低关联度。 向量是数学中表示大小和方向的量,通常用一串数字表示,在计算机科学和数据科学中常用列表来表示。 计算向量之间距离常见的方式是欧几里得距离,即对应元素相减取平方和再开平方。 AI 时代的私人知识库: 私人知识库中的内容一般有两种:日常从互联网收集的优质信息和个人日常的思考以及分享。 基于私人知识库打造个人专属的 ChatGPT 常见有两种技术方案:训练专有大模型和利用 RAG(检索增强生成)技术。 训练专有大模型:可以使用个人知识库训练专有的大模型,但此方案并非当下主流,存在高成本、更新难度大等缺陷。高成本体现在需要大量计算资源和专业知识;更新难度大在于若要更新模型知识,需重新训练或微调模型,过程复杂耗时。
2024-10-22