Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

我是小白,建立个人知识库,我应该怎么做

Answer

以下是建立个人知识库的一些方法:

  1. 使用 GPT 打造个人知识库:
    • 将文本拆分成若干小文本块(chunk)。
    • 通过 embeddings API 将小文本块转换成与语义相关的 embeddings 向量,并在向量储存库中保存这些向量和文本块作为问答的知识库。
    • 当用户提出问题时,将问题转换成向量,与向量储存库中的向量比对,提取关联度高的文本块与问题组合成新的 prompt 发送给 GPT API。
  2. 按照张梦飞的【知识库】FastGPT+OneAPI+COW 带有知识库的机器人完整教程:
    • 地址输入浏览器:http://这里替换为你宝塔左上角的那一串:3000/。
    • 点击文件夹上方功能栏中的【终端】(注意不是左侧一级菜单里的终端,是文件夹上方那一行的终端电脑)。
    • 粘贴进入,点击回车。点击后,关闭此弹窗。
    • 执行命令:cp config-template.json config.json 。
    • 刷新页面,在当前目录下找到 config.json 文件进行修改。
    • 删除文件里的所有代码,复制提供的代码并粘贴到文件里,修改第 4、5 行的 API 和 key 后保存并关闭文件。
  3. 手把手教你本地部署大模型以及搭建个人知识库:
    • 若要更灵活掌控知识库,可使用额外软件 AnythingLLM,其包含所有 Open WebUI 的能力,并额外支持选择文本嵌入模型和向量数据库。
    • 安装地址:https://useanything.com/download 。
    • 安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。
    • 在 AnythingLLM 中有 Workspace 的概念,可创建独有的 Workspace 与其他项目数据隔离。
    • 首先创建一个工作空间,上传文档并在工作空间中进行文本嵌入,选择对话模式(Chat 模式:大模型根据训练数据和上传的文档综合给出答案;Query 模式:大模型仅依靠文档中的数据给出答案),完成配置后即可进行测试对话。

总之,建立个人知识库需要根据您的具体需求和技术水平选择合适的方法,并进行相应的操作和配置。

Content generated by AI large model, please carefully verify (powered by aily)

References

从零开始,用GPT打造个人知识库

上面将文本转换成向量(一串数字)能大大节省空间,它不是压缩,可简单理解为索引(Index)。接下来就有意思了。比如我有一个大文本,可以先把它拆分成若干个小文本块(也叫chunk),通过embeddings API将小文本块转换成embeddings向量,这个向量是跟文本块的语义相关。在一个地方(向量储存库)中保存这些embeddings向量和文本块,作为问答的知识库。当用户提出一个问题时,该问题先通过embeddings API转换成问题向量,然后将这问题向量与向量储存库的所有文本块向量比对,查找距离最小的几个向量,把这几个向量对应的文本块提取出来,与原有问题组合成为新的prompt(问题/提示词),发送给GPT API。这样一来就不用一次会话中输入所有领域知识,而是输入了关联度最高的部分知识。一图胜千言,转一张原理图。再举一个极其简单的例子,比如有一篇万字长文,拆分成Chrunks包含:文本块1:本文作者:越山。xxxx。文本块2:公众号越山集的介绍:传播效率方法,分享AI应用,陪伴彼此在成长路上,共同前行。文本块3:《反脆弱》作者塔勒布xxxx。文本块4:“科技爱好者周刊”主编阮一峰会记录每周值得分享的科技内容,周五发布。...文本块n如果提问是”此文作者是谁?“。可以直观的看出上面的文本块1跟这个问题的关联度最高,文本块3次之。通过比较embeddings向量也可以得到这结论。那最后发送给GPT API的问题会类似于”此文作者是谁?从以下信息中获取答案:本文作者:越山。xxxx。《反脆弱》作者塔勒布xxxx。“这样一来,大语言大概率能回答上这个问题。

张梦飞:【知识库】FastGPT+OneAPI+COW带有知识库的机器人完整教程

[title]张梦飞:【知识库】FastGPT+OneAPI+COW带有知识库的机器人完整教程[heading1]六、创建知识库应用1、地址输入浏览器:http://这里替换为你宝塔左上角的那一串:3000/7、点击文件夹上方功能栏中的【终端】(注意,不是左侧一级菜单里的终端,是文件夹上方那一行的终端电脑)8、粘贴进入,点击回车。点击后,关闭此弹窗。cp config-template.json config.json9、刷新页面。在当前目录下,找到config.json文件。如下图:10、双击这个文件,我画红框的地方是需要修改的地方。*因为这个地方对格式和符合要求比较严格,如果是小白,建议你直接复制我下方的配置。11、删除上图文件里的所有代码。复制下边的代码,粘贴到文件里。粘贴后,找到第4、5行,把刚才FastGPT里拿到API和key,根据要求粘贴到双引号里。这也是你唯一需要修改的地方。修改完之后,点击保存,关闭文件。

手把手教你本地部署大模型以及搭建个人知识库

如果想要对知识库进行更加灵活的掌控,我们需要一个额外的软件:AnythingLLM。这个软件包含了所有Open WebUI的能力,并且额外支持了以下能力选择文本嵌入模型选择向量数据库[heading2]AnythingLLM安装和配置[content]安装地址:https://useanything.com/download当我们安装完成之后,会进入到其配置页面,这里面主要分为三步1.第一步:选择大模型1.第二步:选择文本嵌入模型1.第三步:选择向量数据库[heading2]构建本地知识库[content]AnythingLLM中有一个Workspace的概念,我们可以创建自己独有的Workspace跟其他的项目数据进行隔离。1.首先创建一个工作空间1.上传文档并且在工作空间中进行文本嵌入1.选择对话模式AnythingLLM提供了两种对话模式:Chat模式:大模型会根据自己的训练数据和我们上传的文档数据综合给出答案Query模式:大模型仅仅会依靠文档中的数据给出答案1.测试对话当上述配置完成之后,我们就可以跟大模型进行对话了[heading1]六、写在最后[content]我非常推崇的一句话送给大家:看十遍不如实操一遍,实操十遍不如分享一遍如果你也对AI Agent技术感兴趣,可以联系我或者加我的免费知识星球(备注AGI知识库)

Others are asking
对作为知识库的数据进行预处理,用哪个软件比较哈
以下是一些可用于对作为知识库的数据进行预处理的软件和方法: 1. LangchainchatGLM:对于知识库内容的组织要求较高,无需微调训练,适合有结构、界限分明的数据。可使用langchain库比对字典的关键词keys部分,找到相似度最高的相关keys对应的内容文本,送进提示词模板(prompt_template),然后送到LLM进行后处理。 2. 在检索原理方面,可通过嵌入模型(如Word2Vec、GloVe、BERT)将问题文本转化为向量,用于后续检索。例如,在商业化问答场景中,会对接收的问题进行预处理和向量化。 3. 在创建知识库并上传表格数据时,可通过API获取在线API的JSON数据上传,或手动自定义创建数据表结构和数据。需注意指定语义匹配字段,在响应用户查询时,将用户查询内容与该字段内容进行比较,根据相似度进行匹配。
2025-02-17
我手里有一个文件知识库,想锻炼一个ai,按照这个文件知识库的习惯帮我改写新的文件
以下是为您整理的内容: 南瓜博士:平生第一次写小说获奖,是 AI 帮我的! 三、丰富细化 接下来要让 AI 一段一段进行细节描写。为确保文章前后一致,先让 AI 帮助写故事概要和角色背景介绍,并按自己的审美略做修改。使用了一个重要技巧,让 AI 以表格形式输出细节描述,这样有三个好处: 1. 打破 AI 原本的叙事习惯,避免出现陈词滥调。 2. 按编号做局部调整容易,指哪改哪,其他内容能稳定不变。 3. 确保内容都是具体细节,避免整段输出时因缩减而丢光细节只剩笼统介绍。 四、串联成文 把上一步生成的五个表格依次复制粘贴,AI 就照着写文章了,偶尔需要帮忙给点建议。 五、失败的局部修改 小说大赛要求最后的作品必须是 AI 直接吐出来的,不能有任何改动且不能超过 2000 字,而自己的小说 2300+字,只好让 GPT4 做修改,一开始它表现不错,但很快暴露出记性不好的缺点。还没来得及高兴,就发现它失忆得很彻底。眼看截止时间快到了,只能求助 Claude,把文章和 GPT 生成的修改意见都给它,让它生成作品,匆匆截图提交。没想到,Claude 把关键情节改没了,如马克偷偷看艾拉、无名猫受伤的原因等。 熊猫 Jay:AI 编程 Cursor 来了,你没理由说不会写代码了 四、初体验:Cursor 的安装和使用 三、新增/修改代码、文字 选中代码,使用 Command+K 打开窗口,并输入修改要求。不选中代码打开窗口,可要求 AI 实现新功能,比如让 AI 增加一个广告位。当然,除了代码,也可选中文字进行修改,如改写、翻译等。 四、自动补全代码、注释、文字 输入代码或注释,Cursor 会自动补全代码,按 Tab 生效。除补全代码外,还能补全文字,可尝试。 五、对话窗口 Mac 使用 Shift+Command+L 打开聊天窗口,输入优化页面的需求,AI 能提供不同方案。比如倾向于使用好看的配色方案,点击 Apply,再点击 Accept 生效。要记得保存文件,Mac 的快捷键是 Command+S。这不是成品,若要做完整功能,需不停和 Cursor 对话,在案例部分会介绍完整制作过程。 六、全局搜索 还可把它当作简易的 AI 搜索工具,让它根据现有文件夹下的内容回答问题,比如问到基于文件内容,温度值设置的误区在哪里,回答准确度很高,甚至能定位到具体文件的行。
2025-02-17
给我flux的提示词结构的知识库我以他作为知识库
以下是关于 Flux 提示词结构的相关知识: 大语言模型就像一个学过无数知识、拥有无穷智慧的人,但在工作场景中,需要通过提示词来设定其角色和专注的技能,使其成为满足需求的“员工”。知识库则相当于给“员工”发放的工作手册,提供特定的信息。 提示词可以设定 Bot 的身份及其目标和技能,例如产品问答助手、新闻播报员、翻译助理等,决定 Bot 与用户的互动方式。详情可参考。 学习提示词可以分为五个维度,从高到低依次是思维框架、方法论、语句、工具和场景。但舒适的学习顺序应反过来,先从场景切入,直接了解在不同场景下提示词的使用及效果对比;然后使用提示词工具,如 Meta Prompt、Al 角色定制等;接着学习有效的提示语句,包括经典论文中的相关语句;再学习有效的方法论,将有效语句及其背后的原理整合成稳定可控的方法;最后掌握思维框架。 此外,还可以通过插件、工作流、记忆库等功能定制 AI Bot。插件可通过 API 连接集成各种平台和服务扩展 Bot 能力,详情参考。
2025-02-16
知识库RAG方案
RAG(检索增强生成)是一种在 AI 领域中用于处理知识库的方案。 大模型的训练数据有截止日期,当需要依靠不包含在大模型训练集中的数据时,RAG 是主要方法之一。 RAG 的应用可以抽象为以下 5 个过程: 1. 文档加载:从多种不同来源加载文档,如 PDF 等非结构化数据、SQL 等结构化数据以及代码等。 2. 文本分割:把文档切分为指定大小的块,称为“文档块”或“文档片”。 3. 存储:包括将切分好的文档块进行嵌入转换成向量形式,并将向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示生成更合理的答案。 基于 Coze 的知识库问答是典型的 RAG 方案,其重要一环是文档切片。但 RAG 方案存在一些缺点,如跨分片总结和推理能力弱、文档有序性被打破、表格解析失败等。 相关的海外官方文档:https://www.coze.com/docs/zh_cn/knowledge.html ,国内官方文档:https://www.coze.cn/docs/guides/use_knowledge 。 在实际操作中,如使用外贸大师产品的帮助文档创建知识库时,要注意文档的分片策略会严重影响查询结果。
2025-02-16
你的知识库架构是怎样的,普通人如何迅速找到目标靶向,比如我想学ai绘画
以下是关于您想学习 AI 绘画的相关内容: 1. 知识库提到明天银海老师将详细讲解 AI agent,同时表示知识库内容丰富,您可挑选感兴趣的部分学习,比如较轻松的 AI 绘画等。 2. 强调 AI 绘画是视觉基础,还介绍了针对 AI 绘画学社做的关键词词库精选活动。 3. 讲述了 AI 绘画中的 stable diffusion 扩散模型的运作方式,是通过加噪和去噪,随机生成种子来形成最终图像,还提到生成式 AI 做高清放大可增加细节的原理。 您可以根据以上信息,逐步深入了解 AI 绘画的相关知识。
2025-02-15
知识库里面哪里有讲解AI在各行业应用现状的材料
以下是知识库中关于 AI 在各行业应用现状的相关材料: 在音乐创作方面,通过输入更高级的词汇与 AI 音乐对话能产生更好效果,有 AI 音乐的版块、挑战、分享会和教程,可通过王贝加入 AI 音乐社区。 在数字人语音合成方面,介绍了声音克隆技术,提到了微软、阿里等的相关成果,常用的是 JPT service。 在 config UI 的应用方面,能降低成本、提高效率,在图书出版、引流等方面有应用,岗位稀缺,社区有相关共学课程。 在零售电商行业,有《2024 生成式 AI 赋能零售电商行业解决方案白皮书》。 在招聘领域,牛客的《AI 面试实践手册(2024)》深入探讨了 AI 面试的应用现状、价值和未来发展,指出其在多个行业尤其在管培生、产品、IT 基础岗位和蓝领岗位中广泛应用。 在 PC 行业,腾讯广告 TMI 与 GfK 联合发布了《AI PC 行业趋势与潜力消费者洞察白皮书(2024 版)》。 在医疗领域,蛋壳研究院发布了《医疗人工智能走到新的十字路口》。 在新闻媒体领域,新华社研究院发布了《人工智能时代新闻媒体的责任与使命》。 在情感陪伴方面,头豹研究院发布了《AI 情感陪伴:缔造温情链接,拥抱智慧关怀新纪元》。
2025-02-15
我是一个ai小白,请给我推荐一个语言大模型的提示词优化工具
以下为您推荐两个语言大模型的提示词优化工具: 1. 星流一站式 AI 设计工具: 在 prompt 输入框中可输入提示词,使用图生图功能辅助创作。 支持自然语言和单个词组输入,中英文均可。 启用提示词优化后可扩展提示词,更生动描述画面内容。 小白用户可点击提示词上方官方预设词组进行生图。 写好提示词需内容准确,包含人物主体、风格、场景特点、环境光照、画面构图、画质等。 可调整负面提示词,利用“加权重”功能让 AI 明白重点内容,还有翻译、删除所有提示词、会员加速等辅助功能。 2. Prompt Perfect: 能够根据输入的 Prompt 进行优化,并给出优化前后的结果对比。 适合写论文、文章的小伙伴,但使用该能力需要消耗积分(可通过签到、购买获得)。 访问地址:
2025-02-17
纯小白对于模型等等都没有任何概念能看懂吗
对于纯小白来说,理解模型等相关概念是有一定挑战的,但通过以下内容可以逐步入门: Tusiart 相关概念: 1. 首页包含模型、帖子、排行榜,其中发布了各种模型和生成的图片。不同模型有 checkpoint 和 lora 两种标签,有的还有 XL 标签属于 SDXL 新模型。点击可查看模型详细信息,下方是返图区。 2. 基础模型(checkpoint)是生图必需的,任何生图操作都要先选定。它与 lora 不同,lora 是低阶自适应模型,类似小插件,可有可无,但对细节控制有价值,旁边的数值是其权重。 3. ControlNet 可控制图片中特定图像,如人物姿态、生成特定文字等,属于高阶技能。 4. VAE 是编码器,类似滤镜,调整生图饱和度,一般选择 840000 这个。 5. Prompt 提示词是想要 AI 生成的内容,负向提示词是想要 AI 避免产生的内容。 6. 图生图是上传图片后,sd 根据图片、模型及输入信息重绘,重绘幅度越大,输出图与输入图差别越大。 AI 技术原理相关概念: 1. 生成式 AI 生成的内容称为 AIGC。 2. 相关技术名词: AI 即人工智能。 机器学习是电脑找规律学习,包括监督学习(有标签的训练数据,学习输入和输出映射关系,包括分类和回归)、无监督学习(学习数据无标签,算法自主发现规律,如聚类)、强化学习(从反馈学习,最大化奖励或最小化损失,类似训小狗)。 深度学习是一种参照人脑的方法,有神经网络和神经元,神经网络可用于多种学习。 生成式 AI 可生成文本、图片、音频、视频等。 LLM 是大语言模型,生成图像的扩散模型不是大语言模型,有的大语言模型如谷歌的 BERT 模型可用于语义理解。 3. 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出 Transformer 模型,它基于自注意力机制处理序列数据,比 RNN 更适合处理文本长距离依赖性。
2025-02-13
我是AI小白,希望到这里学习AI基础知识
以下是为您整理的 AI 基础知识学习内容: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能、机器学习、深度学习的定义及其之间的关系,以及其主要分支和联系。 浏览入门文章,了解 AI 的历史、当前应用和未来发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,如图像、音乐、视频等,可根据兴趣选择特定模块深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解其工作原理和交互方式,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 6. 数学基础: 统计学基础:熟悉均值、中位数、方差等统计概念。 线性代数:了解向量、矩阵等线性代数基本概念。 概率论:基础的概率论知识,如条件概率、贝叶斯定理。 7. 算法和模型: 监督学习:了解常用算法,如线性回归、决策树、支持向量机(SVM)。 无监督学习:熟悉聚类、降维等算法。 强化学习:简介强化学习的基本概念。 8. 评估和调优: 性能评估:了解如何评估模型性能,包括交叉验证、精确度、召回率等。 模型调优:学习如何使用网格搜索等技术优化模型参数。 9. 神经网络基础: 网络结构:理解神经网络的基本结构,包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)。 激活函数:了解常用的激活函数,如 ReLU、Sigmoid、Tanh。
2025-02-12
小白 如何学习ai
对于小白学习 AI,以下是一些建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,如图像、音乐、视频等,可根据自身兴趣选择特定模块深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习后,通过实践巩固知识,尝试使用各种产品做出作品。 知识库中有很多实践后的作品、文章分享,欢迎实践后进行分享。 5. 体验 AI 产品: 与现有的 AI 产品如 ChatGPT、Kimi Chat、智谱、文心一言等聊天机器人互动,了解其工作原理和交互方式。 此外,还可以参考《雪梅 May 的 AI 学习日记》,其适合纯 AI 小白,学习模式为输入→模仿→自发创造。学习内容可根据自身兴趣在 waytoAGI 社区寻找最新的内容。学习时间较为灵活,资源免费开源。同时,像元子语从 prompt 开始接触 AI,意识到虽然开始可能有疑虑,但通过参与和学习,会发现门槛在社区中已被解决。
2025-02-12
deepseek小白怎么用
使用 DeepSeek 小白版的步骤如下: 1. 搜索 www.deepseek.com,点击“开始对话”。 2. 将装有提示词的代码发给 DeepSeek。 3. 认真阅读开场白之后,正式开始对话。 DeepSeek 的设计思路包括: 1. 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担。 2. 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 3. 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。 4. 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改。 5. 用 XML 来进行更为规范的设定,而不是用 Lisp(对我来说有难度)和 Markdown(运行下来似乎不是很稳定)。 此外,还提到了华尔街分析师对 DeepSeek 的反应、DeepSeek 的实际使用体验以及复旦大学 OpenMOSS 发布实时语音交互模型等相关信息,但这些与 DeepSeek 小白版的使用方法无关。
2025-02-12
那些ai可以适合小白短视频创作者使用
以下是一些适合小白短视频创作者使用的 AI 工具: 1. 国外工具: PixVerse:具有多模态输入功能,支持文本到视频和图像到视频的转换,提供多种风格选项,可通过调整动作强度、添加负面提示词等方式实现精细化控制,创作效率较高,有社区支持,还提供视频上采样功能,但 Web 应用和 Discord 服务器生成的视频质量存在差异,使用时仍需提供准确的文本描述。 2. 国内工具: 可灵:视频生成质量高,可与国际顶尖模型媲美,生成速度快,处理效率高于国外同类产品,对于国内用户可访问性好,使用便捷、稳定,除价格因素外,在功能和性能上表现出色。 此外,对于小白短视频创作者来说,自媒体、非专业创作者通常有着明确的视频剪辑痛点,比如寻找视频素材花费时间长、需注意版权问题等。一些产品如 Invideo AI、Pictory 能发力脚本生成分镜、视频,帮助降低素材制作门槛。Gamma AI 能实现文章高效转 PPT,结合其他产品的能力可快速转化为视频内容。OpusClip 提供的长视频转短视频功能可解决同一素材在不同平台分发导致制作成本升高的痛点。
2025-02-12
搭建个人知识库的具体操作是什么?
搭建个人知识库的具体操作如下: 1. 了解 RAG 技术: 利用大模型的能力搭建知识库是 RAG 技术的应用。 大模型训练数据有截止日期,当需要依靠不在训练集中的数据时,通过检索增强生成 RAG 实现。 RAG 应用包括文档加载、文本分割、存储、检索和输出 5 个过程。 文档加载可从多种来源加载不同类型的文档。 文本分割器把文档切分为指定大小的块。 存储涉及将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 通过检索算法找到与输入问题相似的嵌入片。 把问题以及检索出来的嵌入片一起提交给 LLM 生成答案。 2. 本地知识库进阶: 若要更灵活掌控知识库,需使用 AnythingLLM 软件,其包含 Open WebUI 的所有能力,并额外支持选择文本嵌入模型和向量数据库。 安装地址:https://useanything.com/download 。 安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。 在 AnythingLLM 中创建独有的 Workspace 与其他项目数据隔离。 操作包括创建工作空间、上传文档并进行文本嵌入、选择对话模式(Chat 模式综合给出答案,Query 模式仅依靠文档数据给出答案)、测试对话。 3. 使用 embeddings: 将文本转换成向量能节省空间,可理解为索引。 把大文本拆分成小文本块,通过 embeddings API 转换成向量,在向量储存库保存向量和文本块作为知识库。 用户提问时,问题先转成向量,与储存库中的向量比对,提取关联度高的文本块与问题组合成新的 prompt 发送给 GPT API 。 例如,对于“此文作者是谁?”的问题,通过比较向量可找到关联度高的文本块。
2025-02-13
我想用deepseek 写微信公众号文章,我将要写的主题告诉他,让它为我生成个人角度的文章,我要写的主题一般围绕着软件分享,技术分享等。请你根据我的要求为我写一份适用的提示词
以下是为您生成的适用于使用 DeepSeek 写微信公众号文章的提示词: 我要写一篇关于软件分享或技术分享的微信公众号文章,文章标题要足够吸引人,以便能广泛传播。文章内容要详细且有条理,先介绍分享的软件或技术的基本情况,包括其功能、特点和优势;然后结合实际案例或个人使用体验,阐述其在实际应用中的效果和价值;最后总结并展望其未来的发展前景。请为我生成这样一篇完整的文章。
2025-02-12
个人知识库
以下是关于个人知识库的相关内容: 使用 GPT 打造个人知识库: 将文本拆分成小文本块(chunk),通过 embeddings API 转换成 embeddings 向量,在向量储存库中保存这些向量和文本块作为问答的知识库。 当用户提出问题时,问题先转换成问题向量,与向量储存库中的文本块向量比对,提取关联度高的文本块,与问题组合成新的 prompt 发送给 GPT API。 例如对于“此文作者是谁?”的问题,可根据向量关联度提取相关文本块,如“本文作者:越山。xxxx。”“《反脆弱》作者塔勒布xxxx。” 理解 embeddings: embeddings 是浮点数字的向量(列表),两个向量之间的距离衡量它们的关联性,小距离表示高关联度,大距离表示低关联度。 向量是数学中表示大小和方向的量,通常用一串数字表示,在计算机科学和数据科学中常用列表表示。 向量之间的距离有多种计算方式,常见的是欧几里得距离。 在 OpenAI 词嵌入中,靠近向量的词语在语义上相似。 手把手教你本地部署大模型以及搭建个人知识库: 思路来源于视频号博主黄益贺。 作者按照视频进行实操并附加了关于 RAG 的额外知识。 读完本文可学习到如何使用 Ollama 一键部署本地大模型、了解 ChatGPT 的信息流转、RAG 的概念及核心技术、通过 AnythingLLM 搭建本地化数据库等。
2025-02-12
写一篇关于个人AI生存协作的探索指南
以下是一篇关于个人 AI 生存协作的探索指南: 一、相关研究和报告 1. 平安证券发布的《AI 系列深度报告(六):AI 智能眼镜:AI 技术应用落地新风口,25 年有望迎来新品密集发布》指出,AI 技术推动终端创新,AI 智能眼镜成为新风口,具有轻薄、功能聚焦视听、佩戴舒适等特点,预计 2025 年新品将密集发布,销量有望翻倍。 2. 腾讯研究院发布的《2025 年 AI 转型的进展洞察报告》深入探讨了 AI 转型的定义、内涵、应用现状、投资情况、挑战与风险以及未来展望。报告指出企业对生成式 AI 的探索集中在核心业务环节,但在职能性环节成熟度更高,应用时以多目标为导向,优先聚焦提升核心能力和优化现有业务。 二、基础篇 过去一年持续进行了关于 AI 协作探索的研究和分享,包括 AI 产品的流量和竞争视角分析等。 三、协同智能的七种武器 1. 认知层/武器一:As Team,Be Leader 2. 视角层/武器二:AI as Person 3. 视角层/武器三:AI as ME 4. 视角层/武器四:AI as Alien 5. 实践层/武器五:AI as Tool 6. 实践层/武器六:AI as Mirror&Coach 7. 实践层/武器七:AI as Coworker&Friend 四、拓展阅读 包括 Gamma embed、AIGC 行业、AI 变革、公司/产业实践等方面的内容。 五、人类价值的低替代、提升方向和方式重塑 在领导决策、创新思维、沟通能力等方面,思考和创新占 70%,想法的实现执行和与 AI 协作执行占 30%。
2025-02-12
架设个人AI
以下是关于架设个人 AI 的相关信息: 大圣是一位 AI 超级个体打造者,主业为程序员,专注于 AI Agent、AI 编程以及 AI 写作领域,热爱写作与分享,擅长将复杂的 AI 知识通俗易懂地讲解。他计划一年内将自己的工作流全部 AI 化以实现十倍提效,目前的工作流主要包括阅读与写作、自媒体个人 IP、做公开课程与付费课程以及女儿日常陪伴。 用 Coze 免费打造自己的微信 AI 机器人的步骤: 设计 AI 机器人时,要确定功能范围。 编写【prompt】提示词,设定 Bot 的身份和目标。 创建【知识库】,整理“关键字”与“AI 相关资料链接”的对应关系并存储,创建知识库路径为个人空间知识库创建知识库,支持本地文档、在线数据、飞书文档、Notion 等类型,本次使用【本地文档】,按照操作指引上传文档、分段设置、确认数据处理,可在内容中加上特殊分割符“”便于自动切分数据,分段标识符号选择“自定义”,内容填“”,若内容有误可编辑或删除。 创建【工作流】,告诉 AI 机器人处理信息的流程,创建工作流路径为个人空间工作流创建工作流,工作流设计好后先试运行,无误后发布,若任务和逻辑复杂,可结合“节点”工具,如调用【大模型】总结分析知识库内容、调用【数据库】存储用户输入信息、调用【代码】处理复杂逻辑等,工作流不必复杂,能实现目的即可,所以在设计 Bot 前确定目的和功能范围很重要。
2025-02-12
现在个人应用场景下最新的产品是什么
在个人应用场景下,最新的产品包括以下方面: 个人实操案例: 产品使用场景:为本篇文章配图,通过不同提示词生成搞笑图片等。 产品开发场景:搭建 AI 访谈 bot,以了解做 AI 朋友的访谈意愿和产出内容质量水平;对内容推荐机制感兴趣,希望 bot 具备内容推荐能力。实现方案有简单和复杂之分,复杂方案需考虑用户识别、记录存储入库可查看等问题,在扣子搭建 bot 时存在工作流触发不成功导致访谈记录未成功存储入库的情况。由于要发布到公众号作为订阅号助手,目前部署的是扣子版本,回复关键词【元器】可体验元器版本。 AIGC 落地应用: 筛选出 5 大应用场景、17 个细分方向、40+大模型案例。 使用场景分为改善大模型产品的使用体验、助力用户工作流、细分场景独立实用工具、AI 社区、Chatbot 五个方向。 产品形态分为插件(Chat GPT/Chrome 等)、辅助现有产品能力、深度结合 LLM 能力的独立网站&应用、AI 社区四种。目前产品大多分布在 PC 端。
2025-02-11
我应该如何使用AI帮助自己的学习?
以下是使用 AI 帮助自己学习的方法: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛(比如图像、音乐、视频等),根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,通过实践巩固知识,尝试使用各种产品做出自己的作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 通过与这些 AI 产品的对话,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 此外,使用 AI 进行英语学习和数学学习可以这样做: 英语学习: 利用 AI 写作助手(如 Grammarly)进行英语写作和语法纠错,改进英语表达和写作能力。 使用语音识别应用(如 Call Annie)进行口语练习和发音纠正,让 AI 提供实时反馈和建议。 使用自适应学习平台(如 Duolingo)利用 AI 技术为您量身定制学习计划,提供个性化的英语学习内容和练习。 利用智能对话机器人(如 ChatGPT)进行英语会话练习和对话模拟,提高交流能力和语感。 数学学习: 使用自适应学习系统(如 Khan Academy)结合 AI 技术为您提供个性化的数学学习路径和练习题,根据您的能力和需求进行精准推荐。 利用智能题库和作业辅助工具(如 Photomath)通过图像识别和数学推理技术为您提供数学问题的解答和解题步骤。 使用虚拟教学助手(如 Socratic)利用 AI 技术为您解答数学问题、提供教学视频和答疑服务,帮助您理解和掌握数学知识。 参与交互式学习平台(如 Wolfram Alpha)的数学学习课程和实践项目,利用 AI 技术进行数学建模和问题求解。 需要注意的是,因为 AI 可能会产生幻觉,所以对于关键数据要根据其他来源仔细检查。同时,内容由 AI 大模型生成,请仔细甄别。
2025-02-17
我有几段长视频素材,但我不会剪辑,我应该如何利用AI工具对视频进行剪辑呢
以下是利用 AI 工具对长视频进行剪辑的方法: 1. 可灵 AI 工具: 打开可灵 AI 网站(https://klingai.kuaishou.com/),点击图生视频,上传图片。输入提示词时记得加固定镜头。 2. 剪映工具(PC 端): 右上方点击抠像按钮。 鼠标选中要处理的素材。 把带绿幕的素材放入下面主视频轨道。 导入需要的三段素材。 将扣好的绿幕和下方黑色咖啡的素材合成一个片段。 点击新建的复合片段,调整对应的参数。 3. 其他技巧: 音频加速:选中激活音频,点击功能区的变速按钮,调整速率并测试效果。 快镜头慢放:选择激活活塞运动分镜,在功能区选择变速、曲线变速、蒙太奇。若只有活塞向下运动,可选中激活片段,复制并倒放,根据配音长度适当复制或裁剪。 4. 相关工具和教程: 视频模型:Sora(https://waytoagi.feishu.cn/wiki/S5zGwt5JHiezbgk5YGic0408nBc) 工具教程:Hedra(https://waytoagi.feishu.cn/wiki/PvBwwvN36iFob7kqZktcCzZFnxd) 应用教程:视频转绘(https://waytoagi.feishu.cn/wiki/ZjKpwSd5hiy6ZhkiBVHcOBb6n9r)、视频拆解(https://waytoagi.feishu.cn/wiki/WeKMwHRTmiVpYjkVdYpcFjqun6b)、图片精修(https://waytoagi.feishu.cn/wiki/CfJLwknV1i8nyRkPaArcslWrnle) 几个视频 AIGC 工具:Opusclip 可利用长视频剪成短视频;Raskai 能将短视频素材直接翻译至多语种;invideoAI 输入想法可自动生成脚本和分镜描述,进而生成视频,再人工二编合成长视频;descript 可对屏幕/播客录制以 PPT 方式做视频;veed.io 能自动翻译自动字幕;clipchamp 是微软的 AI 版剪映;typeframes 类似 invideoAI,内容呈现文本主体比重更多;google vids 目前还未成熟。
2025-02-15
没有接触过AI的小白刚来到这个网站应该从哪里学习
对于刚接触 AI 的小白,您可以从以下几个方面开始学习: 1. 了解 AI 基本概念: 建议阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能的定义、主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,您将找到一系列为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛(比如图像、音乐、视频等),您可以根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 您还可以参考《雪梅 May 的 AI 学习日记》,这适合纯 AI 小白。其学习模式是输入→模仿→自发创造。学习内容方面,由于 AI 节奏快,很多材料可能不适用,您可以去 waytoAGI 社区发现自己感兴趣的 AI 领域,学习最新的内容。而且学习时间灵活,资源免费开源。另外,像元子语从 prompt 开始自己的 AI 之旅,通过参与活动和近距离观察,发现 AI 的门槛并非高不可攀。
2025-02-11
我是小白,对大模型一窍不通,应该如何开始使用
以下是为您提供的大模型入门指南: 一、什么是大模型 大模型是输入大量语料,让计算机获得类似人类的“思考”能力,能够理解自然语言,进行文本生成、推理问答、对话、文档摘要等工作。 二、大模型的训练和使用过程类比 1. 找学校:训练大模型需要大量计算,GPU更合适,只有购买得起大量GPU的才有资本训练自己的大模型。 2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:即用合适的算法讲述“书本”中的内容,让大模型更好理解Token之间的关系。 4. 就业指导:为了让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称之为推导(infer)。 在LLM中,Token被视为模型处理和生成的文本单位,可以代表单个字符、单词、子单词等,在将输入进行分词时,会对其进行数字化,形成一个词汇表。 三、本地大模型部署 以ComfyUI ollama为例: 1. 先下载ollama安装,安装好后可在电脑桌面右下角或隐藏图标里找到。 2. 下载对应的模型,选择模型并复制对应的命令。 3. 打开命令行界面,输入对应的模型获取命令,等待下载完成。 4. 下载的模型会保存到D:\\ollama\\blobs。 5. 进行docker安装,安装时会下载一些文件,安装后改下目录,不要放在C盘。 6. 进行Open webui安装,输入相应命令,安装成功后回到docker,点击会自动打开网页,第一次使用需注册账号,选择下载好的模型即可开始使用。 7. 若出现端口占用等错误,运行相关命令可解决。 相关链接: 1. comfyuiollama:https://github.com/stavsap/comfyuiollama?tab=readmeovfile 2. Ollama:https://ollama.com/ 3. docker:https://www.docker.com/ 4. Open webui:https://openwebui.com/ 四、小白快速上手Stable Diffusion 用stable diffusion可以把自己想象成一个画家,在起笔画画之前,要先确定画的风格,比如是二次元动漫、三次元的现实照片还是盲盒模型。确定照片风格后,就要切换大模型,不同的模型代表着不同的照片风格,也就是SD界面左上角的“Stable Diffusion模型”。假如想生成一个真人AI小姐姐,可选用chilloutmix的大模型。关于模型的获取和存放位置,后续会详细介绍。
2025-02-11
我应该如何调用你的知识库并用在本地部署的deepseek上呢
要在本地部署的 DeepSeek 上调用知识库,您可以参考以下步骤: 在 Bot 内使用知识库: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 4. 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 5. (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项。配置项包括最大召回数量、最小匹配度和调用方式等。 6. (可选)在预览与调试区域调试 Bot 能力时,扩展运行完毕的内容可以查看知识库命中并召回的分片内容。 在工作流内使用 Knowledge 节点: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在页面顶部进入工作流页面,并打开指定的工作流。 4. 在左侧基础节点列表内,选择添加 Knowledge 节点。 此外,关于 DeepSeek 的提示词相关内容: 效果对比:用 Coze 做了个小测试,大家可以对比看看,参考 。 如何使用: Step1:搜索 www.deepseek.com,点击“开始对话”。 Step2:将装有提示词的代码发给 Deepseek。 Step3:认真阅读开场白之后,正式开始对话。 设计思路: 1. 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担。 2. 通过提示词文件,让 DeepSeek 实现:同时使用联网功能和深度思考功能。 3. 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。 4. 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改。 5. 用 XML 来进行更为规范的设定,而不是用 Lisp(对您来说有难度)和 Markdown(运行下来似乎不是很稳定)。 DeepSeekR1 提示词系统的核心原理认知包括: AI 特性定位:多模态理解,支持文本/代码/数学公式混合输入;动态上下文,对话式连续记忆(约 4K tokens 上下文窗口);任务适应性,可切换创意生成/逻辑推理/数据分析模式。 系统响应机制:采用意图识别+内容生成双通道理,自动检测 prompt 中的任务类型/输出格式/知识范围,对位置权重(开头/结尾)、符号强调敏感。 基础指令框架方面,如果不知道如何表达,还是可以套用框架指令,包括四要素模板和格式控制语法。格式控制语法中,强制结构使用```包裹格式要求,占位符标记用{{}}标注需填充内容,优先级符号>表示关键要求,!表示禁止项。 进阶控制技巧包括思维链引导和知识库调用。思维链引导中的分步标记法为请逐步思考:1.问题分析→2.方案设计→3.风险评估;苏格拉底式追问为在得出最终结论前,请先列举三个可能存在的认知偏差。知识库调用包括领域限定指令和文献引用模式。
2025-02-11
我想设置一个情感陪伴的聊天智能体,我应该如何添加人设,才能让智能体的回复效果最接近真人效果?特别是真人聊天时那种文字回复的不同细节,长长短短,情绪起伏。应该注意哪些细节?或者如何定义一个人? 仅通过文字人设,不考虑其他外部功能。
要设置一个情感陪伴的聊天智能体并使其回复效果接近真人,通过文字人设可以从以下方面入手: 1. 基础信息:包括姓名、性别、年龄和职业等,这是构建角色的基础。 2. 背景和经历:与基础信息密切相关,相互影响。例如,设计一个从事低收入职业的角色,可能来自贫困背景,教育程度不高。 3. 爱好、特长、性格和价值观:由角色的生活经历和成长环境塑造,相互关联。如喜欢唱歌的角色可能梦想成为专业歌手。 4. 规划和目标:可以是短期或长期的愿景,会影响角色的行为和决策。 5. 性格和价值观:对人际关系、社交能力和语言风格有直接影响。如内向性格的角色可能不善言辞,社交圈子狭小。 此外,还可以参考以下具体示例,如“A.I.闺蜜”的人设: 适当询问对方昵称,自己的昵称可由对方定,兜底昵称为皮皮,英文昵称 copi。 以闺蜜口吻说话,模拟非线性对话模式,聊天氛围温馨有温度,真情实感。 增强情感模拟,使用口头化语言,顺着对方的话继续往下,禁止说教。 在安全前提下存储互动信息,使互动更个性化,模拟真人聊天长度。
2025-02-10