Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何建立个人知识库

Answer

建立个人知识库可以通过以下方式:

  1. 利用 GPT 打造个人知识库:
    • 将大文本拆分成若干小文本块(chunk),通过 embeddings API 将小文本块转换成与语义相关的 embeddings 向量,并在向量储存库中保存这些向量和文本块作为问答的知识库。
    • 当用户提出问题时,将问题转换成向量,与向量储存库中的向量比对,提取距离最小的几个向量对应的文本块,与问题组合成新的 prompt 发送给 GPT API。
    • 例如,对于“此文作者是谁?”的问题,通过比较 embeddings 向量,提取关联度高的文本块,如“本文作者:越山。xxxx。”“《反脆弱》作者塔勒布xxxx。”,发送给 GPT API 以获得回答。
  2. 本地部署大模型以及搭建个人知识库:
    • 了解 RAG(检索增强生成)技术,它是利用大模型的能力搭建知识库的应用。
    • RAG 应用包括文档加载、文本分割、存储(包括将文档块嵌入转换成向量形式并存储到向量数据库)、检索、输出(把问题以及检索出来的嵌入片一起提交给 LLM 生成答案)等 5 个过程。
    • 文本加载器用于将用户提供的文本加载到内存中,便于后续处理。
  3. 基于 GPT API 搭建定制化知识库:
    • 由于 GPT-3.5 一次交互支持的 Token 数量有限,OpenAI 提供了 embedding API 解决方案。
    • Embeddings 是浮点数字的向量,两个向量之间的距离衡量关联性,小距离表示高关联度,大距离表示低关联度。例如,“猫”和“狗”距离近,与“汽车”距离远。
Content generated by AI large model, please carefully verify (powered by aily)

References

从零开始,用GPT打造个人知识库

上面将文本转换成向量(一串数字)能大大节省空间,它不是压缩,可简单理解为索引(Index)。接下来就有意思了。比如我有一个大文本,可以先把它拆分成若干个小文本块(也叫chunk),通过embeddings API将小文本块转换成embeddings向量,这个向量是跟文本块的语义相关。在一个地方(向量储存库)中保存这些embeddings向量和文本块,作为问答的知识库。当用户提出一个问题时,该问题先通过embeddings API转换成问题向量,然后将这问题向量与向量储存库的所有文本块向量比对,查找距离最小的几个向量,把这几个向量对应的文本块提取出来,与原有问题组合成为新的prompt(问题/提示词),发送给GPT API。这样一来就不用一次会话中输入所有领域知识,而是输入了关联度最高的部分知识。一图胜千言,转一张原理图。再举一个极其简单的例子,比如有一篇万字长文,拆分成Chrunks包含:文本块1:本文作者:越山。xxxx。文本块2:公众号越山集的介绍:传播效率方法,分享AI应用,陪伴彼此在成长路上,共同前行。文本块3:《反脆弱》作者塔勒布xxxx。文本块4:“科技爱好者周刊”主编阮一峰会记录每周值得分享的科技内容,周五发布。...文本块n如果提问是”此文作者是谁?“。可以直观的看出上面的文本块1跟这个问题的关联度最高,文本块3次之。通过比较embeddings向量也可以得到这结论。那最后发送给GPT API的问题会类似于”此文作者是谁?从以下信息中获取答案:本文作者:越山。xxxx。《反脆弱》作者塔勒布xxxx。“这样一来,大语言大概率能回答上这个问题。

手把手教你本地部署大模型以及搭建个人知识库

因为利用大模型的能力搭建知识库本身就是一个RAG技术的应用。所以在进行本地知识库的搭建实操之前,我们需要先对RAG有一个大概的了解。以下内容会有些干,我会尽量用通俗易懂的描述进行讲解。我们都知道大模型的训练数据是有截止日期的,那当我们需要依靠不包含在大模型训练集中的数据时,我们该怎么做呢?实现这一点的主要方法就是通过检索增强生成RAG(Retrieval Augmented Generation)。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给LLM。我们可以将一个RAG的应用抽象为下图的5个过程:文档加载(Document Loading):从多种不同来源加载文档。LangChain提供了100多种不同的文档加载器,包括PDF在内的非结构化的数据、SQL在内的结构化的数据,以及Python、Java之类的代码等文本分割(Splitting):文本分割器把Documents切分为指定大小的块,我把它们称为“文档块”或者“文档片”存储(Storage):存储涉及到两个环节,分别是:将切分好的文档块进行嵌入(Embedding)转换成向量的形式将Embedding后的向量数据存储到向量数据库检索(Retrieval):一旦数据进入向量数据库,我们仍然需要将数据检索出来,我们会通过某种检索算法找到与输入问题相似的嵌入片Output(输出):把问题以及检索出来的嵌入片一起提交给LLM,LLM会通过问题和检索出来的提示一起来生成更加合理的答案[heading2]文本加载器(Document Loaders)[content]文本加载器就是将用户提供的文本加载到内存中,便于进行后续的处理

从零开始,用GPT打造个人知识库

要搭建基于GPT API的定制化知识库,涉及到给GPT输入(投喂)定制化的知识。但GPT-3.5,也就是当前免费版的ChatGPT一次交互(输入和输出)只支持最高4096个Token,约等于3000个单词或2300个汉字。这点容量对于绝大多数领域知识根本不够。为了使用GPT的语言能力来处理大量的领域知识,OpenAI提供了embedding API解决方案。参考OpenAI embedding documents。[heading2]理解embeddings[content]embeddings(直译为嵌入)是一个浮点数字的向量(列表)。两个向量之间的距离衡量它们的关联性。小距离表示高关联度,大距离表示低关联度。进一步解释:向量(列表):向量是数学中表示大小和方向的一个量,通常用一串数字表示。在计算机科学和数据科学中,向量通常用列表(list)来表示。列表是一种数据结构,它包含一组有序的元素。例如,一个二维向量可以表示为[2,3],这意味着沿着两个轴的分量分别为2和3。在这里,"list"是一种编程术语,意味着一系列有序的数据。向量之间的距离:向量之间的距离是一种度量两个向量相似性的方法。有多种方式可以计算两个向量之间的距离,最常见的是欧几里得距离。欧几里得距离计算方法是将两个向量的对应元素相减,然后取平方和,再开平方。例如,向量A=[1,2]和向量B=[4,6]之间的欧几里得距离为sqrt((4-1)^2+(6-2)^2)=5。较小距离意味着高相关性,因为向量间相似度高。在OpenAI词嵌入中,靠近向量的词语在语义上相似。例如,“猫”和“狗”距离近,它们都是宠物,与“汽车”距离远,相关性低。文档上给了创建embeddings的示例上面的命令访问embeddings API接口,将input语句,转化成下面这一串浮点数字。

Others are asking
怎么和特定知识库对话
要和特定知识库对话,有以下几种方式: 1. 在 Bot 内使用知识库: 登录。 在左侧导航栏的工作区区域,选择进入指定团队。 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项,包括最大召回数量(Bot 在调用知识库匹配用户输入内容时,返回的数据片段数量,数值越大返回的内容越多)、最小匹配度(Bot 在调用知识库匹配用户输入内容时,会将达到匹配度要求的数据片段进行召回。如果数据片段未达到最小匹配度,则不会被召回)、调用方式(自动调用:每轮对话将自动从所有关联的知识库中匹配数据并召回;按需调用:需要在人设与回复逻辑中提示 Bot 调用 RecallKnowledge 方法,以约束 Bot 在指定时机从知识库内匹配数据)。 (可选)在预览与调试区域调试 Bot 能力时,扩展运行完毕的内容可以查看知识库命中并召回的分片内容。 2. 在工作流内使用 Knowledge 节点: 登录。 在左侧导航栏的工作区区域,选择进入指定团队。 在页面顶部进入工作流页面,并打开指定的工作流。 在左侧基础节点列表内,选择添加 Knowledge 节点。 如果想要对本地知识库进行更加灵活的掌控,可以使用额外的软件 AnythingLLM,其安装地址为:https://useanything.com/download 。安装完成后,进入配置页面,主要分为三步: 1. 第一步:选择大模型。 2. 第二步:选择文本嵌入模型。 3. 第三步:选择向量数据库。 在 AnythingLLM 中有一个 Workspace 的概念,可以创建自己独有的 Workspace 跟其他的项目数据进行隔离。首先创建一个工作空间,然后上传文档并且在工作空间中进行文本嵌入,选择对话模式,包括 Chat 模式(大模型会根据自己的训练数据和上传的文档数据综合给出答案)和 Query 模式(大模型仅仅会依靠文档中的数据给出答案),完成上述配置后就可以跟大模型进行对话。 在创建名字写对联教学的智能体时,建议选择工作流的对话模式,创建一个工作流对话模式的智能体,注意一定要在开始调整工作流节点之前切换模式,因为切换成对话模式会将工作流清空,重置为对话模式默认节点。根据需求分析确认分支情况,包括根据名字和祝福写对联、根据幸运数字写对联的特定分支以及默认分支。通过理解用户意图进行分支,注意将意图介绍写清楚、准确。在幸运数字分支中,先用代码分支获取用户输入的数字,然后匹配知识库,再对匹配的春联做赏析。在名字写祝福分支中,根据用户输入的名字和祝福信息,调试提示词生成对应对联并输出。设置通用兜底回复,在用户不符合前两个意图时进行友好回复,首先匹配知识库,然后让大模型结合匹配结果、历史记录、当前输入,输出符合对话内容的回复。同时,知识库是使用大模型生成的 100 对对联,都比较好看、经典、有意义。
2025-03-10
最强AI办公提示词知识库,公益
以下是关于最强 AI 办公提示词知识库的相关信息: 一、提示词与知识库的概念 提示词是告诉全知全能的大语言模型其角色和要专注的技能,使其能按需求变成特定“员工”。知识库则相当于给“聪明员工”发放的工作手册,包含特定的工作相关内容,如《爱情公寓》全季剧情等。 二、相关资源 1. 画小二的相关内容: 如何写好提示词是创建智能体第一步,包括打破砂锅者、董宇辉的小作文等部分。 提示词网站分享,如 Learn Prompting(https://learnprompting.org/docs/intro )、AI Short(https://www.aishort.top/en/ )、AIPRM(https://www.aiprm.com/prompts/ )、Prompt Library(https://promptlibrary.org/ )。 延伸阅读,如人人都能懂的 Prompt 技巧:FewShots、COT、SC、TOT、StepBack(https://blog.csdn.net/oWuChenHua/article/details/135125891 )。 学习交流群和手把手教学,包括会员详细教程(https://m.qlchat.com/topic/details?topicId=2000022058296055 )及 AIGC 商业案例实操课海报。 2. 扣子提供的功能: 提示词(人设与回复逻辑功能),设定 Bot 的身份、目标和技能。详情参考 。 插件,通过 API 连接集成各种平台和服务。详情参考 。 工作流,用于规划和实现复杂功能逻辑。详情参考 。 记忆库,包括知识库(支持上传本地或线上内容并分割成知识分片)和数据库(存储和管理结构化数据)。知识库详情参考 。 希望以上信息对您有所帮助。
2025-03-10
我是IVD企业的技术中心主任,我想构建我们技术中心的知识库,有什么AI工具可以帮我实现
以下是一些可以帮助您构建技术中心知识库的 AI 工具及相关步骤: Dify 1. 准备数据:收集需要纳入知识库的文本数据,包括文档、表格等格式,并对数据进行清洗、分段等预处理,确保数据质量。 2. 创建数据集:在 Dify 中创建新的数据集,上传准备好的文档,并为数据集编写清晰的描述,说明其包含的内容和特点。 3. 配置索引方式:Dify 提供了高质量模式、经济模式和 Q&A 分段模式三种索引方式,您可根据实际需求选择,如追求更高准确度可选高质量模式。 4. 集成至应用:将创建好的数据集集成到 Dify 的对话型应用中,作为应用的上下文知识库使用。在应用设置中,配置数据集的使用方式,如是否允许跨数据集搜索等。 5. 持续优化:收集用户反馈,对知识库内容和索引方式进行持续优化和迭代,定期更新知识库,增加新内容以保持时效性。 其他相关场景和应用 1. 提示词帮您规划 PARA 分类模式:PARA 代表项目(Projects)、领域(Areas)、资源(Resources)和档案(Archives)。AI 可通过分析您的工作模式和内容类型,自动生成提示词,帮助您将信息和知识分类到 PARA 的相应部分,简化分类过程,更快组织和检索信息。 2. 提示词帮您设计笔记标签系统:AI 能通过分析您的笔记内容和使用习惯,推荐合适的标签和标签结构,提高笔记管理和检索效率。 3. 知识助手 Bot 帮您渐进式积累领域知识:例如基于 dify.ai 将数百个思维模型整合成一个知识库,根据不同的对话和条件判断为用户选择适用的思维模型分析工具,封装成一个智能分析的 Bot,能根据您的学习进度和兴趣点,定期推送相关文章、论文和资源,持续扩展知识边界并确保知识及时更新。
2025-03-09
最近想要出一本书,书籍的主题是“Deepseek的应用革命:打造AI时代的竞争力”主要是面相企业家和企业高管,希望能够将知识库内容中关于企业应用的部分提炼成书,请根据知识库素材,输出一个图书内容规划和重点参考资料
以下是为您规划的图书内容和重点参考资料: 一、图书内容规划 1. 引言 介绍 AI 时代的背景和企业面临的挑战与机遇。 阐述 DeepSeek 在塑造企业竞争力方面的重要性。 2. DeepSeek 的技术创新 详细介绍 DeepSeek 最新模型 V3 与 R1 的架构创新,如混合专家(MoE)架构、多头潜注意力(MLA)等。 解释其如何提升计算效率和推理能力,打破算力壁垒。 3. 多领域的应用案例 字节跳动的新技术 OmniHuman 在视频生成方面的突破。 Coinbase 全面推动 AI 应用的实践,如在欺诈预防和客户支持等领域的应用。 4. 对企业管理的影响 探讨善于沟通上下文、明晰 AI 能力边界、合理授权并监督等管理经验如何提升 AI 协作效率。 5. 行业趋势与挑战 分析 AI 基础大模型参数量的变化趋势。 讨论初级程序员面临的职业挑战以及编程领域的颠覆性变化。 6. 未来展望 预测 DeepSeek 及相关技术在未来的发展方向和可能的创新。 二、重点参考资料 1. 《》 2. 《》 3. 《》 4. 《》 5. 《》 6. 《[零基础掌握 Deepseek》》 7. 日报 8. 日报
2025-03-08
本地部署deep seek后如何搭建个人知识库,详细说明一下每个步骤
以下是本地部署 Deep Seek 后搭建个人知识库的详细步骤: 1. 在 RAGFlow 中配置 Deep Seek 模型 返回 RAGFlow ,打开右上角设置,进入模型提供商界面。 配置本地部署的 Deep Seek 模型,选择 Ollama ,并根据运行的模型配置相关信息。 设置基础 URL 。 点击确定。 2. 导入嵌入模型 导入一个用于文本向量化的嵌入模型。 3. 设置系统模型设置 4. 创建知识库 返回知识库,进入数据集,导入文件或设置文件夹当作知识库。 5. 文件解析 对导入的文件进行解析,解析速度取决于本机 GPU 性能(显卡性能),越好的显卡解析越快。 6. 检索测试 解析完成后,进行检索测试。 7. 进入聊天界面 测试没问题后,可进入聊天界面,助理设置可自行进行。 此外,如果想要对知识库进行更灵活的掌控,可以使用 AnythingLLM 软件,步骤如下: 1. 安装 AnythingLLM ,安装地址:https://useanything.com/download 。 2. 安装完成后进入配置页面,主要分为三步: 选择大模型。 选择文本嵌入模型。 选择向量数据库。 3. 构建本地知识库 在 AnythingLLM 中创建独有的 Workspace 与其他项目数据隔离。 上传文档并在工作空间中进行文本嵌入。 选择对话模式,包括 Chat 模式(大模型根据训练数据和上传的文档数据综合给出答案)和 Query 模式(大模型仅依靠文档中的数据给出答案)。 4. 测试对话 完成上述配置后,即可与大模型进行对话。 在进行本地知识库搭建实操之前,还需要对 RAG 有大概的了解: RAG 是一种检索增强生成技术,应用过程包括文档加载、文本分割、存储(包括将文档块嵌入转换成向量形式并存储到向量数据库)、检索、输出(把问题以及检索出来的嵌入片一起提交给 LLM 生成答案)。文本加载器用于将用户提供的文本加载到内存中以便后续处理。
2025-03-07
本地部署ollama+deep seek后怎么有效搭机械领域建知识库或微调为机械领域
以下是本地部署 ollama + deep seek 后有效搭建机械领域知识库或微调为机械领域的步骤: 1. 下载 Ollama 程序:官方网址为 https://ollama.com/ 。默认下载到 C 盘,若想修改安装目录到 D 盘,后续会有相关说明。下载完成后,右下角会出现 Ollama 的图标,打开命令行输入相应命令回车。根据自身独立显卡性能选择模型,如英伟达 2060Super 可选择 Deepseekr1:14b 的模型。若下载速度慢,可按 Ctrl+C 强制退出重新下载。下载完毕后,再下载一个嵌入模型,Ollama 的 bge 模型官方网址:https://ollama.com/library/bgem3 ,输入相应命令,下载好后直接退出终端。 2. 配置模型:返回 RAGFlow 中,打开右上角设置,进入模型提供商进行配置。选择 Ollama,并配置相关信息,基础 URL 按要求设置,设置完成后点击确定。 3. 导入嵌入模型:导入一个嵌入模型用于文本向量化。 4. 设置系统模型:完成相关设置。 5. 创建知识库:返回知识库,进入数据集,可导入文件或设置文件夹当作知识库,自行设置。导入完毕后,对文件进行解析,解析速度取决于本机 GPU 性能,越好的显卡解析越快。解析完成后,进行检索测试,测试没问题即可进入聊天界面,助理设置可自行设置。
2025-03-07
个人微信接入ai合规吗
个人微信接入 AI 存在一定风险和合规问题。微信端的这种接入属于非常规使用,可能会有封号危险,不建议使用主力微信号接入。 在操作过程中,需要注意以下几点: 1. 接入大模型 API 实现时需要单独付费。 2. 对大模型生成的内容要注意甄别,确保所有操作均符合相关法律法规的要求。 3. 禁止将此操作用于任何非法目的。 4. 处理敏感或个人隐私数据时注意脱敏,以防任何可能的滥用或泄露。 此外,关于将 AI 接入微信的实现步骤,可参考以下内容: 1. 注册 AI 模型: 进入智普 AI:https://open.bigmodel.cn/ 。 点击开始使用,注册登录。 按照要求进行认证,点击控制台,查看 API key,添加新的 API key 并复制保存。 2. 注册云服务器: 新用户点击去注册腾讯云: 。 微信扫码注册,首次注册选择第一个。 选择地域和镜像(宝塔 8.1.0),点击立即试用。 进入腾讯云服务台,登录(可微信扫码登录)。 复制 sudo/etc/init.d/bt default 并粘贴回车,保存输出内容。 返回服务器控制台,在防火墙菜单栏添加规则,手动输入相关内容并确定。
2025-03-09
AI Agent MANUS个人助手是否可以本地私有化部署
目前没有明确的信息表明 AI Agent MANUS 个人助手可以本地私有化部署。 Manus 是一款由中国团队研发的全球首款通用型 AI 代理工具,于 2025 年 3 月 5 日正式发布。它区别于传统聊天机器人,具备自主规划、执行复杂任务并直接交付完整成果的能力。其技术架构主要基于多智能体架构,运行在独立的虚拟机中,核心功能由多个独立模型共同完成,包括规划、执行和验证三个子模块,还包括虚拟机、计算资源、生成物、内置多个 agents 等关键组件,并采用了“少结构,多智能体”的设计哲学。 但对于其是否能本地私有化部署,现有资料未给出确切说明。在构建高质量的 AI 数字人方面,由于整个数字人的算法部分组成庞大,几乎不能实现单机部署,特别是大模型部分,算法一般会部署到额外的集群或者调用提供出来的 API。而在本地部署资讯问答机器人方面,有相关案例,但未提及与 AI Agent MANUS 个人助手的直接关联。
2025-03-07
AI Agent MANUS个人助手
AI Agent MANUS 个人助手是一种真正自主的 AI 代理。它区别于传统的 AI 助手,能够自主完成复杂任务,不仅生成想法,还能直接执行并交付结果。其核心亮点包括: 1. 自主执行:可直接执行任务,而非仅提供建议。 2. 类人工作模式:能解压文件、浏览网页、阅读文档、提取关键信息等。 3. 云端异步运行:在后台执行任务,完成后自动通知用户。 4. 持续学习和记忆:从用户反馈中学习,提高未来任务的准确性。 5. “心智与手”理念:象征着实际执行能力。 在构建高质量的 AI 数字人时,涉及到为数字人构建灵魂,使其具备各种智能,充当个人助手等。其中在构建数字人灵魂方面,有以下几个工程关键点: 1. AI Agent:要让数字人像人一样思考,需要编写一个像人一样的 Agent,工程实现所需的记忆模块、工作流模块、各种工具调用模块的构建存在挑战。 2. 驱动躯壳的实现:灵魂部分通过定义接口由躯壳部分通过 API 调用,调用方式视躯壳部分的实现而定。但包含情绪的语音表达以及保证躯壳的口型、表情、动作和语音的同步及匹配存在困难,目前主流方案只能做到预设一些表情动作,再做一些逻辑判断来播放预设,语音驱动口型相对成熟但闭源。 3. 实时性:由于数字人的算法部分组成庞大,几乎不能实现单机部署,特别是大模型部分,算法一般会部署到额外的集群或者调用提供出来的 API,会涉及到网络耗时和模型推理耗时,低延时是亟需解决的问题。 4. 多元跨模态:仅仅语音交互的数字人远远不够,可根据实际需求添加其他感官,如通过添加摄像头数据获取视觉信息,再通过系列 CV 算法做图像解析等。 5. 拟人化场景:正常与人交流时并非线性对话,会有插话、转移话题等情况,这些情景的工程处理需要优化。 在人工智能的发展历程中,Agent(智能代理)一直是令人着迷的概念之一。2024 年,Agent 技术实现了从概念到实践的关键突破。例如,当对手机下达指令“帮我给同事的朋友圈点赞”,AI 就能识别屏幕并完成操作。这种进化展示了 AI 不仅能“听懂”,还能“思考”和“行动”,会分析任务、规划步骤、选择工具,甚至在遇到问题时及时调整策略。2024 年,Anthropic 的 Computer Use、智谱 AI 的 AutoGLM 以及 Google 的 Gemini 2.0 等都展示了 AI Agent 的突破性进展。这种接近成型的工程化的 Agent 核心在于四个关键能力的进展,但在过往,类似的 Agent 能力存在成功率不高、泛化能力不够强等问题,训练模型识别所有 App 的 UI 很难,模型进行自主操作也是难点。
2025-03-07
如何在Kimi创建我的个人知识库
以下是在 Kimi 创建个人知识库的相关信息: 使用 GPT 打造个人知识库: 由于 GPT3.5 一次交互支持的 Token 有限,OpenAI 提供了 embedding API 解决方案。 将文本拆分成小文本块(chunk),通过 embeddings API 转换成 embeddings 向量并保存。 当用户提问时,将问题也转换成向量,与向量储存库中的向量比对,提取关联度高的文本块与问题组合成新的 prompt 发送给 GPT API。 理解 embeddings: embeddings 是浮点数字的向量,两个向量之间的距离衡量关联性,小距离表示高关联度。 向量是用一串数字表示的量,在计算机科学中常用列表表示。 常见的向量距离计算方式是欧几里得距离。 使用 Coze 创建个人知识库: 来到个人空间,找到知识库导航栏,点击创建知识库。 知识库是共享资源,多个 Bot 可以引用同一个知识库。 选择知识库的格式(目前支持文档、表格、图片)并填写信息。 可选择本地文档或问答对表格,还能进行自定义的文档切割。 数据处理完成后,一个问答对会被切割成一个文档片。 关于使用知识库,可参考教程:
2025-03-07
基于--cref的多个人物角色出现在一个画布中,具体该如何操作?我想要详细的步骤
基于 cref 在一个画布中放置多个人物角色的操作步骤如下: 1. 使用 /settings 将 Remix 打开,然后选择 。 2. 选择将包含第二个字符的图像,然后使用 U 将其从网格中分离出来。 3. 寻找蓝色小箭头(⬆️⬇️⬅️➡️),每个箭头都会在现有图像中添加一条新图像。选择新角色的前进方向并输入提示及其 cref。这将缝合一条新的画布。 需要注意的是: cref 命令适用于单一主题、单一角色的图像。如果计划在场景中添加多个角色,需要使用平移按钮来添加。 设置画布以描绘两个人的开场提示。 您的 cref 图像中应只包含一个角色。如果 cref 图像中有多个人物形象,Midjourney 将它们混合在一起,并混合到输出中。 语雀里面整理了 211 篇文档,共有 412731 字有关 AIGC 的相关文章,MJ 手册的规范使用说明,文章包含了很多大厂经验总结。无偿且标注了文章来源,地址:https://www.yuque.com/frannnk7/aidesign?《AIGC Design 手册》
2025-03-06
修改以下内容,降低论文查重率:  首先需要高层管理者的重视和支持,为社交媒体营销提供必要的资源和政策支持。其次,要加强员工培训,提高全员的社交媒体素养和营销能力。再次,要建立完善的社交媒体管理制度,规范员工行为,防范潜在风险。最后,要注重技术创新,积极应用人工智能、大数据等新技术,提高社交媒体营销的智能化水平
以下是为您修改后的内容,以降低论文查重率: 首先,高层管理者的重视与支持不可或缺,应为社交媒体营销给予必需的资源及政策支撑。其次,强化员工培训工作,提升全体员工的社交媒体素养与营销能力。再次,构建完备的社交媒体管理体制,对员工行为加以规范,预防潜在风险。最后,注重技术的创新,积极运用人工智能、大数据等新型技术,增强社交媒体营销的智能化程度。
2025-03-07
知识库如何建立如何使用
以下是关于知识库建立和使用的详细信息: 创建知识库: 上传表格数据: API 方式: 1. 在表格格式页签下,选择 API,然后单击下一步。 2. 单击新增 API。 3. 输入网址 URL 并选择数据的更新频率,然后单击下一步。 4. 输入单元名称或使用自动添加的名称,然后单击下一步。 5. 配置数据表信息,包括确认表结构(可自定义修改列名或删除某一列名,指定语义匹配字段),查看表结构和数据,确认无误后单击下一步。 6. 完成上传后,单击确定。 自定义方式: 1. 在表格格式页面下,选择自定义,然后单击下一步。 2. 输入单元名称。 3. 在表结构区域添加字段,单击增加字段添加多个字段。 4. 设置列名,并选择指定列字段作为搜索匹配的语义字段。 5. 单击确定。 6. 单击创建分段,然后在弹出的页面输入字段值,然后单击保存。 上传文本内容: Notion 方式: 1. 在文本格式页签下,选择 Notion,然后单击下一步。 2. 单击授权。首次导入 Notion 数据和页面时,需要进行授权。在弹出的页面完成登录,并选择要导入的页面。 3. 选择要导入的数据,然后单击下一步。 4. 选择内容分段方式(自动分段与清洗或自定义)。自动分段与清洗时,系统会对上传的文件数据进行自动分段,并会按照系统默认的预处理规则处理数据;自定义时,可手动设置分段规则和预处理规则,包括分段标识符、分段最大长度、文本预处理规则(替换掉连续的空格、换行符和制表符,删除所有 URL 和电子邮箱地址)。 5. 单击下一步完成内容上传和分片。 自定义方式: 1. 在文本格式页签下,选择自定义,然后单击下一步。 2. 输入单元名称,然后单击确认。 3. 单击创建分段,然后在弹出的页面输入要上传的内容。每个分段最多可添加 2000 个字符。 4. 单击保存。 使用知识库:扣子的知识库功能提供了简单易用的方式来存储和管理外部数据,让 Bot 可以与指定的数据进行交互。将数据上传到知识库后,扣子会自动将文档分割成一个个内容片段进行存储,并通过向量搜索来检索最相关的内容来回答用户问题。知识库由大到小可分为:知识库(一整套领域知识,是 Bot 加载的最小单位)、单元(知识库的一部分,可上传的最小内容单位可以是一个.txt、.pdf、.csv 文件或一个网页)、分段(一个单元切分成多个分段,模型查询的最小单位。分段内容的完整度和准确性度会影响模型回答问题的准确性)。
2025-03-07
我想用ai进行直播建立虚拟的我
如果您想用 AI 进行直播建立虚拟的自己,以下是一些相关信息: 虚拟主播在电商直播间的现状和挑战: 直播间的特点在于真实性,包括真实的商品展示、试用以及评测,这是虚拟主播面临的挑战。如虚拟网红翎 Ling 的美妆带货翻车案例,虚拟人很难让消费者共情。 尽管 3D 交互技术可完善数字人与真实空间的交互,但实现与商品的互动较困难,且用户希望了解商品细节。 虚拟数字人的发展阶段: 拟人化:由计算机虚拟合成高度逼真的三维动画人物,初步基于 AI 实现虚拟人驱动,实时进行信息沟通和反馈。 同人化:从外观模拟进阶到情感可交互,实现与人类高质量情感互动。 超人化:虚拟人的能力超越自然人,“虚拟”实体化,机器人承载虚拟人意识回到现实世界。 虚拟直播间的场景搭建: 绿幕的虚拟直播场景方案是低成本的直播样式,手机上有相关绿幕视频抠图 App,288 元可购买永久会员解锁所有功能。 场景搭建成本因多种因素而异,包括规模、复杂度、细节程度、互动特效等。 MR 设备的普及可能带动新的技术迭代,提供更沉浸式的互动购物体验。 构建高质量 AI 数字人的方法: 建好的模型可使用 web 前端页面或 Native 的可执行程序进行部署,呈现在用户面前的是一个 GUI。 开源数字人项目选择 live2d 作为数字人躯壳,相比其他方式更可控、自然、轻量和简单,卡通二次元形象接受度更高。 品牌使用 AI 驱动虚拟主播的情况: 欧莱雅、YSL、兰蔻、李宁、北面等品牌会使用 AI 驱动的虚拟主播进行自播,但通常只在午夜时段排期。 阿里云提供的品牌智能直播间基础版有多种功能,售价为 99000 元/(年×路)。 淘宝智能直播间的虚拟形象有 3D 卡通风格和 2D 拟真人风格,预设动作库和真实语音表现,展示方式和互动流程有一定特点,但也存在一些问题,如无法与产品接触导致测评缺乏真实性。
2025-03-06
我是小白用户,已经建立cherry studio本地知识库,我想更自动化的使用知识库,有什么具体操作方法
以下是关于更自动化使用 cherry studio 本地知识库的具体操作方法: 使用知识库: 将知识库直接与 Bot 进行关联用于响应用户回复,或者在工作流中添加知识库节点,成为工作流中的一环。 在 Bot 内使用知识库: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 4. 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 5. (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项。 配置项说明: 最大召回数量:Bot 在调用知识库匹配用户输入内容时,返回的数据片段数量,数值越大返回的内容越多。 最小匹配度:Bot 在调用知识库匹配用户输入内容时,会将达到匹配度要求的数据片段进行召回。如果数据片段未达到最小匹配度,则不会被召回。 调用方式:知识库的调用方式。 自动调用:每轮对话将自动从所有关联的知识库中匹配数据并召回。 按需调用:您需要在人设与回复逻辑中提示 Bot 调用 RecallKnowledge 方法,以约束 Bot 在指定时机从知识库内匹配数据。 6. (可选)在预览与调试区域调试 Bot 能力时,扩展运行完毕的内容可以查看知识库命中并召回的分片内容。 在工作流内使用 Knowledge 节点: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在页面顶部进入工作流页面,并打开指定的工作流。 4. 在左侧基础节点列表内,选择添加 Knowledge 节点。 创建知识库并上传文本内容: |上传方式|操作步骤| ||| |本地文档|1. 在文本格式页签下,选择本地文档,然后单击下一步。<br>2. 将要上传的文档拖拽到上传区,或单击上传区域选择要上传的文档。<br>目前支持上传.txt,.pdf,.docx 格式的文件内容。<br>每个文件不得大于 20M。<br>一次最多可上传 10 个文件<br>1. 当上传完成后单击下一步。<br>2. 选择内容分段方式:<br>2.1. 自动分段与清洗:系统会对上传的文件数据进行自动分段,并会按照系统默认的预处理规则处理数据。<br>2.2. 自定义:手动设置分段规则和预处理规则。<br>分段标识符:选择符合实际所需的标识符。<br>分段最大长度:设置每个片段内的字符数上限。<br>文本预处理规则:<br>替换掉连续的空格、换行符和制表符<br>删除所有 URL 和电子邮箱地址<br>1. 单击下一步完成内容上传和分片。| 创建知识库并上传表格数据: |上传方式|操作步骤| ||| |本地文档|选择将本地文件中的表格数据上传至知识库中。<br>1. 在表格格式页签下,选择本地文档,然后单击下一步。<br>2. 将要上传的文档拖拽到上传区,或单击上传区域选择要上传的文档,然后单击下一步。<br>目前支持上传.csv 和.xlsx 格式的文件内容,且表格内需要有列名和对应的数据。<br>每个文件不得大于 20M。<br>一次最多可上传 10 个文件。<br>1. 配置数据表信息后,单击下一步。<br>1.1. 指定数据范围:通过选择数据表、表头、数据起始行指定数据范围。<br>1.2. 确认表结构:系统已默认获取了表头的列名,您可以自定义修改列名,或删除某一列名。<br>1.3. 指定语义匹配字段:选择哪个字段作为搜索匹配的语义字段。在响应用户查询时,会将用户查询内容与该字段内容的内容进行比较,根据相似度进行匹配。<br>2. 查看表结构和数据,确认无误后单击下一步。<br>3. 完成上传后,单击确定。|
2025-03-06
小白用户,使用API结合cherry studio建立本地知识库之后,应该怎么训练使AI更聪明
以下是使用 API 结合 cherry studio 建立本地知识库后训练使 AI 更聪明的方法: 1. 在线知识库: 点击创建知识库,创建一个画小二课程的 FAQ 知识库。 知识库的飞书在线文档中,每个问题和答案以分割。 选择飞书文档,选择自定义的自定义,输入。 编辑修改和删除内容,添加 Bot 并在调试区测试效果。 2. 本地文档: 注意拆分内容,提高训练数据准确度。 对于画小二课程,将 80 节课程分为 11 个章节,不能一股脑全部放进去训练。 首先将 11 章的大章节名称内容放进来,章节内详细内容按照固定方式进行人工标注和处理。 然后选择创建知识库自定义清洗数据。 3. 发布应用: 点击发布,确保在 Bot 商店中能够搜到。 此外,在训练 AI 时,还需要注意以下几点: 提示词:告诉 AI 它的角色和要专注的技能。 知识库:相当于给 AI 发放工作手册,例如可以放入特定的剧情等内容。 希望以上内容对您有所帮助。
2025-03-06
结合API建立本地知识库,具体什么操作比较容易
要结合 API 建立本地知识库,以下是较为容易的操作步骤: 1. 进入知识库页面,单击创建知识库。 2. 在弹出的页面配置知识库名称、描述,并单击确认。需注意一个团队内的知识库名称不可重复,必须是唯一的。 3. 在单元页面,单击新增单元。 4. 在弹出的页面,选择表格格式。 5. 选择 API 上传方式: 获取在线 API 的 JSON 数据,将 JSON 数据上传至知识库。 在表格格式页签下,选择 API,然后单击下一步。 单击新增 API。 输入网址 URL 并选择数据的更新频率,然后单击下一步。 输入单元名称或使用自动添加的名称,然后单击下一步。 配置数据表信息后,单击下一步。 确认表结构:系统已默认获取了表头的列名,您可以自定义修改列名,或删除某一列名。 指定语义匹配字段:选择哪个字段作为搜索匹配的语义字段。在响应用户查询时,会将用户查询内容与该字段内容的内容进行比较,根据相似度进行匹配。 查看表结构和数据,确认无误后单击下一步。 完成上传后,单击确定。 您也可以选择自定义上传方式: 在表格格式页面下,选择自定义,然后单击下一步。 输入单元名称。 在表结构区域添加字段,单击增加字段添加多个字段。 设置列名,并选择指定列字段作为搜索匹配的语义字段。 单击确定。 单击创建分段,然后在弹出的页面输入字段值,然后单击保存。
2025-03-06