Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

企业建立私有大模型时候,采用什么工具进行RAG,高效实习企业知识文档、表格和pdf图纸的向量化

Answer

企业建立私有大模型进行 RAG 并实现企业知识文档、表格和 PDF 图纸向量化时,可参考以下工具和方法:

  1. 本地部署资讯问答机器人:
    • 导入依赖库,如 feedparse 用于解析 RSS 订阅源,ollama 用于在 Python 程序中跑大模型(使用前需确保 ollama 服务已开启并下载好模型)。
    • 从订阅源获取内容,通过专门的文本拆分器将长文本拆分成较小的块,并附带相关元数据,最终合并成列表返回。
    • 为文档内容生成向量,可使用文本向量模型 bge-m3,从 hf 下载好模型后,假设放置在某个路径 /path/to/bge-m3,通过函数利用 FAISS 创建高效的向量存储。
  2. 开发:LangChain 应用开发指南 - 大模型的知识外挂 RAG
    • 加载数据,根据数据源类型选择合适的数据加载器,如网页可使用 WebBaseLoader。
    • 将文档对象分割成较小的对象,根据文本特点选择合适的文本分割器,如博客文章可用 RecursiveCharacterTextSplitter。
    • 将文档对象转换为嵌入并存储到向量存储器中,根据嵌入质量和速度选择合适的文本嵌入器和向量存储器,如 OpenAI 的嵌入模型和 Chroma 的向量存储器。
    • 创建检索器,使用向量存储器检索器,传递向量存储器对象和文本嵌入器对象作为参数创建检索器对象。
    • 创建聊天模型,根据性能和成本选择合适的聊天模型,如 OpenAI 的 GPT-3 模型。

以下是使用 LangChain 构建 RAG 应用的示例代码。

Content generated by AI large model, please carefully verify (powered by aily)

References

本地部署资讯问答机器人:Langchain+Ollama+RSSHub 实现 RAG

|导入依赖库加载所需的库和模块。其中,feedparse用于解析RSS订阅源ollama用于在python程序中跑大模型,使用前请确保ollama服务已经开启并下载好模型|从订阅源获取内容下面函数用于从指定的RSS订阅url提取内容,这里只是给了一个url,如果需要接收多个url,只要稍微改动即可。然后,通过一个专门的文本拆分器将长文本拆分成较小的块,并附带相关的元数据如标题、发布日期和链接。最终,这些文档被合并成一个列表并返回,可用于进一步的数据处理或信息提取任务。|为文档内容生成向量这里,我们使用文本向量模型bge-m3。https://huggingface.co/BAAI/bge-m3bge-m3是智源研究院发布的新一代通用向量模型,它具有以下特点:支持超过100种语言的语义表示及检索任务,多语言、跨语言能力全面领先(M ulti-Lingual)最高支持8192长度的输入文本,高效实现句子、段落、篇章、文档等不同粒度的检索任务(M ulti-Granularity)同时集成了稠密检索、稀疏检索、多向量检索三大能力,一站式支撑不同语义检索场景(M ulti-Functionality)从hf下载好模型之后,假设放置在某个路径/path/to/bge-m3,通过下面函数,利用FAISS创建一个高效的向量存储。|实现RAG

开发:LangChain应用开发指南-大模型的知识外挂RAG

首先,我们需要加载我们的数据。我们可以使用数据加载器来实现这一步,根据数据源的类型选择合适的数据加载器。例如,如果我们的数据源是一个网页,我们可以使用WebBaseLoader,它可以使用urllib和BeautifulSoup来加载和解析网页,返回一个文档对象。然后,我们需要将我们的文档对象分割成较小的文档对象。我们可以使用文本分割器来实现这一步,根据文本的特点选择合适的文本分割器。例如,如果我们的文本是一个博客文章,我们可以使用RecursiveCharacterTextSplitter,它可以递归地使用常见的分隔符(如换行符)来分割文本,直到每个文档对象的大小符合要求。接下来,我们需要将我们的文档对象转换为嵌入,并存储到向量存储器中。我们可以使用文本嵌入器和向量存储器来实现这一步,根据嵌入的质量和速度选择合适的文本嵌入器和向量存储器。例如,如果我们想要使用OpenAI的嵌入模型和Chroma的向量存储器,我们可以使用OpenAIEmbeddings和ChromaVectorStore。然后,我们需要创建一个检索器,用于根据用户的输入检索相关的文档对象。我们可以使用向量存储器检索器来实现这一步,-传递一个向量存储器对象和一个文本嵌入器对象作为参数,创建一个向量存储器检索器对象。最后,我们需要创建一个聊天模型,用于根据用户的输入和检索到的文档对象生成一个输出消息。我们可以使用LangChain提供的聊天模型来实现这一步,根据模型的性能和成本选择合适的聊天模型。例如,如果我们想要使用OpenAI的GPT-3模型,我们可以使用OpenAIChatModel。下面是一个使用LangChain构建RAG应用的示例代码:

开发:LangChain应用开发指南-大模型的知识外挂RAG

首先,我们需要加载我们的数据。我们可以使用数据加载器来实现这一步,根据数据源的类型选择合适的数据加载器。例如,如果我们的数据源是一个网页,我们可以使用WebBaseLoader,它可以使用urllib和BeautifulSoup()来加载和解析网页,返回一个文档对象。然后,我们需要将我们的文档对象分割成较小的文档对象。我们可以使用文本分割器来实现这一步,根据文本的特点选择合适的文本分割器。例如,如果我们的文本是一个博客文章,我们可以使用RecursiveCharacterTextSplitter,它可以递归地使用常见的分隔符(如换行符)来分割文本,直到每个文档对象的大小符合要求。接下来,我们需要将我们的文档对象转换为嵌入,并存储到向量存储器中。我们可以使用文本嵌入器和向量存储器来实现这一步,根据嵌入的质量和速度选择合适的文本嵌入器和向量存储器。例如,如果我们想要使用OpenAI的嵌入模型和Chroma的向量存储器,我们可以使用OpenAIEmbeddings()和ChromaVectorStore。然后,我们需要创建一个检索器,用于根据用户的输入检索相关的文档对象。我们可以使用向量存储器检索器来实现这一步,-传递一个向量存储器对象和一个文本嵌入器对象作为参数,创建一个向量存储器检索器对象。最后,我们需要创建一个聊天模型,用于根据用户的输入和检索到的文档对象生成一个输出消息。我们可以使用LangChain提供的聊天模型来实现这一步,根据模型的性能和成本选择合适的聊天模型。例如,如果我们想要使用OpenAI的GPT-3模型,我们可以使用OpenAIChatModel。下面是一个使用LangChain构建RAG应用的示例代码:

Others are asking
RAG实战教程推荐
以下为您推荐一些 RAG 实战教程: 1. 【AI+知识库】商业化问答场景,让 AI 回复更准确,一篇专为所有“小白”讲透 RAG 的实例教程(上篇): 介绍了常见的错误场景,如回答不准确、报价错误、胡编乱造等,强调了优化 AI 准确回答的重要性,并引出 RAG 概念。 讲解了基础概念,包括优化幻觉问题和提高准确性需要了解从“问题输入”到“得到回复”的过程,并针对每个环节逐个调优。 阐述了检索原理,包括问题解析阶段通过嵌入模型将问题文本转化为向量,知识库检索阶段比较向量选择相关信息片段,信息整合阶段构建融合全面的信息文本,大模型生成回答阶段将整合后的信息转化为向量输入大语言模型生成回答。还通过实例进行了详细说明,如知识库检索部分的向量化、优化问题、向量检索、抽取内容块等,以及大模型对话部分。 2. 开发:LangChain 应用开发指南 不用向量也可以 RAG: 以餐饮生活助手为例展示了基于结构化数据来 RAG 的实战方法,包括给出用户提问和回复的示例,以及餐饮生活助手 RAG 的代码实战。 介绍了实现餐饮生活助手 RAG 的 Langchain 代码实战需要完成的步骤,如定义餐饮数据源,将餐饮数据集转化为 Langchain 可识别和操作的数据源并注册到 Langchain 中;定义 LLM 的代理,通过 Langchain 的代理根据用户问题提取信息、形成查询语句、检索数据源、生成答案并输出给用户。
2025-04-01
如何学习RAG
以下是关于学习 RAG 的方法和相关内容: 1. 从 AI 搜索切入:RAG 流程复杂,可先从熟悉的 AI 搜索入手。AI 大模型擅长语义理解和文本总结,但不擅长获取实时信息;搜索引擎擅长获取实时信息但信息分散,需人为总结。AI 与搜索引擎结合,给 AI 配备活字典,搜索引擎充当知识库。 2. 用 Coze 学习 RAG 的方法: 推荐使用 Claude + Coze 的方法。Claude 是强大的 AI 大模型,Coze 是 AI Agent 的衍生产品。 首先通过 Claude 了解细节概念,然后通过 Coze 搭建 Demo,在动手实践中学习。 学习过程中创建了 4 个 Bot: 产品资料问答机器人,利用 Coze 的知识库能力演示知识库在企业中的应用。 Query 改写助手学习 Bot,专门用于学习 Query 的改写。 Query 改写效果对比 Bot,对比 Query 改写和未改写的区别。 RAG 全流程学习 Bot,结合对 RAG 全流程的了解,使用 Coze 的工作流模拟 RAG 的离线存储和在线检索全流程。 3. 相关视频演示: 还不知道 Coze 是什么的同学可以看公开分享: 。
2025-04-01
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控及受幻觉干扰等问题。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 在一个 RAG 的应用中,可以抽象为以下 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化的数据、SQL 在内的结构化的数据,以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-03-31
企业RAG知识库的实施步骤
企业 RAG 知识库的实施步骤主要包括以下几个方面: 1. 文档加载(Document Loading):从多种不同来源加载文档,如包括 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。LangChain 提供了 100 多种不同的文档加载器。 2. 文本分割(Splitting):使用文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储(Storage):存储涉及两个环节,一是将切分好的文档块进行嵌入(Embedding)转换成向量的形式,二是将 Embedding 后的向量数据存储到向量数据库。 4. 检索(Retrieval):数据进入向量数据库后,通过某种检索算法找到与输入问题相似的嵌入片。 5. Output(输出):把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起生成更加合理的答案。 此外,构建知识库也是重要的步骤。 海外官方文档:https://www.coze.com/docs/zh_cn/knowledge.html 国内官方文档:https://www.coze.cn/docs/guides/use_knowledge
2025-03-30
RAG和知识图谱的结合,需要如何实现
要实现 RAG 和知识图谱的结合,可以参考以下步骤: 1. 数据加载:根据数据源的类型选择合适的数据加载器,如对于网页数据源,可使用 WebBaseLoader 利用 urllib 和 BeautifulSoup 加载和解析网页,获取文档对象。 2. 文本分割:依据文本特点选用合适的文本分割器,将文档对象分割成较小的文档对象。例如,对于博客文章,可使用 RecursiveCharacterTextSplitter 递归地用常见分隔符分割文本,直至每个文档对象大小符合要求。 3. 嵌入与存储:根据嵌入质量和速度选择合适的文本嵌入器和向量存储器,将文档对象转换为嵌入并存储。比如,可使用 OpenAI 的嵌入模型和 Chroma 的向量存储器,即 OpenAIEmbeddings 和 ChromaVectorStore。 4. 创建检索器:使用向量存储器检索器,传递向量存储器对象和文本嵌入器对象作为参数,创建用于根据用户输入检索相关文档对象的检索器。 5. 创建聊天模型:根据模型性能和成本选择合适的聊天模型,如使用 OpenAI 的 GPT3 模型,即 OpenAIChatModel,根据用户输入和检索到的文档对象生成输出消息。 此外,通用语言模型通过微调能完成常见任务,而对于更复杂和知识密集型任务,可基于语言模型构建系统并访问外部知识源。Meta AI 研究人员引入的 RAG 方法把信息检索组件和文本生成模型结合,能接受输入并检索相关文档,组合上下文和原始提示词送给文本生成器得到输出,适应事实变化,无需重新训练模型就能获取最新信息并产生可靠输出。Lewis 等人(2021)提出通用的 RAG 微调方法,使用预训练的 seq2seq 作为参数记忆,用维基百科的密集向量索引作为非参数记忆。
2025-03-28
详细讲解一下ragflow框架,同时对比一下ragflow与常规知识库有什么优势,在graphrag的实现方面ragflow又是怎么做的?
RAG(检索增强生成)是一种有效的解决方案,下面为您详细讲解: RAG 工作流程: 1. 检索(Retrieval):如同在图书馆中,系统会从知识库或文档集合中找出与用户问题相关的内容。 2. 增强(Augmented):对检索到的信息进行筛选和优化,挑出最相关和有用的部分。 3. 生成(Generation):将整合的信息生成自然流畅、易于理解的回答。 RAG 类似于一个超级智能的图书馆员,综合起来: 1. 检索:从庞大知识库中找到相关信息。 2. 增强:筛选优化确保找到最相关部分。 3. 生成:整合信息给出连贯回答。 RAG 的优势: 1. 成本效益:相比训练和维护大型专有模型,实现成本更低。 2. 灵活性:能利用多种数据源,包括结构化和非结构化数据,迅速适应不同领域和变化的数据。 3. 可扩展性:随时增加或更新知识库内容,无需重新训练模型。 RAG 与常规知识库的对比优势: 常规知识库可能存在知识更新不及时、数据来源单一等问题。而 RAG 能够从多种数据源获取信息,并且可以根据用户的实时需求进行检索和优化,生成更贴合需求的回答。 在 GraphRAG 的实现方面,目前提供的内容中未明确提及相关具体实现方式。 同时需要注意的是,RAG 也存在一些缺点,比如相比于专有模型的方案,回答准确性可能不够。
2025-03-28
ai的好用pdf工具有哪些
以下是一些好用的 AI 相关 PDF 工具: 1. DeepL(网站):点击页面「翻译文件」按钮,上传 PDF、Word 或 PowerPoint 文件即可。 2. 沉浸式翻译(浏览器插件):安装插件后,点击插件底部「更多」按钮,选择「制作双语 BPUB 电子书」、「翻译本地 PDF 文件」、「翻译 THML/TXT 文件」、「翻译本地字幕文件」。 3. Calibre(电子书管理应用):下载并安装 calibre,并安装翻译插件「Ebook Translator」。 4. 谷歌翻译(网页):使用工具把 PDF 转成 Word,再点击谷歌翻译「Document」按钮,上传 Word 文档。 5. 百度翻译(网页):点击导航栏「文件翻译」,上传 PDF、Word、Excel、PPT、TXT 等格式的文件,支持选择领域和导出格式(不过进阶功能基本都需要付费了)。 6. 彩云小译(App):下载后点击「文档翻译」,可以直接导入 PDF、DOC、DOCX、PPT、PPTX、TXT、epub、srt 等格式的文档并开始翻译(不过有免费次数限制且进阶功能需要付费)。 7. 微信读书(App):下载 App 后将 PDF 文档添加到书架,打开并点击页面上方「切换成电子书」,轻触屏幕唤出翻译按钮。 内容由 AI 大模型生成,请仔细甄别。
2025-03-27
pdf生成视频
以下是关于 PDF 生成视频的相关信息: 将 PDF 转换为可交互网页: 先将文件转换为 PDF 格式,其他格式也可行,但 PDF 效果更佳。 若在文章中加入图片,网络图片可直接复制其 URL,右键图片选择复制 URL 后用 Markdown 格式写入文档;自己的图片可使用图床服务(如 https://sm.ms/)托管生成公链。 插入视频时,先将本地视频上传至公网(如 B 站),在视频页面寻找“分享”按钮,点击“嵌入”或“嵌入代码”选项获取 URL,用 Markdown 格式写入。 使用 Adobe Firefly 生成带有文本提示和图像的视频: 在 Advanced 部分,可用 Seed 选项添加种子编号,控制 AI 创建内容的随机性。相同种子、提示和控制设置可重新生成类似视频剪辑。 在 Adobe Firefly 网站(https://firefly.adobe.com/)选择“生成视频”。 在 Generate video 页面的 Prompt 字段输入文本提示,也可在 Image 部分的 Upload 选项使用图像作为第一帧并提供方向参考。添加图像可使生成的视频更符合预期。 在 General settings 部分可确定Aspect ratio 和 Frames per second。
2025-03-22
读pdf并根据要求从中提取特定内容的比较好的AI工具有哪些
以下是一些能够读 PDF 并根据要求从中提取特定内容的 AI 工具: 1. DeepL(网站):点击页面「翻译文件」按钮,上传 PDF、Word 或 PowerPoint 文件即可。 2. 沉浸式翻译(浏览器插件):安装插件后,点击插件底部「更多」按钮,选择「制作双语 BPUB 电子书」、「翻译本地 PDF 文件」、「翻译 THML/TXT 文件」、「翻译本地字幕文件」。 3. Calibre(电子书管理应用):下载并安装 calibre,并安装翻译插件「Ebook Translator」。 4. 谷歌翻译(网页):使用工具把 PDF 转成 Word,再点击谷歌翻译「Document」按钮,上传 Word 文档。 5. 百度翻译(网页):点击导航栏「文件翻译」,上传 PDF、Word、Excel、PPT、TXT 等格式的文件,支持选择领域和导出格式(不过进阶功能基本都需要付费了)。 6. 彩云小译(App):下载后点击「文档翻译」,可以直接导入 PDF、DOC、DOCX、PPT、PPTX、TXT、epub、srt 等格式的文档并开始翻译(不过有免费次数限制且进阶功能需要付费)。 7. 微信读书(App):下载 App 后将 PDF 文档添加到书架,打开并点击页面上方「切换成电子书」,轻触屏幕唤出翻译按钮。 此外,还有一些与 PDF 处理相关的 AI 工具,如: 1. :它可以提取 PDF 文件中的内容,并将内容交给 ChatGPT 进行分析。待解析完成之后,你便可以跟它进行一对一对话交流,就好像它是一个完全理解内容的人一样。 2. 可以使用 PyMuPDF 组件,通过 Python 脚本从 PDF 中获取图片。
2025-03-19
用哪个大模型,在PDF和图片识别上精度高
在 PDF 和图片识别方面,对于图片,ChatGPT 依靠视觉模型解析,复杂图片建议使用最新模型(如 GPT4.5)。对于 PDF,ChatGPT 仅能识别文本,无法读取图表、图片,复杂布局可能导致误读。一些初步实验表明,一些开源的 PDF 解析方法可能无法达到高质量要求,而当辅以可以有效提取文档中的结构化信息并将其整合为提示词(Prompt)的 PDF 解析器时,大语言模型能够作出更准确的响应。
2025-03-18
有修改PDF的AI吗
以下是一些可以修改 PDF 或翻译 PDF 的 AI 工具和方法: 修改 PDF 为可视化网页: 可以使用 AI 把 PDF 一键变成能玩的可视化网页。具体步骤如下: 1. 如果想插入视频,找到公网的视频地址(本地视频先上传到公网,如 Youtube 或 B 站),在视频页面寻找“分享”按钮,点击“嵌入”或“嵌入代码”选项。 2. 把复制下来的 HTML 代码粘贴到媒体资源处。 3. 将改完的 Prompt 粘贴到 Claude 自己的官网、trea 海外版、cursor 等里面。 4. 如果是其他渠道,没有代码预览功能,可把生成的代码直接复制到 https://www.yourware.so/ 网站,点击 deploy code 稍等一会,就有预览。点击 copy link 可分享给朋友链接一起看。 翻译 PDF: 1. DeepL(网站):点击页面「翻译文件」按钮,上传 PDF、Word 或 PowerPoint 文件即可。 2. 沉浸式翻译(浏览器插件):安装插件后,点击插件底部「更多」按钮,选择「制作双语 BPUB 电子书」、「翻译本地 PDF 文件」、「翻译 THML/TXT 文件」、「翻译本地字幕文件」。 3. Calibre(电子书管理应用):下载并安装 calibre,并安装翻译插件「Ebook Translator」。 4. 谷歌翻译(网页):使用工具把 PDF 转成 Word,再点击谷歌翻译「Document」按钮,上传 Word 文档。 5. 百度翻译(网页):点击导航栏「文件翻译」,上传 PDF、Word、Excel、PPT、TXT 等格式的文件,支持选择领域和导出格式(进阶功能基本需付费)。 6. 彩云小译(App):下载后点击「文档翻译」,可以直接导入 PDF、DOC、DOCX、PPT、PPTX、TXT、epub、srt 等格式的文档并开始翻译(有免费次数限制,进阶功能需付费)。 7. 微信读书(App):下载 App 后将 PDF 文档添加到书架,打开并点击页面上方「切换成电子书」,轻触屏幕唤出翻译按钮。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-03-14
有做PDF的AI吗
以下是一些与 PDF 相关的 AI 工具和应用: 1. DeepL(网站):点击页面「翻译文件」按钮,上传 PDF、Word 或 PowerPoint 文件即可。 2. 沉浸式翻译(浏览器插件):安装插件后,点击插件底部「更多」按钮,选择「制作双语 BPUB 电子书」、「翻译本地 PDF 文件」、「翻译 THML/TXT 文件」、「翻译本地字幕文件」。 3. Calibre(电子书管理应用):下载并安装 calibre,并安装翻译插件「Ebook Translator」。 4. 谷歌翻译(网页):使用工具把 PDF 转成 Word,再点击谷歌翻译「Document」按钮,上传 Word 文档。 5. 百度翻译(网页):点击导航栏「文件翻译」,上传 PDF、Word、Excel、PPT、TXT 等格式的文件,支持选择领域和导出格式(不过进阶功能基本都需要付费了)。 6. 彩云小译(App):下载后点击「文档翻译」,可以直接导入 PDF、DOC、DOCX、PPT、PPTX、TXT、epub、srt 等格式的文档并开始翻译(不过有免费次数限制且进阶功能需要付费)。 7. 微信读书(App):下载 App 后将 PDF 文档添加到书架,打开并点击页面上方「切换成电子书」,轻触屏幕唤出翻译按钮。 此外,在全球高增速 Top50 中,有“PDF ai”这一产品。并且,现在可以利用 AI 把 PDF 一键变成能玩的可视化网页,具体操作思路来自于歸藏,使用 Claude 3.7 Sonnet 效果较好,在使用 Prompt 时要注意修改作者信息和媒体资源等细节部分。
2025-03-14
神采AI操作文档
以下是为您整理的关于 AI 操作的相关内容: 1. 海螺 AI 声音克隆及录视频工作流: 该工具不仅能进行声音克隆,还能嵌入完整的 AI 录视频工作流。 工作流适合教程视频或口播内容创作者,可解决录制时的多种问题,确保音画同步和内容准确。 具体步骤包括录制初始视频、音频提取(将 mp4 转为 mp3 可用剪映或格式工厂)、语音转文字(上传至通义听悟或飞书妙记)。可能会遇到语音识别不准的问题,可使用 Gemini 2.0 Pro 进行校正,校正时需提供足够上下文,如视频初稿、最终文章、工作流操作文档、转录文本等。 2. Claude 3.5 的新功能【AI 操作电脑】上手体验: 亮点包括 AI 操作电脑和编程能力大提升。 准备工作:需要一台电脑(Window 系统,理论上能跑 Docker 都可以)和 Claude 的官方 Key。 Docker 安装:正常安装,完成后本地打开,确保左下角服务启动成功。 拉取镜像:Claude 官方提供了 Demo(Python),拉取到本地后在当前 Python 环境下安装依赖(建议 3.11 以上),并根据官方文档设置环境变量,启动 docker。对于不熟悉环境变量的朋友,可使用修改过的启动命令。启动成功后,按照提示访问网页:http://localhost:8080,侧边栏填写 key 即可正常使用。 3. XiaoHu.AI 日报(3 月 6 日): 包含 Manus AI 代理的相关介绍,其特点为自动完成任务并交付完整结果,交付形式多样,能充分利用 AI 能力在云端自动运行。 GPT4.5 向所有 Plus 用户推送,预计 3 天内推送完毕。
2025-04-01
即梦AI的使用文档
以下是关于即梦 AI 的使用文档: 概览: 即梦是剪映旗下类 Sora 的 AI 视频生成工具,原名 Dreamina,已于 2024 年 5 月正式改名为“即梦”。这段时间在内测,测完普遍反馈不错,也存在一些缺点,但比之前的 PPT 短片有不少升级。其官网为:https://jimeng.jianying.com/ 。相关文章报道和评测可参考: AI 产品评测|字节剪映 Dreamina 一手测评 https://mp.weixin.qq.com/s/2fSEEZtS5DGnZ7RmW4hiA Dreamina,字节的 Sora 时刻要来了! https://mp.weixin.qq.com/s/E1D0uG_Bk0fNkCK70ANzg 优点: 动效方面采取激进策略,在需要很强动效表现时可考虑使用。 对画面识别准确。 优势在于人物微表情、汽车行驶等画面的表现,以及首尾帧相连的功能。 对于简单画面有不错的表现力,能让主体完成超出预期的流畅动效,尤其是简单的三维物体。 人物的面部特写表现惊艳。 缺点: 精度不够,后期需用 topaz video 等超分工具再放大。 丰富的动效带来画面容易“出轨”的问题,导致画面稳定性不足。 为了更丰富的动效,视频的输出存在掉帧等问题。 运动幅度不能开得太过,否则会有用力过猛的感觉,且画面容易崩塌。 总体 3 6s 的生成长度一般。 V1.2 版本更新内容: 全面提升模型质量。 提升视频生成单次生成时长,并提供标准模式、流畅模式两种模式选择,对应模式有不同的生成时长。 标准模式:适合通用场景,支持时长为 3s、6s、9s、12s。 流畅模式:适合运动强度高场景,如赛车飞驰,支持时长为 4s、6s、8s。 视频延长:全面提升延长效果,可基于选择的模式选择二次生成的时长,并支持 prompt 控制,同一个素材支持两次延长。 可控方面: 首尾帧权重超强优化,输入 prompt 可精准控制过渡效果。 新增移镜、摇镜,并支持三档运镜幅度设定。 风格词使用指南: 基于艺术史分类,可探索不同历史时期的艺术风格,每种风格都有独特的美学特征。 古典主义:精确、平衡、理想化,构图和谐。风格词示例:古典写实主义、新古典主义、古希腊艺术、唐朝壁画、文艺复兴。 浪漫主义:情感丰富,戏剧化表达,想象力突出。风格词示例:浪漫主义风景画、巴洛克艺术。 印象主义:捕捉光影与色彩的瞬间变化,笔触自由。风格词示例:印象派、后印象派。 现代主义:突破传统,注重形式与创意表达。风格词示例:立体主义、未来主义、超现实主义。 后现代主义:多元融合,解构传统。风格词示例:波普艺术、概念艺术。 案例:唐朝壁画
2025-04-01
现在对文档做编辑校对有什么好工具吗
以下是一些常见的用于文档编辑校对的工具: 1. Wordvice AI:集校对、改写转述和翻译等功能于一体的 AI 写作助手,基于大型语言模型提供全面的英文论文润色服务。 2. ChatGPT:由 OpenAI 开发的大型语言模型,可用于学生和写作人员的多方面写作辅助。 3. Quillbot:人工智能文本摘要和改写工具,可用于快速筛选和改写文献资料。 4. HyperWrite:基于 AI 的写作助手和大纲生成器,可帮助用户在写作前进行头脑风暴和大纲规划。 5. Wordtune:AI 驱动的文本改写和润色工具,可以帮助用户优化文章的语言表达。 6. Smodin:提供 AI 驱动的论文撰写功能,可以根据输入生成符合要求的学术论文。 在论文写作领域,常用的 AI 工具和平台包括: 1. 文献管理和搜索: Zotero:结合 AI 技术,可自动提取文献信息,帮助管理和整理参考文献。 Semantic Scholar:由 AI 驱动的学术搜索引擎,提供文献推荐和引用分析。 2. 内容生成和辅助写作: Grammarly:通过 AI 技术提供文本校对、语法修正和写作风格建议,提高语言质量。 Quillbot:基于 AI 的重写和摘要工具,精简和优化论文内容。 3. 研究和数据分析: Google Colab:提供基于云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,便于数据分析和可视化。 Knitro:用于数学建模和优化的软件,进行复杂的数据分析和模型构建。 4. 论文结构和格式: LaTeX:结合自动化和模板,高效处理论文格式和数学公式。 Overleaf:在线 LaTeX 编辑器,提供丰富模板库和协作功能,简化论文编写过程。 5. 研究伦理和抄袭检测: Turnitin:广泛使用的抄袭检测工具,确保论文原创性。 Crossref Similarity Check:通过与已发表作品比较,检测潜在抄袭问题。 这些工具涵盖了文档编辑校对的各个环节,包括校对、改写、大纲生成、内容生成等,可以有效提高写作效率和质量。您可以根据自身需求选择合适的工具进行使用。但使用时需注意结合自己的写作风格和需求,同时对生成的内容仔细甄别。
2025-03-30
扣子设置了微信客服机器人,如何实现机器人按时自动向微信群发布图片或文档等信息。
要实现微信客服机器人按时自动向微信群发布图片或文档等信息,您可以按照以下步骤进行操作: 前提条件: 1. 已开通了。 2. 已搭建了 Bot。 步骤一:获取微信客服配置信息 1. 登录平台。 2. 单击企业信息,然后复制企业 ID。 3. 单击开发配置,然后再单击开始使用。 4. 单击随机获取按钮分别生成并保存 Token 和 EncodingAESKey。复制 Token 和 EncodingAESKey 后,先不要关闭该页面。 步骤二:在扣子中配置微信客服信息 1. 在 Bots 页面,选择需要发布的 Bot。 2. 在 Bot 编排页面,单击发布。 3. 找到微信客服渠道,然后单击配置。 4. 输入步骤一中复制的企业 ID,然后单击下一步。 5. 输入步骤一中复制的 Token 和 EncodingAESKey,然后单击下一步。 6. 复制 webhook 地址。复制 webhook 地址后,先不要关闭该配置窗口。 步骤三:配置回调地址 1. 回到步骤一中的开始企业接入页面,输入上一步中复制的 webhook 地址。单击完成。确保粘贴回调地址时没有引入空格,空格会导致校验失败。 2. 在开发配置页面,复制 secret。 3. 单击客服账号,复制账号。 步骤四:发布 Bot 1. 回到扣子平台的微信客服渠道配置页面,输入复制的 secret 和客服名称。 2. 单击保存。 3. 在发布记录中输入发布信息,然后勾选微信客服渠道,再单击发布。 4. 发布完成后,单击立即对话登录微信客服,体验 Bot 效果。 常见问题: 1. 收不到机器人回复消息怎么办? 可尝试通过以下方法解决: 查看微信客服的启用状态:登录,在应用管理页面,点击微信客服。确保没有启用微信客服功能。如果已经开启了微信客服功能,需要关闭。关闭后,该应用在工作台入口将被隐藏,员工不可使用。请谨慎评估。 检查近期是否有登录企业微信应用。确保企业至少有一个成员通过手机号验证/微信授权登录过企业微信应用。 如果还是有问题,可以发送邮件至 feedback@coze.cn 反馈。
2025-03-30
openai官方文档
以下是关于 OpenAI 官方文档的相关信息: 对于刚入门学习提示词的朋友,建议先有一个大模型帐号并熟悉与之对话的方式。推荐的国产平替有 。 学习 prompt 必须看 OpenAI 的官方文档,相关链接有: 。 在 OpenAI 官方的说明文档(Documentation)中,为用户提供了若干项策略以帮助更好地使用 ChatGPT。例如策略一:编写清晰的说明,即在询问中包含详细信息以获得更多相关答复。因为大模型无法在有限信息中“猜测”用户意图,所以提问时不要惜字如金,多说一些内容、多提供一些信息能有效提高回复的质量和丰富性。文中还列举了多个例子进行说明。
2025-03-29
2024年10月的AIPO活动相关云文档在哪儿?
以下是与 2024 年 10 月的 AIPO 活动相关的云文档: :包含关于 AI 模型训练的介绍与讲解,如 Eagle 插件批量收藏 3D 图表、不同步数训练时间、使用 MZ 数据集训练 Flux、云服务器训练流程、训练集收集要求、训练模型的时机、角色一致性表现、云服务器训练集设置、模型训练参数设置、模型训练启动与等待等内容。 》,列举了美国融资金额超过 1 亿美元的 AI 公司。 :包含 2024 年 10 月 24 日娜乌斯佳:AIGC 商业片落地经验分享等多个日期的智能纪要。
2025-03-28
钉钉多维表格属于agent吗
钉钉多维表格本身不属于 Agent,但在某些特定的场景和应用中,可以将其与其他技术结合来构建类似于 Agent 的功能。 例如,在搭建信息情报官 Agent 的过程中,会利用飞书多维表格作为中间数据的传递工具,实现数据的存储和状态转换。同时,经过调研发现,飞书多维表格插件支持新增和查询数据表记录,能满足存储和检索数据的需求,为构建 AI 智能体提供支持。但这并不意味着多维表格本身就是 Agent,而是在特定的技术架构和应用中发挥了重要的数据处理和存储作用。
2025-04-01
多维表格属于agent
多维表格在搭建信息情报官 Agent 方面有以下应用: 1. 因为前面需要对多维表格操作,所以要先在 http://open.feishu.cn 上建一个飞书机器人,并添加知识库或多维表格编辑权限,通过机器人的 app_id 和 app_secret 获得租用 token:tenant_access_token 来获取多维表格数据和编辑能力。 2. 可以通过读 SQLiteDB 或者获取 RSS XML 页面 http://127.0.0.1:4000/feeds/all.atom,写程序获得公众号的更新文章,由于本地部署无法直接将文章同步到 Coze,选择使用多维表格作为在线数据库及飞书机器人 API 的方式来实现中间数据的传递,在多维表格中设置状态转换来了解文章是否已被解读和推送。 3. 应用背景包括解决数据高效抓取与批量 AI 化处理的问题,涉及 Coze 定义智能体发布到飞书多维表格字段捷径、多维表格中使用和配置自定义的 AI 字段捷径、Coze 应用将数据导入到飞书多维表格并驱动其自动运行、多维表格仪表盘对数据的可视化等技术场景,期望达到让大家学会最高效率使用 AI 并将方案泛化到实际工作中的目的。
2025-04-01
飞书多维表格如何接入gemini?
要将飞书多维表格接入 Gemini,以下是一些相关的操作步骤和说明: 首先,请注意部分操作需要搭配 Google 云服务或自备 API 才可以正常练习,具体内容)。友情提示,从这一部分及以后内容,多数都会是配合代码完成的,如果您是 0 代码学习者,尝试看懂提示词,并在一些 AI 产品上尝试使用。 接下来,课程将深入探讨代码部分。为了运行这个笔记本,需要执行一些设置代码。首先,需要导入 utils 并进行身份验证,这意味着需要设置一些凭证和项目 ID,以便能够从笔记本环境调用云端的 Gemini API。项目包含在云中使用的资源和 Gemini API。这个设置过程确保了笔记本能够正确连接和使用 Gemini 模型。 对于本课程,还需要指定一个区域,即代码将在哪里执行。在这种情况下,使用的是 uscentral1。 接下来,课程将导入 Vertex AI SDK。Vertex AI SDK 可以看作是一个 Python 工具包,帮助用户与 Gemini 交互。通过这个 SDK,可以使用 Python 调用 Gemini API 并获得响应。 在笔记本中,需要初始化 Vertex SDK。这意味着需要告诉 SDK 以下信息: 1. 使用的项目 2. 想要使用 Gemini 模型的区域 3. 用户凭证 通过提供这些信息,Gemini API 就能识别用户身份,并确认用户有权使用 API。 为了使用 Gemini API,需要从 SDK 中导入 generative_model。设置完成后,需要指定具体的模型。这可以通过设置 model 变量来完成,使用刚刚导入的 generative_model,并选择特定的 Gemini 模型。在这个案例中,课程将使用 Gemini 1.0 Pro 版本。这个选择反映了对于当前任务,Gemini Pro 可能是最合适的平衡点,提供了良好的性能和效率。 此外,Gemini 不仅是单一模型,而是一个模型系列,包含不同大小的模型,每种大小都针对特定的计算限制和应用需求而定制。首先是 Gemini Ultra,这是系列中最大和最强大的模型。Gemini Pro 被设计为多功能的主力模型,平衡了模型性能和速度。还有 Gemini Flash,这是一个专门为高容量任务设计的最快、最具成本效益的模型。最后是 Gemini Nano,它是 Gemini 家族中的轻量级成员,专门设计用于直接在用户设备上运行。
2025-03-28
飞书多维表格里的字段捷径怎么关联deepseek
飞书中将飞书多维表格里的字段捷径与 DeepSeek 关联的相关内容如下: 基于其他博主开源的视频生成工作流进行功能优化,实现视频全自动创建。通过表单输入主题观点,提交后自动创建文案短视频,创建完成后推送视频链接到飞书消息。涉及工具包括 Coze 平台(工作流、DeepSeek R1、文生图、画板、文生音频、图+音频合成视频、多视频合成)、飞书(消息)、飞书多维表格(字段捷径、自动化流程)。大体路径为:通过 Coze 创建智能体,创建工作流,使用 DeepSeek R1 根据用户观点创建文案,再创建视频;发布 Coze 智能体到飞书多维表格;在多维表格中使用字段捷径,引用该智能体;在多维表格中创建自动化流程,推送消息给指定飞书用户。 做一个专属的好文推荐网站(DeepSeek R1 + 飞书多维表格)时,新建带有 AI 能力的飞书多维表格,逐一添加字段,使用“DeepSeek R1”时需要关联火山方舟的账号信息,并勾选相关选项。 在 Coze 应用 + 多维表格的高速数据分析中,使用 Coze、飞书多维表格、自定义 AI 字段捷径(Agent)来实现数据的高效抓取与批量 AI 化处理。Coze 定义智能体,发布到飞书多维表格字段捷径,多维表格中使用和配置自定义的 AI 字段捷径,Coze 应用采用交互式界面将数据导入到飞书多维表格,并驱动多维表格自动运行,通过多维表格仪表盘对数据进行可视化。目的是让大家了解如何最高效率使用 AI,并将方案泛化到实际工作中。
2025-03-25
多维表格自动生成视频
以下是关于多维表格自动生成视频的详细介绍: 基于其他博主开源的视频生成工作流进行功能优化,实现了视频的全自动创建。 先看效果: 功能:通过表单输入主题观点,提交后自动创建文案短视频,创建完成后推送视频链接到飞书消息。 涉及工具: 1. Coze 平台(工作流、DeepSeek R1、文生图、画板、文生音频、图+音频合成视频、多视频合成) 2. 飞书(消息) 3. 飞书多维表格(字段捷径、自动化流程) 大体路径: 1. 通过 coze 创建智能体,创建工作流,使用 DeepSeek R1 根据用户观点创建文案,再创建视频。 2. 发布 coze 智能体到飞书多维表格。 3. 在多维表格中使用字段捷径,引用该智能体。 4. 在多维表格中创建自动化流程,推送消息给指定飞书用户。 具体步骤: 1. 智能体发布到飞书多维表格: 工作流调试完成后,加入到智能体中,可以选择工作流绑定卡片数据,智能体则通过卡片回复。 选择发布渠道,重点为飞书多维表格,记得智能体提示词的 4 个变量,发布时会自动出现,控件选择“字段选择器”,填写上架信息(为快速审核,选择仅自己可用),确认发布等待审核,审核通过后即可在多维表格中使用。 2. 多维表格的字段捷径使用: 创建飞书多维表格,添加相关字段,配置后选择“自动更新”,输入 4 个字段后,“文案视频自动化”字段捷径会自动调用工作流生成视频。 进行表单分享,实现填写表单自动创建文案短视频的效果。 3. 自动化推送:点击多维表格右上角的“自动化”,创建想要的自动化流程。 办公提效神器方面,还可用指令和 AI 生成视频插件,批量生成宣传视频。最后创建一列字段,从字段捷径 AI 中心中选择智谱 AI 生成视频,插件配置简单,直接选择视频指令作为文本描述即可批量生成。视频生成需时间,生成后可直接点击播放查看效果,如有抽象可重试或手动调整指令。
2025-03-23
dify使用飞书多维表格
以下是关于输入观点一键生成文案短视频以及飞书多维表格使用的相关内容: 概述: 基于其他博主开源的视频生成工作流进行功能优化,实现视频全自动创建。感谢开源,现写教程供参考。 先看效果: 功能: 通过表单输入主题观点,提交后自动创建文案短视频,创建完成后推送视频链接到飞书消息。 涉及工具: 1. Coze 平台(工作流、DeepSeek R1、文生图、画板、文生音频、图+音频合成视频、多视频合成) 2. 飞书(消息) 3. 飞书多维表格(字段捷径、自动化流程) 大体路径: 1. 通过 Coze 创建智能体,创建工作流,使用 DeepSeek R1 根据用户观点创建文案,再创建视频。 2. 发布 Coze 智能体到飞书多维表格。 3. 在多维表格中使用字段捷径,引用该智能体。 4. 在多维表格中创建自动化流程,推送消息给指定飞书用户。 智能体发布到飞书多维表格: 1. 工作流调试完成后,加入到智能体中。可以选择工作流绑定卡片数据,智能体则通过卡片回复,直接返回视频、可查看。绑定卡片数据可自己研究,不明白可留言。 2. 发布时选择需要的发布渠道,重点讲飞书多维表格。记得智能体提示词的 4 个变量,写了那 4 个变量,发布时这里会自动出现。填写上架信息(为快速审核,选择仅自己可用),确认发布等待审核。审核通过后,即可在多维表格中使用。 多维表格的字段捷径使用: 1. 创建飞书多维表格,添加相关字段。配置如下图,即可使用字段捷径功能,使用自己创建的 Coze 智能体。选择“自动更新”,输入前边的 4 个字段后,“文案视频自动化”字段捷径会自动调用工作流,生成视频。 2. 表单分享,实现文章最初的效果“填写表单,自动创建文案短视频”。 自动化推送: 点击多维表格右上角的“自动化”,创建想要的自动化流程。 此外,还有关于线下活动 SOP 的使用案例: 完全用飞书的各种功能组合完成,场地来自大家支持。 1. 活动宣传:用飞书文档制作活动宣传页面。 2. 活动报名:用飞书的多维表格完成及数据统计。 3. 活动过程:大家在线协同,一起编辑文档,演示时共同展示一个文档。 4. 活动记录。 办活动的初衷是宣扬 AI 不只是降本增效的工具,还有很多乐趣等待挖掘。
2025-03-20