Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

企业建立私有大模型时候,采用什么工具进行RAG,高效实习企业知识文档、表格和pdf图纸的向量化

Answer

企业建立私有大模型进行 RAG 并实现企业知识文档、表格和 PDF 图纸向量化时,可参考以下工具和方法:

  1. 本地部署资讯问答机器人:
    • 导入依赖库,如 feedparse 用于解析 RSS 订阅源,ollama 用于在 Python 程序中跑大模型(使用前需确保 ollama 服务已开启并下载好模型)。
    • 从订阅源获取内容,通过专门的文本拆分器将长文本拆分成较小的块,并附带相关元数据,最终合并成列表返回。
    • 为文档内容生成向量,可使用文本向量模型 bge-m3,从 hf 下载好模型后,假设放置在某个路径 /path/to/bge-m3,通过函数利用 FAISS 创建高效的向量存储。
  2. 开发:LangChain 应用开发指南 - 大模型的知识外挂 RAG
    • 加载数据,根据数据源类型选择合适的数据加载器,如网页可使用 WebBaseLoader。
    • 将文档对象分割成较小的对象,根据文本特点选择合适的文本分割器,如博客文章可用 RecursiveCharacterTextSplitter。
    • 将文档对象转换为嵌入并存储到向量存储器中,根据嵌入质量和速度选择合适的文本嵌入器和向量存储器,如 OpenAI 的嵌入模型和 Chroma 的向量存储器。
    • 创建检索器,使用向量存储器检索器,传递向量存储器对象和文本嵌入器对象作为参数创建检索器对象。
    • 创建聊天模型,根据性能和成本选择合适的聊天模型,如 OpenAI 的 GPT-3 模型。

以下是使用 LangChain 构建 RAG 应用的示例代码。

Content generated by AI large model, please carefully verify (powered by aily)

References

本地部署资讯问答机器人:Langchain+Ollama+RSSHub 实现 RAG

|导入依赖库加载所需的库和模块。其中,feedparse用于解析RSS订阅源ollama用于在python程序中跑大模型,使用前请确保ollama服务已经开启并下载好模型|从订阅源获取内容下面函数用于从指定的RSS订阅url提取内容,这里只是给了一个url,如果需要接收多个url,只要稍微改动即可。然后,通过一个专门的文本拆分器将长文本拆分成较小的块,并附带相关的元数据如标题、发布日期和链接。最终,这些文档被合并成一个列表并返回,可用于进一步的数据处理或信息提取任务。|为文档内容生成向量这里,我们使用文本向量模型bge-m3。https://huggingface.co/BAAI/bge-m3bge-m3是智源研究院发布的新一代通用向量模型,它具有以下特点:支持超过100种语言的语义表示及检索任务,多语言、跨语言能力全面领先(M ulti-Lingual)最高支持8192长度的输入文本,高效实现句子、段落、篇章、文档等不同粒度的检索任务(M ulti-Granularity)同时集成了稠密检索、稀疏检索、多向量检索三大能力,一站式支撑不同语义检索场景(M ulti-Functionality)从hf下载好模型之后,假设放置在某个路径/path/to/bge-m3,通过下面函数,利用FAISS创建一个高效的向量存储。|实现RAG

开发:LangChain应用开发指南-大模型的知识外挂RAG

首先,我们需要加载我们的数据。我们可以使用数据加载器来实现这一步,根据数据源的类型选择合适的数据加载器。例如,如果我们的数据源是一个网页,我们可以使用WebBaseLoader,它可以使用urllib和BeautifulSoup来加载和解析网页,返回一个文档对象。然后,我们需要将我们的文档对象分割成较小的文档对象。我们可以使用文本分割器来实现这一步,根据文本的特点选择合适的文本分割器。例如,如果我们的文本是一个博客文章,我们可以使用RecursiveCharacterTextSplitter,它可以递归地使用常见的分隔符(如换行符)来分割文本,直到每个文档对象的大小符合要求。接下来,我们需要将我们的文档对象转换为嵌入,并存储到向量存储器中。我们可以使用文本嵌入器和向量存储器来实现这一步,根据嵌入的质量和速度选择合适的文本嵌入器和向量存储器。例如,如果我们想要使用OpenAI的嵌入模型和Chroma的向量存储器,我们可以使用OpenAIEmbeddings和ChromaVectorStore。然后,我们需要创建一个检索器,用于根据用户的输入检索相关的文档对象。我们可以使用向量存储器检索器来实现这一步,-传递一个向量存储器对象和一个文本嵌入器对象作为参数,创建一个向量存储器检索器对象。最后,我们需要创建一个聊天模型,用于根据用户的输入和检索到的文档对象生成一个输出消息。我们可以使用LangChain提供的聊天模型来实现这一步,根据模型的性能和成本选择合适的聊天模型。例如,如果我们想要使用OpenAI的GPT-3模型,我们可以使用OpenAIChatModel。下面是一个使用LangChain构建RAG应用的示例代码:

开发:LangChain应用开发指南-大模型的知识外挂RAG

首先,我们需要加载我们的数据。我们可以使用数据加载器来实现这一步,根据数据源的类型选择合适的数据加载器。例如,如果我们的数据源是一个网页,我们可以使用WebBaseLoader,它可以使用urllib和BeautifulSoup()来加载和解析网页,返回一个文档对象。然后,我们需要将我们的文档对象分割成较小的文档对象。我们可以使用文本分割器来实现这一步,根据文本的特点选择合适的文本分割器。例如,如果我们的文本是一个博客文章,我们可以使用RecursiveCharacterTextSplitter,它可以递归地使用常见的分隔符(如换行符)来分割文本,直到每个文档对象的大小符合要求。接下来,我们需要将我们的文档对象转换为嵌入,并存储到向量存储器中。我们可以使用文本嵌入器和向量存储器来实现这一步,根据嵌入的质量和速度选择合适的文本嵌入器和向量存储器。例如,如果我们想要使用OpenAI的嵌入模型和Chroma的向量存储器,我们可以使用OpenAIEmbeddings()和ChromaVectorStore。然后,我们需要创建一个检索器,用于根据用户的输入检索相关的文档对象。我们可以使用向量存储器检索器来实现这一步,-传递一个向量存储器对象和一个文本嵌入器对象作为参数,创建一个向量存储器检索器对象。最后,我们需要创建一个聊天模型,用于根据用户的输入和检索到的文档对象生成一个输出消息。我们可以使用LangChain提供的聊天模型来实现这一步,根据模型的性能和成本选择合适的聊天模型。例如,如果我们想要使用OpenAI的GPT-3模型,我们可以使用OpenAIChatModel。下面是一个使用LangChain构建RAG应用的示例代码:

Others are asking
基础搭建的知识库效果很差,模型答案的幻觉很严重,我应该怎么改进?(Deepseek调用api接入本地faiss的rag库)
以下是一些改进基础搭建的知识库效果、减轻模型答案幻觉问题的建议: 1. 更换大模型:例如从 ChatGLM26B 替换成 baichuan213b,针对您的场景,后者的性能可能提升一倍左右。 2. 更换 embedding 模型:将 embedding 模型从 LangChain Chatchat 默认的 m3ebase 替换为 bgelargezh,后者可能更优。 3. 测试不同 Top k 的值:比较 Top 5、Top 10、Top 15 的结果,发现 Top 10 时效果可能最优。 4. 对文档名称进行处理:人工对文件进行重命名,上传相同文件构建知识库,同时在构建知识库时勾选【开启中文标题加强】选项,虽然重命名文件对结果的提升效果不明显,但勾选该选项后,回答的无关信息可能减少,效果有所提升。 RAG(RetrievalAugmented Generation)即检索增强生成,由检索器和生成器两部分组成。检索器从外部知识中快速找到与问题相关的信息,生成器利用这些信息制作精确连贯的答案,适合处理需要广泛知识的任务。 在大模型中,向量可想象成空间中的点位,每个词或短语对应一个点。系统通过查看词在虚拟空间中点的位置,寻找直线距离最近的点来检索语义上接近的词语或信息。理解向量后,当收到一个对话时,RAG 的完整工作流程为:检索器从外部知识中检索相关信息,生成器利用这些信息生成答案。 要优化幻觉问题和提高准确性,需要了解从“问题输入”到“得到回复”的过程,针对每个环节逐个调优,以达到最佳效果。
2025-02-27
anythingLLM和RAG Flow哪个部署更容易
RAG Flow 和 LLM 的部署难易程度如下: RAG Flow: 公网 MaaS:通常只需要一个 API key 即可对接,默认提供了通义千问。比较特殊的是 OpenAI 的接口上提供了修改 endpoint,也就是支持中间商。 本地部署:目前仅支持 Xinference 和 Ollama 方式部署。但是实际上只要是 API 接口一致,对接方式一致都可以用该方式对接。此处基础 Url 只需要写到 v1 为止,不需要写 embeddings 的二级接口。添加模型后需要在“系统模型配置”中设置,方能让模型生效。 LLM:关于 LLM 的部署难易程度,上述内容中未给出直接对比信息。但 Dify.AI 作为一个开源的大规模语言模型应用开发平台,具有快速部署等特点,用户可以在 5 分钟内部署定制化的聊天机器人或 AI 助手。 综合来看,仅根据所提供的信息,难以确切判断 RAG Flow 和 LLM 哪个部署更容易,还需结合更多具体的技术细节和实际需求进行评估。
2025-02-27
智能RAG客服系统搭建
搭建智能 RAG 客服系统主要包括以下方面: 1. RAG 全貌概览: RAG 的流程分为离线数据处理和在线检索两个过程。 离线数据处理的目的是构建知识库,知识会按照某种格式及排列方式存储在其中等待使用。 在线检索是利用知识库和大模型进行查询的过程。 2. 应用场景: 以构建智能问答客服为例,了解 RAG 所有流程中的“What”与“Why”。 3. 客服系统的要求: 具备结构清晰、全面的 FAQ 库,覆盖常见问题并根据实际场景动态更新。 例如订票平台,可基于用户信息提前呈现可能遇到的问题及解答。 4. 企业客户实践案例: 内部业务助手:通过企业内部规章制度、部门结构、产品介绍等文档构建知识库,并借助 RAG 智能体实现内部知识问答功能。 5. RAG 提示工程: 在利用 RAG 架构构建智能问答系统时,“指代消解”是关键挑战之一,特别是在多轮对话场景中。 目前采用 Prompt 方法解决指代消解问题,会增加计算资源消耗和系统响应延迟,需权衡推理负荷、Token 消耗和问答准确性等因素,根据具体应用环境和需求做出合理选择。
2025-02-26
ragflow
RAGflow 能力拆解: 文档拆分方式: 通用模式:主要参考每个块的 token 数量,同时考虑语意完整性,切分段落点通常在句号或叹号等完整句子结束处。拆分结果和 langchain 的拆分大同小异。 Q&A 问答对:将左边内容加上“问题:”,右边内容加上“回答:”组成一个 block,数据清洗工作量大。 简历:解析容易失败,需要匹配关键词才能解析,建议官方给出简历模板。 手册:一整段文字提取,分割处在页面分页、段落分段处,块大小通常较大。 表格:拆分后每一行被当成一个块,第一行的表头插入到每一块头部。对没有特殊字符的表格信息处理较好,对图片内的公式做了 OCR 检测。 数据清洗:RAGflow 提供分段后的数据处理,可自行添加、修改数据或为数据加标签。测试发现,RAGflow 召回会同时使用向量相似度和关键词相似度并加权得到混合相似度,关键词相似度不仅匹配文本段内容还匹配关键词标签内容,单个实体在关键词中出现即为 100%。但需注意,检索获得的内容块需同时包含“问题信息”和“答案信息”,大模型才能解答。此外,RAGflow 没提供对外接口,做聊天或其他应用时不方便。 大模型 RAG 问答行业最佳案例及微调、推理双阶段实现模式:基于模块化RAG 自定义 RAG Flow 原创作者为刘焕勇,发表于 2024 年 1 月 29 日北京。在上一篇文章中介绍了模块化RAG 的相关工作,本文将从三个方面深入探讨 RAG Flow 的设计思路,分别是典型的 RAG Flow 模式、特定的 RAG 流实现以及最佳的行业案例。在典型的 RAG Flow 模式方面,将介绍 3 种微调阶段模式和 4 种推理阶段模式。
2025-02-26
RAG
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来完成。Meta AI 研究人员引入 RAG 来完成这类任务,它把信息检索组件和文本生成模型结合,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 会接受输入并检索相关支撑文档,给出来源(如维基百科),这些文档作为上下文与原始提示词组合给文本生成器得到最终输出,能适应事实随时间变化,让语言模型获取最新信息并生成可靠输出。 大语言模型(LLM)存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且不影响原有知识。 3. 数据库内容明确结构化,降低大模型输出出错可能。 4. 便于管控用户隐私数据。 5. 可降低大模型训练成本。 在 RAG 系统开发中存在 12 大痛点及相应的解决方案。
2025-02-26
基于大模型的RAG应用开发与优化
基于大模型的 RAG 应用开发与优化具有以下特点: 优势: 1. 灵活性:可根据需求和数据源选择不同组件和参数,还能使用自定义组件,只要遵循 LangChain 的接口规范。 2. 可扩展性:能利用 LangChain 的云服务部署和运行应用,无需担心资源和性能限制,也能使用分布式计算功能加速应用。 3. 可视化:通过 LangSmith 可视化工作流程,查看输入输出及组件性能状态,还能用于调试和优化,发现解决问题和瓶颈。 应用场景: 1. 专业问答:构建医疗、法律或金融等专业领域的问答应用,从专业数据源检索信息帮助大模型回答问题。 2. 文本摘要:构建新闻或论文等的摘要应用,从多个数据源检索相关文本帮助大模型生成综合摘要。 3. 文本生成:构建诗歌、故事等生成应用,从不同数据源检索灵感帮助大模型生成更有趣和创意的文本。 调优实践: 1. 更换大模型:从 ChatGLM26B 替换成 baichuan213b,针对特定场景,后者性能提升一倍左右。 2. 更换 embedding 模型:将 embedding 模型从 LangChain Chatchat 默认的 m3ebase 替换为 bgelargezh,后者更优。 3. 测试不同 Top k 的值:比较 Top 5、Top 10、Top 15 的结果,发现 Top 10 时效果最优。 4. 对文档名称进行处理:人工重命名文件对结果提升不明显,但勾选【开启中文标题加强】选项后,回答的无关信息减少,效果有所提升。目前效果虽有提升,但仍未达到可用水平,后续将尝试其他调优策略。
2025-02-25
PDF 转 word AI 公交
以下是一些将 PDF 转换为 Word 的 AI 工具和方法: 1. DeepL(网站):点击页面「翻译文件」按钮,上传 PDF、Word 或 PowerPoint 文件即可。 2. 沉浸式翻译(浏览器插件):安装插件后,点击插件底部「更多」按钮,选择「制作双语 BPUB 电子书」、「翻译本地 PDF 文件」、「翻译 THML/TXT 文件」、「翻译本地字幕文件」。 3. Calibre(电子书管理应用):下载并安装 calibre,并安装翻译插件「Ebook Translator」。 4. 谷歌翻译(网页):使用工具把 PDF 转成 Word,再点击谷歌翻译「Document」按钮,上传 Word 文档。 5. 百度翻译(网页):点击导航栏「文件翻译」,上传 PDF、Word、Excel、PPT、TXT 等格式的文件,支持选择领域和导出格式(不过进阶功能基本都需要付费了)。 6. 彩云小译(App):下载后点击「文档翻译」,可以直接导入 PDF、DOC、DOCX、PPT、PPTX、TXT、epub、srt 等格式的文档并开始翻译(不过有免费次数限制且进阶功能需要付费)。 7. 微信读书(App):下载 App 后将 PDF 文档添加到书架,打开并点击页面上方「切换成电子书」,轻触屏幕唤出翻译按钮。 此外,对于美国电工教材 PDF 的翻译,推荐策略为: 1. 将 PDF 转 Markdown,人工校验后再分页翻译。 2. 无合适工具时,可用 AI 协助:将 PDF 转为图片,再用 Gemini Flash 2.0 转成英文 Markdown。推荐工具:Microsoft Markitdown,工具地址:
2025-02-26
怎样分析一篇PDF文档中的信息并创建问答对,将问答对按行输出到多维表格?
以下是分析一篇 PDF 文档中的信息并创建问答对,按行输出到多维表格的一些要点: 1. 文档格式规范: Markdown:建议优先使用 Markdown 格式。 Word:优先采用 2007 版或之后的 Word 格式,使用全局样式,统一使用全局标题和段落样式,避免字符样式,使用段落样式保持文档格式一致性。 PDF:避免使用图片,将图像中的重要信息转录成文本并按规范组织,不包含嵌入压缩文件,保持文档单栏布局。 CSV:避免使用图片,不嵌入压缩文件,表头作为第一行。 2. 问答对内容规范: 推荐保存 FAQ(常见问题解答)中的问答对,问题表述清晰明确,答案简洁易懂,使用用户熟悉的术语,突出关键词,以提高检索召回准确度。 不推荐在 CSV 中上传复杂的关系型数据表,可能导致数据处理时间超长和失败。 希望这些要点对您有所帮助。若您想深入了解 RAG,可以进入知识库专区:
2025-02-25
deepseek 自学手册 PDF 版有吗
以下是关于 DeepSeek 的相关资料: 同时还有 DeepSeek 的论文资料: 另外,关于 DeepSeek 深度推理+联网搜索目前断档第一的相关内容: DeepSeek 的特点与优势包括: 推理型大模型:核心是推理型大模型,通过理解用户真实需求和场景提供答案,不需要用户提供详细步骤指令。 更懂人话:能够理解用户用“人话”表达的需求,不需要用户学习和使用特定提示词模板。 深度思考:回答问题时能够进行深度思考,而非简单罗列信息。 文风转换器:可以模仿不同作家的文风进行写作,适用于多种文体和场景。 更多提示词技巧请查看
2025-02-25
张翼然: 用AI为教师减负 (3H) .pdf
以下是关于“用 AI 为教师减负”的相关内容: 与大语言模型交流的心得:把大模型当作大学生可以,当作专家不行;“实习生”只能执行任务,需要指明方向、拆解任务、教其一步步操作,像导演一样编排具体流程、检查结果、修改流程、反复迭代。提示语的核心是逻辑,要将复杂任务拆分成科学合理的步骤,且让前一步结果成为后一步基础。写 Prompt 效果不理想时,思考任务拆分是否合理。即使指明步骤,未打印出来也无效果,因 LLM 需基于前面输出结果预测后面结果。 教师使用 AI 小技巧:很多 AI 网站可创建“智能体”,如配置信息、知识库、能力配置等,可手搓各种机器人为工作,如出试题、找资料、画插图、专业翻译等。设置“常用语”“小助手”“bot”,如 Kimi.ai 。 人机智慧学习协作框架: 个性化学习计划:分析学生表现,创建定制学习路径。 课程开发/学习沉浸:生成图像、文本和视频,转化为补充教育材料等。 社会互动/沟通:与新的 AI 工具结合,为学生提供更好准备工具。 AI 备课测试:与优秀人类教师相比仍有差距,人机融合是大势所趋。 教学目标示例:如学生能理解背诵课文、把握文章大意等。 智能体相关:预先写好咒语(prompts),像编程一样写详细操作步骤,以后直接使用,可将日常工作列出,寻找可被 AI 加速和固定输入输出的工作,写成“智能体”并迭代优化。 提示词工程:提示词技能是指用户设计提供给生成式人工智能大模型的文字或文本的技能,其内容决定生成内容质量,是教师用好人工智能的基本教学技能。提示词设计公式包括指定角色、明确任务、概述要求、提供说明。
2025-02-23
我现在想根据我的博士论文,想出一个国家社科基金的选题。但是我的博士论文感觉核心不是特别突出,我希望找到一个AI助手,让AI帮我读论文的PDF格式然后总结出一个最合适的选题,有没有推荐的AI工具?
以下是一些关于利用 AI 辅助完成您需求的建议: 1. 先拆解您的博士论文工作流程,搞清楚每个步骤的输入输出和相互关系。 2. 思考论文中的哪些环节可以引入 AI 工具来提效,一切要从业务逻辑出发,AI 是锦上添花,不能本末倒置。 3. 搭建选题库,明确论文的定位(可用 AI 辅助分析),找相关的对标论文和优秀研究。 4. 在写作环节,可用 AI 辅助拆解对标论文,提炼写作技巧,然后根据借鉴的技巧结合自身特色列出写作大纲,并使用 AI 优化大纲、查找资料、润色文章,但核心内容要自己完成,不能过度依赖 AI。 5. 起标题与配图方面,用 AI 辅助批量生成标题,再自己修改优化,评估标题是否足够吸引眼球,让 AI 分析论文提供配图建议,去免费图库搜索配图。 6. 养成习惯与总结,做每件事前都思考 AI 能提供什么帮助,把整套流程实践几次,形成肌肉记忆,不断打磨完善属于自己的 AI 辅助流程,同时警惕过度依赖,AI 只是辅助,核心能力要靠自己。 目前常见的可用于辅助您的 AI 工具如 ChatGPT 等,但具体的选择还需根据您的实际需求和使用体验来决定。
2025-02-16
清华大学:普通人如何抓住DeepSeek红利.pdf​
以下是关于“清华大学:普通人如何抓住 DeepSeek 红利.pdf”的相关内容: 本报告由清华大学陶炜博士生团队撰写,探讨了普通人如何利用 DeepSeek 抓住 AI 红利。报告详细介绍了 DeepSeek 的应用场景,包括智能对话、文本生成、语义理解、计算推理等,并通过工作、学习、生活和社交等多个实际场景展示了如何利用 DeepSeek 解决问题。文章还强调了提示语设计的重要性,指出通过精准的提示语可以引导 AI 生成高质量的内容,并提出了提示语设计的策略和技巧。 此外,还有《张梦飞:为什么 DeepSeekR1 是推理模型?那 GPT4 是什么模型?我的定义和思考》一文。在近年的大模型发展中,推理能力一直被视为衡量模型智能水平的关键因素。随着 DeepSeekR1 和 O1 等模型的出现,一个全新的概念浮现——推理模型(Reasoning Model)与非推理模型(NonReasoning Model)之间的根本区别。文章通过详细解析推理模型与非推理模型的训练路径、推理能力的形成机制、以及它们在思维链上的关键差别,帮助大家理解为何 DeepSeekR1 这样的模型被称为推理模型,以及它如何突破了传统 LLM 的局限性。 相关链接:
2025-02-16
如何通过langchain实现上传 一个客户需求文档,生成一个产品规格书doc格式的文档
要通过 LangChain 实现上传客户需求文档并生成产品规格书(doc 格式),可以按照以下步骤进行: 1. 上传文档:用户可以上传包含知识的文档,支持 txt、pdf、docx 等格式,LangChain ChatChat 会将文档转换为 Markdown 格式。 2. 文本切割:为便于分析和处理,将长文本切割为小块(chunk)。 3. 文本向量化:将切割的 chunk 通过 embedding 技术,转换为算法可以处理的向量,存入向量数据库。 4. 问句向量化:用户提问后,同样将用户的问句向量化。 5. 语义检索匹配:将用户的问句与向量数据库中的 chunk 匹配,匹配出与问句向量最相似的 top k 个。 6. 提交 prompt 至 LLM:将匹配出的文本和问句,一起添加到配置好的 prompt 模板中,提交给 LLM。 7. 生成回答:LLM 生成回答,返回给用户。
2025-02-27
知识库中关于 deepseek 有哪些文档
以下是关于 DeepSeek 的相关文档和内容: 章节: 知识点: 申请: 接入: 此外,还有以下相关内容: 【今晚 8 点】聊聊你怎么使用 DeepSeek!2025 年 2 月 6 日的智能纪要,包括关于 DP 模型的使用分享、音系学和与大模型互动的分享、DeepSeek 的介绍与活动预告等。 DP 模型的功能、使用优势、存在问题、审核方法、使用建议、使用场景和案例展示。 音系学研究、大模型取队名。 DeepSeek 文档分享、使用介绍、未来活动预告。
2025-02-25
deepseek的提示词文档
以下是关于 DeepSeek 的相关信息: DeepSeek 爆火,价格亲民且实力超群,是智慧开源领航者,实时联网深度推理双冠王,用技术普惠重新定义了 AI 边界。便宜、开源且能联网,在 Appstore 排行第一,导致算力股大跌。 使用地址:https://chat.deepseek.com/(有手机客户端:扫描下面二维码) 模型下载地址:https://github.com/deepseekai/DeepSeekLLM?tab=readmeovfile API 文档地址:无 DeepSeek 的提示词使用方法比较长,单独列了一篇 魔改版本:https://huggingface.co/ValueFX9507/TifaDeepsex14bCoTGGUFQ4 、https://huggingface.co/mradermacher/DeepSeekR1DistillQwen7BabliteratedGGUF 一个提示词让 DeepSeek 能力更上一层楼的相关内容: 效果对比:用 Coze 做了小测试,对比视频 使用方法: Step1:搜索 www.deepseek.com,点击“开始对话” Step2:将装有提示词的代码发给 Deepseek Step3:认真阅读开场白之后,正式开始对话 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改 用 XML 来进行更为规范的设定,而不是用 Lisp(有难度)和 Markdown(运行不稳定) 完整提示词:v 1.3 特别鸣谢:李继刚(【思考的七把武器】在前期提供了很多思考方向)、Thinking Claude(项目是最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源)、Claude 3.5 Sonnet(最得力的助手)
2025-02-24
我有什么方法,能够让ai帮我分析我有几篇飞书文档的内容,然后行程一个分享的提纲
目前让 AI 直接分析您的多篇飞书文档内容并形成分享提纲可能具有一定的挑战。但您可以尝试以下方法: 1. 首先,将飞书文档中的关键内容提取出来,整理成较为清晰的文本格式。 2. 然后,使用具有文本分析能力的 AI 工具,如某些自然语言处理模型,输入整理后的文本,让其帮助您总结主要观点和关键信息。 3. 您还可以向 AI 提供一些关于分享提纲的格式和重点要求的提示,以便它能生成更符合您需求的提纲。 需要注意的是,AI 的分析结果可能需要您进一步的审查和调整,以确保准确性和完整性。
2025-02-24
我是0基础代码小白,我希望快速编写一款APP,满足我所需要的要求,我用deepseek生产app开发者文档,然后用bolt.new工具开发,开发到一半,发现要收费,给我中断了,我该怎么办
对于您这种 0 基础代码小白在开发 APP 过程中遇到收费中断的情况,以下是一些建议: 1. 重新评估您的需求和能力:像案例中的白九龄一样,思考您的想法是否过于复杂,是否可以先从简单的插件开发入手,降低开发难度。 2. 学习基础知识:包括代码环境安装、终端操作等,通过基础实践教程资料来弥补知识短板。 3. 借鉴他人成功经验:仔细研究别人的项目,按照成功的案例原封不动地去实现,从中领悟开发的要点。 4. 清晰描述需求:在开发前与工具充分沟通,明确需求和实现步骤,避免盲目开发。 5. 寻找免费替代工具:既然当前使用的工具收费中断,您可以寻找其他类似的免费工具来继续您的开发工作。 6. 做好项目记录:让工具帮忙写一个 README 文档,记录项目进展、下一步计划以及如何开启和关闭项目,方便后续跟进。
2025-02-23
如何搭建一个自动把录音文件转文字的agent,然后发布到飞书多维表格字段捷径
搭建一个自动把录音文件转文字的 agent 并发布到飞书多维表格字段捷径的步骤如下: 1. 工作流调试完成后,加入到智能体中。可以选择工作流绑定卡片数据,智能体通过卡片回复。绑定卡片数据可自行研究,如有疑问可留言。 2. 发布:选择需要的发布渠道,重点是飞书多维表格。记得智能体提示词的 4 个变量,填写上架信息(为快速审核,选择仅自己可用),确认发布并等待审核。审核通过后即可在多维表格中使用。 3. 创建飞书多维表格,添加相关字段。配置选择“自动更新”,输入 4 个字段后,“文案视频自动化”字段捷径会自动调用工作流,生成视频。 4. 表单分享,实现“填写表单,自动创建文案短视频”的效果。 5. 点击多维表格右上角的“自动化”,创建想要的自动化流程。 此外,关于 Coze 应用与多维表格的结合还有以下相关内容: 1. Coze 智能体(字段捷径)获取笔记+评论信息:创建智能体,使用单 Agent 对话流模式,编排对话流,配置相关节点和插件,进行数据处理和测试,最后发布。 2. Coze 应用:完成后端准备工作后,创建应用,设计界面和工作流,包括读取博主笔记列表的工作流,进行相关配置和参数设置。
2025-02-27
你好,我想用ai将一张图片形式的数字表格转换成excel,应该使用哪款模型?
很抱歉,上述提供的内容中没有直接提及将图片形式的数字表格转换成 Excel 可用的具体模型。但您可以尝试以下几种常见的方法和工具: 1. 一些 OCR(光学字符识别)软件,如 ABBYY FineReader、Adobe Acrobat Pro 等,它们通常具有将图片中的表格转换为可编辑文本的功能,然后您可以将其粘贴到 Excel 中进行整理。 2. 在线 OCR 服务,例如百度 OCR、腾讯 OCR 等,操作相对便捷。 3. 某些专门用于表格处理的 AI 工具,您可以通过在相关的技术论坛、社区或专业的软件评价网站上进一步搜索和了解。
2025-02-26
我是一名AI工具使用小白,渴望快速掌握AI工具,在电子表格制作、ppt制作、公文写作、文案写作等方面提升应用能力,请问应该学习哪些入门课程。
以下是一些适合您入门学习的 AI 课程: 1. 工具入门篇(AI Tools): 数据工具多维表格小白之旅:适合 Excel 重度使用者、手动数据处理使用者、文件工作者。通过表格+AI 进行信息整理、提效、打标签,满足 80%数据处理需求。 文章链接: 视频链接: 2. 工具入门篇(AI Code): 编程工具Cursor 的小白试用反馈:适合 0 编程经验、觉得编程离我们很遥远的小白。通过 AI 工具对编程祛魅,降低技术壁垒。 文章链接: 3. 工具入门篇(AI Music): 音乐工具Suno 的小白探索笔记:适合 0 乐理知识、觉得作词作曲和我们毫不相关成本巨大的小白。AI 赋能音乐创作,无需乐理知识即可参与音乐制作。 文章链接: 此外,还有以下相关内容供您参考: 1. 关于 AI 视频制作的交流与答疑: 视频流表格制作:在知识库的 AI 视频专栏中有相关教程和模板。 Copy UI 社区:微推有专门研究 Copy UI 的社区,相关内容有趣但本次未展开讲。 SD 类图片作用:国内大厂很卷,一般需求吉梦等产品可完成,特殊精细要求才用 SD,不了解可在微推加 AI 会话中找。 图片视角转移:使用 P 模型,上传图片并告知镜头移动方向和相关内容。 PNG 与背景融合:Recraft 产品目前不太擅长 PNG 与背景的特别好的融合,可通过合并方式处理。 保证文字不崩:使用吉梦的 2.1 模型效果较好。 新手 AI 视频制作:纯小白参与项目时,项目组会做好部分准备工作,上手难度不高,专注出图和出视频,用好相关技术。 关于利用 AI 工具创作北京宣传片相关问题的探讨。 AI 工具使用思路:对于如何利用 AI 工具创作,建议直接上手尝试,通过试错和与 AI 交流获取反馈,遇到具体问题再向社区请教。 素材处理方法:若有故宫相关照片素材,可采用导入参考图生图、让实拍素材动起来等方式,还可通过抠图、融图等操作将素材与虚拟背景融合。 创作需先构思:创作时不能仅考虑如何连接已有素材,而应先构思剧本和想要表达的内容,再合理运用素材。 2. 入门工具推荐: Kimi 智能助手:Chatgpt 的国产平替,实际上手体验最好,推荐新手用 Kimi 入门学习和体验 AI。不用科学🕸️、不用付费、支持实时联网。是国内最早支持 20 万字无损上下文的 AI,也是目前对长文理解做的最好的 Ai 产品。能一次搜索几十个数据来源,无广告,能定向指定搜索源。 PC 端: 移动端 Android/ios: 您还可以通过「飞书」这款工具,浏览其社区的精选课程、先进客户实践。下载飞书:
2025-02-26
我打算用windsurf、coze、飞书多维表格来搭建自动流程,重新为我推荐相关学习内容
以下是为您推荐的相关学习内容: 一泽 Eze:Coze+飞书多维表格,打造专属 AI 智能体,享受 10 倍知识管理效率 逐步搭建 AI 智能体: 搭建选择内容推荐流,用于根据用户输入的“想看 xxx 内容”,在飞书多维表格的稍后读存储地址中检索现有的收藏记录,匹配符合阅读兴趣的内容记录。 新建工作流「recommendRead」,根据弹窗要求自定义工作流信息。 工作流全局流程设置: 4.1 开始节点:输入想阅读的内容主题。收到用户输入的“想看 xxx 内容”这类指令即开始流程,判断哪些用户输入是在交代想阅读的内容主题交由外层 bot 的大模型判断。 4.2 变量节点:引入 bot 变量中保存的飞书多维表格地址,添加变量节点并设置。 4.3 插件节点:添加「飞书多维表格search_records」插件,设置{{app_token}}参数,在{{app_token}}引用变量节点的{{app_token}},输出结果的{{items}}里会返回所需查询结果,也可通过额外配置定向检索未读状态的收藏记录。 4.4 大模型节点:采用批处理对检索出来的收藏记录逐个进行相关性匹配,可优化用户提示词提升匹配精准度。 输入观点一键生成文案短视频 基于其它博主开源的视频生成工作流做了功能优化,实现视频全自动创建。 功能:通过表单输入主题观点,提交后自动创建文案短视频,并推送视频链接到飞书消息。 涉及工具:Coze 平台(工作流、DeepSeek R1、文生图、画板、文生音频、图+音频合成视频、多视频合成)、飞书(消息)、飞书多维表格(字段捷径、自动化流程) 大体路径: 通过 coze 创建智能体,创建工作流,使用 DeepSeek R1 根据用户观点创建文案,再创建视频。 发布 coze 智能体到飞书多维表格。 在多维表格中使用字段捷径,引用该智能体。 在多维表格中创建自动化流程,推送消息给指定飞书用户。
2025-02-26
关于飞书表格和deepseek联动的设计
以下是关于飞书表格和 DeepSeek 联动的相关内容: 1. 《喂饭级教程:飞书多维表格+DeepSeek=10 倍速用 AI》介绍了将飞书多维表格与 DeepSeek R1 结合,实现批量处理信息、提升工作效率的方法。用户可批量转换文风、快速回复消息,甚至利用 AI 生成文案,操作简单便捷,让普通人无需编程知识也能轻松使用 AI。 2. 在一场全国 23 城近 4000 人玩转 DeepSeek 的活动中,展示了飞书多维表格和 DeepSeek 的结合的强大之处,DeepSeek R1 大模型已全面融入飞书多维表格等多款产品。
2025-02-25