Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何打造自己的知识库

Answer

打造自己的知识库可以参考以下方法:

  1. 使用 GPT 打造个人知识库
    • 利用 embeddings 技术:将文本转换成向量,节省空间,可理解为索引。把大文本拆分成小文本块,通过 embeddings API 转换为向量并保存。当用户提问时,将问题也转换为向量,与储存库中的向量比对,提取关联度高的文本块,与问题组合成新的 prompt 发送给 GPT API。
    • 理解 embeddings:embeddings 是浮点数字的向量,向量之间的距离衡量关联性,小距离表示高关联度。例如,“猫”和“狗”距离近,与“汽车”距离远。
    • 注意 GPT-3.5 一次交互支持的 Token 数量有限,OpenAI 提供了 embedding API 解决方案。
  2. 智慧课程培育建设中的方法
    • 学习有效地收集、整理和检索信息。
    • 进行知识管理,通过实际操作体验工具在教学准备和科研中的应用。
    • 实践演示,如直接让 Claude 生成可视化概念图。
    • 每天的具体操作,如早晚速读朋友圈文章、编写小代码和脚本、转换和呈现数据、从图像和图形中提取数据、翻译和改换风格、总结视频内容、作为私人导师探究问题等。
    • 分新闻、观点、访谈、论文翻译来进行提炼,使用通义听悟整理录音笔记等工具。
    • 利用各种相关网站和工具,如 https://tingwu.aliyun.com、https://ollama.com、https://snapbox.app、https://opencat.app、https://chathub.gg/、https://www.elmo.chat/、https://memo.ac/zh/ 等。
    • 下载视频或录制视频文件,如用 Downie(Mac)、IDM(Windows)、OBS 等工具。
Content generated by AI large model, please carefully verify (powered by aily)

References

从零开始,用GPT打造个人知识库

上面将文本转换成向量(一串数字)能大大节省空间,它不是压缩,可简单理解为索引(Index)。接下来就有意思了。比如我有一个大文本,可以先把它拆分成若干个小文本块(也叫chunk),通过embeddings API将小文本块转换成embeddings向量,这个向量是跟文本块的语义相关。在一个地方(向量储存库)中保存这些embeddings向量和文本块,作为问答的知识库。当用户提出一个问题时,该问题先通过embeddings API转换成问题向量,然后将这问题向量与向量储存库的所有文本块向量比对,查找距离最小的几个向量,把这几个向量对应的文本块提取出来,与原有问题组合成为新的prompt(问题/提示词),发送给GPT API。这样一来就不用一次会话中输入所有领域知识,而是输入了关联度最高的部分知识。一图胜千言,转一张原理图。再举一个极其简单的例子,比如有一篇万字长文,拆分成Chrunks包含:文本块1:本文作者:越山。xxxx。文本块2:公众号越山集的介绍:传播效率方法,分享AI应用,陪伴彼此在成长路上,共同前行。文本块3:《反脆弱》作者塔勒布xxxx。文本块4:“科技爱好者周刊”主编阮一峰会记录每周值得分享的科技内容,周五发布。...文本块n如果提问是”此文作者是谁?“。可以直观的看出上面的文本块1跟这个问题的关联度最高,文本块3次之。通过比较embeddings向量也可以得到这结论。那最后发送给GPT API的问题会类似于”此文作者是谁?从以下信息中获取答案:本文作者:越山。xxxx。《反脆弱》作者塔勒布xxxx。“这样一来,大语言大概率能回答上这个问题。

从零开始,用GPT打造个人知识库

要搭建基于GPT API的定制化知识库,涉及到给GPT输入(投喂)定制化的知识。但GPT-3.5,也就是当前免费版的ChatGPT一次交互(输入和输出)只支持最高4096个Token,约等于3000个单词或2300个汉字。这点容量对于绝大多数领域知识根本不够。为了使用GPT的语言能力来处理大量的领域知识,OpenAI提供了embedding API解决方案。参考OpenAI embedding documents。[heading2]理解embeddings[content]embeddings(直译为嵌入)是一个浮点数字的向量(列表)。两个向量之间的距离衡量它们的关联性。小距离表示高关联度,大距离表示低关联度。进一步解释:向量(列表):向量是数学中表示大小和方向的一个量,通常用一串数字表示。在计算机科学和数据科学中,向量通常用列表(list)来表示。列表是一种数据结构,它包含一组有序的元素。例如,一个二维向量可以表示为[2,3],这意味着沿着两个轴的分量分别为2和3。在这里,"list"是一种编程术语,意味着一系列有序的数据。向量之间的距离:向量之间的距离是一种度量两个向量相似性的方法。有多种方式可以计算两个向量之间的距离,最常见的是欧几里得距离。欧几里得距离计算方法是将两个向量的对应元素相减,然后取平方和,再开平方。例如,向量A=[1,2]和向量B=[4,6]之间的欧几里得距离为sqrt((4-1)^2+(6-2)^2)=5。较小距离意味着高相关性,因为向量间相似度高。在OpenAI词嵌入中,靠近向量的词语在语义上相似。例如,“猫”和“狗”距离近,它们都是宠物,与“汽车”距离远,相关性低。文档上给了创建embeddings的示例上面的命令访问embeddings API接口,将input语句,转化成下面这一串浮点数字。

张翼然:AI引领未来课堂的探索与实践.pdf

学习如何有效地收集、整理和检索信息,打造个人知识库。知识管理通过实际操作,体验这些工具在教学准备和科研中的应用。实践演示直接让Claude⽣成可视化概念图我每天如何使⽤AI•早晚速读朋友圈的⽂章•编写⼩代码,⼩脚本•转换数据并呈现•从图像和图形中提取数据•翻译、改换⻛格•总结视频内容•私⼈导师,探究问题分新闻、观点、访谈、论文翻译来进行提炼用通义听悟整理录音笔记https://tingwu.aliyun.com用React实现选中即解释本机跑大语言模型工具https://ollama.com选词翻译、解读、拓展……https://snapbox.app与各种AI机器人聊天https://opencat.app比较多个大语言模型的回答https://chathub.gg/https://www.elmo.chat/我定义的提示语,根据不同类型提取有⽤信息https://memo.ac/zh/第一步,⽤Downie下载视频,或者⽤OBS录制视频⽂件开源免费屏幕录制⼯具OBS,下载地址https://obsproject.com/Mac⽤Downie,Windows推荐IDM淘宝数码荔枝店购买⽤losslessCut快速切块

Others are asking
如何搭建精准回答的本地知识库
搭建精准回答的本地知识库可以参考以下步骤: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在页面顶部进入知识库页面,并单击创建知识库。 4. 在弹出的页面配置知识库名称、描述,并单击确认。需注意一个团队内的知识库名称不可重复,必须是唯一的。 5. 在单元页面,单击新增单元。 6. 在弹出的页面选择要上传的数据格式(默认是文本格式),然后选择一种文本内容上传方式完成内容上传。 如果想要对知识库进行更加灵活的掌控,可以使用额外的软件AnythingLLM,其安装地址为:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步: 1. 第一步:选择大模型。 2. 第二步:选择文本嵌入模型。 3. 第三步:选择向量数据库。 在AnythingLLM中有一个Workspace的概念,可以创建自己独有的Workspace跟其他的项目数据进行隔离。具体操作如下: 1. 首先创建一个工作空间。 2. 上传文档并且在工作空间中进行文本嵌入。 3. 选择对话模式,AnythingLLM提供了两种对话模式: Chat模式:大模型会根据自己的训练数据和我们上传的文档数据综合给出答案。 Query模式:大模型仅仅会依靠文档中的数据给出答案。 4. 测试对话。
2025-03-11
RAG构建本地知识库
RAG(Retrieval Augmented Generation,检索增强生成)是一种利用大模型能力搭建知识库的技术。其主要应用场景是当需要依靠不包含在大模型训练集中的数据时。 一个RAG的应用可以抽象为以下5个过程: 1. 文档加载:从多种不同来源加载文档,如PDF、SQL、代码等,LangChain提供了100多种不同的文档加载器。 2. 文本分割:文本分割器把Documents切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将Embedding后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给LLM,LLM会通过问题和检索出来的提示一起来生成更加合理的答案。 简单来说,RAG就是大模型+知识库,从广泛的知识库数据中检索相关片段,然后由大模型根据这些内容生成答案。这种方式一方面可以减大模型的幻觉,提高其在特定任务上的表现,更加贴合实际应用的需求,另一方面可以明显提高搜索文档信息和生成回答的效率和体验。 LangChain是一个可以实现RAG的开源框架,它提供一些基础的组件和工具,如知识库管理、文本处理、模型加载等,允许开发人员将大语言模型(LLM)与外部数据源相结合,快速搭建自己的应用。 在实际项目中,比如此次的政府政策问答实践,由于政策的复杂性和传统智能问答产品的局限性,选择LangChainChatchat框架构建政策文档的本地知识库,实现大模型基于本地知识库内容生成回答,为用户提供政策问答和解读服务,节省查找和理解政策的时间。
2025-03-11
怎么和特定知识库对话
要和特定知识库对话,有以下几种方式: 1. 在 Bot 内使用知识库: 登录。 在左侧导航栏的工作区区域,选择进入指定团队。 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项,包括最大召回数量(Bot 在调用知识库匹配用户输入内容时,返回的数据片段数量,数值越大返回的内容越多)、最小匹配度(Bot 在调用知识库匹配用户输入内容时,会将达到匹配度要求的数据片段进行召回。如果数据片段未达到最小匹配度,则不会被召回)、调用方式(自动调用:每轮对话将自动从所有关联的知识库中匹配数据并召回;按需调用:需要在人设与回复逻辑中提示 Bot 调用 RecallKnowledge 方法,以约束 Bot 在指定时机从知识库内匹配数据)。 (可选)在预览与调试区域调试 Bot 能力时,扩展运行完毕的内容可以查看知识库命中并召回的分片内容。 2. 在工作流内使用 Knowledge 节点: 登录。 在左侧导航栏的工作区区域,选择进入指定团队。 在页面顶部进入工作流页面,并打开指定的工作流。 在左侧基础节点列表内,选择添加 Knowledge 节点。 如果想要对本地知识库进行更加灵活的掌控,可以使用额外的软件 AnythingLLM,其安装地址为:https://useanything.com/download 。安装完成后,进入配置页面,主要分为三步: 1. 第一步:选择大模型。 2. 第二步:选择文本嵌入模型。 3. 第三步:选择向量数据库。 在 AnythingLLM 中有一个 Workspace 的概念,可以创建自己独有的 Workspace 跟其他的项目数据进行隔离。首先创建一个工作空间,然后上传文档并且在工作空间中进行文本嵌入,选择对话模式,包括 Chat 模式(大模型会根据自己的训练数据和上传的文档数据综合给出答案)和 Query 模式(大模型仅仅会依靠文档中的数据给出答案),完成上述配置后就可以跟大模型进行对话。 在创建名字写对联教学的智能体时,建议选择工作流的对话模式,创建一个工作流对话模式的智能体,注意一定要在开始调整工作流节点之前切换模式,因为切换成对话模式会将工作流清空,重置为对话模式默认节点。根据需求分析确认分支情况,包括根据名字和祝福写对联、根据幸运数字写对联的特定分支以及默认分支。通过理解用户意图进行分支,注意将意图介绍写清楚、准确。在幸运数字分支中,先用代码分支获取用户输入的数字,然后匹配知识库,再对匹配的春联做赏析。在名字写祝福分支中,根据用户输入的名字和祝福信息,调试提示词生成对应对联并输出。设置通用兜底回复,在用户不符合前两个意图时进行友好回复,首先匹配知识库,然后让大模型结合匹配结果、历史记录、当前输入,输出符合对话内容的回复。同时,知识库是使用大模型生成的 100 对对联,都比较好看、经典、有意义。
2025-03-10
如何建立个人知识库
建立个人知识库可以通过以下方式: 1. 利用 GPT 打造个人知识库: 将大文本拆分成若干小文本块(chunk),通过 embeddings API 将小文本块转换成与语义相关的 embeddings 向量,并在向量储存库中保存这些向量和文本块作为问答的知识库。 当用户提出问题时,将问题转换成向量,与向量储存库中的向量比对,提取距离最小的几个向量对应的文本块,与问题组合成新的 prompt 发送给 GPT API。 例如,对于“此文作者是谁?”的问题,通过比较 embeddings 向量,提取关联度高的文本块,如“本文作者:越山。xxxx。”“《反脆弱》作者塔勒布xxxx。”,发送给 GPT API 以获得回答。 2. 本地部署大模型以及搭建个人知识库: 了解 RAG(检索增强生成)技术,它是利用大模型的能力搭建知识库的应用。 RAG 应用包括文档加载、文本分割、存储(包括将文档块嵌入转换成向量形式并存储到向量数据库)、检索、输出(把问题以及检索出来的嵌入片一起提交给 LLM 生成答案)等 5 个过程。 文本加载器用于将用户提供的文本加载到内存中,便于后续处理。 3. 基于 GPT API 搭建定制化知识库: 由于 GPT3.5 一次交互支持的 Token 数量有限,OpenAI 提供了 embedding API 解决方案。 Embeddings 是浮点数字的向量,两个向量之间的距离衡量关联性,小距离表示高关联度,大距离表示低关联度。例如,“猫”和“狗”距离近,与“汽车”距离远。
2025-03-10
最强AI办公提示词知识库,公益
以下是关于最强 AI 办公提示词知识库的相关信息: 一、提示词与知识库的概念 提示词是告诉全知全能的大语言模型其角色和要专注的技能,使其能按需求变成特定“员工”。知识库则相当于给“聪明员工”发放的工作手册,包含特定的工作相关内容,如《爱情公寓》全季剧情等。 二、相关资源 1. 画小二的相关内容: 如何写好提示词是创建智能体第一步,包括打破砂锅者、董宇辉的小作文等部分。 提示词网站分享,如 Learn Prompting(https://learnprompting.org/docs/intro )、AI Short(https://www.aishort.top/en/ )、AIPRM(https://www.aiprm.com/prompts/ )、Prompt Library(https://promptlibrary.org/ )。 延伸阅读,如人人都能懂的 Prompt 技巧:FewShots、COT、SC、TOT、StepBack(https://blog.csdn.net/oWuChenHua/article/details/135125891 )。 学习交流群和手把手教学,包括会员详细教程(https://m.qlchat.com/topic/details?topicId=2000022058296055 )及 AIGC 商业案例实操课海报。 2. 扣子提供的功能: 提示词(人设与回复逻辑功能),设定 Bot 的身份、目标和技能。详情参考 。 插件,通过 API 连接集成各种平台和服务。详情参考 。 工作流,用于规划和实现复杂功能逻辑。详情参考 。 记忆库,包括知识库(支持上传本地或线上内容并分割成知识分片)和数据库(存储和管理结构化数据)。知识库详情参考 。 希望以上信息对您有所帮助。
2025-03-10
我是IVD企业的技术中心主任,我想构建我们技术中心的知识库,有什么AI工具可以帮我实现
以下是一些可以帮助您构建技术中心知识库的 AI 工具及相关步骤: Dify 1. 准备数据:收集需要纳入知识库的文本数据,包括文档、表格等格式,并对数据进行清洗、分段等预处理,确保数据质量。 2. 创建数据集:在 Dify 中创建新的数据集,上传准备好的文档,并为数据集编写清晰的描述,说明其包含的内容和特点。 3. 配置索引方式:Dify 提供了高质量模式、经济模式和 Q&A 分段模式三种索引方式,您可根据实际需求选择,如追求更高准确度可选高质量模式。 4. 集成至应用:将创建好的数据集集成到 Dify 的对话型应用中,作为应用的上下文知识库使用。在应用设置中,配置数据集的使用方式,如是否允许跨数据集搜索等。 5. 持续优化:收集用户反馈,对知识库内容和索引方式进行持续优化和迭代,定期更新知识库,增加新内容以保持时效性。 其他相关场景和应用 1. 提示词帮您规划 PARA 分类模式:PARA 代表项目(Projects)、领域(Areas)、资源(Resources)和档案(Archives)。AI 可通过分析您的工作模式和内容类型,自动生成提示词,帮助您将信息和知识分类到 PARA 的相应部分,简化分类过程,更快组织和检索信息。 2. 提示词帮您设计笔记标签系统:AI 能通过分析您的笔记内容和使用习惯,推荐合适的标签和标签结构,提高笔记管理和检索效率。 3. 知识助手 Bot 帮您渐进式积累领域知识:例如基于 dify.ai 将数百个思维模型整合成一个知识库,根据不同的对话和条件判断为用户选择适用的思维模型分析工具,封装成一个智能分析的 Bot,能根据您的学习进度和兴趣点,定期推送相关文章、论文和资源,持续扩展知识边界并确保知识及时更新。
2025-03-09
最近想要出一本书,书籍的主题是“Deepseek的应用革命:打造AI时代的竞争力”主要是面相企业家和企业高管,希望能够将知识库内容中关于企业应用的部分提炼成书,请根据知识库素材,输出一个图书内容规划和重点参考资料
以下是为您规划的图书内容和重点参考资料: 一、图书内容规划 1. 引言 介绍 AI 时代的背景和企业面临的挑战与机遇。 阐述 DeepSeek 在塑造企业竞争力方面的重要性。 2. DeepSeek 的技术创新 详细介绍 DeepSeek 最新模型 V3 与 R1 的架构创新,如混合专家(MoE)架构、多头潜注意力(MLA)等。 解释其如何提升计算效率和推理能力,打破算力壁垒。 3. 多领域的应用案例 字节跳动的新技术 OmniHuman 在视频生成方面的突破。 Coinbase 全面推动 AI 应用的实践,如在欺诈预防和客户支持等领域的应用。 4. 对企业管理的影响 探讨善于沟通上下文、明晰 AI 能力边界、合理授权并监督等管理经验如何提升 AI 协作效率。 5. 行业趋势与挑战 分析 AI 基础大模型参数量的变化趋势。 讨论初级程序员面临的职业挑战以及编程领域的颠覆性变化。 6. 未来展望 预测 DeepSeek 及相关技术在未来的发展方向和可能的创新。 二、重点参考资料 1. 《》 2. 《》 3. 《》 4. 《》 5. 《》 6. 《[零基础掌握 Deepseek》》 7. 日报 8. 日报
2025-03-08
用deepseek打造个人知识库
以下是关于用 DeepSeek 打造个人知识库的相关信息: 可以先将文本拆分成若干小文本块(chunk),通过 embeddings API 将其转换成与语义相关的 embeddings 向量,并在向量储存库中保存这些向量和文本块作为问答的知识库。当用户提出问题时,将问题也转换成向量,与储存库中的向量比对,提取关联度高的文本块,与问题组合成新的 prompt 发送给 GPT API,从而提高回答的准确性和相关性。例如对于“此文作者是谁?”的问题,可以直观或通过比较 embeddings 向量找到关联度最高的文本块,如“本文作者:越山。xxxx。”。 在 RAGFlow 中,可配置本地部署的 DeepSeek 模型。选择 Ollama 并配置相关信息,导入嵌入模型用于文本向量化。设置系统模型后,可创建知识库,导入文件(可设置文件夹)并解析,解析速度取决于本机 GPU 性能。解析完成后进行检索测试,没问题即可进入聊天界面,还可自行设置助理。 此外,AI 编程与炼金术中也涉及 DeepSeek 的相关知识,如在不同章节中的应用,包括给老外起中文名、驱动 Life Coach 等,具体内容可通过相关链接进一步查看。
2025-03-04
我想打造一个量化交易模型
打造一个量化交易模型需要考虑以下几个方面: 一、预训练大模型与金融量化 1. 大型的系统工程 大多数量化算法的核心数据是公开的量价数据,大模型预训练的数据中最重要的也是公开数据,各家会有一些独有数据来源,但占比不大。 量化和大模型的整体算法逻辑基本类似,决定模型能力好坏的是大型系统工程能力。 作为大型系统工程,量化和大模型都需要大型的计算集群,对性能和效率有极致追求。 细节在大型系统工程中十分关键,量化交易系统包含交易执行、风控等多个方面,大模型预训练也包含大量细节。 2. 关键技术变得不公开 金融量化是非常闭源的系统,各家的交易系统是最大的秘密武器,公开部分少。 现在大模型也在往闭源方向发展,几个巨头的核心模型都开始走向闭源。 二、应用开发 1. 轻量化 MMM的部署运行 模型实现包括以下步骤: 第一步:安装运行需要的依赖项。 第二步:准备数据集,可使用模拟数据集或自己的数据集。 第三步:拆分数据。 第四步:数据预处理,进行缩放处理(归一化),让每个变量之间的关系对等。 第五步:初始化模型,数据集训练最费时间,取决于数据量大小和训练步长。 第六步:运算可视化,包括损失值、绘制残差图、所有单一变量对最终销售的贡献、Baseline 预测、所有外因对销售的贡献度等。 希望以上内容对您打造量化交易模型有所帮助。
2025-03-04
利用AI打造个人知识库
利用 AI 打造个人知识库可以通过以下方式实现: 1. 使用 GPT 打造个人知识库: 将大文本拆分成若干小文本块(chunk),通过 embeddings API 将小文本块转换成与语义相关的 embeddings 向量,并在向量储存库中保存这些向量和文本块作为问答的知识库。 当用户提出问题时,将问题转换成向量,与向量储存库中的向量比对,提取距离最小的几个向量对应的文本块,与问题组合成新的 prompt 发送给 GPT API。 例如对于“此文作者是谁?”的问题,可直观或通过比较 embeddings 向量得出关联度最高的文本块,如“本文作者:越山。xxxx。”“《反脆弱》作者塔勒布xxxx。”,最后发送给 GPT API 的问题类似于“此文作者是谁?从以下信息中获取答案:本文作者:越山。xxxx。《反脆弱》作者塔勒布xxxx。” 2. 搭建基于 GPT API 的定制化知识库: 涉及给 GPT 输入定制化知识,但 GPT3.5 一次交互支持的 Token 有限,OpenAI 提供了 embedding API 解决方案。 Embeddings 是浮点数字的向量,两个向量之间的距离衡量关联性,小距离表示高关联度,大距离表示低关联度。 向量是用一串数字表示的量,在计算机科学中常用列表表示,向量间距离有多种计算方式,如欧几里得距离。 3. 小七姐提出的 AI 时代知识管理体系构建: 包括读书时看到有触动的文本作为书摘。 对书摘整理归纳、标记重点、打赏标签放入笔记系统,准备深度思考和实践。 基于笔记提到的 AI 对人的赋能模式展开深度实践,如通过 AI 信息杠杆迅速掌握相关知识。 基于实践生成自己的观点和决策,并打造成体系化的内容产品实现价值。 最终把碎片化知识在知识库中流转,从书摘变成体系化内容,把“别人说的话”变成“自己的智慧”。 希望以上内容能帮助您打造个人知识库。
2025-03-01
帮我基于fastgpt打造一个招生问答系统的优质提示词
以下是为您基于 FastGPT 打造招生问答系统的优质提示词的相关建议: 1. 充分描述任务: 为提示词提供详尽的上下文,与招生问答任务相关性越强越好。例如,明确招生的对象、专业、学制等关键信息。 给出背景,说明为什么需要进行招生问答,例如学校的发展需求、招生目标等。 定义术语,如明确招生中的特定概念,如录取分数线、奖学金条件等。 给出模型应该如何完成任务的具体细节,比如回答的格式、重点突出的内容等。 2. 提供参考文本: 如果有相关的招生资料,如招生简章、学校介绍等,可以指示模型使用这些参考文本中的引文来回答问题。 3. 直接法: 适用场景:未设置提示防御且未限定回答领域。 提示词:英文和中文。 示例:以随手设置的示例为例。 4. 设置遗忘: 适用场景:GPTs 设置了简单的提示防御。 提示词:英文和中文。 示例:以设置的 GPTs 为例。 5. 复述法: 适用场景:可获取 OpenAI 官方的设定。 提示词:英文(获取 GPTs 的设定)和中文。 示例:按照设定进行示例。
2025-02-28
deepseek如何定制化打造属于自己的内容整合写手
以下是关于如何定制化打造属于自己的内容整合写手的相关信息: 新闻播报自动化工作流: 内容获取:输入新闻链接,系统自动提取核心内容。开始节点需输入新闻链接和视频合成插件 api_key,添加网页图片链接提取插件,获取网页里的图片(以 1ai.net 资讯为例),利用图片链接提取节点获取新闻主图,调整图片节点将 url 格式转为 img 格式。 文字处理:使用链接读取节点提取文字内容,在提取链接后接上大模型节点,用 DeepSeek R1 模型重写新闻为口播稿子,可在提示词中加入个性化台词。需注意 DeepSeek R1 基础版限额使用,可手动接入专业版。 DeepSeek 提示词方法论: 高阶能力调用:包括文风转换矩阵(如作家风格移植、文体杂交、学术口语化等)和领域穿透技术(如行业黑话破解)。 场景化实战策略:涵盖商业决策支持、创意内容生成、技术方案论证。 效能增强技巧:如对话记忆管理(包括上下文锚定、信息回溯、焦点重置)和输出质量控制(针对过度抽象、信息过载、风格偏移等问题的修正指令)。 特殊场景解决方案:包括长文本创作(分段接力法、逻辑粘合剂)和敏感内容处理(概念脱敏法、场景移植法)。 AI 编程与炼金术:Build on Trae: 相关知识图谱包含多个章节,如 Trae 的介绍/安装/疑难杂症、图片字幕生成器、DeepSeek R1 驱动的 Life Coach、DeepSeek 驱动的网页金句卡片生成等,涉及 Node.JS 安装、Python 安装、申请 DeepSeek R1 API、网页接入 DeepSeek API 等知识点。
2025-02-25