Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

长文本文件用哪个AI处理

Answer

对于处理长文本文件,以下是一些相关的 AI 工具和方法:

  1. Whisper API:默认情况下仅支持小于 25MB 的文件。若文件更长,需将其分成小于 25MB 的块或使用压缩后格式。可使用 PyDub 开源 Python 软件包来拆分声频文件,但 OpenAI 对其可用性或安全性不作保证。您还可以使用提示来提高 Whisper API 生成的转录质量,例如处理特定单词或缩略语的识别错误、保留分段文件的上下文、避免标点符号的省略等。
  2. 通义千问的 Qwen2.5-1M 大模型:推出 7B、14B 两个尺寸,在处理长文本任务中稳定超越 GPT-4o-mini,同时开源推理框架,在处理百万级别长文本输入时可实现近 7 倍的提速。在上下文长度为 100 万 Tokens 的大海捞针任务中表现较好。对于更复杂的长上下文理解任务,可参考相关测试集。其优势包括长文本处理能力强、推理速度提升、上下文长度扩展等。开源平台有 Huggingface(https://huggingface.co/spaces/Qwen/Qwen2.5-1M-Demo)和 Modelscope(https://www.modelscope.cn/studios/Qwen/Qwen2.5-1M-Demo)。
Content generated by AI large model, please carefully verify (powered by aily)

References

语音转文本(Speech to text)

默认情况下Whisper API仅支持小于25 MB的文件。如果您有一个比这更长的音频文件,则需要将其分成每个小于25 MB的块或使用压缩后格式。为了获得最佳性能,请避免在句子中间断开声音以避免丢失一些上下文字信息。处理此问题的一种方法是使用PyDub开源Python软件包来拆分声频文件。OpenAI对于像PyDub这样的第三方软件的可用性或安全性不作任何保证。[heading2]提示[content]您可以使用提示来提高Whisper API生成的转录质量。模型将尝试匹配提示的风格,因此如果提示也使用大写和标点符号,则更有可能使用它们。但是,当前的提示系统比我们其他语言模型要受限得多,并且仅提供对生成音频的有限控制。以下是一些示例,说明如何在不同情况下使用提示:1.对于模型经常错误识别音频中特定单词或缩略语非常有帮助。例如,以下提示改善了DALL·E和GPT-3这些单词(以前被写成“GDP 3”和“DALI”)的转录。2.为了保留分段文件的上下文,请使用先前片段的转录来引导模型。这将使转录更准确,因为模型将利用先前音频中相关信息。该模型只会考虑最后224个标记并忽略之前任何内容。3.有时候,在转录中可能会跳过标点符号。您可以通过使用包含标点符号简单提示来避免这种情况:4.该模型还可能在音频中省略常见填充词汇。如果您想在您的转录中保留填充词汇,则可以使用包含它们的指示:5.某些语言可以用不同方式书写,例如简体或繁体中文。默认情况下,该模型可能无法始终按照所需书写风格进行处理。通过在首选书写风格上添加指示即可改进此问题.

通义千问发布一个模型开源两个模型-一个AI视觉智能体能力大幅增强,一个百万Tokens处理速度提升近7倍

本次开源的Qwen2.5-1M大模型,我们推出7B、14B两个尺寸,均在处理长文本任务中稳定超越GPT-4o-mini;同时开源推理框架,在处理百万级别长文本输入时可实现近7倍的提速。这也是我们首次将开源Qwen模型的上下文扩展到1M长度。1M长度≈100万个单词≈150万个汉字≈2部《红楼梦》[heading2]长文本处理能力[content]在上下文长度为100万Tokens的大海捞针(Passkey Retrieval)任务中,Qwen2.5-1M能够准确地从1M长度的文档中检索出隐藏信息,仅有7B模型出现了少量错误。对于更复杂的长上下文理解任务,通义官方选择了[RULER](https://github.com/hsiehjackson/RULER)、[LV-Eval](https://github.com/infinigence/LVEval)和[LongbenchChat](https://github.com/THUDM/LongAlign),这些测试集也在[此博客](https://qwenlm.github.io/zh/blog/qwen2.5-turbo/#more-complex-long-text-tasks)中进行了介绍。从这些结果中,我们可以得出以下几点关键结论:1.显著超越128K版本:Qwen2.5-1M系列模型在大多数长上下文任务中显著优于之前的128K版本,特别是在处理超过64K长度的任务时表现出色。2.性能优势明显:Qwen2.5-14B-Instruct-1M模型不仅击败了Qwen2.5-Turbo,还在多个数据集上稳定超越GPT-4o-mini,因此可以作为现有长上下文模型的优秀开源替代。

通义千问发布一个模型开源两个模型-一个AI视觉智能体能力大幅增强,一个百万Tokens处理速度提升近7倍

[heading4]Qwen2.5-1M模型-百万Tokens处理速度提升近7倍[content]版本:7B、14B两个尺寸主要优势:长文本处理能力:在处理长文本任务中稳定超越GPT-4o-mini,首次将开源Qwen模型的上下文扩展到1M长度。推理速度提升:引入基于MInference的稀疏注意力优化,处理1M长度输入序列的预填充速度提升了3.2倍到6.7倍。上下文长度扩展至100万tokens,可处理约150万汉字(相当于2部《红楼梦》)开源平台:Huggingface:https://huggingface.co/spaces/Qwen/Qwen2.5-1M-DemoModelscope:https://www.modelscope.cn/studios/Qwen/Qwen2.5-1M-Demo

Others are asking
如何利用ai搭建论文框架
利用 AI 搭建论文框架可以参考以下步骤和工具: 步骤: 1. 确定论文主题:明确研究兴趣和目标,选择具有研究价值和创新性的主题。 2. 收集背景资料:使用学术搜索引擎和文献管理软件等 AI 工具搜集相关研究文献和资料。 3. 分析和总结信息:借助 AI 文本分析工具提取关键信息和主要观点。 4. 生成大纲:运用 AI 写作助手生成包括引言、文献综述、方法论、结果和讨论等部分的大纲。 5. 撰写文献综述:利用 AI 工具辅助撰写,确保内容准确完整。 6. 构建方法论:根据研究需求,参考 AI 建议的方法和技术设计研究方法。 7. 数据分析(若涉及):使用 AI 数据分析工具处理和解释数据。 8. 撰写和编辑:借助 AI 写作工具撰写各部分,并检查语法和风格。 9. 生成参考文献:通过 AI 文献管理工具生成正确格式的参考文献。 10. 审阅和修改:利用 AI 审阅工具检查逻辑性和一致性,并根据反馈修改。 11. 提交前的检查:使用 AI 抄袭检测工具确保原创性,并进行最后的格式调整。 常用工具和平台: 1. 文献管理和搜索: Zotero:结合 AI 技术,自动提取文献信息,便于管理和整理参考文献。 Semantic Scholar:AI 驱动的学术搜索引擎,提供文献推荐和引用分析。 2. 内容生成和辅助写作: Grammarly:提供文本校对、语法修正和写作风格建议,提高语言质量。 Quillbot:基于 AI 的重写和摘要工具,可精简和优化内容。 3. 研究和数据分析: Google Colab:提供基于云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,方便进行数据分析和可视化。 Knitro:用于数学建模和优化,帮助进行复杂的数据分析和模型构建。 4. 论文结构和格式: LaTeX:结合自动化和模板,高效处理论文格式和数学公式。 Overleaf:在线 LaTeX 编辑器,提供丰富模板库和协作功能,简化编写过程。 5. 研究伦理和抄袭检测: Turnitin:广泛使用的抄袭检测工具,确保论文原创性。 Crossref Similarity Check:通过与已发表作品比较,检测潜在抄袭问题。 需要注意的是,AI 工具可作为辅助,但不能完全替代研究者的专业判断和创造性思维。在使用 AI 进行论文写作时,应保持批判性思维,并确保研究的质量和学术诚信。 此外,还有一些关于 AI 技术原理和框架的相关知识: 1. 思维链:谷歌在 2022 年的一篇论文提到思维链可以显著提升大语言模型在复杂推理的能力,即使不用小样本提示,也可以在问题后面加一句“请你分步骤思考”。 2. RAG(检索增强生成):外部知识库切分成段落后转成向量,存在向量数据库。用户提问并查找到向量数据库后,段落信息会和原本的问题一块传给 AI,可搭建企业知识库和个人知识库。 3. PAL(程序辅助语言模型):2022 年一篇论文中提出,比如对于语言模型的计算问题,核心在于不让 AI 直接生成计算结果,而是借助其他工具比如 Python 解释器作为计算工具。 4. ReAct:2022 年一篇《React:在语言模型中协同推理与行动》的论文提出了 ReAct 框架,即 reason 与 action 结合,核心在于让模型动态推理并采取行动与外界环境互动。比如用搜索引擎对关键字进行搜索,观察行动得到的结果。可借助 LangChain 等框架简化构建流程。
2025-04-15
如何用AI,基于直播音频,生成内容思维导图?
以下是基于直播音频生成内容思维导图的一些方法和相关资源: 1. 利用 GPT 进行多种应用,如内容生成(文章、故事、诗歌、歌词等)、聊天机器人、问答系统、文本摘要、机器翻译、群聊总结、代码生成、教育、浏览器插件、PDF 对话等。相关演示和资源包括:https://chat.openai.com/、https://bard.google.com/extensions、https://claude.ai/、 等。 2. 可以使用专门的工具和平台,如 https://bibigpt.co/r/AJ 进行音视频提取总结,https://podwise.xyz/dashboard/trending 进行播客总结,https://xmind.ai/editor/ 生成脑图。 3. 火山引擎上线的“大模型应用实验室”平台提供的企业级模板,可实现输入故事主题后全自动生成故事、分镜、人物图片、视频、音频,并自动剪辑。 4. 通义听悟可用于处理语音与视频,如将直播回放的 mp4 文件上传,快速定位内容,生成总结和笔记,也适用于其他线上或线下分享。
2025-04-15
最近的ai趋势
以下是最近的 AI 趋势: 1. 技术创新方面: 大模型创新:架构优化加速涌现,融合迭代成为趋势。 Scaling Law 泛化:推理能力成为关键,推动计算和数据变革。 AGI 探索:视频生成引发关注,空间智能统一虚拟和现实。 2. 应用格局方面: 第一轮洗牌结束,聚焦 20 赛道 5 大场景。 多领域竞速,运营重要性大于技术,AI 助手竞争激烈。 AI+X 赋能类产品发展迅速,原生 AI 爆款难求。 多模态上马,Agent 席卷一切,高度个性化需求凸显。 变革生产力,重塑行业生态。 行业渗透率受数据基础和用户需求影响。 3. 产品设计和商业化方面: 从通用能力向专业化细分发展,如图像生成(Midjourney、Stable Diffusion 等)、视频制作(Pika、Runway 等)、音频处理等领域不断提升核心能力。 商业模式不断创新,如 ToB 市场深耕(如针对内容创作者的 ReadPo)、新型广告模式(如天宫搜索的“宝典彩页”)。 4. 行业大事记方面: 模型领域,DeepSeek 开源 R1 模型将大模型行业推进到推理时代,引发全球影响。 图像模型整体往更快、更便宜方向发展,AI 图像生成成为常用生产力工具。 视频模型底层架构无大变化,在细节优化上,如视频音效生成逐渐成为标配。
2025-04-15
AI如何促进企业增长,该从哪些层面入手
以下是关于 AI 促进企业增长及入手层面的相关内容: 1. 从宏观环境来看: 2024 年,AI 已在多个领域取得显著进展,其在推进人类知识方面的作用得到认可,如在物理学、化学的诺贝尔奖及图灵奖中有所体现。同时,企业对 AI 的投资在经历短暂放缓后反弹,新成立的生成式 AI 初创公司数量大幅增加,AI 已从边缘位置成为企业价值的核心驱动因素。 各国政府也在加大对 AI 的投入,出台相关政策和举措,推动 AI 发展。 2. 从监管层面来看: 适当的监管能激励企业在解决重要问题的同时控制风险,从而增加创新。例如,产品安全立法促进了更安全产品和服务的创新。 应采取基于情境、适度的监管方法,平衡风险与机会、效益,增强公众信任,促进 AI 应用。 3. 从企业自身来看: 启动试点项目以获取动能,选择易成功而非最具价值的项目,在 6 12 个月内展示成效,项目可内部或外包进行。 建立公司内部的 AI 团队,搭建集中统一的团队并选派人员协助各业务部门,方便统一管理。 构建全公司范围的平台,如软件平台、工具或数据基础设施,单个部门可能缺乏权限和资源完成此类平台建设。 提供广泛的 AI 培训,包括高层了解 AI 策略和资源分配,部门领导掌握项目方向设置、资源分配与进度监控,培养内部工程师开展相关工作。 制定 AI 策略,结合自身业务深度了解后制定,设置与 AI 良性循环一致的公司策略,如网络搜索或农业公司的案例。同时考虑创建数据策略,包括战略数据采集、构建统一数据仓库等。
2025-04-15
有AI硬件相关的内容吗
以下是为您提供的关于 AI 硬件的相关内容: 《2025 年 AI 指数报告,斯坦福.pdf》中包含对 AI 硬件演变情况的深入分析,以及对推理成本的新估计和 AI 出版与专利趋势的新分析等。 《Will's GenAI 硬件榜 2024 年 8 月》介绍了 GenAI 硬件的定义、榜单受众、标的、初心等。该榜单以北美市场的视角,基于销量和影响力,涵盖了如亚马逊销量等信息。本次更新包括了对亚马逊销量、独立站流量、新品发布、融资信息的更新,排序标准从媒体综合指数改为 Tiktok 热度,并完善了挂件、戒指、眼镜等分类榜数据。总共 15 个重要榜单,更多榜单可通过文末“阅读原文”免费访问或直接访问飞书链接:https://zw73xyquvv.feishu.cn/wiki/IqcqwTDiYiKttNktBg3cg8HgnLh 。数据来源包括 google、tiktok、twitter、亚马逊。对于榜单内容有疑问想交流的 GenAI 硬件创始人,或者想合作转载内容的公众号博主,可加微信或在本文末留言。
2025-04-15
用数据作图的ai软件有哪些
以下是一些用数据作图的 AI 软件: 1. Lucidchart:流行的在线绘图工具,支持多种图表创建,包括逻辑视图、功能视图和部署视图,用户可通过拖放界面轻松创建架构图。 2. Visual Paradigm:全面的 UML 工具,提供创建各种架构视图的功能,如逻辑视图(类图、组件图)、功能视图(用例图)和部署视图(部署图)。 3. ArchiMate:开源的建模语言,专门用于企业架构,支持逻辑视图创建,可与 Archi 工具配合使用,该工具提供图形化界面创建模型。 4. Enterprise Architect:强大的建模、设计和生成代码工具,支持创建多种架构视图,包括逻辑、功能和部署视图。 5. Microsoft Visio:广泛使用的图表和矢量图形应用程序,提供丰富模板用于创建逻辑视图、功能视图和部署视图等。 6. draw.io(现称为 diagrams.net):免费的在线图表软件,允许创建各种类型图表,包括软件架构图,支持创建逻辑视图和部署视图等。 7. PlantUML:文本到 UML 的转换工具,通过编写描述性文本自动生成序列图、用例图、类图等,帮助创建逻辑视图。 8. Gliffy:基于云的绘图工具,提供创建各种架构图的功能,包括逻辑视图和部署视图。 9. Archi:免费开源工具,用于创建 ArchiMate 和 TOGAF 模型,支持逻辑视图创建。 10. Rational Rose:IBM 的 UML 工具,支持创建多种视图,包括逻辑视图和部署视图。 此外,还有一些辅助或自动生成 CAD 图的 AI 工具: 1. CADtools 12:Adobe Illustrator 插件,为 AI 添加 92 个绘图和编辑工具。 2. Autodesk Fusion 360:集成了 AI 功能的云端 3D CAD/CAM 软件,能创建复杂几何形状和优化设计。 3. nTopology:基于 AI 的设计软件,可创建复杂 CAD 模型,包括拓扑优化、几何复杂度和轻量化设计等。 4. ParaMatters CogniCAD:基于 AI 的 CAD 软件,可根据用户输入的设计目标和约束条件自动生成 3D 模型。 5. 主流 CAD 软件(如 Autodesk 系列、SolidWorks 等)中的生成设计工具,可根据用户输入自动产生多种设计方案。 在 AI 绘图方面,目前市面上主流的有 Stable Diffusion 和 Midjourney。Stable Diffusion 开源免费、可本地化部署、创作自由度高,但需要较好电脑配置,尤其是显卡;Midjourney 操作简单方便,创作内容丰富,但需要科学上网且付费,每月费用约 200 多元。前期想要了解的可以试试 Stable Diffusion,具体安装方法可参考 B 站【秋葉 aaaki】的视频。
2025-04-15
处理 excel 表格 的 AI 工具
以下是一些可用于处理 Excel 表格的 AI 工具: 1. Excel Labs:这是一个 Excel 插件,新增了基于 OpenAI 技术的生成式 AI 功能,可在 Excel 中直接利用 AI 进行数据分析和决策支持。 2. Microsoft 365 Copilot:微软推出的整合了 Word、Excel、PowerPoint 等办公软件的 AI 工具,通过聊天形式,用户告知需求后,Copilot 会自动完成任务,如数据分析或格式创建。 3. Formula Bot:提供数据分析聊天机器人和公式生成器两大功能,用户可通过自然语言交互式地进行数据分析和生成 Excel 公式。 4. Numerous AI:支持 Excel 和 Google Sheets 的 AI 插件,除公式生成外,还能根据提示生成相关文本内容、执行情感分析、语言翻译等任务。 5. Ajelix:可处理 Excel 和 Google Sheets 表格的 AI 工具,链接为。 6. FormX.ai:能够自动从表格和文档中提取数据的 AI 工具,链接为。 随着技术的不断发展,未来可能会有更多 AI 功能被集成到 Excel 中,进一步提高工作效率和数据处理的智能化水平。内容由 AI 大模型生成,请仔细甄别。
2025-04-11
LLM模型响应时间较长,如何处理超时时间问题
处理 LLM 模型响应时间过长导致的超时问题,可以考虑以下方法: 1. 参数有效调整:这是一种新颖的微调方法,通过仅训练一部分参数来减轻微调 LLM 的挑战。这些参数可能是现有模型参数的子集,或者是一组全新的参数,例如向模型添加一些额外的层或额外的嵌入到提示中。 2. 优化提示设计:采用合适的提示方法,如零样本提示、一次性提示、Fewshot prompting 等。零样本提示是只给出描述任务的提示;一次性提示是让 LLM 执行任务的单个示例;Fewshot prompting 是让 LLM 执行任务的少量示例。同时,可以使用结构化模式设计提示,包含上下文、问题示例及相应答案等组件,以指示模型应如何响应。 3. 避免频繁调整某些参数:尤其是 Top K 和 Top P,不需要经常对其进行调整。 4. 关注模型响应质量:即使有良好的提示设计,模型输出仍可能不稳定,需要持续关注和优化。 5. 考虑成本和时间:微调大型模型可能耗时且成本高,为大模型提供服务也可能涉及额外麻烦和成本,需要综合评估和优化。
2025-04-11
cursor 长文档处理长文档
以下是关于 Cursor 长文档处理的相关信息: UI 用户界面: 当 Cursor 仅添加其他文本时,补全将显示为灰色文本。如果建议修改了现有代码,它将在当前行的右侧显示为 diff 弹出窗口。 您可以通过按 Tab 键接受建议,也可以通过按 Esc 键拒绝建议。要逐字部分接受建议,请按 Ctrl/⌘→。要拒绝建议,只需继续输入,或使用 Escape 取消/隐藏建议。 每次击键或光标移动时,Cursor 都会尝试根据您最近的更改提出建议。但是,Cursor 不会始终显示建议;有时,模型预测不会做出任何更改。 Cursor 可以从当前行上方的一行更改为当前行下方的两行。 切换: 要打开或关闭该功能,请将鼠标悬停在应用程序右下角状态栏上的“光标选项卡”图标上。 @Docs: Cursor 附带一组第三方文档,这些文档已爬取、索引并准备好用作上下文。您可以使用@Docs 符号访问它们。 如果要对尚未提供的自定义文档进行爬网和索引,可以通过@Docs>Add new doc 来实现。粘贴所需文档的 URL 后,将显示相应模式。然后 Cursor 将索引并学习文档,您将能够像任何其他文档一样将其用作上下文。 在 Cursor Settings>Features>Docs 下,您可以管理已添加的文档,包括编辑、删除或添加新文档。 @Files: 在 AI 输入框中(如 Cursor Chat 和 Cmd K),可以使用@Files 引用整个文件。如果继续在@后键入,将在策略之后看到文件搜索结果。 为确保引用的文件正确,Cursor 会显示文件路径的预览,这在不同文件夹中有多个同名文件时尤其有用。 在 Cursor 的聊天中,如果文件内容太长,Cursor 会将文件分块为较小的块,并根据与查询的相关性对它们进行重新排序。
2025-04-10
关于处理法律事务的提示词
以下是关于处理法律事务的提示词相关内容: 1. 陶力文律师观点:不能期待设计一个完美的提示词让 AI 百分百给出完美答案,应将提示词视为相对完善的“谈话方案”,成果在对话中产生。对于尝试 AI 的朋友,建议多给 AI 几轮对话修正的余地,不要期望一次输入提示词就得到想要的东西。陶律师习惯用的大模型是 KIMI,也可使用 GPT、文心一言、豆包等。其个人 Prompt 库取名为【元始洞玄灵宝枢机 AI 符法集成道藏】,库里每篇灵机符箓命名为【敕令 XXXX】。【箓】描述符箓整体所属、版本,【符】关键,涉及具体操作步骤和方法,开头赋予 AI 身份划定边界。 2. 潘帅观点:律师常用 Prompt 场景包括案例检索和类案检索。案例检索最好使用法律行业垂类的 AI 产品,通用型 AI 可能存在问题。案例检索的 Prompt 指令词结构为【案例领域或类型+明确需要查找的重点内容+查找案例的目的+其他希望 AI 做的事情】,并列举了多个具体例子,如商标侵权案件中“混淆可能性”标准的判例检索等。
2025-04-03
目前的大模型ai工具中 你觉得文本处理 写作这方面那个工具最强 最像人
目前在大模型 AI 工具中,对于文本处理和写作方面,以下是一些相关信息: 生成式人工智能的工作原理:在整体的人工智能领域,监督学习用于标记事物,一直占据很大比例。现在生成式 AI 快速崛起,强化学习与无监督学习也是重要工具。生成式 AI 由监督学习技术搭建,大语言模型使用监督学习不断预测下一个词语来生成文本,这需要大量数据。 大语言模型的应用:运用大语言模型写故事、修改文本很有用,但它可能编造故事产生错误信息,需要鉴别信息准确。网络搜索与大语言模型的区别在于网络搜索可追寻信息来源,大语言模型能提供建议与策略。 写作方面:使用大模型工具如 LLM 来写作,集思广益、头脑风暴非常有用。网页版聊天时提供更多信息,翻译也可使用 LLM,但其效果受网络文本量影响。 推荐的大模型工具:chatGPT 4.0、kimichat、智谱清言 4 等。一些国产模型如智谱和文心可以文生图。 相关工具:除了 Snapbox 外,还有 OpenCAT 等类似工具可供选择。有多种文本处理与总结工具,如 kimi 网页总结助手、ChatHub 等,以及翻译插件与 AI 对话插件、沉浸式翻译插件等。Memo Al 可以对音频视频进行转文字、字幕翻译、语音合成等,并由多种 AI 模型提炼内容精华总结、生成思维导图。 综合来看,不同的大模型工具在文本处理和写作方面各有特点,难以简单地确定哪一个最强、最像人,具体取决于您的需求和使用场景。
2025-04-01
长文本处理
以下是关于长文本处理的相关信息: 通义千问发布了一个模型并开源了两个模型,其中一个在长文本处理方面有显著提升。 开源的 Qwen2.51M 大模型推出 7B、14B 两个尺寸,在处理长文本任务中稳定超越 GPT4omini,同时开源推理框架,在处理百万级别长文本输入时可实现近 7 倍的提速,首次将开源 Qwen 模型的上下文扩展到 1M 长度。在上下文长度为 100 万 Tokens 的大海捞针任务中,Qwen2.51M 能够准确地从 1M 长度的文档中检索出隐藏信息,仅有 7B 模型出现少量错误。对于更复杂的长上下文理解任务,通义官方选择了等测试集。 Qwen2.51M 系列模型在大多数长上下文任务中显著优于之前的 128K 版本,特别是在处理超过 64K 长度的任务时表现出色。Qwen2.514BInstruct1M 模型不仅击败了 Qwen2.5Turbo,还在多个数据集上稳定超越 GPT4omini,可作为现有长上下文模型的优秀开源替代。 此外,还有关于利用 Langchain+Ollama+RSSHub 实现本地部署资讯问答机器人的内容,包括导入依赖库、从订阅源获取内容、为文档内容生成向量等步骤。其中使用了 feedparse 用于解析 RSS 订阅源,ollama 用于在 python 程序中跑大模型,文本向量模型 bgem3 具有支持多语言、长文本输入、集成多种检索能力等特点。
2025-03-31