Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

本地化单机版问答AI怎样创建,需要详细操作代码步骤

Answer

以下是创建本地化单机版问答 AI 的一般步骤:

  1. 基于用户的问题,从向量数据库中检索相关段落,并根据设定的阈值进行过滤,最后让模型参考上下文信息回答用户的问题,从而实现 RAG。
  2. 创建网页 UI,通过 gradio 创建网页 UI,并进行评测。
  3. 对于同样的问题和上下文,基于 Qwen-7b、Gemma、Mistral、Mixtral 和 GPT-4 分别进行多次测试。
  4. 主要结论(只是针对有限的几次测试,个人主观评判):
    • GPT-4 表现最好,指令遵循能力很强,在回答的时候能附上引用段落编号。
    • Mixtral 表现第二,但没有在回答的时候附上引用。
    • Qwen-7b 表现第三,也没有在回答的时候附上引用。
    • Gemma 表现一般,而且回答里面有一些幻觉。
    • Mistral 表现一般,使用英文回复,不过在回答的时候附上了引用段落编号。

总结:

  1. 本文展示了如何使用 Langchain 和 Ollama 技术栈在本地部署一个资讯问答机器人,同时结合 RSSHub 来处理和提供资讯。
  2. 上下文数据质量和大模型的性能决定了 RAG 系统性能的上限。
  3. RAG 通过结合检索技术和生成模型来提升答案的质量和相关性,可以缓解大模型幻觉、信息滞后的问题,但并不意味着可以消除。

需要上述完整代码的读者,关注本公众号,然后发送 fin,即可获取 github 仓库代码链接。

Content generated by AI large model, please carefully verify (powered by aily)

References

本地部署资讯问答机器人:Langchain+Ollama+RSSHub 实现 RAG

基于用户的问题,从向量数据库中检索相关段落,并根据设定的阈值进行过滤,最后让模型参考上下文信息回答用户的问题,从而实现RAG。|创建网页UI最后,通过gradio创建网页UI,并进行评测。生成的Web UI如下:需要上述完整代码的读者,关注本公众号,然后发送fin,即可获取github仓库代码链接。问答测试对于同样的问题和上下文,我基于Qwen-7b、Gemma、Mistral、Mixtral和GPT-4分别进行了多次测试。下面是一些case:qwengemmamistralmixtralgpt4主要结论(只是针对有限的几次测试,个人主观评判)如下:👍 GPT-4表现最好,指令遵循能力很强,在回答的时候能附上引用段落编号✌️ Mixtral表现第二,但没有在回答的时候附上引用💪 Qwen-7b表现第三,也没有在回答的时候附上引用😅 Gemma表现一般,而且回答里面有一些幻觉😅 Mistral表现一般,使用英文回复,不过在回答的时候附上了引用段落编号总结1.本文展示了如何使用Langchain和Ollama技术栈在本地部署一个资讯问答机器人,同时结合RSSHub来处理和提供资讯。2.上下文数据质量和大模型的性能决定了RAG系统性能的上限。3.RAG通过结合检索技术和生成模型来提升答案的质量和相关性,可以缓解大模型幻觉、信息滞后的问题,但并不意味着可以消除。

Others are asking
本地化单机版问答AI怎样创建
创建本地化单机版问答 AI 可以通过以下步骤实现: 1. 基于用户的问题,从向量数据库中检索相关段落,并根据设定的阈值进行过滤,最后让模型参考上下文信息回答用户的问题,从而实现 RAG。 2. 创建网页 UI,通过 gradio 创建,并进行评测。 3. 对于同样的问题和上下文,基于 Qwen7b、Gemma、Mistral、Mixtral 和 GPT4 分别进行多次测试。主要结论(只是针对有限的几次测试,个人主观评判)如下: GPT4 表现最好,指令遵循能力很强,在回答的时候能附上引用段落编号。 Mixtral 表现第二,但没有在回答的时候附上引用。 Qwen7b 表现第三,也没有在回答的时候附上引用。 Gemma 表现一般,而且回答里面有一些幻觉。 Mistral 表现一般,使用英文回复,不过在回答的时候附上了引用段落编号。 总结: 1. 本文展示了如何使用 Langchain 和 Ollama 技术栈在本地部署一个资讯问答机器人,同时结合 RSSHub 来处理和提供资讯。 2. 上下文数据质量和大模型的性能决定了 RAG 系统性能的上限。 3. RAG 通过结合检索技术和生成模型来提升答案的质量和相关性,可以缓解大模型幻觉、信息滞后的问题,但并不意味着可以消除。 如需获取上述完整代码,关注本公众号,然后发送 fin,即可获取 github 仓库代码链接。
2024-11-28
PDF总结的AI工具
以下是一些与 PDF 总结相关的 AI 工具: 1. DeepL(网站):点击页面“翻译文件”按钮,上传 PDF、Word 或 PowerPoint 文件即可。 2. 沉浸式翻译(浏览器插件):安装插件后,点击插件底部“更多”按钮,选择“制作双语 BPUB 电子书”、“翻译本地 PDF 文件”、“翻译 THML/TXT 文件”、“翻译本地字幕文件”。 3. Calibre(电子书管理应用):下载并安装 calibre,并安装翻译插件“Ebook Translator”。 4. 谷歌翻译(网页):使用工具把 PDF 转成 Word,再点击谷歌翻译“Document”按钮,上传 Word 文档。 5. 百度翻译(网页):点击导航栏“文件翻译”,上传 PDF、Word、Excel、PPT、TXT 等格式的文件,支持选择领域和导出格式(不过进阶功能基本都需要付费了)。 6. 彩云小译(App):下载后点击“文档翻译”,可以直接导入 PDF、DOC、DOCX、PPT、PPTX、TXT、epub、srt 等格式的文档并开始翻译(不过有免费次数限制且进阶功能需要付费)。 7. 微信读书(App):下载 App 后将 PDF 文档添加到书架,打开并点击页面上方“切换成电子书”,轻触屏幕唤出翻译按钮。 以下是一些在论文写作方面的 AI 产品: 1. 文献管理和搜索: Zotero:结合 AI 技术,可以自动提取文献信息,帮助研究人员管理和整理参考文献。 Semantic Scholar:一个由 AI 驱动的学术搜索引擎,能够提供相关的文献推荐和引用分析。 2. 内容生成和辅助写作: Grammarly:通过 AI 技术提供文本校对、语法修正和写作风格建议,帮助提高论文的语言质量。 Quillbot:一个基于 AI 的重写和摘要工具,可以帮助研究人员精简和优化论文内容。 3. 研究和数据分析: Google Colab:提供基于云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,便于进行数据分析和可视化。 Knitro:一个用于数学建模和优化的软件,可以帮助研究人员进行复杂的数据分析和模型构建。 4. 论文结构和格式: LaTeX:虽然不是纯粹的 AI 工具,但结合了自动化和模板,可以高效地处理论文格式和数学公式。 Overleaf:一个在线 LaTeX 编辑器,提供丰富的模板库和协作功能,简化论文编写过程。 5. 研究伦理和抄袭检测: Turnitin:一个广泛使用的抄袭检测工具,帮助确保论文的原创性。 Crossref Similarity Check:通过与已发表作品的比较,检测潜在的抄袭问题。 使用这些工具时,重要的是要结合自己的写作风格和需求,选择最合适的辅助工具。
2025-01-23
用ai写传那个软件好用
以下是一些好用的 AI 写作软件: 免费选项:Bing(https://www.bing.com/search?q=Bing+AI&showconv=1&FORM=hpcodx)和 Claude 2(https://claude.ai/) 付费选项:带有插件的 ChatGPT 4.0(https://chat.openai.com/chat) 此外,以下是一些辅助写邮件的 AI 工具: Grammarly:提供语法检查、拼写纠正、风格建议和语气调整等功能。易于使用,支持多种平台(如浏览器扩展、桌面应用、手机应用),适用于多种语言。网站:https://www.grammarly.com/ Hemingway Editor:简化句子结构,提高可读性,标记复杂句和冗长句。界面简洁,重点突出,适用于改善写作风格和简洁性。网站:http://www.hemingwayapp.com/ ProWritingAid:全面的语法和风格检查,提供详细的写作报告和建议。功能强大,支持多种平台和集成,特别适合专业写作者。网站:https://prowritingaid.com/ Writesonic:基于 AI 生成各种类型的文本,包括电子邮件、博客文章、广告文案等。生成速度快,适合需要快速创作和灵感的用户。网站:https://writesonic.com/ Lavender:专注于邮件写作优化,提供个性化建议和模板,帮助用户提高邮件打开率和回复率。专注邮件领域,提供具体的改进建议和实时反馈。 使用 AI 写作时,您可以: 草拟任何东西的初稿,如博客文章、论文、宣传材料、演讲、讲座等,只需给 AI 提示。 将您的文本粘贴到 AI 中,要求它改进内容,或就如何为特定受众提供更好的建议。 要求它以截然不同的风格创建多个草稿,使事物更生动,或者添加例子。 像使用实习生一样让 AI 帮您写邮件,创建销售模板,提供商业计划的下一步等。
2025-01-23
如何学习AI
以下是新手学习 AI 的方法: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,可根据自己的兴趣选择特定模块深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解其工作原理和交互方式,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 对于中学生学习 AI,建议如下: 1. 从编程语言入手学习: 可以从 Python、JavaScript 等编程语言开始学习,学习编程语法、数据结构、算法等基础知识,为后续的 AI 学习打下基础。 2. 尝试使用 AI 工具和平台: 可以使用 ChatGPT、Midjourney 等 AI 生成工具,体验 AI 的应用场景。 探索一些面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 3. 学习 AI 基础知识: 了解 AI 的基本概念、发展历程、主要技术如机器学习、深度学习等。 学习 AI 在教育、医疗、金融等领域的应用案例。 4. 参与 AI 相关的实践项目: 参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动。 尝试利用 AI 技术解决生活中的实际问题,培养动手能力。 5. 关注 AI 发展的前沿动态: 关注 AI 领域的权威媒体和学者,了解 AI 技术的最新进展。 思考 AI 技术对未来社会的影响,培养对 AI 的思考和判断能力。 记住,学习 AI 是一个长期的过程,需要耐心和持续的努力。不要害怕犯错,每个挑战都是成长的机会。随着时间的推移,您将逐渐建立起自己的 AI 知识体系,并能够在这一领域取得成就。完整的学习路径建议参考「通往 AGI 之路」的布鲁姆分类法,设计自己的学习路径。
2025-01-23
如何训练自己的ai
训练自己的 AI 可以从以下几个方面考虑: 1. 像在医疗保健领域一样,创建模型生态系统,让 AI 像优秀的从业者那样学习。顶尖人才的培养通常从多年的密集信息输入和正规教育开始,再通过学徒实践从出色的实践者那里学习,获取书本外的信息。对于 AI ,应通过堆叠模型训练,而非仅依靠大量数据和生成模型。例如先训练基础学科模型,再添加特定领域数据点。 2. 部署和训练自己的 AI 开源模型的主要步骤: 选择合适的部署方式,如本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,根据自身资源、安全和性能需求选择。 准备训练所需的数据和计算资源,确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 选择合适的预训练模型作为基础,如开源的 BERT、GPT 等,也可自行训练基础模型。 针对目标任务进行模型微调训练,根据具体应用场景对预训练模型进行微调,优化模型结构和训练过程以提高性能。 部署和调试模型,将训练好的模型部署到生产环境,并进行在线调试和性能优化。 注意安全性和隐私保护,重视大模型涉及的大量数据和隐私信息的安全性和合规性。 3. 学习拆解复杂任务,先想清楚如何拆解: 一步步思考,包括自我反省,检查答案是否正确、是否符合法律/道德等。 运用组合拳,如 Tree of Thoughts、Algorithm of Thoughts、Graph of Thoughts 等。 学会使用工具,如搜索引擎(警惕“幻觉”)、RAG(提供资料库/让其上网搜)、写公式 Program of Thought 、上千个工具等,并自己学习使用工具。
2025-01-23
如何用ai写出爆款小说
以下是关于如何用 AI 写出爆款小说以及将小说做成视频的相关内容: 用 AI 写出爆款小说 工作流效果: 以起点 Top1 的《夜无疆》为题,使用特定的 coze 工作流创作小说,能达到至少高中生中写得不错的水平。虽然未达到起点小说家的水平,但相比通常用 AI 写出的小说已有质的飞跃,其中的思路值得学习。 工作流: 1. 用 Bing 搜索标题相关的内容。 2. 用程序将搜索结果结构化(不熟悉程序的可忽略或直接复制文中代码)。 3. 用大模型草拟大纲,包括标题、主旨、世界观、主要角色、小说背景、情节概要。 4. 再用大模型来写文章。 5. 输出文章内容。 核心提示词: 用大模型草拟大纲是关键差别,如标题、主旨、世界观、主要角色、小说背景、情节概要等。写小说的提示词相对简单,搜索是很值得学习的思路,将搜索结果结构化方便大模型理解。 用 AI 将小说做成视频 制作流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。
2025-01-23
AI智能图像生成软件
以下是为您介绍的 AI 智能图像生成软件: 1. Imagen 3: 功能点: 根据用户输入的 Prompt 生成图像。 能自动拆解用户输入的 Prompt,并提供下拉框选项。 提供自动联想功能,帮助用户选择更合适的词汇。 优势: 无需排队,用户可直接使用。 免费使用。 交互人性化,如自动联想和下拉框选项。 具有较好的语义理解能力,能生成符合描述的图像。 灵活性强,用户可根据自动联想调整 Prompt 生成不同图像。 2. 好用的图生图产品: Artguru AI Art Generator:在线平台,生成逼真图像,给设计师提供灵感,丰富创作过程。 Retrato:AI 工具,将图片转换为非凡肖像,拥有 500 多种风格选择,适合制作个性头像。 Stable Diffusion Reimagine:新型 AI 工具,通过稳定扩散算法生成精细、具有细节的全新视觉作品。 Barbie Selfie Generator:专为喜欢梦幻童话风格的人设计,将上传的照片转换为芭比风格,效果好。 3. 藏师傅教您用 AI 三步制作任意公司的周边图片: 流程: 获取 Logo 图片的描述。 根据 Logo 图片的描述和生成意图生成图片提示词。 将图片和提示词输入 Comfyui 工作生成。
2025-01-23
如何本地化部署一个ai助手
本地化部署一个 AI 助手可以参考以下几种方式: 1. 在网站上增加 AI 助手: 搭建示例网站: 创建应用:点击打开函数计算应用模板,参考相关选择直接部署、填写百炼应用 ID 以及 APIKEY,其他表单项保持默认,点击创建并部署默认环境,等待项目部署完成(预计耗时 1 分钟)。 访问网站:应用部署完成后,在应用详情的环境信息中找到示例网站的访问域名,点击即可查看,确认示例网站已经部署成功。 为网站增加 AI 助手: 增加 AI 助手相关代码:回到应用详情页,在环境详情的最底部找到函数资源,点击函数名称,进入函数详情页。在代码视图中找到 public/index.html 文件,取消相关位置的代码注释。最后点击部署代码,等待部署完成。 验证网站上的 AI 助手:重新访问示例网站页面以查看最新效果,网站的右下角会出现 AI 助手图标,点击即可唤起 AI 助手。 2. 从 LLM 大语言模型、知识库到微信机器人的全本地部署(以 windows10 系统为例): 本地 Hook 或 COW 机器人(二选一,建议先选择 COW): 注意:本教程完成后,程序将在您的电脑本地运行,假如关掉了窗口,进程也就结束。所以,如果想让 AI 持续使用,就必须保持窗口打开和运行,也就是电脑不能关。 安装环境: 点击电脑“系统”,直接输入“cmd”,点击回车,打开命令窗口。 在命令窗口中,粘贴入相关代码,确认是否有 python 和 pip。 如果没有,先进行 python 的安装,可点击下载:。 部署项目:下载 COW 机器人项目,解压缩。 3. 把大模型接入小米音箱(node.js): 第四步:填写 API 服务: 智普:接口地址:https://open.bigmodel.cn/api/paas/v4,模型:glm4flash。 硅基:选择 AI 服务为自定义,接口地址:https://api.siliconflow.cn/v1。 其他模型的 API 端口请参考官方文档:https://migptgui.com/docs/apply/。 第五步:语音服务:官方说明:https://migptgui.com/docs/faqs/tts。 第六步:启动服务:在最上方可导出编辑的内容,格式为 json 格式,如果改错了可以导入之前保存的配置。单击启动,回到 powshell 界面。每次调整设置都需要重置后重新启动。建议回答完毕后增加结束的提示语,可以提高连续对话的稳定性。官方常见问题文档:https://migptgui.com/docs/faqs/noreply。
2025-01-05
能够本地化部署的AI文字助手
以下是关于本地化部署的 AI 文字助手以及相关排版和润色工具的信息: 本地化部署的 AI 文字助手: 在让 AI 助手能准确回答问题之前,可先快速将其集成到网站中。 1. 搭建示例网站: 创建应用:点击打开函数计算应用模板,参考相关选择直接部署、填写百炼应用 ID 以及 APIKEY,其他表单项保持默认,点击创建并部署默认环境,等待项目部署完成(预计耗时 1 分钟)。 访问网站:应用部署完成后,在应用详情的环境信息中找到示例网站的访问域名,点击查看确认部署成功。 2. 为网站增加 AI 助手: 增加 AI 助手相关代码:回到应用详情页,在环境详情底部找到函数资源,点击函数名称进入函数详情页,在代码视图中找到 public/index.html 文件,取消相关位置的代码注释,最后点击部署代码等待完成。 验证网站上的 AI 助手:重新访问示例网站页面查看最新效果,会发现网站右下角出现 AI 助手图标,点击唤起。 AI 文章排版工具: 主要用于自动化和优化文档布局和格式,特别是处理学术论文和专业文档。一些流行的工具包括: 1. Grammarly:不仅是语法和拼写检查工具,还提供排版功能,改进文档风格和流畅性。 2. QuillBot:AI 驱动的写作和排版工具,改进文本清晰度和流畅性。 3. Latex:广泛用于学术论文排版,使用标记语言描述格式,有许多 AI 辅助的编辑器和插件简化排版过程。 4. PandaDoc:文档自动化平台,使用 AI 帮助创建、格式化和自动化文档生成,适合商业和技术文档。 5. Wordtune:AI 写作助手,重新表述和改进文本,使其更清晰专业。 6. Overleaf:在线 Latex 编辑器,提供丰富模板和协作工具,适合学术写作和排版。 选择合适的工具取决于具体需求,如文档类型、出版标准和个人偏好。对于学术论文,Latex 和 Overleaf 受欢迎;对于一般文章和商业文档,Grammarly 和 PandaDoc 等可能更适用。 文章润色工具: 常见的有: 1. Wordvice AI:集校对、改写转述和翻译等功能于一体,基于大型语言模型提供全面的英文论文润色服务。 2. ChatGPT:由 OpenAI 开发的大型语言模型,可用于多方面写作辅助。 3. Quillbot:人工智能文本摘要和改写工具,可用于快速筛选和改写文献资料。 4. HyperWrite:基于 AI 的写作助手和大纲生成器,帮助写作前头脑风暴和大纲规划。 5. Wordtune:AI 驱动的文本改写和润色工具,优化文章语言表达。 6. Smodin:提供 AI 驱动的论文撰写功能,可根据输入生成符合要求的学术论文。 这些 AI 工具涵盖文章润色的各个环节,可提高写作效率和质量,科研人员和学生可根据自身需求选择。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-01-05
能够本地化部署的AI助手
以下是关于能够本地化部署的 AI 助手的相关信息: 聊天对话类 AI 产品 ChatGPT: 由 OpenAI 开发,是国际 AI 领域的明星产品,家喻户晓。 开创性强,是首批向公众开放的大规模商用 AI 对话系统之一,掀起 AI 革命,改变人们对 AI 认知,为技术发展指明方向。 用户体验精心设计,界面简洁直观,交互流畅自然,新手也能轻松上手,降低使用门槛,普及 AI。 技术实力强,背后的 GPT 系列模型性能和能力领先,语言理解深度和生成内容质量高,能应对复杂任务和挑战。 局限性:不再是市场唯一顶级选择,其他产品在特定领域超越其表现;国内用户使用可能有网络连接问题,影响体验。 AI 工具使用方法: 市面上有线上和线下本地部署两种 AI。 线上优势:出图速度快,不吃本地显卡配置,无需下载大模型,能看他人作品,但出图最高 1024×1024 左右,制作横板、高清图片受限。 线下优势:可添加插件,不卡算力,出图质量高,但使用时电脑基本宕机,配置不高可能爆显存导致出图失败。 充分发挥线上和线下平台优势:线上找参考、测试模型,线下作为主要出图工具。 在线上绘图网站绘图广场找想要的画风,点击创作会自动匹配模型、lora 和 tag。 截取游戏人物底图,将线上有限算力堆在人物身上,多批次、多数量尝试不同画风,得出符合游戏的模型+lora 组合,在 C 站下载对应模型到本地加载部署后正式生图。 本地部署资讯问答机器人: 对于期望在本地环境利用 AI 技术搭建 RAG 系统的用户,有实际操作价值的参考方案。
2025-01-05
本地化的AI助手有哪些
以下是一些本地化的 AI 助手: 在移动端,人工智能助手 Luzia 首次亮相排名第 25 位,该公司声称在全球拥有 4500 万用户,主要为西班牙语使用者。Luzia 最初是基于 WhatsApp 的聊天机器人,于 2023 年 12 月推出了独立的移动应用程序。 字节跳动的产品: 教育科技平台 Gauth,排名第 44 位。 机器人构建器 Coze,排名第 45 位。 通用助手豆包,在移动榜单上排名第 26 位,其网站为 doubao.com 。 照片和视频编辑器 Hypic,第 19 名。 助手 Cici,第 34 名,在移动端是豆包的英文版。 此外,还有一些与编程相关的 AI 工具: GitHub Copilot:由 GitHub 联合 OpenAI 和微软 Azure 团队推出,支持多种语言和 IDE,能为程序员快速提供代码建议。 通义灵码:阿里巴巴团队推出,提供多种编程辅助能力。 CodeWhisperer:亚马逊 AWS 团队推出,由机器学习技术驱动,为开发人员实时提供代码建议。 CodeGeeX:智谱 AI 推出的开源免费 AI 编程助手,基于 130 亿参数的预训练大模型。 Cody:代码搜索平台 Sourcegraph 推出,借助强大的代码语义索引和分析能力了解开发者的整个代码库。 CodeFuse:蚂蚁集团支付宝团队为国内开发者提供智能研发服务的免费 AI 代码助手。 Codeium:一个由 AI 驱动的编程助手工具,旨在提高编程效率和准确性。 更多辅助编程 AI 产品,可查看:https://www.waytoagi.com/category/65 。 每个工具的功能和适用场景可能不同,您可以根据自身需求选择最适合的工具。
2025-01-05
本地化搭建问答机器人流程
本地化搭建问答机器人的流程如下: 1. 加载所需的库和模块:包括用于解析 RSS 订阅源的 feedparse,用于在 Python 程序中跑大模型的 ollama(使用前需确保 ollama 服务已开启并下载好模型)。 2. 从订阅源获取内容:通过函数从指定的 RSS 订阅 url 提取内容,如需接收多个 url 稍作改动即可。然后使用专门的文本拆分器将长文本拆分成较小的块,并附带相关元数据,最终合并成列表返回用于后续处理或提取。 3. 为文档内容生成向量:使用文本向量模型 bgem3(从 hf 下载好模型后假设放置在某个路径,通过函数利用 FAISS 创建高效的向量存储)。 4. 推荐 RSSHub 项目:可将关注的信息汇聚在同一平台,一旦有更新能在各种终端收到提醒。其为各种网站生成 RSS 源,大部分社交媒体、传统媒体和金融媒体都能配合订阅。 5. 流程拆解: 创建 Python 虚拟环境,并安装相关库,如 ollama(0.1.8)、langchain(0.1.14)、faisscpu(1.8.0,有 gpu 则安装 gpu 版本)、gradio(4.25.0)、feedparser(6.0.11)、sentencetransformers(2.6.1)、lxml(5.2.1)。 6. 了解 ollama: 支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同场景。 易于使用,适用于 macOS、Windows 和 Linux 系统,支持 cpu 和 gpu。 提供模型库,用户可从中下载不同模型,满足不同需求和硬件条件,模型库可通过 https://ollama.com/library 查找。 支持自定义模型,可修改温度参数等。 提供 REST API 用于运行和管理模型及与其他应用集成。 社区贡献丰富,有多种集成插件和界面。 先安装 ollama,访问 https://ollama.com/download/ 下载安装。安装完确保 ollama 后台服务已启动(在 mac 上启动应用程序,在 linux 上通过 ollama serve 启动),可通过 ollama list 确认,未下载模型时正常显示空,可通过 ollama 命令下载模型。
2024-12-21
可不可以提供一个本地化的大模型方法,让我建立这个合规法律的知识库
以下是为您提供的本地化大模型及搭建合规法律知识库的方法: 一、通过 Open WebUI 使用大模型 1. 首先访问相关网址。打开页面时需使用邮箱注册账号。 2. 登陆成功后,若您使用过类似 ChatGPT 的大模型对话网站,对该页面不会陌生。 3. Open WebUI 一般有两种使用方式: 聊天对话。 RAG 能力,即让模型根据文档内容回答问题,这是构建知识库的基础之一。 4. 如果要求不高,此时已搭建本地大模型,并通过 Web UI 实现对话功能。 5. ChatGPT 访问速度快且回答效果好的原因: 速度快是因为 GPT 大模型部署的服务器配置高。 效果好是因为 GPT 大模型的训练参数多、数据更优及训练算法更好。 二、您的硬件达标了么 运行大模型需要很高的机器配置,个人玩家大多负担不起。以下是不同类型大模型的配置要求: 1. 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型) 2. 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 3. 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 最低配置运行非常慢,不建议使用。但这不妨碍我们亲自实操一遍,以加深对大模型构建知识库底层原理的了解。若想要更顺滑的体验知识库,可以参考文章: 三、本地知识库进阶 若要更灵活掌控知识库,需额外软件 AnythingLLM。它包含 Open WebUI 的所有能力,并额外支持以下能力: 1. 选择文本嵌入模型。 2. 选择向量数据库。 AnythingLLM 安装和配置 安装地址:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步: 1. 第一步:选择大模型。 2. 第二步:选择文本嵌入模型。 3. 第三步:选择向量数据库。 构建本地知识库 AnythingLLM 中有 Workspace 的概念,可创建独有的 Workspace 与其他项目数据隔离。具体步骤: 1. 首先创建一个工作空间。 2. 上传文档并在工作空间中进行文本嵌入。 3. 选择对话模式。AnythingLLM 提供两种对话模式: Chat 模式:大模型会根据自己的训练数据和上传的文档数据综合给出答案。 Query 模式:大模型仅依靠文档中的数据给出答案。 4. 测试对话。完成上述配置后,即可与大模型进行对话。 四、写在最后 “看十遍不如实操一遍,实操十遍不如分享一遍”。若您对 AI Agent 技术感兴趣,可以联系我或者加我的免费知识星球(备注 AGI 知识库)。
2024-12-18
解释AI中连续问答时,为什么有时候AI似乎不记得我问的第一个问题了
在 AI 连续问答中,有时 AI 似乎不记得第一个问题,可能有以下原因: 1. 模型本身的限制:AI 回答问题时可能容易“产生幻觉”,生成看似合理但实际错误的内容,且可能连续且良好地撒谎,对于所提供的信息不一定能保证准确性和连贯性。 2. 缺乏上下文理解:AI 可能在处理后续问题时,未能充分整合和记住之前问题的关键信息,导致回答与之前的问题脱节。 3. 输出模式的固定性:像 GPT 回答问题时喜欢用特定的模式,如 1、2、3、4 或“首先、其次、最后”,这种固定模式可能影响对问题的灵活处理和记忆。 4. 无法真正解释自身:当被要求解释回答的原因或思考过程时,AI 只是生成听起来合理但可能是编造的文本,而不是真正审查自身的行动,这使得理解其回答的逻辑和连贯性变得困难。 为了让 AI 的回复更有灵性和连贯性,可以尝试一些方法,如让 AI 扮演特定角色、给出明确输出要求、营造特定环境、让其用括号补充动作以增加感情等。但即便如此,也不能完全消除上述问题。同时,使用 AI 时要注意对其输出进行检查,避免被不道德地利用。
2025-01-17
解释AI中连续问答时,为什么有时候
在 AI 中进行连续问答时,存在以下情况: 1. AI 容易“产生幻觉”并生成看似合理但实际错误的内容,甚至可能连续且良好地撒谎,其提供的每一件事或信息都可能不正确,需要对其进行全面检查。对于要求其为互联网提供参考、引用、引文和信息(对于未连接到互联网的模型)的情况尤其危险,不过 GPT4 通常更扎实,因为 Bing 的互联网连接能使其拉入相关事实,但幻觉也不可能完全消除。 2. 人工智能不会真正解释自己,当被要求解释为何写东西或思考过程时,它只是生成听起来合理但实则编造的文本,这使得理解系统中的偏见非常困难。 3. 在基于知识库的问答中,AI 有时回答不准确,可能出现牛头不对马嘴、报价错误、胡编乱造等情况,这在严肃场景中是不能接受的出错。 4. 撰写连续提示时,明确性、逻辑性、简洁性等原则尤为重要,清晰的目标、逻辑性的顺序、分步骤的指导以及对变量的考虑都能更有效地指导 AI 生成符合期望的输出,这些原则不仅适用于 CoD 和 CoT,还适用于 ToT 或其他提示结构。
2025-01-17
问答对挖掘
以下是关于提升问答效果的技巧: 1. 智能问答的原理和注意事项:在召回排序的逻辑中,文档总标题在相似度计算中权重较高。若文档总标题与用户问题吻合,相关片段在排序中更靠前,送入大模型的可能性更大。但正文与总标题相关性不高可能导致回答不准确、答非所问。 2. 编写文档的注意事项: 文档的标题内容需与正文有强相关性。 不同的知识点尽量分段书写,合理控制段落长度。不同主题通过子标题区分,子标题下正文每个段落对应一个明确知识点,避免多个知识点混合,以保证每个片段主题鲜明,在用户提问相关问题时,该片段在召回排序中更靠前。同时,每个段落尽量不超过 500 字,过长段落可能在文档分割时被切割成多个片段,打散段落主题,导致最终召回的片段内容不全、答案不够全面。 3. 对于经常被问到的内容,可写成问答对(FAQ)格式。问答对包含问题描述,用户提出相关问题时,包含该问答对的片段在召回排序中非常靠前,更可能被送入大模型,给出准确回答。样例参考可查看相关示例。
2025-01-11
如何利用多轮对话做Agent问答
利用多轮对话做 Agent 问答可以从以下几个方面考虑: 1. 从产品角度: 思考用户为何想使用,例如通过探索历史新闻让用户更好地了解自身背景、成长环境,从中学习成长并获得有趣互动体验。 明确 Agent 是谁及其性格,比如设定为知识渊博、温暖亲切、富有同情心的历史新闻探索向导,负责新闻解析和历史背景分析。 确定提供新闻的时间,如用户出生那天及那一周的重要新闻事件。 规划除新闻外的能力,如提供历史背景分析、相关画作、生活方式分析,甚至加入神秘主义者和心理学家角色回应用户。 设计多 Agent 出场顺序和使用方式,通过多角色互动设计,让用户体验多层次对话,从基本问答到深度讨论,逐步引导用户探索。 2. 基于 LLM 的大脑模块: 自然语言交互方面:LLM 应具备多轮对话能力,能理解自然语言并生成连贯、上下文相关的回复,还应具备出色的生成能力和意图理解能力,但要注意模糊指令可能带来的挑战。 知识方面:包括语言知识(词法、句法、语义学和语用学)、常识知识(如药和伞的用途)、专业领域知识(如编程、医学),但要注意知识可能过时或错误,需通过重新训练或编辑 LLM 解决。 记忆方面:具备记忆机制,存储过去的观察、思考和行动,通过提高输入长度限制、记忆总结、用向量或数据结构压缩记忆等策略提升记忆,Agent 能检索记忆以访问相关信息,包括自动检索和交互式记忆对象。 推理和规划方面:基于证据和逻辑进行推理,这对解决问题和决策至关重要。
2025-01-08
智能问答机器人
以下是关于智能问答机器人的相关信息: 一、关于“我是谁” 我是 WaytoAGI 专属问答机器人,基于 Aily 和云雀大模型。Aily 是飞书团队旗下的企业级 AI 应用开发平台,提供简单、安全且高效的环境,帮助企业构建和发布 AI 应用。云雀是字节跳动研发的语言模型,能通过自然语言交互高效完成互动对话、信息获取、协助创作等任务。 二、使用方法 1. 在 WaytoAGI 飞书知识库首页找到加入飞书群的链接(最新二维码在),点击加入,直接@机器人即可。 2. 在 WaytoAGI.com 的网站首页,直接输入问题,即可得到回答。 在飞书 5000 人大群里,内置了智能机器人「waytoAGI 知识库智能问答」,基于飞书 aily 搭建。您只需在飞书群里发起话题时候即可,它会根据 waytoAGI 知识库的内容进行总结和回答。 三、做问答机器人的原因 1. 整个知识库内容庞大且丰富,新用户难以快速找到所需内容。 2. 传统搜索基于关键词及相关性,无法准确理解语义价值。 3. 需要用更先进的 RAG 技术解决。 4. 在群中提供快速检索信息的便捷方式。 四、飞书群问答机器人的功能 1. 自动问答:自动回答用户关于 AGI 知识库内涉及的问题,对多文档进行总结、提炼。 2. 知识搜索:在内置的「waytoAGI」知识库中搜索特定信息和数据,快速返回相关内容。 3. 文档引用:提供与用户查询相关的文档部分或引用,帮助用户获取更深入的理解。 4. 互动教学:通过互动式的问答,帮助群成员学习和理解 AI 相关的复杂概念。 5. 最新动态更新:分享有关 AGI 领域的最新研究成果、新闻和趋势。 6. 社区互动:促进群内讨论,提问和回答,增强社区的互动性和参与度。 7. 资源共享:提供访问和下载 AI 相关研究论文、书籍、课程和其他资源的链接。 8. 多语言支持:支持多语言问答,满足不同背景用户的需求。 五、搭建问答机器人的分享 时间:2024 年 2 月 22 日 会议首先介绍了 WaytoAGI 社区的成立愿景和目标,以及其在飞书平台上的知识库和社区的情况。接着,讨论了利用 AI 技术帮助用户更好地检索知识库中的内容,引入了 RAG 技术,通过机器人来帮助用户快速检索内容。然后,介绍了基于飞书的知识库智能问答技术的应用场景和实现方法,可以快速地给大模型补充新鲜的知识,提供大量新的内容。之后,讨论了如何使用飞书的智能伙伴功能来搭建 FAQ 机器人,以及智能助理的原理和使用方法。最后,介绍了企业级 agent 方面的实践。 六、背后的技术 「飞书智能伙伴创建平台」(英文名:Aily)是飞书团队旗下的企业级 AI 应用开发平台,提供了一个简单、安全且高效的环境,帮助企业轻松构建和发布 AI 应用,推动业务创新和效率提升。为企业探索大语言模型应用新篇章、迎接企业智能化未来提供理想选择。
2025-01-07
如何设计问答agent
设计问答 Agent 可以从以下几个方面考虑: 1. 明确 Agent 的身份和性格: 身份:例如将其设定为历史新闻探索向导。 性格:如知识渊博、温暖亲切、富有同情心。 为使角色更生动,可设计简短背景故事,比如曾是历史学家,对重大历史事件了如指掌,充满热情并愿意分享知识。 2. 写好角色个性: 角色背景和身份:编写背景故事,明确起源、经历和动机。 性格和语气:定义性格特点,如友好、幽默、严肃或神秘;确定说话方式和风格。 角色互动方式:设计从基本问答到深入讨论的对话风格。 角色技能:明确核心功能,如提供新闻解析、历史背景分析或心理分析;增加附加功能以提高吸引力和实用性。 3. 一些好的 Agent 构建平台包括: Coze:新一代一站式 AI Bot 开发平台,集成丰富插件工具拓展 Bot 能力。 Mircosoft 的 Copilot Studio:主要功能有外挂数据、定义流程、调用 API 和操作,以及部署到各种渠道。 文心智能体:百度推出的基于文心大模型的智能体平台,支持开发者打造产品能力。 MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行工作流。 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于多种场景,提供多种成熟模板。 钉钉 AI 超级助理:依托钉钉优势,在处理高频工作场景方面表现出色。 请注意,以上信息由 AI 大模型生成,请仔细甄别。
2025-01-07