Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

本地化单机版问答AI怎样创建

Answer

创建本地化单机版问答 AI 可以通过以下步骤实现:

  1. 基于用户的问题,从向量数据库中检索相关段落,并根据设定的阈值进行过滤,最后让模型参考上下文信息回答用户的问题,从而实现 RAG。
  2. 创建网页 UI,通过 gradio 创建,并进行评测。
  3. 对于同样的问题和上下文,基于 Qwen-7b、Gemma、Mistral、Mixtral 和 GPT-4 分别进行多次测试。主要结论(只是针对有限的几次测试,个人主观评判)如下:
    • GPT-4 表现最好,指令遵循能力很强,在回答的时候能附上引用段落编号。
    • Mixtral 表现第二,但没有在回答的时候附上引用。
    • Qwen-7b 表现第三,也没有在回答的时候附上引用。
    • Gemma 表现一般,而且回答里面有一些幻觉。
    • Mistral 表现一般,使用英文回复,不过在回答的时候附上了引用段落编号。 总结:
  4. 本文展示了如何使用 Langchain 和 Ollama 技术栈在本地部署一个资讯问答机器人,同时结合 RSSHub 来处理和提供资讯。
  5. 上下文数据质量和大模型的性能决定了 RAG 系统性能的上限。
  6. RAG 通过结合检索技术和生成模型来提升答案的质量和相关性,可以缓解大模型幻觉、信息滞后的问题,但并不意味着可以消除。

如需获取上述完整代码,关注本公众号,然后发送 fin,即可获取 github 仓库代码链接。

Content generated by AI large model, please carefully verify (powered by aily)

References

本地部署资讯问答机器人:Langchain+Ollama+RSSHub 实现 RAG

基于用户的问题,从向量数据库中检索相关段落,并根据设定的阈值进行过滤,最后让模型参考上下文信息回答用户的问题,从而实现RAG。|创建网页UI最后,通过gradio创建网页UI,并进行评测。生成的Web UI如下:需要上述完整代码的读者,关注本公众号,然后发送fin,即可获取github仓库代码链接。问答测试对于同样的问题和上下文,我基于Qwen-7b、Gemma、Mistral、Mixtral和GPT-4分别进行了多次测试。下面是一些case:qwengemmamistralmixtralgpt4主要结论(只是针对有限的几次测试,个人主观评判)如下:👍 GPT-4表现最好,指令遵循能力很强,在回答的时候能附上引用段落编号✌️ Mixtral表现第二,但没有在回答的时候附上引用💪 Qwen-7b表现第三,也没有在回答的时候附上引用😅 Gemma表现一般,而且回答里面有一些幻觉😅 Mistral表现一般,使用英文回复,不过在回答的时候附上了引用段落编号总结1.本文展示了如何使用Langchain和Ollama技术栈在本地部署一个资讯问答机器人,同时结合RSSHub来处理和提供资讯。2.上下文数据质量和大模型的性能决定了RAG系统性能的上限。3.RAG通过结合检索技术和生成模型来提升答案的质量和相关性,可以缓解大模型幻觉、信息滞后的问题,但并不意味着可以消除。

Others are asking
本地化单机版问答AI怎样创建,需要详细操作代码步骤
以下是创建本地化单机版问答 AI 的一般步骤: 1. 基于用户的问题,从向量数据库中检索相关段落,并根据设定的阈值进行过滤,最后让模型参考上下文信息回答用户的问题,从而实现 RAG。 2. 创建网页 UI,通过 gradio 创建网页 UI,并进行评测。 3. 对于同样的问题和上下文,基于 Qwen7b、Gemma、Mistral、Mixtral 和 GPT4 分别进行多次测试。 4. 主要结论(只是针对有限的几次测试,个人主观评判): GPT4 表现最好,指令遵循能力很强,在回答的时候能附上引用段落编号。 Mixtral 表现第二,但没有在回答的时候附上引用。 Qwen7b 表现第三,也没有在回答的时候附上引用。 Gemma 表现一般,而且回答里面有一些幻觉。 Mistral 表现一般,使用英文回复,不过在回答的时候附上了引用段落编号。 总结: 1. 本文展示了如何使用 Langchain 和 Ollama 技术栈在本地部署一个资讯问答机器人,同时结合 RSSHub 来处理和提供资讯。 2. 上下文数据质量和大模型的性能决定了 RAG 系统性能的上限。 3. RAG 通过结合检索技术和生成模型来提升答案的质量和相关性,可以缓解大模型幻觉、信息滞后的问题,但并不意味着可以消除。 需要上述完整代码的读者,关注本公众号,然后发送 fin,即可获取 github 仓库代码链接。
2024-11-28
分析英文期刊论文的ai有哪些?哪个好用?
以下是一些可用于分析英文期刊论文的 AI 工具: 1. 文献管理和搜索: Zotero:结合 AI 技术,能自动提取文献信息,便于管理和整理参考文献。 Semantic Scholar:由 AI 驱动的学术搜索引擎,可提供文献推荐和引用分析。 2. 内容生成和辅助写作: Grammarly:通过 AI 技术进行文本校对、语法修正和写作风格建议,提升语言质量。 Quillbot:基于 AI 的重写和摘要工具,可精简和优化论文内容。 3. 研究和数据分析: Google Colab:提供基于云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,方便进行数据分析和可视化。 Knitro:用于数学建模和优化的软件,有助于复杂的数据分析和模型构建。 4. 论文结构和格式: LaTeX:结合自动化和模板,高效处理论文格式和数学公式。 Overleaf:在线 LaTeX 编辑器,有丰富模板库和协作功能,简化论文编写。 5. 研究伦理和抄袭检测: Turnitin:广泛使用的抄袭检测工具,确保论文原创性。 Crossref Similarity Check:通过与已发表作品比较,检测潜在抄袭问题。 此外,以下是一些常见的文章润色 AI 工具: 1. Wordvice AI:集校对、改写转述和翻译等功能于一体,基于大型语言模型提供全面的英文论文润色服务。 2. ChatGPT:由 OpenAI 开发的大型语言模型,可用于多方面写作辅助。 3. Quillbot:人工智能文本摘要和改写工具,可用于快速筛选和改写文献资料。 4. HyperWrite:基于 AI 的写作助手和大纲生成器,可帮助写作前进行头脑风暴和大纲规划。 5. Wordtune:AI 驱动的文本改写和润色工具,优化文章语言表达。 6. Smodin:提供 AI 驱动的论文撰写功能,可生成符合要求的学术论文。 在 AI 文章排版工具方面: 1. Grammarly:不仅是语法和拼写检查工具,还提供排版功能,改进文档风格和流畅性。 2. QuillBot:AI 驱动的写作和排版工具,改进文本清晰度和流畅性。 3. Latex:广泛用于学术论文排版的软件,使用标记语言描述格式,有许多 AI 辅助的编辑器和插件简化排版过程。 4. PandaDoc:文档自动化平台,使用 AI 帮助创建、格式化和自动化文档生成,适合商业和技术文档。 5. Wordtune:重新表述和改进文本,使其更清晰专业。 6. Overleaf:在线 Latex 编辑器,提供丰富模板和协作工具,适合学术写作和排版。 选择合适的工具取决于您的具体需求,如文档类型、出版标准和个人偏好。对于学术论文,Latex 和 Overleaf 通常是受欢迎的选择;对于一般文章和商业文档,Grammarly 和 PandaDoc 等可能更适用。请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-01-22
你这里有AI报告的合集吗
以下是为您提供的部分 AI 报告合集: 2024 年 5 月 9 日: 《》 《》 《》 《》 《》 2023 年 11 月 15 日: 《》 《》 《》 2024 年 12 月 23 日: 《 Fastdata 极数:《》 《》 清华大学五道口金融学院:《》 国盛证券:《》 托尼·布莱尔全球变化研究所:《》 腾讯云:《》 您可以在以下链接查看更多详细内容:
2025-01-22
有什么ai 可以用来核实信息
以下是一些可以用来核实信息的 AI 相关内容: 马斯克认为真正的 AI 应能理解物理世界,比如能帮助人们在世界各地找到不同的事物。如果 AI 做不到像在机场找到咖啡这样的简单任务,那就不是一个好的 AI。 Twitter 上的很多数据可用于构建验证器。 存在能联网检索的 AI,例如 ChatGPT Plus 用户可开启 web browsing 功能实现联网,Perplexity 结合了问答和搜索引擎功能,Bing Copilot 可简化在线查询和浏览,还有 You.com 和 Neeva AI 等提供基于人工智能的定制搜索体验并保护用户数据私密性的搜索引擎。 但使用 AI 时需注意,它可能会“产生幻觉”生成错误内容,需要检查所有结果。AI 不会真正解释自己,给出的解释可能是编造的,且可能被不道德地用于操纵或作弊,用户要对其输出负责。
2025-01-22
输出一个“BIM工程师如何用AI辅助工作”的PPT
很抱歉,目前没有关于“BIM 工程师如何用 AI 辅助工作”的 PPT 相关内容。但 BIM 工程师可以考虑以下几个方面利用 AI 辅助工作: 1. 利用 AI 进行建筑信息模型的自动生成和优化,提高建模效率和准确性。 2. 借助 AI 对建筑性能进行模拟和预测,例如能耗分析、结构稳定性评估等。 3. 通过 AI 实现施工进度的智能规划和监控,及时发现潜在的延误风险。 4. 运用 AI 辅助进行建筑材料和设备的选型,以达到成本控制和质量提升的目的。 您可以根据以上思路来制作 PPT。
2025-01-22
如何系统地学习AI
以下是系统学习 AI 的方法: 1. 编程语言基础:从 Python、JavaScript 等编程语言开始学习,掌握编程语法、数据结构、算法等基础知识,为后续的 AI 学习奠定基础。 2. 尝试使用工具和平台:可以使用 ChatGPT、Midjourney 等 AI 生成工具,体验 AI 的应用场景。探索面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 3. 学习基础知识: 了解 AI 的基本概念、发展历程、主要技术(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 阅读入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 4. 参与实践项目:参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动,尝试利用 AI 技术解决生活中的实际问题,培养动手能力。 5. 关注前沿动态:关注 AI 领域的权威媒体和学者,了解 AI 技术的最新进展,思考 AI 技术对未来社会的影响,培养对 AI 的思考和判断能力。 6. 选择感兴趣的模块深入学习:AI 领域广泛,如图像、音乐、视频等,可根据兴趣选择特定模块深入学习,掌握提示词技巧。 7. 开始学习之旅: 阅读「」部分,熟悉 AI 的术语和基础概念。 在「」中找到为初学者设计的课程,特别推荐李宏毅老师的课程。通过在线教育平台(如 Coursera、edX、Udacity)上的课程按照自己的节奏学习,并有机会获得证书。 8. 实践和尝试:理论学习后进行实践,巩固知识,尝试使用各种产品做出作品。在知识库分享实践后的成果。 9. 体验 AI 产品:与 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人互动,了解其工作原理和交互方式,获得对 AI 实际应用的第一手体验。 10. 加入学习社区:如,按照新手指引入门,避免走弯路。
2025-01-22
用AI制作视频
将小说用 AI 制作成视频的流程如下: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 需要注意的是,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问以下工具网址获取最新信息和使用指南: 1. Stable Diffusion(SD):一种 AI 图像生成模型,可以基于文本描述生成图像。网址:https://github.com/StabilityAI 2. Midjourney(MJ):另一个 AI 图像生成工具,适用于创建小说中的场景和角色图像。网址:https://www.midjourney.com 3. Adobe Firefly:Adobe 的 AI 创意工具,可以生成图像和设计模板。网址:https://www.adobe.com/products/firefly.html 4. Pika AI:文本生成视频的 AI 工具,适合动画制作。网址:https://pika.art/waitlist 5. Clipfly:一站式 AI 视频生成和剪辑平台。网址:https://www.aihub.cn/tools/video/clipfly/ 6. VEED.IO:在线视频编辑工具,具有 AI 视频生成器功能。网址:https://www.veed.io/zhCN/tools/aivideo 7. 极虎漫剪:结合 Stable Diffusion 技术的小说推文视频创作提效工具。网址:https://tiger.easyartx.com/landing 8. 故事 AI 绘图:小说转视频的 AI 工具。网址:https://www.aihub.cn/tools/video/gushiai/ 在 Adobe Firefly 的 Advanced 部分,您可以使用 Seed 选项添加种子编号(https://helpx.adobe.com/firefly/generatevideo/generatevideoclips/generatevideofaq.htmlwhatisaseed),以帮助启动流程并控制 AI 创建的内容的随机性。如果使用相同的种子、提示和控制设置,则可以重新生成类似的视频剪辑。然后选择 Generate(生成)。
2025-01-22
如何本地化部署一个ai助手
本地化部署一个 AI 助手可以参考以下几种方式: 1. 在网站上增加 AI 助手: 搭建示例网站: 创建应用:点击打开函数计算应用模板,参考相关选择直接部署、填写百炼应用 ID 以及 APIKEY,其他表单项保持默认,点击创建并部署默认环境,等待项目部署完成(预计耗时 1 分钟)。 访问网站:应用部署完成后,在应用详情的环境信息中找到示例网站的访问域名,点击即可查看,确认示例网站已经部署成功。 为网站增加 AI 助手: 增加 AI 助手相关代码:回到应用详情页,在环境详情的最底部找到函数资源,点击函数名称,进入函数详情页。在代码视图中找到 public/index.html 文件,取消相关位置的代码注释。最后点击部署代码,等待部署完成。 验证网站上的 AI 助手:重新访问示例网站页面以查看最新效果,网站的右下角会出现 AI 助手图标,点击即可唤起 AI 助手。 2. 从 LLM 大语言模型、知识库到微信机器人的全本地部署(以 windows10 系统为例): 本地 Hook 或 COW 机器人(二选一,建议先选择 COW): 注意:本教程完成后,程序将在您的电脑本地运行,假如关掉了窗口,进程也就结束。所以,如果想让 AI 持续使用,就必须保持窗口打开和运行,也就是电脑不能关。 安装环境: 点击电脑“系统”,直接输入“cmd”,点击回车,打开命令窗口。 在命令窗口中,粘贴入相关代码,确认是否有 python 和 pip。 如果没有,先进行 python 的安装,可点击下载:。 部署项目:下载 COW 机器人项目,解压缩。 3. 把大模型接入小米音箱(node.js): 第四步:填写 API 服务: 智普:接口地址:https://open.bigmodel.cn/api/paas/v4,模型:glm4flash。 硅基:选择 AI 服务为自定义,接口地址:https://api.siliconflow.cn/v1。 其他模型的 API 端口请参考官方文档:https://migptgui.com/docs/apply/。 第五步:语音服务:官方说明:https://migptgui.com/docs/faqs/tts。 第六步:启动服务:在最上方可导出编辑的内容,格式为 json 格式,如果改错了可以导入之前保存的配置。单击启动,回到 powshell 界面。每次调整设置都需要重置后重新启动。建议回答完毕后增加结束的提示语,可以提高连续对话的稳定性。官方常见问题文档:https://migptgui.com/docs/faqs/noreply。
2025-01-05
能够本地化部署的AI文字助手
以下是关于本地化部署的 AI 文字助手以及相关排版和润色工具的信息: 本地化部署的 AI 文字助手: 在让 AI 助手能准确回答问题之前,可先快速将其集成到网站中。 1. 搭建示例网站: 创建应用:点击打开函数计算应用模板,参考相关选择直接部署、填写百炼应用 ID 以及 APIKEY,其他表单项保持默认,点击创建并部署默认环境,等待项目部署完成(预计耗时 1 分钟)。 访问网站:应用部署完成后,在应用详情的环境信息中找到示例网站的访问域名,点击查看确认部署成功。 2. 为网站增加 AI 助手: 增加 AI 助手相关代码:回到应用详情页,在环境详情底部找到函数资源,点击函数名称进入函数详情页,在代码视图中找到 public/index.html 文件,取消相关位置的代码注释,最后点击部署代码等待完成。 验证网站上的 AI 助手:重新访问示例网站页面查看最新效果,会发现网站右下角出现 AI 助手图标,点击唤起。 AI 文章排版工具: 主要用于自动化和优化文档布局和格式,特别是处理学术论文和专业文档。一些流行的工具包括: 1. Grammarly:不仅是语法和拼写检查工具,还提供排版功能,改进文档风格和流畅性。 2. QuillBot:AI 驱动的写作和排版工具,改进文本清晰度和流畅性。 3. Latex:广泛用于学术论文排版,使用标记语言描述格式,有许多 AI 辅助的编辑器和插件简化排版过程。 4. PandaDoc:文档自动化平台,使用 AI 帮助创建、格式化和自动化文档生成,适合商业和技术文档。 5. Wordtune:AI 写作助手,重新表述和改进文本,使其更清晰专业。 6. Overleaf:在线 Latex 编辑器,提供丰富模板和协作工具,适合学术写作和排版。 选择合适的工具取决于具体需求,如文档类型、出版标准和个人偏好。对于学术论文,Latex 和 Overleaf 受欢迎;对于一般文章和商业文档,Grammarly 和 PandaDoc 等可能更适用。 文章润色工具: 常见的有: 1. Wordvice AI:集校对、改写转述和翻译等功能于一体,基于大型语言模型提供全面的英文论文润色服务。 2. ChatGPT:由 OpenAI 开发的大型语言模型,可用于多方面写作辅助。 3. Quillbot:人工智能文本摘要和改写工具,可用于快速筛选和改写文献资料。 4. HyperWrite:基于 AI 的写作助手和大纲生成器,帮助写作前头脑风暴和大纲规划。 5. Wordtune:AI 驱动的文本改写和润色工具,优化文章语言表达。 6. Smodin:提供 AI 驱动的论文撰写功能,可根据输入生成符合要求的学术论文。 这些 AI 工具涵盖文章润色的各个环节,可提高写作效率和质量,科研人员和学生可根据自身需求选择。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-01-05
能够本地化部署的AI助手
以下是关于能够本地化部署的 AI 助手的相关信息: 聊天对话类 AI 产品 ChatGPT: 由 OpenAI 开发,是国际 AI 领域的明星产品,家喻户晓。 开创性强,是首批向公众开放的大规模商用 AI 对话系统之一,掀起 AI 革命,改变人们对 AI 认知,为技术发展指明方向。 用户体验精心设计,界面简洁直观,交互流畅自然,新手也能轻松上手,降低使用门槛,普及 AI。 技术实力强,背后的 GPT 系列模型性能和能力领先,语言理解深度和生成内容质量高,能应对复杂任务和挑战。 局限性:不再是市场唯一顶级选择,其他产品在特定领域超越其表现;国内用户使用可能有网络连接问题,影响体验。 AI 工具使用方法: 市面上有线上和线下本地部署两种 AI。 线上优势:出图速度快,不吃本地显卡配置,无需下载大模型,能看他人作品,但出图最高 1024×1024 左右,制作横板、高清图片受限。 线下优势:可添加插件,不卡算力,出图质量高,但使用时电脑基本宕机,配置不高可能爆显存导致出图失败。 充分发挥线上和线下平台优势:线上找参考、测试模型,线下作为主要出图工具。 在线上绘图网站绘图广场找想要的画风,点击创作会自动匹配模型、lora 和 tag。 截取游戏人物底图,将线上有限算力堆在人物身上,多批次、多数量尝试不同画风,得出符合游戏的模型+lora 组合,在 C 站下载对应模型到本地加载部署后正式生图。 本地部署资讯问答机器人: 对于期望在本地环境利用 AI 技术搭建 RAG 系统的用户,有实际操作价值的参考方案。
2025-01-05
本地化的AI助手有哪些
以下是一些本地化的 AI 助手: 在移动端,人工智能助手 Luzia 首次亮相排名第 25 位,该公司声称在全球拥有 4500 万用户,主要为西班牙语使用者。Luzia 最初是基于 WhatsApp 的聊天机器人,于 2023 年 12 月推出了独立的移动应用程序。 字节跳动的产品: 教育科技平台 Gauth,排名第 44 位。 机器人构建器 Coze,排名第 45 位。 通用助手豆包,在移动榜单上排名第 26 位,其网站为 doubao.com 。 照片和视频编辑器 Hypic,第 19 名。 助手 Cici,第 34 名,在移动端是豆包的英文版。 此外,还有一些与编程相关的 AI 工具: GitHub Copilot:由 GitHub 联合 OpenAI 和微软 Azure 团队推出,支持多种语言和 IDE,能为程序员快速提供代码建议。 通义灵码:阿里巴巴团队推出,提供多种编程辅助能力。 CodeWhisperer:亚马逊 AWS 团队推出,由机器学习技术驱动,为开发人员实时提供代码建议。 CodeGeeX:智谱 AI 推出的开源免费 AI 编程助手,基于 130 亿参数的预训练大模型。 Cody:代码搜索平台 Sourcegraph 推出,借助强大的代码语义索引和分析能力了解开发者的整个代码库。 CodeFuse:蚂蚁集团支付宝团队为国内开发者提供智能研发服务的免费 AI 代码助手。 Codeium:一个由 AI 驱动的编程助手工具,旨在提高编程效率和准确性。 更多辅助编程 AI 产品,可查看:https://www.waytoagi.com/category/65 。 每个工具的功能和适用场景可能不同,您可以根据自身需求选择最适合的工具。
2025-01-05
本地化搭建问答机器人流程
本地化搭建问答机器人的流程如下: 1. 加载所需的库和模块:包括用于解析 RSS 订阅源的 feedparse,用于在 Python 程序中跑大模型的 ollama(使用前需确保 ollama 服务已开启并下载好模型)。 2. 从订阅源获取内容:通过函数从指定的 RSS 订阅 url 提取内容,如需接收多个 url 稍作改动即可。然后使用专门的文本拆分器将长文本拆分成较小的块,并附带相关元数据,最终合并成列表返回用于后续处理或提取。 3. 为文档内容生成向量:使用文本向量模型 bgem3(从 hf 下载好模型后假设放置在某个路径,通过函数利用 FAISS 创建高效的向量存储)。 4. 推荐 RSSHub 项目:可将关注的信息汇聚在同一平台,一旦有更新能在各种终端收到提醒。其为各种网站生成 RSS 源,大部分社交媒体、传统媒体和金融媒体都能配合订阅。 5. 流程拆解: 创建 Python 虚拟环境,并安装相关库,如 ollama(0.1.8)、langchain(0.1.14)、faisscpu(1.8.0,有 gpu 则安装 gpu 版本)、gradio(4.25.0)、feedparser(6.0.11)、sentencetransformers(2.6.1)、lxml(5.2.1)。 6. 了解 ollama: 支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同场景。 易于使用,适用于 macOS、Windows 和 Linux 系统,支持 cpu 和 gpu。 提供模型库,用户可从中下载不同模型,满足不同需求和硬件条件,模型库可通过 https://ollama.com/library 查找。 支持自定义模型,可修改温度参数等。 提供 REST API 用于运行和管理模型及与其他应用集成。 社区贡献丰富,有多种集成插件和界面。 先安装 ollama,访问 https://ollama.com/download/ 下载安装。安装完确保 ollama 后台服务已启动(在 mac 上启动应用程序,在 linux 上通过 ollama serve 启动),可通过 ollama list 确认,未下载模型时正常显示空,可通过 ollama 命令下载模型。
2024-12-21
可不可以提供一个本地化的大模型方法,让我建立这个合规法律的知识库
以下是为您提供的本地化大模型及搭建合规法律知识库的方法: 一、通过 Open WebUI 使用大模型 1. 首先访问相关网址。打开页面时需使用邮箱注册账号。 2. 登陆成功后,若您使用过类似 ChatGPT 的大模型对话网站,对该页面不会陌生。 3. Open WebUI 一般有两种使用方式: 聊天对话。 RAG 能力,即让模型根据文档内容回答问题,这是构建知识库的基础之一。 4. 如果要求不高,此时已搭建本地大模型,并通过 Web UI 实现对话功能。 5. ChatGPT 访问速度快且回答效果好的原因: 速度快是因为 GPT 大模型部署的服务器配置高。 效果好是因为 GPT 大模型的训练参数多、数据更优及训练算法更好。 二、您的硬件达标了么 运行大模型需要很高的机器配置,个人玩家大多负担不起。以下是不同类型大模型的配置要求: 1. 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型) 2. 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 3. 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 最低配置运行非常慢,不建议使用。但这不妨碍我们亲自实操一遍,以加深对大模型构建知识库底层原理的了解。若想要更顺滑的体验知识库,可以参考文章: 三、本地知识库进阶 若要更灵活掌控知识库,需额外软件 AnythingLLM。它包含 Open WebUI 的所有能力,并额外支持以下能力: 1. 选择文本嵌入模型。 2. 选择向量数据库。 AnythingLLM 安装和配置 安装地址:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步: 1. 第一步:选择大模型。 2. 第二步:选择文本嵌入模型。 3. 第三步:选择向量数据库。 构建本地知识库 AnythingLLM 中有 Workspace 的概念,可创建独有的 Workspace 与其他项目数据隔离。具体步骤: 1. 首先创建一个工作空间。 2. 上传文档并在工作空间中进行文本嵌入。 3. 选择对话模式。AnythingLLM 提供两种对话模式: Chat 模式:大模型会根据自己的训练数据和上传的文档数据综合给出答案。 Query 模式:大模型仅依靠文档中的数据给出答案。 4. 测试对话。完成上述配置后,即可与大模型进行对话。 四、写在最后 “看十遍不如实操一遍,实操十遍不如分享一遍”。若您对 AI Agent 技术感兴趣,可以联系我或者加我的免费知识星球(备注 AGI 知识库)。
2024-12-18
解释AI中连续问答时,为什么有时候AI似乎不记得我问的第一个问题了
在 AI 连续问答中,有时 AI 似乎不记得第一个问题,可能有以下原因: 1. 模型本身的限制:AI 回答问题时可能容易“产生幻觉”,生成看似合理但实际错误的内容,且可能连续且良好地撒谎,对于所提供的信息不一定能保证准确性和连贯性。 2. 缺乏上下文理解:AI 可能在处理后续问题时,未能充分整合和记住之前问题的关键信息,导致回答与之前的问题脱节。 3. 输出模式的固定性:像 GPT 回答问题时喜欢用特定的模式,如 1、2、3、4 或“首先、其次、最后”,这种固定模式可能影响对问题的灵活处理和记忆。 4. 无法真正解释自身:当被要求解释回答的原因或思考过程时,AI 只是生成听起来合理但可能是编造的文本,而不是真正审查自身的行动,这使得理解其回答的逻辑和连贯性变得困难。 为了让 AI 的回复更有灵性和连贯性,可以尝试一些方法,如让 AI 扮演特定角色、给出明确输出要求、营造特定环境、让其用括号补充动作以增加感情等。但即便如此,也不能完全消除上述问题。同时,使用 AI 时要注意对其输出进行检查,避免被不道德地利用。
2025-01-17
解释AI中连续问答时,为什么有时候
在 AI 中进行连续问答时,存在以下情况: 1. AI 容易“产生幻觉”并生成看似合理但实际错误的内容,甚至可能连续且良好地撒谎,其提供的每一件事或信息都可能不正确,需要对其进行全面检查。对于要求其为互联网提供参考、引用、引文和信息(对于未连接到互联网的模型)的情况尤其危险,不过 GPT4 通常更扎实,因为 Bing 的互联网连接能使其拉入相关事实,但幻觉也不可能完全消除。 2. 人工智能不会真正解释自己,当被要求解释为何写东西或思考过程时,它只是生成听起来合理但实则编造的文本,这使得理解系统中的偏见非常困难。 3. 在基于知识库的问答中,AI 有时回答不准确,可能出现牛头不对马嘴、报价错误、胡编乱造等情况,这在严肃场景中是不能接受的出错。 4. 撰写连续提示时,明确性、逻辑性、简洁性等原则尤为重要,清晰的目标、逻辑性的顺序、分步骤的指导以及对变量的考虑都能更有效地指导 AI 生成符合期望的输出,这些原则不仅适用于 CoD 和 CoT,还适用于 ToT 或其他提示结构。
2025-01-17
问答对挖掘
以下是关于提升问答效果的技巧: 1. 智能问答的原理和注意事项:在召回排序的逻辑中,文档总标题在相似度计算中权重较高。若文档总标题与用户问题吻合,相关片段在排序中更靠前,送入大模型的可能性更大。但正文与总标题相关性不高可能导致回答不准确、答非所问。 2. 编写文档的注意事项: 文档的标题内容需与正文有强相关性。 不同的知识点尽量分段书写,合理控制段落长度。不同主题通过子标题区分,子标题下正文每个段落对应一个明确知识点,避免多个知识点混合,以保证每个片段主题鲜明,在用户提问相关问题时,该片段在召回排序中更靠前。同时,每个段落尽量不超过 500 字,过长段落可能在文档分割时被切割成多个片段,打散段落主题,导致最终召回的片段内容不全、答案不够全面。 3. 对于经常被问到的内容,可写成问答对(FAQ)格式。问答对包含问题描述,用户提出相关问题时,包含该问答对的片段在召回排序中非常靠前,更可能被送入大模型,给出准确回答。样例参考可查看相关示例。
2025-01-11
如何利用多轮对话做Agent问答
利用多轮对话做 Agent 问答可以从以下几个方面考虑: 1. 从产品角度: 思考用户为何想使用,例如通过探索历史新闻让用户更好地了解自身背景、成长环境,从中学习成长并获得有趣互动体验。 明确 Agent 是谁及其性格,比如设定为知识渊博、温暖亲切、富有同情心的历史新闻探索向导,负责新闻解析和历史背景分析。 确定提供新闻的时间,如用户出生那天及那一周的重要新闻事件。 规划除新闻外的能力,如提供历史背景分析、相关画作、生活方式分析,甚至加入神秘主义者和心理学家角色回应用户。 设计多 Agent 出场顺序和使用方式,通过多角色互动设计,让用户体验多层次对话,从基本问答到深度讨论,逐步引导用户探索。 2. 基于 LLM 的大脑模块: 自然语言交互方面:LLM 应具备多轮对话能力,能理解自然语言并生成连贯、上下文相关的回复,还应具备出色的生成能力和意图理解能力,但要注意模糊指令可能带来的挑战。 知识方面:包括语言知识(词法、句法、语义学和语用学)、常识知识(如药和伞的用途)、专业领域知识(如编程、医学),但要注意知识可能过时或错误,需通过重新训练或编辑 LLM 解决。 记忆方面:具备记忆机制,存储过去的观察、思考和行动,通过提高输入长度限制、记忆总结、用向量或数据结构压缩记忆等策略提升记忆,Agent 能检索记忆以访问相关信息,包括自动检索和交互式记忆对象。 推理和规划方面:基于证据和逻辑进行推理,这对解决问题和决策至关重要。
2025-01-08
智能问答机器人
以下是关于智能问答机器人的相关信息: 一、关于“我是谁” 我是 WaytoAGI 专属问答机器人,基于 Aily 和云雀大模型。Aily 是飞书团队旗下的企业级 AI 应用开发平台,提供简单、安全且高效的环境,帮助企业构建和发布 AI 应用。云雀是字节跳动研发的语言模型,能通过自然语言交互高效完成互动对话、信息获取、协助创作等任务。 二、使用方法 1. 在 WaytoAGI 飞书知识库首页找到加入飞书群的链接(最新二维码在),点击加入,直接@机器人即可。 2. 在 WaytoAGI.com 的网站首页,直接输入问题,即可得到回答。 在飞书 5000 人大群里,内置了智能机器人「waytoAGI 知识库智能问答」,基于飞书 aily 搭建。您只需在飞书群里发起话题时候即可,它会根据 waytoAGI 知识库的内容进行总结和回答。 三、做问答机器人的原因 1. 整个知识库内容庞大且丰富,新用户难以快速找到所需内容。 2. 传统搜索基于关键词及相关性,无法准确理解语义价值。 3. 需要用更先进的 RAG 技术解决。 4. 在群中提供快速检索信息的便捷方式。 四、飞书群问答机器人的功能 1. 自动问答:自动回答用户关于 AGI 知识库内涉及的问题,对多文档进行总结、提炼。 2. 知识搜索:在内置的「waytoAGI」知识库中搜索特定信息和数据,快速返回相关内容。 3. 文档引用:提供与用户查询相关的文档部分或引用,帮助用户获取更深入的理解。 4. 互动教学:通过互动式的问答,帮助群成员学习和理解 AI 相关的复杂概念。 5. 最新动态更新:分享有关 AGI 领域的最新研究成果、新闻和趋势。 6. 社区互动:促进群内讨论,提问和回答,增强社区的互动性和参与度。 7. 资源共享:提供访问和下载 AI 相关研究论文、书籍、课程和其他资源的链接。 8. 多语言支持:支持多语言问答,满足不同背景用户的需求。 五、搭建问答机器人的分享 时间:2024 年 2 月 22 日 会议首先介绍了 WaytoAGI 社区的成立愿景和目标,以及其在飞书平台上的知识库和社区的情况。接着,讨论了利用 AI 技术帮助用户更好地检索知识库中的内容,引入了 RAG 技术,通过机器人来帮助用户快速检索内容。然后,介绍了基于飞书的知识库智能问答技术的应用场景和实现方法,可以快速地给大模型补充新鲜的知识,提供大量新的内容。之后,讨论了如何使用飞书的智能伙伴功能来搭建 FAQ 机器人,以及智能助理的原理和使用方法。最后,介绍了企业级 agent 方面的实践。 六、背后的技术 「飞书智能伙伴创建平台」(英文名:Aily)是飞书团队旗下的企业级 AI 应用开发平台,提供了一个简单、安全且高效的环境,帮助企业轻松构建和发布 AI 应用,推动业务创新和效率提升。为企业探索大语言模型应用新篇章、迎接企业智能化未来提供理想选择。
2025-01-07
如何设计问答agent
设计问答 Agent 可以从以下几个方面考虑: 1. 明确 Agent 的身份和性格: 身份:例如将其设定为历史新闻探索向导。 性格:如知识渊博、温暖亲切、富有同情心。 为使角色更生动,可设计简短背景故事,比如曾是历史学家,对重大历史事件了如指掌,充满热情并愿意分享知识。 2. 写好角色个性: 角色背景和身份:编写背景故事,明确起源、经历和动机。 性格和语气:定义性格特点,如友好、幽默、严肃或神秘;确定说话方式和风格。 角色互动方式:设计从基本问答到深入讨论的对话风格。 角色技能:明确核心功能,如提供新闻解析、历史背景分析或心理分析;增加附加功能以提高吸引力和实用性。 3. 一些好的 Agent 构建平台包括: Coze:新一代一站式 AI Bot 开发平台,集成丰富插件工具拓展 Bot 能力。 Mircosoft 的 Copilot Studio:主要功能有外挂数据、定义流程、调用 API 和操作,以及部署到各种渠道。 文心智能体:百度推出的基于文心大模型的智能体平台,支持开发者打造产品能力。 MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行工作流。 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于多种场景,提供多种成熟模板。 钉钉 AI 超级助理:依托钉钉优势,在处理高频工作场景方面表现出色。 请注意,以上信息由 AI 大模型生成,请仔细甄别。
2025-01-07