支持学习本地文档的本地AI工具有以下几种:
Llama 3:Llama 3是Meta团队发布的AI模型,可以通过Ollama工具在本地运行。Ollama提供了一个简单的安装和设置方法,用户可以在本地进行数据分析和可视化,消除调用大模型API带来的数据安全烦恼。Llama 3有两个版本,8B和70B,8B模型适合在笔记本上运行,而70B模型则需要更多的计算资源。
AnythingLLM:这是一个开源的企业级文档聊天机器人解决方案,可以将任何文档、资源或内容片段转化为大语言模型在聊天中可以利用的相关上下文。AnythingLLM支持PDF、TXT、DOCX等文档,可以提取文档中的文本信息,经过嵌入模型保存在向量数据库中,并通过一个简单的UI界面管理这些文档。
MaxKB:MaxKB是一款基于LLM大语言模型的知识库问答系统,支持直接上传文档、自动爬取在线文档,支持文本自动拆分、向量化,智能问答交互体验好。它还支持零编码快速嵌入到第三方业务系统,并支持对接主流的大模型,包括本地私有大模型(如Llama 2、Llama 3)。
RAGFlow:RAGFlow是一款端到端的RAG解决方案,旨在通过深度文档理解技术,解决现有RAG技术在数据处理和生成答案方面的挑战。它能够处理多种格式的文档,并智能地识别文档中的结构和内容,从而确保数据的高质量输入。
FastGPT:FastGPT是一个基于LLM大语言模型的知识库问答系统,提供开箱即用的数据处理、模型调用等能力。同时可以通过Flow可视化进行工作流编排,从而实现复杂的问答场景。
Dify:Dify是一款开源的大语言模型应用开发平台,融合了后端即服务和LLMOps的理念,使开发者可以快速搭建生产级的生成式AI应用。
Open WebUI:Open WebUI是一个可扩展的、功能丰富的、用户友好的自托管Web界面,设计用于完全离线运行。它支持各种LLM运行器,包括Ollama和兼容OpenAI的API。
Xinference:Xinference是一个性能强大且功能全面的分布式推理框架,可用于各种模型的推理。通过Xinference,可以轻松地一键部署自己的模型或内置的前沿开源模型。
这些工具和平台可以帮助用户在本地环境中处理和分析文档,提供安全、高效的AI辅助功能。