Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

是否有推荐的RAG 框架

Answer

以下为您推荐常用的 RAG 框架: LangChain 是一个为简化大模型应用开发而设计的开源框架。它通过提供一套模块化的工具和库,允许开发者轻松集成和操作多种大模型,使开发者能将更多精力投入到创造应用的核心价值上。其设计注重简化开发流程,支持广泛的模型,具有良好的可扩展性,以适应不断变化的业务需求。作为一个得到社区广泛支持的开源项目,LangChain 拥有活跃的贡献者和持续的更新,同时提供了全面的文档和示例代码帮助新用户快速掌握。此外,LangChain 在设计时充分考虑了应用的安全性和用户数据的隐私保护,是一个多语言支持的灵活框架,适用于各种规模的项目和不同背景的开发者。 LangChain 官方手册:https://python.langchain.com/docs/get_started/introduction/

Content generated by AI large model, please carefully verify (powered by aily)

References

RAG 提示工程(三):迈向工程化应用

到目前为止,我们一直利用Prompt Layer平台对提示词进行验证和迭代工作。然而,在实际的工作场景中,我们并不会局限于仅使用像Prompt Layer这样专门针对提示词优化的平台。相反,我们会采用更广泛的工具和框架进行大模型项目的开发。在实际项目中,我们会使用工程化框架,为开发提供必要的支持。随着我们向工程化的第一步迈进,我们将逐步转变思路,不再仅仅局限于提示词角度的建设和优化,而是更加从实际项目角度入手去考虑工程化建设。这意味着我们将转变我们要采用更全面的工具和方法,以确保能够满足实际业务需求,提供真正的价值。下面,我们就介绍几种常用的RAG框架,供大家参考。[heading4]3.1 LangChain[content]LangChain是一个为简化大模型应用开发而设计的开源框架。它通过提供一套模块化的工具和库,允许开发者轻松地集成和操作多种大模型,从而将更多的精力投入到创造应用的核心价值上。LangChain的设计注重简化开发流程,支持广泛的模型,并且具备良好的可扩展性,以适应不断变化的业务需求。作为一个得到社区广泛支持的开源项目,LangChain拥有活跃的贡献者和持续的更新,同时提供了全面的文档和示例代码帮助新用户快速掌握。此外,LangChain在设计时也充分考虑了应用的安全性和用户数据的隐私保护,是一个多语言支持的灵活框架,适用于各种规模的项目和不同背景的开发者。LangChain官方手册:https://python.langchain.com/docs/get_started/introduction/

RAG提示工程系列(3)| 迈向工程化应用

到目前为止,我们一直利用Prompt Layer平台对提示词进行验证和迭代工作。然而,在实际的工作场景中,我们并不会局限于仅使用像Prompt Layer这样专门针对提示词优化的平台。相反,我们会采用更广泛的工具和框架进行大模型项目的开发。在实际项目中,我们会使用工程化框架,为开发提供必要的支持。随着我们向工程化的第一步迈进,我们将逐步转变思路,不再仅仅局限于提示词角度的建设和优化,而是更加从实际项目角度入手去考虑工程化建设。这意味着我们将转变我们要采用更全面的工具和方法,以确保能够满足实际业务需求,提供真正的价值。下面,我们就介绍几种常用的RAG框架,供大家参考。[heading4]3.1 LangChain[content]LangChain是一个为简化大模型应用开发而设计的开源框架。它通过提供一套模块化的工具和库,允许开发者轻松地集成和操作多种大模型,从而将更多的精力投入到创造应用的核心价值上。LangChain的设计注重简化开发流程,支持广泛的模型,并且具备良好的可扩展性,以适应不断变化的业务需求。作为一个得到社区广泛支持的开源项目,LangChain拥有活跃的贡献者和持续的更新,同时提供了全面的文档和示例代码帮助新用户快速掌握。此外,LangChain在设计时也充分考虑了应用的安全性和用户数据的隐私保护,是一个多语言支持的灵活框架,适用于各种规模的项目和不同背景的开发者。LangChain官方手册:https://python.langchain.com/docs/get_started/introduction/

RAG提示工程系列(3)| 迈向工程化应用

到目前为止,我们一直利用Prompt Layer平台对提示词进行验证和迭代工作。然而,在实际的工作场景中,我们并不会局限于仅使用像Prompt Layer这样专门针对提示词优化的平台。相反,我们会采用更广泛的工具和框架进行大模型项目的开发。在实际项目中,我们会使用工程化框架,为开发提供必要的支持。随着我们向工程化的第一步迈进,我们将逐步转变思路,不再仅仅局限于提示词角度的建设和优化,而是更加从实际项目角度入手去考虑工程化建设。这意味着我们将转变我们要采用更全面的工具和方法,以确保能够满足实际业务需求,提供真正的价值。下面,我们就介绍几种常用的RAG框架,供大家参考。[heading4]3.1 LangChain[content]LangChain是一个为简化大模型应用开发而设计的开源框架。它通过提供一套模块化的工具和库,允许开发者轻松地集成和操作多种大模型,从而将更多的精力投入到创造应用的核心价值上。LangChain的设计注重简化开发流程,支持广泛的模型,并且具备良好的可扩展性,以适应不断变化的业务需求。作为一个得到社区广泛支持的开源项目,LangChain拥有活跃的贡献者和持续的更新,同时提供了全面的文档和示例代码帮助新用户快速掌握。此外,LangChain在设计时也充分考虑了应用的安全性和用户数据的隐私保护,是一个多语言支持的灵活框架,适用于各种规模的项目和不同背景的开发者。LangChain官方手册:https://python.langchain.com/docs/get_started/introduction/

Others are asking
那个框架特别适用于RAG,比如LlamaIndex、LangChain等
LlamaIndex 是一个专为构建大型语言模型(LLM)应用而设计的开发框架,为开发人员提供了强大且灵活的工具,能更有效地理解和处理文本数据。对于熟悉 LangChain 的开发者而言,它并不陌生。 其核心优势在于对大型语言模型的深度支持,允许开发者利用如 GPT3.5 Turbo 等模型执行多种文本处理任务,如文档问答、文章生成和自动翻译等。特别地,它提供了构建文档问答系统的功能,能自动从大量文档中检索相关信息并生成答案,这在处理大量知识信息的领域极具价值。 LlamaIndex 还允许对嵌入模型进行微调以适应特定任务需求,提升文档问答系统的性能。它支持连接结构化、半结构化和非结构化等不同类型的数据源,为应用程序提供全面信息。 此外,其设计注重简化开发流程,即使复杂的 NLP 任务也能通过少量代码实现,无需深入了解底层复杂性。这种设计哲学不仅降低了开发大型语言模型应用的门槛,还极大提升了开发效率和应用性能。 LlamaIndex 的 GitHub 地址:https://github.com/runllama/llama_index/
2025-01-07
目前的 rag 框架都有哪些
目前常用的 RAG 框架有 LangChain。 LangChain 是一个为简化大模型应用开发而设计的开源框架。它具有以下特点: 1. 提供一套模块化的工具和库,便于开发者轻松集成和操作多种大模型。 2. 设计注重简化开发流程,能让开发者将更多精力投入到创造应用的核心价值上。 3. 支持广泛的模型,具备良好的可扩展性,以适应不断变化的业务需求。 4. 作为得到社区广泛支持的开源项目,拥有活跃的贡献者和持续的更新。 5. 提供了全面的文档和示例代码,有助于新用户快速掌握。 6. 在设计时充分考虑了应用的安全性和用户数据的隐私保护。 7. 是一个多语言支持的灵活框架,适用于各种规模的项目和不同背景的开发者。 LangChain 官方手册:https://python.langchain.com/docs/get_started/introduction/
2025-01-07
RAG工作流对话调试
RAG(检索增强生成)工作流主要包括以下几个阶段: 1. 问题解析阶段:接收并预处理问题,通过嵌入模型(如 Word2Vec、GloVe、BERT)将问题文本转化为向量,以用于后续检索。 2. 知识库检索阶段:知识库中的文档同样向量化后,比较问题向量与文档向量,选择最相关的信息片段并抽取传递给下一步骤。 3. 信息整合阶段:接收检索到的信息,与上下文构建形成融合、全面的信息文本,整合信息准备进入生成阶段。 4. 大模型生成回答:整合后的信息被转化为向量并输入到 LLM(大语言模型),模型逐词构建回答,最终输出给用户。 RAG 的基本概念: RAG 是一种结合了检索和生成的技术,能让大模型在生成文本时利用额外的数据源,提高生成的质量和准确性。其基本流程为,首先给定用户输入(如问题或话题),RAG 从数据源中检索出相关文本片段(称为上下文),然后将用户输入和检索到的上下文拼接成完整输入传递给大模型(如 GPT),输入通常包含提示指导模型生成期望输出(如答案或摘要),最后从大模型的输出中提取或格式化所需信息返回给用户。 在实际调试预览中,例如: 1. 知识库检索部分:把输入的问题通过 Embedding 做向量化,使用语言模型优化问题、添加接近的检索词,知识库向量检索时抽取条件包含相似度 0.85,通过检索抽取出多个内容块。 2. 大模型对话部分:将相关信息传递给 LLM 最终得到 AI 的回答。
2025-01-06
RAG工作流搭建
RAG(检索增强生成)工作流搭建主要包括以下步骤: 1. 文档加载:从多种不同来源加载文档,如非结构化的 PDF 数据、结构化的 SQL 数据、代码等,LangChain 提供了 100 多种不同的文档加载器。 2. 文本分割:文本分割器把文档切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储: 将切分好的文档块进行嵌入转换成向量的形式。 将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法从向量数据库中找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。 RAG 是一种结合了检索和生成的技术,其基本流程为:首先,给定用户输入,如问题或话题,从数据源中检索出相关文本片段作为上下文。然后,将用户输入和检索到的上下文拼接成完整输入传递给大模型,并包含提示指导模型生成期望输出。最后,从大模型输出中提取或格式化所需信息返回给用户。 此外,您还可以通过以下方式学习 RAG: 1. 观看视频演示,如: 2. 利用相关 Bot 进行学习,如: Query 改写效果对比 Bot:https://www.coze.cn/store/bot/7400553639514800182?panel=1&bid=6dkplh1r43g15 RAG 全流程学习 Bot:结合大模型,模拟 RAG 的离线存储和在线检索全流程。 您还可以参考如何使用 LangChain 开发一个简单的 RAG 问答应用。
2025-01-06
RAG与Agent如何结合应用
RAG 与 Agent 的结合应用可以通过以下步骤实现: 1. 数据加载:根据数据源类型选择合适的数据加载器,如网页可使用 WebBaseLoader 加载和解析,返回文档对象。 2. 文本分割:依据文本特点选择合适的文本分割器,将文档对象分割成较小的对象,如博客文章可用 RecursiveCharacterTextSplitter 分割。 3. 嵌入与存储:使用文本嵌入器和向量存储器将文档对象转换为嵌入并存储,根据质量和速度选择合适的,如 OpenAI 的嵌入模型和 Chroma 的向量存储器。 4. 创建检索器:通过向量存储器检索器,传递向量存储器对象和文本嵌入器对象作为参数,创建用于根据用户输入检索相关文档对象的检索器。 5. 创建聊天模型:根据性能和成本选择合适的聊天模型,如使用 OpenAI 的 GPT3 模型,根据用户输入和检索到的文档对象生成输出消息。 以餐饮生活助手为例,基于结构化数据来 RAG 实战: 1. 定义餐饮数据源:将餐饮数据集转化为 Langchain 可识别和操作的数据源,如数据库、文件、API 等,并注册到 Langchain 中,提供统一接口和方法供 LLM 代理访问和查询。 2. 定义 LLM 的代理:通过 Langchain 的代理(Agent)实现,代理管理器可让开发者定义不同的 LLM 代理及其功能和逻辑,提供统一接口和方法供用户交互。 以下是使用 LangChain 构建 RAG 应用的示例代码。
2025-01-06
RAG的经典应用场景
RAG(检索增强生成)的经典应用场景主要包括以下方面: 1. 构建智能问答客服:用户提出问题,RAG 模型从大规模的文档集合中检索相关的文档,然后生成回答。 2. 知识问答系统:用户提问后,RAG 从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到提示词中,提交给大模型,大模型的回答会充分考虑到“包含答案的内容”。
2025-01-06
ai agent 框架有哪些
目前常见的 AI Agent 框架主要有以下几种: 1. LangChain 的 LangGraph:通过简化标准底层任务,如调用 LLM、定义和解析工具、链接调用等,使入门变得容易,但可能创建额外抽象层,增加调试难度。 2. 亚马逊 Bedrock 的 AI Agent 框架。 3. Rivet:拖放式 GUI 的 LLM 工作流构建器。 4. Vellum:用于构建和测试复杂工作流的 GUI 工具。 此外,行业里常用于为 LLM 增加工具、记忆、行动、规划等能力的框架是 LangChain,它把 LLM 与 LLM 之间以及 LLM 与工具之间通过代码或 prompt 的形式进行串接。AutoGPT 被描述为使 GPT4 完全自主的实验性开源尝试,也是一种重要的框架。但需要注意的是,当前大多数代理框架都处于概念验证阶段,还不能可靠、可重现地完成任务。
2025-01-08
提示词框架
以下是关于提示词框架的相关内容: 视频模型中的提示词框架: 基本构成: 提示词基础架构包括主体/场景、场景描述、环境描述、艺术风格/媒介。需调整句式和语序,避免主体物过多/复杂、模糊术语表达,使用流畅准确的口语化措辞,丰富、准确和完整的描述以生成特定艺术风格、满足需求的视频。 提示词与画面联想程度:以单帧图像为例,通过具体详实的位置描述/环境描述和艺术风格描述等,构建画面的基本呈现效果和统一画面风格。 示例:基础词“玻璃桌上的咖啡杯,杯子外面写着单词LOVE”,适度联想扩充为“花园里的透明玻璃桌上的咖啡杯,杯子外面写着单词LOVE,周围满是盛开的鲜花,和煦的阳光洒满整个花园,Claude Monet,印象派风格”。 AI 提示词工程师中的提示词框架: 提示词工程师是专门负责为大语言模型设计、优化和实施 Prompt 的技术角色,不仅编写 Prompt,还需测试和优化以确保输出内容质量,善于发现需求、解析需求并解决问题。 发展出多种提示词框架,如 ICIP 框架(包括指令、背景信息、输入数据、输出指示器)、BROKE 框架(包括背景、角色定义、目标设定、关键成果展示、持续的试验与优化)、CRISPE 框架(包括上下文、角色、说明、主题、预设、例外),还有定制化提示词编写服务。 RAG 提示工程中的提示词框架: 在输入环节构建全面的提示词框架,包含伦理审查及针对不同类型攻击的审查规则,划分为关键部分,融入人格设定元素,利用大型模型的注意力机制加固输入防护的审核能力和人格设定的稳定性。
2025-01-08
微调训练框架的选择
以下是关于微调训练框架选择的相关内容: 在 Stable Diffusion 中: 首先,config 文件夹中有两个配置文件 config_file.toml 和 sample_prompt.toml,分别存储着训练超参数与训练中的验证 prompt。 config_file.toml 文件主要包含了 model_arguments、optimizer_arguments、dataset_arguments、training_arguments、sample_prompt_arguments 以及 saving_arguments 六个维度的参数信息。 v2 和 v_parameterization:两者同时设置为 true 时,开启 Stable Diffusion V2 版本的训练。 pretrained_model_name_or_path:读取本地 Stable Diffusion 预训练模型用于微调训练。 optimizer_type:有七种优化器可以选择。不进行选择时默认启动 AdamW 优化器;显存不太充足时,可选择 AdamW8bit 优化器,但会有轻微性能损失;Lion 优化器是较新的版本,性能优异,但学习率需设置较小,比如为 AdamW 优化器下的 1/3。 learning_rate:单卡推荐设置 2e6,多卡推荐设置 1e7。 除了上述的训练环境参数传入,还需将配置好的 config_file.toml 和 sample_prompt.txt 参数传入训练脚本中。 当设置 1024 分辨率+FP16 精度+xformers 加速时,SD 模型进行 Batch Size=1 的微调训练需要约 17.1G 的显存,进行 Batch Size=4 的微调训练需要约 26.7G 的显存,所以最好配置一个 24G 以上的显卡。 微调训练完成后,模型权重会保存在之前设置的 output_dir 路径下。可以使用 Stable Diffusion WebUI 作为框架加载模型进行 AI 绘画,需将训练好的模型放入/models/Stablediffusion 文件夹下。 在 OpenAI 中: 使用 OpenAI CLI 开始微调工作,需指定从哪个 BASE_MODEL 开始(ada、babbage、curie 或 davinci),还可使用后缀参数自定义微调模型的名称。 运行命令后会上传文件、创建微调作业并流式传输事件直到作业完成。 每个微调工作都从一个默认为 curie 的基本模型开始,模型的选择会影响性能和成本。 开始微调作业后,可能需要几分钟或几小时才能完成,工作完成后会显示微调模型的名称。此外,还可以列出现有作业、检索作业状态或取消作业。
2025-01-06
微调训练框架的选择
以下是关于微调训练框架选择的相关内容: 对于 Stable Diffusion 的微调训练: 1. 配置文件: 在 config 文件夹中有 config_file.toml 和 sample_prompt.toml 两个配置文件,分别存储着训练超参数与训练中的验证 prompt。 config_file.toml 文件包含 model_arguments、optimizer_arguments、dataset_arguments、training_arguments、sample_prompt_arguments 以及 saving_arguments 六个维度的参数信息。 例如,v2 和 v_parameterization 同时设置为 true 时开启 Stable Diffusion V2 版本的训练;pretrained_model_name_or_path 用于读取本地 Stable Diffusion 预训练模型用于微调训练;optimizer_type 可选择多种优化器,如 AdamW(默认)、AdamW8bit(显存不足时可选,会有轻微性能损失)、Lion(最新版本,性能优异但学习率需设置较小)等;学习率方面,单卡推荐设置 2e6,多卡推荐设置 1e7。 2. 训练启动: 将配置好的 config_file.toml 和 sample_prompt.txt 参数传入训练脚本中。 在命令行输入相应命令即可开始训练,训练脚本启动后会打印出 log 方便查看训练过程节奏。 1024 分辨率+FP16 精度+xformers 加速时,SD 模型进行 Batch Size=1 的微调训练约需 17.1G 显存,Batch Size=4 的微调训练约需 26.7G 显存,因此最好配置 24G 以上显卡。 3. 模型使用: 微调训练完成后,模型权重保存在之前设置的 output_dir 路径下。 使用 Stable Diffusion WebUI 框架加载模型进行 AI 绘画,需将训练好的模型放入/models/Stablediffusion 文件夹下,并在 Stable Diffusion WebUI 中选用。 对于 OpenAI 的微调训练: 1. 准备训练数据后,使用 OpenAI CLI 开始微调工作。 2. 指明从哪个基本模型(ada、babbage、curie 或 davinci)开始,可使用后缀参数自定义微调模型名称。 3. 运行命令后会上传文件、创建微调作业并流式传输事件直到作业完成,通常需要几分钟,也可能因作业排队或数据集大小等因素需要数小时。 4. 每个微调工作都从默认为 curie 的基本模型开始,模型选择会影响性能和成本。 5. 开始微调作业后,可能需要排队等待,完成后会显示微调模型的名称。还可以列出现有作业、检索作业状态或取消作业。
2025-01-06
AI换衣API推荐, 并多维度对比,选择最适合的API推荐给我
以下为您推荐的 AI 换衣相关的 API 并进行多维度对比: Comfyui_Object_Migration: 特点:可高精度迁移服装样式到目标人物图像,保持高一致性和细节完整性,支持从卡通到写实的风格互相转换,甚至可将平面角色图像转换为可 3D 打印的模型。 应用场景:虚拟角色服装设计迁移到真实照片、为动画角色添加写实服装、微调权重生成独特服装设计。 详细介绍及教程: GitHub: 在选择适合的 AI 大模型 API 服务时,需要考虑以下因素: 对于像开发 AI Share Card 插件这类情况,如果将模板生成功能设计为固定的代码组件,让大模型专注于内容总结的功能,那么对模型的要求就不会过高。 选型要求包括:较长的上下文窗口,因为内容总结类任务需要较大的上下文长度;响应速度要快、并发支持要高,以在多人使用插件时保持良好性能;免费或尽量低价,以减少模型 token 费用。例如,AI Share Card 选用的是 GLM4flash(截至 202412,长达 128k 的上下文窗口,完全免费的调用价格,200 RPM 高并发支持)。
2025-01-08
文生音乐AI推荐
以下是为您推荐的一些文生音乐 AI 工具: 1. Udio:由前 Google DeepMind 工程师开发,通过文本提示快速生成符合用户音乐风格喜好的高质量音乐作品。网址:https://www.udio.com/ 2. Suno AI:是一款革命性的人工智能音乐生成工具,它通过先进的深度学习技术,能够将用户的输入转化为富有情感且高质量的音乐作品。网址:https://suno.com/ 此外,还有以下相关的资讯和初创公司: 公众号“智音 Brook”于 2024 年 2 月 21 日分享的 AI 音乐动态,原文链接:https://mp.weixin.qq.com/s/lxxAUacDxtrQAuB_tK552A ,其中包括生成式人工智能对音乐领域的影响研究、谷歌推出 MusicRL 等内容。 人工智能音频初创公司: :人工智能驱动的音乐相似性搜索和自动标记,适合任何以音乐发现为业务的人。 :用于音频和声音目录的直观音频搜索引擎。 :发现将音乐从歌曲和播放列表的束缚中解放出来的艺术家。 :每次播放公平报酬。 (被 SoundCloud 收购):使用人工智能帮助自动化您的工作流程。 (被 Spotify 收购):构建人工智能驱动的音乐应用程序。 :用于音乐标记和相似性搜索的人工智能。 (被 SongTradr 收购):B2B AI 音乐元数据服务,例如自动标记、元数据丰富和语义搜索。 :基于歌词的音乐发现、推荐和搜索的算法和工具。 :寻找最好的音乐,讲述更好的故事,扩大你的听众。人工智能驱动的引擎可帮助找到正确的配乐。 :音乐识别和版权合规性。音频指纹、大规模翻唱识别。 :AI 音乐分析,包括歌词摘要、主题提取和音乐特征。 请注意,部分内容由 AI 大模型生成,请仔细甄别。
2025-01-08
针对研究生群体推荐的AI工具有哪些
以下是为研究生群体推荐的一些 AI 工具: 建筑设计相关: HDAidMaster:云端工具,在建筑、室内和景观设计领域表现出色,搭载自主训练的建筑大模型 ArchiMaster,软件 UI 和设计成果颜值高。 Maket.ai:主要面向住宅行业,在户型和室内软装设计方面有探索,能根据输入自动生成户型图。 ARCHITEChTURES:AI 驱动的三维建筑设计软件,可在住宅设计早期引入标准和规范约束设计结果。 Fast AI 人工智能审图平台:形成全自动智能审图流程,能将建筑全寿命周期内的信息集成管理。 医学课题修改相关: Scite.ai:为研究人员打造的创新平台,提供引用声明搜索等工具,简化学术工作。 Scholarcy:能提取文档结构化数据,生成文章概要,包含多个分析板块。 ChatGPT:强大的自然语言处理模型,可提供医学课题修改意见。 内容仿写相关: 秘塔写作猫:https://xiezuocat.com/ ,是 AI 写作伴侣,能推敲用语、斟酌文法、改写文风,实时同步翻译,支持全文改写、一键修改、实时纠错并给出建议,智能分析文章属性并打分。 笔灵 AI 写作:https://ibiling.cn/ ,是智能写作助手,支持多种文体写作,能一键改写/续写/扩写,智能锤炼打磨文字。 腾讯 Effidit 写作:https://effidit.qq.com/ ,由腾讯 AI Lab 开发,能提升写作者的写作效率和创作体验。 需要注意的是,每个工具都有其特定的应用场景和功能,建议根据自己的具体需求来选择合适的工具。同时,以上内容由 AI 大模型生成,请仔细甄别。
2025-01-08
推荐一些适合零基础的小学生、初中生学习的实用的Ai课程
以下是为零基础的小学生、初中生推荐的实用 AI 课程: 1. 首先,建议阅读「」部分,熟悉 AI 的术语和基础概念,了解人工智能及其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。同时浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 在「」中,有一系列为初学者设计的课程,特别推荐李宏毅老师的课程。还可以通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 野菩萨的 AIGC 资深课也是不错的选择,这门课程由工信部下属单位【人民邮电出版社】开设,是市面上为数不多的值得推荐的 AI 课程之一,也是全网技术更新最快的课程。课程内容涵盖 AI 绘画、视听语言和 ChatGPT 等多个体系的知识。预习周课程包括 AI 绘画电脑配置要求、高效 AIGC 创意者的数字人工具包、SD 插件安装方法、画静为动的 AIGC 视频制作讲解等。基础操作课涵盖 AI 绘画通识课、AI 摄影虚拟的真实、AI 电影 穿越的大门等内容。核心范式课程涉及词汇的纸牌屋、核心范式应用、控制随机性等方面。SD WebUi 体系课程包括 SD 基础部署、SD 文生图、图生图、局部重绘等。ChatGPT 体系课程有 ChatGPT 基础、核心 文风、格式、思维模型等内容。ComfyUI 与 AI 动画课程包含部署和基本概念、基础工作流搭建、动画工作流搭建等。应对 SORA 的视听语言课程涉及通识 欢迎参加电影的葬礼、影像赏析、基础戏剧影视文学等。 4. 如果想要免费获得这门课程,可以来参与 video battle,这是唯一一个获胜者就可以拥有课程的机会。每期的 video battle 的评委野菩萨老师都非常严格,需要寓意深度审美并存。冠军奖励:4980 课程一份;亚军奖励:3980 课程一份;季军奖励:1980 课程一份;入围奖励:598 野神殿门票一张。 在学习过程中,您可以根据自己的兴趣选择特定的模块深入学习,一定要掌握提示词的技巧,它上手容易且很有用。理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。同时,与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。
2025-01-08
我想要设计一个以班级期末总结为主题的40分钟班会课,请你帮我推荐一下有哪些AI软件可以完成这项任务
目前没有专门针对设计班级期末总结主题班会课的特定 AI 软件。但您可以借助一些通用的工具来辅助您完成,例如: 1. 文字处理工具,如 Microsoft Word 或 WPS,帮助您撰写班会课的流程和内容。 2. 思维导图工具,如 XMind 或百度脑图,用于梳理班会课的框架和要点。 3. 演示文稿工具,如 Microsoft PowerPoint 或 Keynote,制作展示用的 PPT 来辅助讲解。 希望这些建议对您有所帮助。
2025-01-07
我想在dify里按照一个reranker模型,推荐哪个
在 Dify 中安装 reranker 模型,推荐使用中转服务商。Dify 的部署版本中,模型需自行配置,官方和中转的都支持,但中转服务商从性价比角度更优,充点小钱就能用上各种模型,价格通常有较大折扣,20 刀普通用户能用很久,还能在不同地方使用。若没有合适的中转服务商,可使用我自用的,点击原文即可。模型设置方面,在 Dify 右上角点击设置模型供应商,填入中转服务商提供的信息(一般包括 API base 或 Base URL 以及 key)并保存。若保存成功,回到主页面创建一个 Agent 测试,正常则大功告成。比如我填的 API base 是‘https://one.glbai.com’。
2025-01-07
我是否可以在飞书上传我的相关文档,然后把这些文档作为知识库进行对话,若可以,如何操作
在飞书上可以上传您的相关文档并将其作为知识库进行对话。具体操作如下: 1. 您需要一个额外的软件:AnythingLLM。其安装地址为:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步: 第一步:选择大模型。 第二步:选择文本嵌入模型。 第三步:选择向量数据库。 2. 在 AnythingLLM 中,有一个 Workspace 的概念,您可以创建自己独有的 Workspace 与其他项目数据进行隔离。操作步骤为: 首先创建一个工作空间。 上传文档并且在工作空间中进行文本嵌入。 选择对话模式,AnythingLLM 提供了两种对话模式: Chat 模式:大模型会根据自己的训练数据和您上传的文档数据综合给出答案。 Query 模式:大模型仅仅会依靠文档中的数据给出答案。 测试对话。 3. 另外,您还可以参考以下操作在飞书上创建知识库并上传文本内容: 登录 。 在左侧导航栏的工作区区域,选择进入指定团队。 在页面顶部进入知识库页面,并单击创建知识库。在弹出的页面配置知识库名称、描述,并单击确认(一个团队内的知识库名称不可重复,必须是唯一的)。 在单元页面,单击新增单元。 在弹出的页面选择要上传的数据格式(默认是文本格式),然后选择一种文本内容上传方式完成内容上传。上传方式如下: 本地文档: 在文本格式页签下,选择本地文档,然后单击下一步。 将要上传的文档拖拽到上传区,或单击上传区域选择要上传的文档。目前支持上传.txt、.pdf、.docx 格式的文件内容,每个文件不得大于 20M,一次最多可上传 10 个文件。当上传完成后单击下一步。 选择内容分段方式: 自动分段与清洗:系统会对上传的文件数据进行自动分段,并会按照系统默认的预处理规则处理数据。 自定义:手动设置分段规则和预处理规则。分段标识符:选择符合实际所需的标识符。分段最大长度:设置每个片段内的字符数上限。文本预处理规则:替换掉连续的空格、换行符和制表符,删除所有 URL 和电子邮箱地址。单击下一步完成内容上传和分片。
2025-01-07
大模型是否包括文生图文生视频这些
大模型包括文生图、图生图、图生视频、文生视频等多模态内容。多模态模型的底层逻辑通常先从生图片这一源头开始,因为视频也是由若干帧的图片组成。例如,目前比较火的 StableDiffusion 所使用的扩散模型,其训练过程是先把海量带有标注文字描述的图片逐渐加满噪点,模型学习每一步图片向量值和文字向量值的数据分布演变规律,沉淀下来完成训练。后续输入文字后,模型根据输入文字转化的向量指导充满噪点的图片减噪点生成最终图片。 腾讯的混元 AI 视频模型目前只支持文生视频,但图生视频也即将上线。 唱衰大模型的人认为大模型仅能实现如 ChatBox、文生图、图生图、生视频、生音频等功能,难以找到可商用场景,且存在算力成本等问题。但实际上,关于算力成本已有许多解决方案,而且大模型的应用并非仅限于上述提到的功能。
2025-01-02
那么,在这个网站里是否有可以满足我需求的AI工具呢?
以下是一些可能满足您需求的 AI 工具: TXYZ 网站:是一个帮助搜索、查询专业文献并进行对话的 AI 工具,提供从搜索获取、查询对话获取知识再到管理知识的一站式服务。它是唯一和预印本文库官方合作的 AI 工具,ArXiv 的每篇论文下面都有直达 TXYZ 的按钮。用户可以自己上传 PDF 论文或者链接,通过它来在专业文献中迅速找到自己想要的答案和内容,并在对话中提供论文参考,给出可信的背书。 辅助编程的 AI 工具: GitHub Copilot:由全球最大的程序员社区和代码托管平台 GitHub 联合 OpenAI 和微软 Azure 团队推出的 AI 编程助手。支持和兼容多种语言和 IDE,可为程序员快速提供代码建议,帮助开发者更快、更少地编写代码。 通义灵码:阿里巴巴团队推出的一款基于通义大模型的智能编程辅助工具,提供行级/函数级实时续写、自然语言生成代码、单元测试生成、代码注释生成、代码解释、研发智能问答、异常报错排查等能力。 CodeWhisperer:亚马逊 AWS 团队推出的 AI 编程软件,该代码生成器由机器学习技术驱动,可为开发人员实时提供代码建议。 CodeGeeX:智谱 AI 推出的开源的免费 AI 编程助手,基于 130 亿参数的预训练大模型,可以快速生成代码,帮助开发者提升开发效率。 Cody:代码搜索平台 Sourcegraph 推出的一款 AI 代码编写助手,借助 Sourcegraph 强大的代码语义索引和分析能力,可以了解开发者的整个代码库,不止是代码片段。 CodeFuse:蚂蚁集团支付宝团队为国内开发者提供智能研发服务的免费 AI 代码助手,该产品是基于蚂蚁集团自研的基础大模型进行微调的代码大模型。 Codeium:一个由 AI 驱动的编程助手工具,旨在通过提供代码建议、重构提示和代码解释来帮助软件开发人员,以提高编程效率和准确性。更多辅助编程 AI 产品,还可以查看这里:https://www.waytoagi.com/category/65 。 制作网站的 AI 工具选择考虑因素: 目标和需求:确定您的网站目标(例如个人博客、商业网站、在线商店)和功能需求。 预算:有些工具提供免费计划或试用版,但高级功能可能需要付费订阅。 易用性:选择一个符合您技术水平的工具,确保您能够轻松使用和管理网站。 自定义选项:检查工具是否提供足够的自定义选项,以满足您的设计和功能需求。 支持和资源:查看是否有足够的客户支持和学习资源(如教程、社区论坛),帮助您解决问题。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-12-28
我想做图片相似度比对,是否有解决方案
以下是关于图片相似度比对的一些解决方案: 在 Stable Diffusion 中,可以使用【X/Y/Z plot】脚本来做参数对比。将 X 轴设置为提示词相关性,取值范围是 1 30(每次增加 5);Y 轴设置为重绘幅度,取值范围是 0 1(每次增加 0.2)。通过生成多张图片进行对比,发现提示词相关性在 6 11 中间为最佳,重绘幅度的大小可控制生成图与原图的相似度,如 0.4 时与原图较接近。还可以利用绘图功能进行局部修改,如增加红色眼镜、去掉衣服图案、更换人物头部等。 对于 MJ 绘图,加上简单的相机参数和写实风格,使用 MJ v 6.0 绘图,可根据需求调整图片比例。 图片裁剪可使用 PS 等工具,选择能完整分割所需部分的图片。 使用 InsightFaceSwap 处理图片时,输入“/saveid”上传原图,换脸操作输入“/swapid”,选择效果较好的图片,但注意插件每日免费使用次数。 最后利用 PS 把处理好的图片拼接回来。
2024-12-25
如何让AI协助我思考观点是否正确
要让 AI 协助您思考观点是否正确,可以参考以下内容: 1. 认识到 AI 可能存在的问题: AI 可能会“产生幻觉”,生成看似合理但错误的内容,甚至连续且良好地撒谎,所以对其输出的内容需要全面检查。 AI 不会真正解释自己,给出的关于思考过程的回答可能是编造的,理解系统中的偏见也很困难。 利用 AI 工具时要对输出负责,避免不道德地使用来操纵或作弊。 2. 利用 AI 辅助写作课题的步骤和建议: 确定课题主题:明确研究兴趣和目标,选择有价值和创新性的主题。 收集背景资料:使用学术搜索引擎和文献管理软件等 AI 工具搜集相关文献和资料。 分析和总结信息:利用文本分析工具提取关键信息和主要观点。 生成大纲:使用写作助手生成包括引言、文献综述等部分的大纲。 撰写文献综述:借助 AI 工具确保内容准确完整。 构建方法论:根据需求利用 AI 建议的方法和技术设计研究方法。 数据分析:若涉及数据处理,使用相关 AI 工具。 撰写和编辑:利用写作工具并检查语法和风格。 生成参考文献:使用文献管理工具生成正确格式。 审阅和修改:用审阅工具检查逻辑性和一致性,根据反馈修改。 提交前的检查:确保课题原创性并调整格式。 但要记住,AI 只是辅助,不能替代研究者的专业判断和创造性思维,应保持批判性思维,保证研究质量和学术诚信。 3. 提升自身认知能力以更好判断 AI 协助的结果: 像给大脑升级系统一样不断学习和训练,提升认知能力。 认清常见的“思维陷阱”,如确认偏误(倾向于寻找支持已有观点的信息)、锚定效应(易受第一印象影响)等。 锻炼逻辑思维,学习逻辑推理,识别错误论证。 掌握数据分析能力,对接触到的数字和统计数据保持警惕,不盲目相信。
2024-12-24
检查文章是否是ai写的,有什么软件
以下是一些可以检查文章是否由 AI 写的软件: 1. Writer.com:提供免费的 AI 内容检测工具,使用时将文本粘贴到在线工具中点击检测按钮,系统会提供分析结果。 2. GPTZero:专门设计用于检测由 GPT3 生成的内容,适用于教育和出版行业。上传文档或输入文本,系统会分析并提供报告。 3. Content at Scale:提供 AI 内容检测功能,将文本粘贴到在线检测工具中,系统会分析并提供结果。 4. Turnitin:广泛使用的学术剽窃检测工具,增加了检测 AI 生成内容的功能。用户上传论文,系统自动分析并提供详细报告。 5. Copyscape:主要用于检测网络剽窃行为,虽不是专门的 AIGC 检测工具,但可发现可能被 AI 生成的重复内容。输入文本或上传文档,系统扫描网络查找相似或重复内容。 6. Grammarly:提供语法检查和剽窃检测功能,将文本粘贴到编辑器中选择剽窃检测功能,系统提供分析报告。 7. Unicheck:基于云的剽窃检测工具,适用于教育机构和学术研究。上传文档或输入文本,系统分析并生成报告。 8. Originality.AI:专门设计用于检测 AI 生成内容,上传文档或输入文本,系统提供详细报告。 以下是一些 AI 文章排版工具: 1. Grammarly:不仅是语法和拼写检查工具,还提供排版功能,可改进文档整体风格和流畅性。 2. QuillBot:AI 驱动的写作和排版工具,帮助改进文本清晰度和流畅性。 3. Latex:广泛用于学术论文排版的软件,使用标记语言描述文档格式,有许多 AI 辅助的编辑器和插件简化排版过程。 4. PandaDoc:文档自动化平台,使用 AI 帮助创建、格式化和自动化文档生成,适合商业和技术文档。 5. Wordtune:AI 写作助手,重新表述和改进文本,使其更清晰专业。 6. Overleaf:在线 Latex 编辑器,提供丰富模板和协作工具,适合学术写作和排版。 选择合适的工具取决于您的具体需求,如文档类型、出版标准和个人偏好。对于学术论文,Latex 和 Overleaf 受欢迎;对于一般文章和商业文档,Grammarly 和 PandaDoc 等可能更适用。
2024-12-22