Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

哪里有rag实战开源项目

Answer

好的,以下是根据你的需求为你生成的文章:

检索增强生成技术(RAG)的基本概念和应用

一、RAG 的基本概念

RAG(Retrieval Augmented Generation)是一种结合了检索和生成的技术,它可以让大模型在生成文本时利用额外的数据源,从而提高生成的质量和准确性。其基本流程如下:

  1. 给定一个用户的输入,例如一个问题或一个话题。
  2. 从一个数据源中检索出与之相关的文本片段,例如网页、文档或数据库记录。这些文本片段称为上下文(Context)。
  3. 将用户的输入和检索到的上下文拼接成一个完整的输入,传递给一个大模型,例如 GPT。
  4. 从大模型的输出中提取或格式化所需的信息,返回给用户。

二、RAG 的实际应用

[文章 1]中提到,配备了全景和精准 PDF 解析器的 RAG 系统 ChatDOC 可以检索到更准确和完整的文本段,因此能够给出更好的回答。实验证明,ChatDOC 在近 47%的问题上表现优于 Baseline 模型,在 38%的问题上与 Baseline 模型表现持平,仅在 15%的问题上表现落后于 Baseline 模型。这表明,我们可以通过增强 PDF 结构识别来革新检索增强生成技术(RAG)。

三、RAG 的开发

[文章 2]中提到,RAG 是一种结合了检索和生成的技术,它可以让大模型在生成文本时利用额外的数据源,从而提高生成的质量和准确性。RAG 的基本流程如下:

  1. 给定一个用户的输入,例如一个问题或一个话题。
  2. 从一个数据源中检索出与之相关的文本片段,例如网页、文档或数据库记录。这些文本片段称为上下文(Context)。
  3. 将用户的输入和检索到的上下文拼接成一个完整的输入,传递给一个大模型,例如 GPT。这个输入通常会包含一些提示(Prompt),指导模型如何生成期望的输出,例如一个答案或一个摘要。
  4. 从大模型的输出中提取或格式化所需的信息,返回给用户。

综上所述,RAG 是一种结合了检索和生成的技术,它可以让大模型在生成文本时利用额外的数据源,从而提高生成的质量和准确性。ChatDOC 在近 47%的问题上表现优于 Baseline 模型,在 38%的问题上与 Baseline 模型表现持平,仅在 15%的问题上表现落后于 Baseline 模型。这表明,我们可以通过增强 PDF 结构识别来革新检索增强生成技术(RAG)。

Content generated by AI large model, please carefully verify (powered by aily)

References

通过增强PDF结构识别,革新检索增强生成技术(RAG)

尽管大语言模型(LLM)在自然语言生成方面取得了巨大的进展,但对于专业知识问答领域来说,结合检索增强生成技术(RAG)可以更好地利用领域专家知识、提供解释性的优势,提高问答准确率。目前,主流的基础模型公司已经开放了嵌入向量(Embedding)和聊天API接口,LangChain等框架也已经集成了RAG流程,似乎RAG中的关键模型和步骤都已经得到解决。这就引出一个问题:目前专业知识的问答系统是否已经趋于完善?本文指出当前的主要方法都是以获取高质量文本语料为前提的。然而,因为大部分的专业文档都是以PDF格式存储,低精度的PDF解析会显著影响专业知识问答的效果。我们对来自真实场景的专业文档,其中的数百个问题进行了实证RAG实验。结果显示,配备了全景和精准PDF解析器的RAG系统的ChatDOC(海外官网:chatdoc.com)可以检索到更准确和完整的文本段,因此能够给出更好的回答。实验证明,ChatDOC在近47%的问题上表现优于Baseline模型,在38%的问题上与Baseline模型表现持平,仅在15%的问题上表现落后于Baseline模型。这表明,我们可以通过增强PDF结构识别来革新检索增强生成技术(RAG)。

开发:LangChain应用开发指南-大模型的知识外挂RAG

RAG是一种结合了检索和生成的技术,它可以让大模型在生成文本时利用额外的数据源,从而提高生成的质量和准确性。RAG的基本流程如下:首先,给定一个用户的输入,例如一个问题或一个话题,RAG会从一个数据源中检索出与之相关的文本片段,例如网页、文档或数据库记录。这些文本片段称为上下文(context)。然后,RAG会将用户的输入和检索到的上下文拼接成一个完整的输入,传递给一个大模型,例如GPT。这个输入通常会包含一些提示(prompt),指导模型如何生成期望的输出,例如一个答案或一个摘要。最后,RAG会从大模型的输出中提取或格式化所需的信息,返回给用户。

开发:LangChain应用开发指南-大模型的知识外挂RAG

RAG是一种结合了检索和生成的技术,它可以让大模型在生成文本时利用额外的数据源,从而提高生成的质量和准确性。RAG的基本流程如下:首先,给定一个用户的输入,例如一个问题或一个话题,RAG会从一个数据源中检索出与之相关的文本片段,例如网页、文档或数据库记录。这些文本片段称为上下文(context)。然后,RAG会将用户的输入和检索到的上下文拼接成一个完整的输入,传递给一个大模型,例如GPT。这个输入通常会包含一些提示(prompt),指导模型如何生成期望的输出,例如一个答案或一个摘要。最后,RAG会从大模型的输出中提取或格式化所需的信息,返回给用户。

Others are asking
RAG工作流对话调试
RAG 工作流主要包括以下几个阶段: 1. 问题解析阶段:接收并预处理问题,通过嵌入模型(如 Word2Vec、GloVe、BERT)将问题文本转化为向量,以用于后续检索。 2. 知识库检索阶段:知识库中的文档同样向量化后,比较问题向量与文档向量,选择最相关的信息片段并抽取传递给下一步骤。 3. 信息整合阶段:接收检索到的信息,与上下文构建形成融合、全面的信息文本,整合信息准备进入生成阶段。 4. 大模型生成回答:整合后的信息被转化为向量并输入到 LLM(大语言模型),模型逐词构建回答,最终输出给用户。 RAG 是一种结合了检索和生成的技术,其基本流程为:首先,给定用户输入(如问题或话题),RAG 从数据源(如网页、文档、数据库记录)中检索出相关文本片段(即上下文)。然后,将用户输入和检索到的上下文拼接成完整输入传递给大模型(如 GPT),输入通常包含提示,指导模型生成期望输出(如答案或摘要)。最后,从大模型输出中提取或格式化所需信息返回给用户。 在实际调试预览中,例如: 1. 知识库检索部分:把输入的问题通过 Embedding 做向量化,使用 qwen 语言模型优化问题、添加接近的检索词,知识库向量检索时抽取条件包含相似度 0.85,通过检索抽取出 11 个内容块。 2. 大模型对话部分:将相关信息传递给 LLM(大语言模型),最终得到 AI 的回答。
2025-01-06
RAG工作流搭建
RAG(检索增强生成)工作流搭建主要包括以下步骤: 1. 文档加载:从多种不同来源加载文档,如包括 PDF 在内的非结构化数据、SQL 在内的结构化数据以及 Python、Java 之类的代码等。LangChain 提供了 100 多种不同的文档加载器。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储: 将切分好的文档块进行嵌入(Embedding)转换成向量的形式。 将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。 RAG 是一种结合了检索和生成的技术,它可以让大模型在生成文本时利用额外的数据源,从而提高生成的质量和准确性。其基本流程为:首先,给定一个用户的输入,如问题或话题,RAG 会从数据源中检索出相关的文本片段作为上下文。然后,将用户输入和检索到的上下文拼接成完整输入传递给大模型,并包含提示指导模型生成期望输出。最后,从大模型输出中提取或格式化所需信息返回给用户。 此外,还有相关的学习资源,如用 Coze 学习 RAG 的视频演示,包括 Query 改写效果对比 Bot 和 RAG 全流程学习 Bot 等。同时,也有关于如何使用 LangChain 开发简单 RAG 问答应用的介绍。
2025-01-06
RAG工作流搭建
RAG(检索增强生成)工作流搭建主要包括以下步骤: 1. 文档加载:从多种不同来源加载文档,如非结构化的数据(包括 PDF)、结构化的数据(如 SQL)以及代码(如 Python、Java 等)。LangChain 提供了 100 多种不同的文档加载器。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储: 将切分好的文档块进行嵌入(Embedding)转换成向量的形式。 将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。 RAG 是一种结合了检索和生成的技术,其基本流程为:首先,给定用户输入(如问题或话题),从数据源中检索出相关文本片段作为上下文。然后,将用户输入和检索到的上下文拼接成完整输入,并添加提示传递给大模型(如 GPT)。最后,从大模型的输出中提取或格式化所需信息返回给用户。 您还可以通过以下资源进一步学习 RAG: 视频演示: Query 改写效果对比 Bot:https://www.coze.cn/store/bot/7400553639514800182?panel=1&bid=6dkplh1r43g15 视频演示: RAG 全流程学习 Bot:
2025-01-06
RAG技术路线知识库搭建流程
RAG 技术路线知识库搭建流程主要包括以下步骤: 1. 文档加载:从多种不同来源加载文档,如 PDF 在内的非结构化数据、SQL 在内的结构化数据以及 Python、Java 之类的代码等。LangChain 提供了 100 多种不同的文档加载器。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储: 将切分好的文档块进行嵌入转换成向量的形式。 将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。 在构建知识库的过程中,还涉及到文档解析环节,即将各种类型的资料(包括但不限于 Word、PDF、Excel 和图片等)转换成文字,为后续流程奠定基础。针对图片一般使用 OCR 图像识别技术,针对文档一般将其转换成 Markdown 格式。文档解析完成之后,要进行预处理。 基于 Coze 的知识库问答是典型的 RAG 方案,其重要一环是文档切片(Segment),但 RAG 方案存在一些缺点,如跨分片总结和推理能力弱、文档有序性被打破、表格解析失败等。
2025-01-06
RAG与Agent如何结合应用
RAG 与 Agent 的结合应用主要通过以下步骤实现: 1. 数据加载:根据数据源类型选择合适的数据加载器,如对于网页数据源可使用 WebBaseLoader 加载和解析网页,获取文档对象。 2. 文本分割:依据文本特点选用合适的文本分割器,将文档对象分割成较小的文档对象。例如,对于博客文章可用 RecursiveCharacterTextSplitter 递归分割。 3. 嵌入与存储:使用文本嵌入器将文档对象转换为嵌入,并存储到向量存储器中。可根据嵌入质量和速度选择,如 OpenAI 的嵌入模型和 Chroma 的向量存储器。 4. 创建检索器:通过向量存储器检索器,传递向量存储器对象和文本嵌入器对象作为参数,创建用于根据用户输入检索相关文档对象的检索器。 5. 创建聊天模型:根据模型性能和成本选择合适的聊天模型,如 OpenAI 的 GPT3 模型,用于根据用户输入和检索到的文档对象生成输出消息。 以餐饮生活助手为例,展示基于结构化数据的 RAG 实战: 1. 定义餐饮数据源:将餐饮数据集转化为 Langchain 可识别和操作的数据源,如数据库、文件、API 等,并注册到 Langchain 中,提供统一接口和方法供 LLM 代理访问和查询。 2. 定义 LLM 的代理:通过 Langchain 的代理(Agent)实现,提取用户问题的核心信息和条件,形成标准查询语句,检索餐饮数据源并生成合适答案输出给用户。代理管理器可定义不同的 LLM 代理及其功能逻辑,提供统一接口和方法方便用户交互。 以下是使用 LangChain 构建 RAG 应用的示例代码。
2025-01-06
RAG的经典应用场景
RAG(检索增强生成)的经典应用场景主要包括以下方面: 1. 构建智能问答客服:用户提出问题,RAG 模型从大规模的文档集合中检索相关的文档,然后生成回答。 2. 知识问答系统:用户提出问题,RAG 可以从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到提示词中,提交给大模型,大模型的回答会充分考虑到“包含答案的内容”。
2025-01-06
国内开源AI绘图软件,适合新手的推荐
以下是为您推荐的适合新手的国内开源 AI 绘图软件: 1. Midjourney:是目前较容易上手的工具,对于完全不懂 AI 绘图、想尝试的新手来说是不错的入门选择。现阶段的 AI 能辅助进行设计,视觉效果相当吸睛。在 Midjourney 中生成 UI 设计图,如果没想好输入哪些指令,可以先用指令模板:「ui design forapplication,mobile app,iPhone,iOS,Apple Design Award,screenshot,single screen,high resolution,dribbble」,把里面的“类型”替换成您想设计的产品的关键词描述(英文)。 2. Creately:在线绘图和协作平台,利用 AI 功能简化图表创建过程,适合绘制流程图、组织图、思维导图等。具有智能绘图功能,可自动连接和排列图形,有丰富的模板库和预定义形状,实时协作功能适合团队使用。官网:https://creately.com/ 3. Whimsical:专注于用户体验和快速绘图的工具,适合创建线框图、流程图、思维导图等。具有直观的用户界面,易于上手,支持拖放操作,快速绘制和修改图表,提供多种协作功能,适合团队工作。官网:https://whimsical.com/ 4. Miro:在线白板平台,结合 AI 功能,适用于团队协作和各种示意图绘制,如思维导图、用户流程图等。具有无缝协作,支持远程团队实时编辑,丰富的图表模板和工具,支持与其他项目管理工具(如 Jira、Trello)集成。官网:https://miro.com/ 5. Lucidchart:强大的在线图表制作工具,集成了 AI 功能,可以自动化绘制流程图、思维导图、网络拓扑图等多种示意图。具有拖放界面,易于使用,支持团队协作和实时编辑,丰富的模板库和自动布局功能。官网:https://www.lucidchart.com/ 6. Microsoft Visio:专业的图表绘制工具,适用于复杂的流程图、组织结构图和网络图。其 AI 功能可以帮助自动化布局和优化图表设计。集成 Office 365,方便与其他 Office 应用程序协同工作,有丰富的图表类型和模板,支持自动化和数据驱动的图表更新。官网:https://www.microsoft.com/enus/microsoft365/visio/flowchartsoftware 7. Diagrams.net:免费且开源的在线图表绘制工具,适用于各种类型的示意图绘制。支持本地和云存储(如 Google Drive、Dropbox),有多种图形和模板,易于创建和分享图表,可与多种第三方工具集成。官网:https://www.diagrams.net/
2025-01-06
AI开源软件
以下是为您整理的关于 AI 开源软件的相关信息: 10 月 AI 行业大事记中的开源软件部分: 智谱:开源文生图模型 CogView3Plus3B 上海交大:开源 F5TTS 英伟达:开源 Llama3.1Nemotron70BInstruct TeleAI:正式开源 TeleChat2115B OpenAI:开源多智能体协作框架 Swarm 100 个 AI 应用中涉及的开源软件未在提供的内容中有明确提及。 如果您想了解更多关于特定 AI 开源软件的详细信息或有其他需求,请进一步向我提问。
2025-01-06
AI开源软件
以下是为您整理的关于 AI 开源软件的相关信息: 10 月 AI 行业大事记中的开源软件: 智谱:开源文生图模型 CogView3Plus3B 上海交大:开源 F5TTS 英伟达:开源 Llama3.1Nemotron70BInstruct TeleAI:正式开源 TeleChat2115B OpenAI:开源多智能体协作框架 Swarm 100 个 AI 应用中的开源软件相关信息暂未提及。 希望以上内容对您有所帮助!如果您需要更详细准确的信息,请进一步明确您的需求。
2025-01-06
开源模型与闭源模型调用
开源模型与闭源模型调用相关信息如下: 通义千问自 2023 年 8 月起密集推出 Qwen、Qwen1.5、Qwen2 三代开源模型,Qwen 系列的 72B、110B 模型多次登顶 HuggingFace 的 Open LLM Leaderboard 开源模型榜单。Qwen2 系列已上线魔搭社区 ModelScope 和阿里云百炼平台,开发者可在魔搭社区体验、下载模型,或通过阿里云百炼平台调用模型 API。同时,Qwen272binstruct 模型已上线中国大语言模型评测竞技场 Compass Arena,所有人都可登录体验其性能或进行对比测评,测评地址为:https://opencompass.org.cn/arena 。Compass Arena 是由上海人工智能实验室和魔搭社区联合推出的大模型测评平台,集齐了国内主流的 20 多款大模型。 部分声称性能卓越的中国大模型被揭露为“套壳”产品,如李开复创办的“零一万物”被国外开发者质疑为“套壳”产品,其团队承认在训练过程中沿用了开源架构。此外,字节跳动被曝出在其秘密研发的大模型项目中调用了 OpenAI 的 API,并使用 ChatGPT 的输出数据来训练自己的模型。 在 LLM 应用程序中,开发者通常使用 OpenAI API 启动新的 LLM 应用,如 gpt4 或 gpt432k 模型。当项目投入生产并规模化时,常见的选择包括切换到更便宜且速度更快的 gpt3.5turbo,与其他专有供应商(如 Anthropic 的 Claude 模型)进行实验,将一些请求分流到开源模型等。开源模型有多种推理选项,包括 Hugging Face 和 Replicate 的简单 API 接口、主要云提供商的原始计算资源等。
2025-01-06
开源模型与闭源模型调用
开源模型与闭源模型调用相关信息如下: 通义千问自 2023 年 8 月起密集推出 Qwen、Qwen1.5、Qwen2 三代开源模型,Qwen 系列的 72B、110B 模型多次登顶 HuggingFace 的 Open LLM Leaderboard 开源模型榜单。Qwen2 系列已上线魔搭社区 ModelScope 和阿里云百炼平台,开发者可在魔搭社区体验、下载模型,或通过阿里云百炼平台调用模型 API。同时,Qwen272binstruct 模型已经上线中国大语言模型评测竞技场 Compass Arena,所有人都可以登录体验 Qwen2 的性能,或者选择 Qwen2 模型与其他大模型进行对比测评。测评地址:https://opencompass.org.cn/arena 。Compass Arena 是由上海人工智能实验室和魔搭社区联合推出的大模型测评平台,集齐了国内主流的 20 多款大模型。 部分声称性能卓越的中国大模型被揭露为“套壳”产品,如李开复创办的“零一万物”被国外开发者质疑为“套壳”产品,其团队承认在训练过程中沿用了开源架构,但坚称发布的模型都是从零开始训练的,并进行了大量原创性的优化和突破。此外,字节跳动被曝出在其秘密研发的大模型项目中调用了 OpenAI 的 API,并使用 ChatGPT 的输出数据来训练自己的模型,这触犯了 OpenAI 使用协议中明确禁止的条款。 在 LLM 应用程序中,OpenAI 已成为语言模型领域的领导者,开发者通常使用 OpenAI API 启动新的 LLM 应用,如 gpt4 或 gpt432k 模型。当项目投入生产并开始规模化时,常见的选择包括切换到 gpt3.5turbo、与其他专有供应商(如 Anthropic 的 Claude 模型)进行实验、将一些请求分流到开源模型等。开源模型可以使用多种推理选项,包括 Hugging Face 和 Replicate 的简单 API 接口、来自主要云提供商的原始计算资源等。
2025-01-06
写小说,推荐哪个开源模型呢?
以下是为您推荐的一些可用于写小说的开源模型及相关资源: 1. Kolors 开源模型: 相关教学视频: ,作者为吴杨峰。 ,作者为楚门的 AI 世界。 。 ,作者为不懂技术就用 AI 呀。 2. 辅助创作的 AI 工具: ChatGPT:擅长构思。 Claude:文笔好于 ChatGPT。 彩云小梦、Kimi、MidReal 等。 此外,还有一些关于用 AI 写小说的相关知识: 1. 让 AI 写小说存在一些问题,如上下文长度限制、容易忘记要求、文笔简略、一致性难以保证等。 2. 对于某些问题,如“保持创意简洁”“危机快速来临”,AI 不容易犯,但对叙述方式比较敏感,写 prompt 时要保持用词一致。 3. AI 只是辅助创作,最后仍需人工加工和修改以满足读者要求。
2025-01-02
在哪里可以看AIGC智能客服 实战项目
以下是一些可以查看 AIGC 智能客服实战项目的途径: 1. 数字人课程:卡尔的 AI 沃茨推出的数字人课程,包含 15 节视频课,持续更新并附赠课外社群辅导,课程中回顾了 2023 年数字人领域的破圈事件,还介绍了数字人的广泛应用和完整学习体系。报名方式为扫码查看课程详细内容和介绍。 2. 摊位信息:在杭州商场举办的 AI 切磋大会的摊位中,有关于“AI 数字员工”的摊位,提供抖音运营、AI 客服、智能问诊、企业定制员工、定制知识库等体验 demo。 3. 大厂 AIGC 实践:京东有众多 AIGC 相关的实践案例,如【羚珑 AI 智绘营】IPAdapter 等,相关链接可在给定的内容中查看。
2025-01-01
有没有关于大模型的实战技术文章
以下是为您找到的关于大模型的实战技术文章: 1. 《认识大模型 Embedding 技术加实战》 小结:认识了 Embedding 是浮点数向量,向量距离度量相关性,了解其分类及在大模型中的价值,还有从数据集中获取 Embedding 结果并保存为 csv 文件的实战部分。参考了 OpenAI 官网最新文档,包含个人测试问题和代码注释。链接:https://platform.openai.com/docs/introduction 原文链接:https://mp.weixin.qq.com/s/8mDLFFmgKOQC8WK2kkwhaA 原创:皇子|皇子谈技术|20240321 19:54 大模型应用开发技术不需要掌握机器学习和深度学习算法,但要有编程思维和 Python 基础。 2. 《ChatBot 是怎么炼成的?》 介绍了 LLM 基座大模型下游应用 ChatBot 的研发过程,在介绍 ChatBot 之前,先介绍了 LLM 在辅助编程方面的应用,包括 Codex 和 AlphaCode 两个奠基性工作,Codex 提出了编程数据集和 pass@k 指标,并采用了 2 阶段训练方式,还介绍了 Codex 的局限性和辅助编程问题定义。作者: 链接:https://ywh1bkansf.feishu.cn/wiki/HRnLw588DiTDLPkSTXCcKit8nbD 发布日期:2023/07/08
2024-08-28
任务管理 项目管理的工具
以下是一些适合软件项目经理的 AI 工具: 1. 项目管理和任务跟踪工具:如 Jira、Trello 等,已开始集成 AI 功能,可辅助制定计划、分配任务、跟踪进度。 2. 文档和协作工具:微软的 Copilot 可集成到 Office 套件中,为项目文档撰写、编辑等提供助手功能。云存储服务如 Google Drive 也提供 AI 驱动的文档管理和协作功能。 3. 风险管理和决策支持工具:可帮助识别和分析项目风险,并提供决策建议。 4. 沟通和协作工具:AI 助手可辅助进行团队沟通协调、客户关系维护等。 5. 创意生成工具:如文心一格、Vega AI 等绘画工具,可帮助快速生成创意图像素材。 此外,在 OpenAI o1 代码能力实测中,正在搭建项目管理工具的面板,包括任务板、团队成员信息、项目进度图表和通知等,每个部分都进行了精细设计和布局,体现了高效的项目监控和管理。 在界面认识方面,新版本 UI 包含顶部工具栏、左侧面板和中央画布。顶部工具栏包含全局操作和工具,如文件操作、编辑操作、视图控制和帮助等。左侧面板通常用于显示节点库,包括输入节点、模型节点、处理节点和输出节点等分类。中央画布是主要工作区域,用户可在此自由拖放和连接节点,构建工作流程,还支持缩放、移动和右键操作。
2025-01-06
数字人最强项目
以下是关于数字人的一些项目信息: Digen AI:数字人克隆新选择,具有强大的动态和静态同步能力,支持 20 种语言,是 Heygen 的强有力竞争对手。体验地址:http://digen.ai 。 开源数字人项目(项目地址:https://github.com/wanh/awesomedigitalhumanlive2d)选择 live2d 作为数字人躯壳,其驱动方式相比 AI 生成式更可控和自然,相比虚幻引擎更轻量和简单,卡通二次元形象接受度更高。关于 live2d 的 SDK 驱动方式可参考官方示例:https://github.com/Live2D 。
2025-01-05
中国大模型项目招投标情况
以下是关于中国大模型项目招投标的相关信息: 招投标文件关键数据提取方案: 预处理模块设计: 去除噪音信息,如页眉、页脚、版权声明等。 规范化文本,处理特殊符号、空白字符、异常换行等。 统一日期格式,通过正则表达式或日期识别工具将多种日期表示方式转换为标准的 ISO 格式(如“YYYYMMDD”)。 格式化货币与金额,通过正则表达式匹配货币符号或中文大写金额,并转换为标准形式。 处理特殊符号,进行规范化处理。 处理表格数据,使用表格解析工具提取表格结构和数据,并转化为 CSV 或 JSON 格式。 中国大模型生存战相关情况: 据 QuestMobile 数据,今年 9 月,豆包 App 的 30 日留存率达到 34.5%,而 Kimi 智能助手和 MiniMax 的海螺 AI 约为 28%。 大公司更强势地争取大模型 API 客户,如字节向 AI 儿童玩具公司 Haivivi 提供优惠价的豆包大模型 API 并承诺升级抖音店铺,导致该公司同时调用 MiniMax 和豆包的语音模型。 阿里是中国积极做开源大模型的公司,其 Qwen 系列开源大模型总下载量超 4000 万次,衍生出 5 万个大模型。 去年为大客户定制一个大模型最高订单额可达 1000 万元,今年快速降到百万元级别乃至更低。 在更底层的模型研发上,字节展现出“饱和”进攻的姿态。 8 月正式上线的国内大模型: 北京的 5 家企业机构:百度(文心一言)https://wenxin.baidu.com 、抖音(云雀大模型)https://www.doubao.com 、智谱 AI(GLM 大模型)https://chatglm.cn 、中科院(紫东太初大模型)https://xihe.mindspore.cn 、百川智能(百川大模型)https://www.baichuanai.com/ 。 上海的 3 家企业机构:商汤(日日新大模型)https://www.sensetime.com/ 、MiniMax(ABAB 大模型)https://api.minimax.chat 、上海人工智能实验室(书生通用大模型)https://internai.org.cn 。 能生成 Markdown 格式的:智谱清言、商量 Sensechat、MiniMax 。 目前不能进行自然语言交流的:昇思(可以对文本进行是否由 AI 生成的检测,类似论文查重,准确度不错)、书生 。 受限制使用:MiniMax(无法对生成的文本进行复制输出,且只有 15 元的预充值额度进行体验,完成企业认证后可以进行充值) 。 特色功能:昇思——生图,MiniMax——语音合成 。 阿里通义千问、360 智脑、讯飞星火等均不在首批获批名单中,广东地区获批公司分别为华为、腾讯,科大讯飞系其他地区获批产品。
2024-12-28
撰写一篇汽车领域人工智能自动驾驶应用系统方案,参照以下要求:(1) 选题应为课程相关的技术或者原理的应用。 (2) 重点撰写第2部分技术与服务,必须要使用到课程中所学到或者相关技术。 (3) 第6部分财务分析可根据情况适当缩减。 (4) 整体架构可以根据选题进行调整,可适当增加章节或者删减。 (5) 字体大小、标题等必须和模板相同。篇幅20页以上,不少于10000字,小四,宋体。 以下为一篇样稿,可参考其框架撰写 城市智能停车服务系统建设方案 目 录 1 项目背景 1 1.1 项目背景
以下是为您撰写的汽车领域人工智能自动驾驶应用系统方案的部分内容,您可以根据实际需求进行进一步的完善和补充: 一、项目背景 人工智能在汽车行业的应用已经十分广泛,正在深刻改变汽车的各个方面。自动驾驶技术利用 AI 进行图像识别、传感器数据分析和决策制定,使汽车能够自主导航和驾驶,如特斯拉、Waymo 和 Cruise 等公司都在积极开发和测试自动驾驶汽车。车辆安全系统中,AI 用于增强自动紧急制动、车道保持辅助和盲点检测等功能,通过分析摄像头和传感器数据预防事故。个性化用户体验方面,AI 可根据驾驶员偏好调整车辆设置,包括座椅位置、音乐选择和导航系统。预测性维护通过分析车辆实时数据,预测潜在故障和维护需求,提高车辆可靠性和效率。在汽车制造中,AI 用于自动化生产线,优化生产流程和质量控制。汽车销售和市场分析中,AI 帮助分析市场趋势、消费者行为和销售数据,优化营销策略和产品定价。电动化和能源管理方面,AI 在电动汽车的电池管理和充电策略中发挥作用,提高能源效率和延长电池寿命。共享出行服务借助 AI 优化路线规划、车辆调度和定价策略,提升服务效率和用户满意度。语音助手和车载娱乐由 AI 驱动,允许驾驶员通过语音控制车辆功能、获取信息和娱乐内容。车辆远程监控和诊断利用 AI 系统远程监控车辆状态,提供实时诊断和支持。 二、技术与服务 1. 自动驾驶技术 传感器融合:采用多种传感器,如激光雷达、摄像头、毫米波雷达等,收集车辆周围环境信息。利用 AI 算法对这些多源数据进行融合和分析,提高环境感知的准确性和可靠性。 深度学习决策:基于深度神经网络,训练车辆的决策模型。通过大量的真实驾驶数据,让模型学习如何在各种复杂场景下做出最优的驾驶决策,如加速、减速、转向等。 模拟训练:利用虚拟仿真环境进行大规模的自动驾驶训练。在模拟环境中,可以快速生成各种复杂和罕见的交通场景,加速模型的训练和优化。 2. 车辆安全系统 实时监测与预警:利用 AI 实时分析来自车辆传感器的数据,如车速、加速度、转向角度等,以及外部环境信息,如道路状况、天气条件等。当检测到潜在的危险情况时,及时向驾驶员发出预警。 自动紧急制动:基于 AI 的图像识别和距离检测技术,当判断车辆即将与前方障碍物发生碰撞且驾驶员未采取制动措施时,自动启动紧急制动系统,降低事故风险。 3. 个性化用户体验 偏好学习:通过收集驾驶员的日常操作数据,如座椅调整习惯、音乐播放喜好、常用导航路线等,利用机器学习算法分析和学习驾驶员的偏好模式。 智能推荐:根据学习到的偏好,为驾驶员提供个性化的推荐,如座椅自动调整、音乐推荐、导航路线规划等。 4. 预测性维护 数据采集与分析:安装各类传感器收集车辆的运行数据,如发动机转速、油温、轮胎压力等。利用 AI 算法对这些数据进行分析,挖掘潜在的故障模式和趋势。 故障预测模型:建立基于机器学习的故障预测模型,提前预测可能出现的故障,并及时通知驾驶员和维修人员,安排预防性维护。 5. 生产自动化 质量检测:利用机器视觉技术和 AI 算法,对生产线上的汽车零部件进行自动检测,识别缺陷和瑕疵,提高产品质量。 生产流程优化:通过分析生产数据,如设备运行状态、生产节拍等,利用 AI 优化生产流程,提高生产效率,降低生产成本。 三、财务分析(可根据情况适当缩减) 1. 初始投资 技术研发费用:包括自动驾驶算法开发、硬件设备采购、测试场地建设等方面的费用。 车辆改装和设备安装成本:为实现自动驾驶功能,对车辆进行改装和安装相关传感器、计算设备等的成本。 2. 运营成本 数据采集和处理费用:持续收集车辆运行数据和环境数据,并进行处理和分析的费用。 维护和升级成本:对自动驾驶系统进行定期维护、软件升级和硬件更换的费用。 3. 收益来源 车辆销售增值:配备自动驾驶和智能功能的汽车可以提高售价,增加销售收入。 服务订阅费用:为用户提供个性化服务、远程监控和诊断等服务的订阅收费。 4. 盈利预测 根据市场需求、成本控制和收益增长情况,进行短期和长期的盈利预测。 以上内容仅供参考,您可以根据具体的项目需求和实际情况进一步完善和细化各个部分。
2024-12-27
怎么使用你来写一个项目
以下是使用 AI 来写一个项目的一些方法: 1. 写东西: 草拟任何东西的初稿,如博客文章、论文、宣传材料、演讲、讲座、剧本、短篇小说等。您只需给出提示,不过基本提示可能导致写作较平淡,通过与系统互动提高提示效果,稍加练习,AI 系统就能更出色。 将文本粘贴到 AI 中,要求它改进内容,或就如何为特定受众提供更好的建议,还可以要求它以不同风格创建多个草稿,使其更生动或添加例子,以激发您写出更好的作品。 让 AI 做您没时间做的事,如写邮件、创建销售模板、提供商业计划的下一步等。 利用 AI 让自己保持动力,避免被困难挑战分散注意力。 2. 开发应用: 对于技术纯小白,从最基础的小任务开始,让 AI 按照最佳实践写一个 say hello 的示例程序,并解释每个文件的作用及程序运行的逻辑,学会必备的调试技能。 比如在学习写 chrome 插件时,让 AI 选择适合小白上手的技术栈,生成简单的示范项目并讲解每个文件的作用和程序运行的逻辑。要求 AI 按照最佳实践编写,确保文件一开始就有良好的组织。如果使用 o1mini,可以在提示最后添加生成创建脚本的要求,并请教如何运行脚本。 通过与 AI 的对话逐步明确项目需求,如果您不是训练有素的产品经理,可以让 AI 像高级且懂技术的产品经理那样向您提问,帮助梳理产品功能,尤其注意涉及技术方案选择的关键点,然后让 AI 帮助梳理出产品需求文档,在后续开发中每次新起聊天时将文档发给 AI 并告知当前在做的功能点。
2024-12-26