Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何通过ollama 搭建本地知识库

Answer

以下是通过 Ollama 搭建本地知识库的步骤:

  1. 了解背景:本文思路来源于视频号博主黄益贺,旨在分享如何部署本地大模型及搭建个人知识库,让您了解相关核心技术及流程。
  2. Ollama 简介:Ollama 是一个开源框架,用于简化本地运行大型语言模型的过程,是轻量级、可扩展的,提供简单 API 和预构建模型库,适合初学者和非技术人员,能推动大型语言模型的发展和应用。
  3. 安装 Ollama:官方下载地址为 https://ollama.com/download ,安装完成后可通过访问特定链接判断是否安装成功。
  4. 运行本地大模型:安装完成后,在命令行中运行相应命令,模型名称可通过model library查看,如选择 llama2 大模型,可根据机器配置选择合适参数的模型,运行时 Ollama 会自动下载大模型到本地。

此外,还有关于本地部署资讯问答机器人:Langchain + Ollama + RSSHub 实现 RAG 的相关内容,包括加载所需库和模块、从订阅源获取内容、为文档内容生成向量等步骤。

Content generated by AI large model, please carefully verify (powered by aily)

References

手把手教你本地部署大模型以及搭建个人知识库

大家好,我是大圣,一个致力使用AI工具将自己打造为超级个体的程序员。目前沉浸于AI Agent研究中无法自拔今天给大家分享的是手把手教你如何部署本地大模型以及搭建个人知识库读完本文,你会学习到如何使用Ollama一键部署本地大模型通过搭建本地的聊天工具,了解ChatGPT的信息是如何流转的RAG的概念以及所用到的一些核心技术如何通过AnythingLLM这款软件搭建完全本地化的数据库虽然我们大多数人不需要在自己部署大模型,但是我期望在本文的帮助下,能够带你手把手折腾一遍。这样在使用任何软件的时候,可以做到知其然,知其所以然。

手把手教你本地部署大模型以及搭建个人知识库

Ollama是一个开源的框架,旨在简化在本地运行大型语言模型(LLM)的过程。Ollama作为一个轻量级、可扩展的框架,提供了一个简单的API来创建、运行和管理模型,以及一个预构建模型库,进一步降低了使用门槛。它不仅适用于自然语言处理研究和产品开发,还被设计为适合初学者或非技术人员使用,特别是那些希望在本地与大型语言模型交互的用户总的来说,Ollama是一个高效、功能齐全的大模型服务工具,通过简单的安装指令和一条命令即可在本地运行大模型,极大地推动了大型语言模型的发展和应用[heading2]安装Ollama[content]官方下载地址:https://ollama.com/download当安ollama之后,我们可以通过访问如下链接来判断ollama是否安装成功[heading2]使用Ollama运行本地大模型[content]当安装完成ollama之后,我们就可以在命令行中运行如下命令既可以其中[model name]就是你想运行的本地大模型的名称,如果你不知道应该选择哪个模型,可以通过[model library](https://ollama.com/library)进行查看。这里我们选择llama2大模型:[llama2](https://ollama.com/library/llama2)考虑到我机器的配置以及不同版本的内存要求,我这里选择7b参数的模型当我们运行大模型的时候,ollama会自动帮我们下载大模型到我们本地。

本地部署资讯问答机器人:Langchain+Ollama+RSSHub 实现 RAG

[title]本地部署资讯问答机器人:Langchain+Ollama+RSSHub实现RAG加载所需的库和模块。其中,feedparse用于解析RSS订阅源ollama用于在python程序中跑大模型,使用前请确保ollama服务已经开启并下载好模型|从订阅源获取内容下面函数用于从指定的RSS订阅url提取内容,这里只是给了一个url,如果需要接收多个url,只要稍微改动即可。然后,通过一个专门的文本拆分器将长文本拆分成较小的块,并附带相关的元数据如标题、发布日期和链接。最终,这些文档被合并成一个列表并返回,可用于进一步的数据处理或信息提取任务。|为文档内容生成向量这里,我们使用文本向量模型bge-m3。https://huggingface.co/BAAI/bge-m3bge-m3是智源研究院发布的新一代通用向量模型,它具有以下特点:支持超过100种语言的语义表示及检索任务,多语言、跨语言能力全面领先(M ulti-Lingual)最高支持8192长度的输入文本,高效实现句子、段落、篇章、文档等不同粒度的检索任务(M ulti-Granularity)同时集成了稠密检索、稀疏检索、多向量检索三大能力,一站式支撑不同语义检索场景(M ulti-Functionality)从hf下载好模型之后,假设放置在某个路径/path/to/bge-m3,通过下面函数,利用FAISS创建一个高效的向量存储。|实现RAG

Others are asking
Ollama
以下是关于 Ollama 的相关信息: 在电脑上运行本地大模型的相对简化模式: 步骤: 1. 打开 Ollama 官网 https://ollama.com,下载应用并安装。 2. 在 Mac 系统搜索 terminal 或终端,点击回车,弹出的简洁框框就是。输入想要运行的大模型(例如:ollama run llama2),并回车。等待下载完成,即可输入内容,和 llama2 愉快交流。 TagTool With Ollama 打标工具: 先去下载并安装 Ollama,然后打开 Powershell 运行相关命令。 Win 编辑 run_win.ps1 文件,Mac 编辑 run_mac.sh 文件,将目录中的图片路径和触发词填写,运行即可。 从 LLM 大语言模型、知识库到微信机器人的全本地部署教程中的 Ollama 部署: 步骤: 1. 点击进入,根据电脑系统,在 https://ollama.com/download 下载 Ollama。 2. 下载完成后,双击打开,点击“Install”。 3. 安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 。 4. 下载 qwen2:0.5b 模型(0.5b 是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型)。 5. 对于 Windows 电脑,点击 win+R,输入 cmd,点击回车;对于 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。复制相关命令行,粘贴进入,点击回车。等待下载完成即可。
2025-02-18
类似于ollama和vllm这样的LLM 框架有哪些
以下是类似于 ollama 和 vllm 的 LLM 框架: 1. Encoderonly 框架(也叫 AutoEncoder),典型代表如 BERT 等。 2. Encoderdecoder 框架,典型代表如 T5 和 GLM 等。 3. Decoderonly 框架(也叫 AutoRegressive),典型代表如 GPT 系列、LLaMa、PaLM 等。 此外,还有一些在 LLM 应用中发挥重要作用的框架,如: 1. LangChain:是当前大模型应用开发的主流框架之一,提供了一系列工具和接口,其核心在于“链”概念,包括 Model I/O、Retrieval、Chains、Agents、Memory 和 Callbacks 等组件,生态系统还包括 LangSmith、LangGraph 和 LangServe 等工具。 2. LlamaIndex:在促进 LLM 和整合上下文数据方面表现出色,抽象出许多提示链的细节,与外部 API 的接口,从向量数据库检索上下文数据,并在多个 LLM 调用中维持内存。
2025-02-17
Ollama配置
以下是关于 Ollama 配置的详细步骤: 1. 进入 ollama.com 下载程序并安装,该程序支持 Windows、Linux 和 MacOS 系统。 2. 查找 cmd 进入命令提示符(Windows 系统)或通过相应方式进入终端(Mac 系统),输入“ollama v”检查版本,安装完成后版本应显示 0.1.26。 3. 输入“cls”清空屏幕,然后直接输入“ollama run gemma”运行模型(默认是 2b 版本),首次需要下载,需等待一段时间。若想用 7b 版本,运行“ollama run gemma:7b”。 4. 完成以上操作后就可以直接对话。2b 版本的反应速度快,但能互动的话题有限。7b 版本能运行,但可能会有卡顿,输出内容质量相对较高,但无论 2b 还是 7b,对非英文语种的反馈都不是很稳定。 5. 模型里一些常用的内部指令:“/set”显示设置界面可调整的设置项,“/show”显示模型信息。 另外,还有一种部署 Ollama 的方式: 1. 点击进入 ollama.com 根据电脑系统下载 Ollama。 2. 下载完成后,双击打开,点击“Install”。 3. 安装完成后,将“http://127.0.0.1:11434/”复制进浏览器中,若出现相应字样,表示安装完成。 4. 下载 qwen2:0.5b 模型(可根据自身设备情况选择更大的模型)。 对于 Windows 电脑,点击 win+R,输入 cmd 点击回车。 对于 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 5. 复制相关命令行,粘贴进入并回车,等待下载完成。下载完成后,大模型已在本地运行,输入文本即可进行对话。
2025-02-16
如何在本机上安装ollama
在本机上安装 Ollama 的步骤如下: 1. 点击进入 https://ollama.com/download ,根据您的电脑系统下载 Ollama。 2. 下载完成后,双击打开,点击“Install”进行安装。 3. 安装完成后,将 http://127.0.0.1:11434/ 复制进浏览器中。如果出现相关字样,表示安装完成。 此外,还需注意: 下载 qwen2:0.5b 模型(0.5b 是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型): 如果是 Windows 电脑,点击 win+R,输入 cmd,点击回车。 如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 复制相关命令行,粘贴进入,点击回车。 安装完之后,确保 ollama 后台服务已启动(在 mac 上启动 ollama 应用程序即可,在 linux 上可以通过 ollama serve 启动)。可以通过 ollama list 进行确认。还可以通过 ollama 命令下载模型。
2025-02-06
Ollama
以下是关于 Ollama 的相关信息: 打标工具安装: 先去下载并安装 Ollama,然后打开 Powershell 运行相关命令。 Win 编辑 run_win.ps1 文件,Mac 编辑 run_mac.sh 文件,将目录中的图片路径和触发词填写,运行即可。 对于 Windows 版,打开 WebUI,找到 Tagger 选项卡,如果没有则参考教程安装插件。 前往 https://github.com/starik222/BooruDatasetTagManager/releases 下载软件包,解压缩后双击运行即可。 本地部署资讯问答机器人: 支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 cpu 和 gpu。 提供模型库,可通过 https://ollama.com/library 查找并下载不同模型,以满足不同需求和硬件条件。 支持自定义模型,可修改模型的温度参数等设置特定的系统消息。 提供 REST API 用于运行和管理模型,以及与其他应用程序的集成选项。 社区贡献丰富,包括多种集成插件和界面。 安装时访问 https://ollama.com/download/ ,安装完后确保 ollama 后台服务已启动(在 mac 上启动 ollama 应用程序,在 linux 上通过 ollama serve 启动),可通过 ollama list 确认。 应用实例本地部署 Google Gemma: 环境准备:进入 ollama.com 下载程序并安装(支持 windows、linux 和 macos),在命令提示符中输入 ollama v 检查版本,安装完成后版本应为 0.1.26,cls 清空屏幕,输入 ollama run gemma 运行模型(默认 2b),首次需下载,想用 7b 则运行 ollama run gemma:7b 。 常用内部指令:/set 显示设置界面可调整的设置项,/show 显示模型信息,/load<model> 加载已有模型,/bye 退出。 2b 反应速度快但互动话题有限,7b 输出内容质量相对较高但有卡顿,对非英文语种反馈不稳定。
2025-02-06
除了ollama外还有什么好用
除了 Ollama 外,以下是一些好用的本地部署或相关的工具和框架: 1. Google Gemma:Google 发布的家用版小模型,分别有 2b(20 亿参数)和 7b(70 亿参数)版本。相对千亿参数的大模型,这种小模型可能不适合解决特别复杂的任务,但从趋势上看是模型本地化提升基础操作效率的模板。小型的 llama 也支持本地部署。 2. Langchain:支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,易于使用,适用于多种操作系统,同时支持 cpu 和 gpu。提供模型库,用户可从中下载不同模型,还支持自定义模型、API 和集成,社区贡献丰富。 如果您想了解更多关于这些工具和框架的详细信息,建议您进一步查阅相关资料。
2025-02-03
有哪些比较好的AI知识库学习网站
以下是一些比较好的 AI 知识库学习网站及相关学习建议: 通往 AGI 之路知识库: 提供了全面系统的 AI 学习路径,帮助您了解从 AI 常见名词到 AI 应用等各方面知识。 包含关于 AI 知识库使用及 AIPO 活动的介绍、AIPO 线下活动及 AI 相关探讨、way to AGI 社区活动与知识库介绍等内容。 信息来源有赛博蝉星公众号、国外优质博主的 blog 或 Twitter 等,推荐大家订阅获取最新信息并投稿。 有社区共创项目,如 AIPU、CONFIUI 生态大会,每月有切磋大会等活动,还发起了新活动 AIPO。 学习路径方面,有李弘毅老师的生成式 AI 导论等高质量学习内容,可系统化学习或通过社区共创活动反推学习,鼓励整理学习笔记并分享交流。 有经典必读文章,如介绍 GPT 运作原理、Transformer 模型、扩散模型等的文章,还包括软件 2.0 时代相关内容。 初学者入门推荐看 open AI 的官方 Cookbook,小琪姐做了中文精读翻译,也可查看 cloud 的相关内容。 有历史脉络类资料,整理了 open AI 的发展时间线和万字长文回顾等。 网站:ytoAGI.com 相关渠道:公众号“通往 AGI 之路”、 在线教育平台:如 Coursera、edX、Udacity 等,上面有一系列为初学者设计的课程,您可以按照自己的节奏学习,并有机会获得证书。 对于新手学习 AI,建议: 了解 AI 基本概念:阅读「」部分,熟悉 AI 的术语和基础概念。了解什么是人工智能,它的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 开始 AI 学习之旅:在「」中,找到一系列为初学者设计的课程。特别推荐李宏毅老师的课程。 选择感兴趣的模块深入学习:AI 领域广泛(比如图像、音乐、视频等),根据自己的兴趣选择特定的模块进行深入学习。掌握提示词的技巧,它上手容易且很有用。 实践和尝试:理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 体验 AI 产品:与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。
2025-02-18
有什么提升 RAG 知识库问答的好的 prompt
以下是一些提升 RAG 知识库问答的好的 prompt 相关内容: RAG 在 Natural Questions、WebQuestions 和 CuratedTrec 等基准测试中表现出色,在使用 MSMARCO 和 Jeopardy 问题进行测试时,生成的答案更符合事实、具体且多样,FEVER 事实验证使用 RAG 后也有更好结果,说明 RAG 是可行方案,能增强知识密集型任务中语言模型的输出,基于检索器的方法常与 ChatGPT 等流行 LLM 结合提高能力和事实一致性,可在 LangChain 文档中找到相关例子。 RAG 能显著提高大模型在处理私域知识或垂直领域问答时的效果。其流程包括:上传文档(支持多种格式,会转换为 Markdown 格式)、文本切割、文本向量化(存入向量数据库)、问句向量化、语义检索匹配(匹配出与问句向量最相似的 top k 个)、提交 Prompt 至 LLM、生成回答返回给用户。RAG 研究范式分为基础 RAG、高级 RAG 和模块化 RAG。 高级 RAG 特点:支持多模态数据处理,增强对话性,具备自适应检索策略,能进行知识融合,扩展了基础 RAG 功能,解决复杂任务局限,在广泛应用中表现出色,推动自然语言处理和人工智能发展。 模块化 RAG 侧重于提供更高定制性和灵活性,将系统拆分成多个独立模块或组件,每个组件负责特定功能,便于根据不同需求灵活组合和定制。
2025-02-18
怎么做一个知识库智能问答机器人?
要做一个知识库智能问答机器人,主要基于大模型的 RAG 机制,具体步骤如下: 1. 理解 RAG 机制:RAG 机制全称为“检索增强生成”(RetrievalAugmented Generation),是一种用于自然语言处理的技术,结合了检索和生成两种主要的人工智能技术,以提高机器对话和信息处理的能力。它先从大型数据集中检索与问题相关的信息,然后利用这些信息生成更准确、相关的回答。可以想象成在巨大图书馆里找相关书籍,再基于书籍信息给出详细回答,这种方法结合大量背景信息和先进语言模型能力,使生成内容更精确,提升对话 AI 的理解力和回答质量。 2. 创建知识库:创建包含大量社区 AI 相关文章和资料的知识库,例如创建有关 AI 启蒙和信息来源的知识库,通过手工录入方式上传文章内容,并陆续将社区其他板块的文章和资料导入。 3. 设计 Bot:在设计中添加知识库,并设置合适的搜索策略、最大召回数量和最小匹配度,尽可能利用好知识库返回的内容进行结合回答。 此外,在飞书中,还可以利用飞书智能伙伴创建平台(Aily)来搭建 FAQ 机器人,它是飞书团队旗下的企业级 AI 应用开发平台,能为企业提供简单、安全且高效的环境,帮助轻松构建和发布 AI 应用。
2025-02-18
知识库搭建
知识库搭建主要包括以下几个方面: 1. “拎得清、看得到、想得起、用得上”的核心步骤: 拎得清:主动选择和判断高质量、与目标相关的信息源,利用 AI 搜索引擎、加入优质社群和订阅号等建立信息通路,具备信息嗅探能力。 看得到:确保所选信息能频繁且不经意地触达个人,通过浏览器插件、笔记工具等组织信息,使其易于检索和浏览。 想得起:强调信息的内化和知识线索建立,做好标记(关键词、tag)、选择合适存放位置,推荐使用 PARA 笔记法等方法组织串联信息。 用得上:将积累的知识转化为实际行动和成果,在解决问题或创造价值时能从知识库中调取相应信息。 2. RAG 技术: 利用大模型的能力搭建知识库是 RAG 技术的应用。 RAG 是当需要依靠不包含在大模型训练集中的数据时的主要方法,首先检索外部数据,然后在生成步骤中将其传递给 LLM。 RAG 应用包括文档加载、文本分割、存储(包括嵌入和向量数据存储)、检索、输出(把问题及检索出的嵌入片提交给 LLM 生成答案)。 文本加载器是将用户提供的文本加载到内存中以便后续处理。 3. 智能体知识库创建: 手动清洗数据,提高数据准确性。 在线知识库:创建画小二课程的 FAQ 知识库,飞书在线文档中每个问题和答案以分割,可编辑修改和删除,添加 Bot 并在调试区测试效果。 本地文档:注意拆分内容,提高训练数据准确度,按章节进行人工标注和处理。 发布应用:确保在 Bot 商店中能搜到。
2025-02-18
知识库搭建
知识库搭建主要包括以下几个方面: 1. “拎得清、看得到、想得起、用得上”的核心步骤: 拎得清:主动选择和判断高质量、与目标相关的信息源,利用 AI 搜索引擎、加入优质社群和订阅号等建立信息通路,具备信息嗅探能力。 看得到:确保所选信息能频繁且不经意地触达个人,通过浏览器插件、笔记工具等组织信息,使其易于检索和浏览。 想得起:强调信息的内化和知识线索建立,做好标记(关键词、tag)、选择合适存放位置,推荐使用 PARA 笔记法等方法组织串联信息。 用得上:将积累的知识转化为实际行动和成果,在解决问题或创造价值时能从知识库中调取相应信息。 2. RAG 技术: 利用大模型的能力搭建知识库是 RAG 技术的应用。 RAG 是当需要依靠不包含在大模型训练集中的数据时的主要方法,首先检索外部数据,然后在生成步骤中将其传递给 LLM。 RAG 应用包括文档加载、文本分割、存储(包括嵌入和向量数据存储)、检索、输出(把问题及检索出的嵌入片提交给 LLM 生成答案)。 文本加载器是将用户提供的文本加载到内存中以便后续处理。 3. 智能体知识库创建: 手动清洗数据,提高数据准确性。 在线知识库:创建画小二课程的 FAQ 知识库,飞书在线文档中每个问题和答案以分割,可编辑修改和删除,添加 Bot 并在调试区测试效果。 本地文档:注意拆分内容,提高训练数据准确度,按章节进行人工标注和处理。 发布应用:确保在 Bot 商店中能搜到。
2025-02-18
知识库框架
以下是关于知识库框架的相关内容: 智能体的目标和框架: 智能体的交互能力:包括大模型本身的交互能力、多 Agent 的灵活性、workflow 的妙用(如引导用户输入车辆信息便于大模型理解和分析)以及上下文说明。 智能体的知识体量:涵盖豆包大模型本身的行业数据和语料库、知识库(包括结构化数据与非结构化数据),以及创建知识库的步骤和参赛用知识库,还涉及大模型 RAG 检索、大模型的选择和参数设定以及新模型的调用方法。 智能体的记忆能力:包含变量、数据库和信息记录。 知识: 外置知识是由外部数据库提供,能动态更新和调整。涉及多种数据存储和组织方式,如向量数据库(常用于处理和索引非结构化数据)、关系型数据库(适用于事务性数据存储)、知识图谱(适合复杂语义分析和知识推理)。在实际应用中,外置知识的集成和管理常采用 RAG 架构,能结合检索和生成,增强模型生成能力,实时检索和整合最新外部信息。 陈财猫团队的提示词相关知识库文章索引:
2025-02-18
如何用ai搭建一个学习平台,完成学习计划
以下是用 AI 搭建学习平台并完成学习计划的一些方法和建议: 英语学习: 1. 智能辅助工具:利用如 Grammarly 这样的 AI 写作助手进行英语写作和语法纠错,以改进英语表达和写作能力。 2. 语音识别和发音练习:使用如 Call Annie 这样的语音识别应用进行口语练习和发音纠正,获取实时反馈和建议。 3. 自适应学习平台:使用如 Duolingo 这样的自适应学习平台,其利用 AI 技术为您量身定制学习计划,提供个性化的英语学习内容和练习。 4. 智能导师和对话机器人:利用如 ChatGPT 这样的智能对话机器人进行英语会话练习和对话模拟,提高交流能力和语感。 数学学习: 1. 自适应学习系统:使用如 Khan Academy 这样的自适应学习系统,结合 AI 技术为您提供个性化的数学学习路径和练习题,根据您的能力和需求进行精准推荐。 2. 智能题库和作业辅助:利用如 Photomath 这样的智能题库和作业辅助工具,通过图像识别和数学推理技术为您提供数学问题的解答和解题步骤。 3. 虚拟教学助手:使用如 Socratic 这样的虚拟教学助手,利用 AI 技术为您解答数学问题、提供教学视频和答疑服务,帮助您理解和掌握数学知识。 4. 交互式学习平台:参与如 Wolfram Alpha 这样的交互式学习平台的数学学习课程和实践项目,利用 AI 技术进行数学建模和问题求解。 外语学习: 1. 语言学习平台: FluentU:使用真实世界的视频,通过 AI 生成个性化的词汇和听力练习。选择学习语言,观看视频并完成相关练习,积累词汇和提升听力理解能力。 Memrise:结合 AI 技术,根据学习者的记忆曲线提供复习和练习,增强记忆效果。选择学习语言,使用应用提供的词汇卡和练习进行学习。 2. 发音和语法检查: Speechling:提供口语练习和发音反馈,帮助学习者改进口音和发音准确性。录制语音,提交给 AI 系统或人类教练,获取反馈和改进建议。 Grammarly:可以帮助提高写作的语法和词汇准确性,支持多种语言。将写作内容粘贴到 Grammarly 编辑器中,获取语法和词汇改进建议。 3. 实时翻译和词典工具: Google Translate:提供实时翻译、语音输入和图像翻译功能,适合快速查找和学习新词汇。输入或语音输入需要翻译的内容,查看翻译结果和示例句子。 Reverso Context:提供单词和短语的翻译及上下文例句,帮助理解和学习用法。输入单词或短语,查看翻译和例句,学习实际使用场景。 通过结合 AI 技术和传统学习方法,您可以更高效、更个性化地进行学习,并取得更好的学习效果。
2025-02-18
我想了解如何在微信公众号搭建一个能发语音的数字人
以下是在微信公众号搭建能发语音的数字人的相关步骤: 1. 照片数字人工作流及语音合成(TTS)API 出门问问 Mobvoi: 工作流地址:https://github.com/chaojie/ComfyUImobvoiopenapi/blob/main/wf.json 相关文件: 记得下载节点包,放进您的 node 文件夹里,这样工作流打开就不会爆红了!ComfyUI 启动后就可以将 json 文件直接拖进去使用了! 2. 「AI 学习三步法:实践」用 Coze 免费打造自己的微信 AI 机器人: 组装&测试“AI 前线”Bot 机器人: 返回个人空间,在 Bots 栏下找到刚刚创建的“AI 前线”,点击进入即可。 组装&测试步骤: 将上文写好的 prompt 黏贴到【编排】模块,prompt 可随时调整。 在【技能】模块添加需要的技能:工作流、知识库。 【预览与调试】模块,直接输入问题,即可与机器人对话。 发布“AI 前线”Bot 机器人: 测试 OK 后,点击右上角“发布”按钮即可将“AI 前线”发布到微信、飞书等渠道。 发布到微信公众号上: 选择微信公众号渠道,点击右侧“配置”按钮。 根据以下截图,去微信公众号平台找到自己的 App ID,填入确定即可。不用了解绑即可。 最后去自己的微信公众号消息页面,就可以使用啦。
2025-02-18
我想创业,花多少钱,能够搭建一个视频领域的AI模型
在视频领域搭建 AI 模型的成本因多种因素而异。对于创业者或小公司来说,这个领域存在一定的挑战。 腾讯的混元 AI 视频模型目前只支持文生视频,且已开源免费。 在模型供应商方面,不同供应商的特点和成本有所不同: 智谱 GLM4V 是通用视觉类大模型,为拍立得最早使用的模型,接口响应速度快,指令灵活性差一些,调用成本为 0.05 元/千 tokens。 阿里云百炼 qwenvlplus 也是通用视觉类大模型,是拍立得目前使用的模型,指令灵活性比较丰富,接口调用入门流程长一些,密钥安全性更高,调用成本为 0.008 元/千 tokens,训练成本为 0.03 元/千 tokens。 阶跃星辰是通用视觉类大模型,响应速度快,支持视频理解,输入成本为 0.005 0.015 元/千 tokens,输出成本为 0.02 0.07 元/千 tokens。 百度 PaddlePaddle 是 OCR 垂直小模型,文本识别能力补齐增强,私有化部署有服务费,API 调用在 0.05 0.1 元/次。 此外,获取高质量数据的难度较高,大厂在该领域的护城河深厚。大公司在争取大模型 API 客户方面更具优势,且开源大模型的发展可能会影响创业公司的业务。去年为大客户定制一个大模型的最高订单额可达 1000 万元,而今年则快速降到了百万元级别乃至更低。
2025-02-18
我需要以无代码的形式搭建一个数据大屏,有哪些工具可以满足我的需求
目前市面上有一些无代码工具可以帮助您搭建数据大屏,例如: 1. 阿里云 DataV:提供丰富的可视化组件和模板,操作相对简单。 2. 腾讯云图:支持多种数据源接入,具备强大的可视化编辑能力。 3. 帆软 FineReport:功能较为全面,能满足多样化的大屏搭建需求。 您可以根据自己的具体需求和使用习惯选择适合的工具。
2025-02-17