Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

搜索模型搭建

Answer

以下是关于搜索模型搭建的相关知识:

  • 嵌入(Embeddings):
    • 概述:第一代模型(以-001结尾的模型)都使用 GPT-3 分词器,最大输入为 2046 个分词。第一代嵌入由五个不同的模型系列生成,针对三个不同任务进行调整,包括文本搜索、文本相似性和代码搜索。搜索模型成对出现,有用于短查询和长文档的。不同系列包括多种质量和速度不同的型号,如 Davinci 能力最强但更慢更贵,Ada 能力最差但速度快成本低。
    • 相似性嵌入:最擅长捕捉文本片段之间语义相似性,如 text-similarity-babbage-001、text-similarity-curie-001、text-similarity-davinci-001。
    • 文本搜索嵌入:有助于衡量长文档与短搜索查询的相关性,使用两种模型,分别用于嵌入搜索查询和要排名的文档,如 text-search-ada-query-001 等。
    • 代码搜索嵌入:与搜索嵌入类似,有两种类型,分别用于嵌入自然语言搜索查询和要检索的代码片段,如 code-search-ada-text-001 等。对于-001 文本嵌入,建议将输入中的换行符(\n)替换为单个空格。
  • 部署大语言模型:
    • 下载并安装 Ollama:根据电脑系统,从 https://ollama.com/download 下载,双击打开点击“Install”,安装完成后将下方地址复制进浏览器中,若出现相关字样表示安装完成,即 http://127.0.0.1:11434/ 。
    • 下载 qwen2:0.5b 模型:Windows 电脑按 win+R 输入 cmd 回车,Mac 电脑按下 Command(⌘)+Space 键打开 Spotlight 搜索输入“Terminal”或“终端”选择“终端”应用程序,复制相关命令行粘贴回车等待完成。
  • 检索原理:
    • 信息筛选与确认:对检索器提供的信息进行评估,筛选出最相关和最可信的内容,涉及对信息来源、时效性和相关性的验证。
    • 消除冗余:识别和去除多个文档或数据源中的重复信息。
    • 关系映射:分析不同信息片段之间的逻辑和事实关系,如因果、对比、顺序等。
    • 上下文构建:将筛选和结构化的信息组织成连贯的上下文环境,包括排序、归类和整合。
    • 语义融合:合并意义相近但表达不同的信息片段。
    • 预备生成阶段:整合好的上下文信息被编码成适合生成器处理的格式。
    • 大模型生成回答:全新的上下文传递给大语言模型,大语言模型根据提供的信息回答问题。
Content generated by AI large model, please carefully verify (powered by aily)

References

嵌入(Embeddings)

所有第一代模型(以-001结尾的模型)都使用GPT-3分词器,最大输入为2046个分词。第一代嵌入由五个不同的模型系列生成,这些模型系列针对三个不同的任务进行了调整:文本搜索、文本相似性和代码搜索。搜索模型成对出现:一个用于短查询,一个用于长文档。每个系列最多包括四种质量和速度不同的型号:Davinci是最有能力的,但比其他型号更慢且更昂贵。Ada的能力最差,但速度更快,成本更低。相似性嵌入相似性模型最擅长捕捉文本片段之间的语义相似性。text-similarity-babbage-001 text-similarity-curie-001 text-similarity-davinci-001|文本搜索嵌入文本搜索模型有助于衡量哪些长文档与短搜索查询最相关。使用了两种模型:一种用于嵌入搜索查询,一种用于嵌入要排名的文档。最接近查询嵌入的文档嵌入应该是最相关的。text-search-ada-query-001 text-search-babbage-doc-001 text-search-babbage-query-001 text-search-curie-doc-001 text-search-curie-query-001 text-search-davinci-doc-001 text-search-davinci-query-001|代码搜索嵌入与搜索嵌入类似,有两种类型:一种用于嵌入自然语言搜索查询,一种用于嵌入要检索的代码片段。code-search-ada-text-001 code-search-babbage-code-001 code-search-babbage-text-001|对于-001文本嵌入(不是-002,也不是代码嵌入),我们建议将输入中的换行符(\n)替换为单个空格,因为当存在换行符时我们已经看到更糟糕的结果。

张梦飞:【全网最细】从LLM大语言模型、知识库到微信机器人的全本地部署教程

我们需要进行部署的有三大部分1、本地部署大语言模型2、本地部署FastGPT+OneAPI3、本地部署HOOK项目或COW[heading1]一、部署大语言模型[content]一、下载并安装Ollama1、点击进入,根据你的电脑系统,下载Ollama:https://ollama.com/download2、下载完成后,双击打开,点击“Install”3、安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成http://127.0.0.1:11434/二、下载qwen2:0.5b模型(0.5b是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型)1、如果你是windows电脑,点击win+R输入cmd,点击回车如果你是Mac电脑,按下Command(⌘)+Space键打开Spotlight搜索。输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。2、复制以下命令行,粘贴进入,点击回车:3、回车后,会开始自动下载,等待完成(这里下载久了,可能会发现卡着不动,不知道下载了多少了。鼠标点击一下窗口,键盘点空格,就会刷新了)4、下载完成后你会发现,大模型已经在本地运行了。输入文本即可进行对话。

【AI+知识库】商业化问答场景,让AI回复更准确,一篇专为所有“小白”讲透RAG的实例教程(上篇)

1.信息筛选与确认:2.首先,系统会对检索器提供的信息进行评估,筛选出最相关和最可信的内容。这通常涉及到对信息的来源、时效性和相关性进行验证。3.消除冗余:4.在多个文档或数据源中,可能会有重复的信息。系统需要识别和去除这些冗余内容,以防在生成回答时出现重复或相互矛盾的信息。5.关系映射:6.系统将分析不同信息片段之间的逻辑和事实关系,如因果、对比、顺序等。这有助于构建一个结构化的知识框架,使得信息在语义上更加连贯。7.上下文构建:8.将筛选和结构化的信息组织成一个连贯的上下文环境。这通常包括对信息进行排序、归类和整合,使其形成一个统一的叙述或解答框架。9.语义融合:10.在必要时,系统可能会进行语义融合,即合并意义相近但表达不同的信息片段,以减少语义上的重复并增强信息的表达力。11.预备生成阶段:12.最后,整合好的上下文信息被编码成适合生成器处理的格式,如将文本转化为适合输入到生成模型的向量形式。④、大模型生成回答1、生成器:最终全新的上下文被一起传递给大语言模型。随后,大语言模型(LLM)根据提供的信息来回答问题。因为这个上下文包括了检索到的信息,因此大语言模型相当于同时拿到了问题和参考答案,通过LLM的全文理解,最后生成一个准确和连贯的答案。

Others are asking
扣子应用搭建示例
以下是关于扣子应用搭建的相关内容: 白嫖 Groq 平台算力的落地应用: 通过扣子工作流,用代码模块进行 HTTP 访问,实现 0 token 脱离扣子模型来使用 Groq 作为 LLM,可参考梦飞大佬教程将扣子接入微信机器人(有微信封号风险)。 由于 Groq 的 API 与 OpenAI 的 API 几乎兼容,可以适配到任何 APP 产品填 APIKEY 调用的场景,以沉浸式翻译为例。 接入手机类 APP,比如通过快捷方式接入 Siri。 接入扣子工作流:搭建细节可移步 WaytoAGI 自学。建立工作流只需一个代码节点,需配置代码节点的输入引用、输出等。可建立 Bot 调用工作流,但建议不发布,以免代理流量被他人使用。 在扣子调用已有的 API 制作插件: Body:用于传递请求主体部分,GET 方法中通常不用于传递参数。 Path:用于定义请求路径部分,GET 方法中可传递参数,常编码为 URL 一部分。 Query:用于定义请求查询部分,是 GET 方法中常用的参数传递方式。 Header:用于定义 HTTP 请求头信息部分,GET 方法中通常不用于传递参数。配置输出参数,填对后可点击自动解析,调试与校验工具是否能正常运行。 搭建邮票收藏馆应用: 业务背景与逻辑梳理:源于客户需求,功能包括生成邮票、收藏邮票、收藏列表、查看藏品详情,规划了生成和查看两个页面。 页面设计: 第一页:导航栏有应用名称、查看收藏入口、用户头像;陈列展示生成的图片;生成和收藏部分可输入关键字生成并收藏。 第二页:收藏列表会加载用户所有收藏,数量超 100 需优化加翻页;收藏详情可查看大图、关键字、收藏时间。
2025-01-21
如果搭建ai智能体
搭建 AI 智能体可以参考以下步骤: 1. 明确需求:在品牌卖点提炼中,要清楚 AI 智能体是引导型助手,帮助提供思考维度,而非直接给出从 0 到 1 的卖点。 2. 明确 AI 的能力和局限:AI 对公司的诸多方面了解程度接近于 0,如主要产品、产品解决的用户需求、独特之处、获得的认可、核心渠道、核心购买人群、营销手段、期望的新渠道结果等。但 AI 能通过分析数据和信息进行逻辑推理、快速处理和分析数据、利用大量训练数据输出更全面信息、理解用户内容并按正确结构梳理输出。 3. 逐步搭建: 配置工作流,得到可用的工作流(如整理入库、选择内容)。 进行整体配置,包括创建 Bot、填写 Bot 介绍、切换模型(如测试效果较好的通义千问)、添加工作流、新增变量{{app_token}}、添加外层 bot 提示词等。完成后可在「预览与调试」窗口与智能体对话并使用全部功能。
2025-01-19
如果搭建一个智能写作AI
搭建一个智能写作 AI 可以参考以下步骤: 1. 了解生成式人工智能的工作原理: 监督学习在人工智能领域一直占据很大比例,生成式 AI 由监督学习技术搭建。 大语言模型通过使用监督学习不断预测下一个词语来生成文本,需要千亿甚至万亿级别的单词数据库。 2. 认识大语言模型的特点: 大语言模型在写故事、修改文本等方面非常有用。 但它可能会编造故事产生错误信息,需要鉴别信息准确性。 网络搜索与大语言模型有区别,网络搜索可追寻信息来源,大语言模型可提供建议与策略。 3. 明确人工智能的应用空间: 人工智能有大量运用空间,如基于网络界面应用和基于软件程序应用。 使用大语言模型写作,集思广益、头脑风暴很有用,翻译也可以使用,但网络文本较少时效果可能不太好。 4. 搭建 AI 工作流: 学会搭建 AI 智能体,它能根据设定的工作流自动调用不同的 AI 工具完成全流程任务。 例如设计“写作助手”的 AI 智能体,输入文章的主题、风格和要求,它能自动完成文章大纲处理、初稿写作、修改润色和排版等工作。 5. 拆解高效写作的关键步骤: 写作是一个逐步的过程,要先梳理没有 AI 工具时的工作流,再考虑引入 AI 赋能。 比如写公众号文章,要先选题、搜资料、列提纲、起标题、配图片、排版发布等,拆解清楚每个环节,判断 AI 能提供的帮助。
2025-01-19
从0到1搭建知识库
从 0 到 1 搭建知识库的方法如下: 【智能体】让 Coze 智能体机器人连上微信和微信群: 创建智能体: 知识库:本次创建知识库使用手动清洗数据,上节课程是自动清洗数据。自动清洗数据会出现目前数据不准的情况,本节视频就尝试使用手动清洗数据,提高数据的准确性。 在线知识库:点击创建知识库,创建一个画小二课程的 FAQ 知识库。知识库的飞书在线文档,其中每个问题和答案以分割,暂时不要问为什么。选择飞书文档、自定义的自定义,输入,然后就将飞书的文档内容以区分开来,这里可以点击编辑修改和删除。点击添加 Bot,添加好可以在调试区测试效果。 本地文档:本地 word 文件,注意如何拆分内容,提高训练数据准确度,将海报的内容训练的知识库里面。画小二这个课程 80 节课程,分为了 11 个章节,不能一股脑全部放进去训练。正确的方法是首先将 11 章的大的章节名称内容放进来,章节内详细内容格式依次类推细化下去。每个章节都按照这种固定的方式进行人工标注和处理,然后选择创建知识库自定义清洗数据。 发布应用:点击发布,确保在 Bot 商店中能够搜到。 使用 Dify 构建知识库: 准备数据:收集需要纳入知识库的文本数据,包括文档、表格等格式。对数据进行清洗、分段等预处理,确保数据质量。 创建数据集:在 Dify 中创建一个新的数据集,并将准备好的文档上传至该数据集。为数据集编写良好的描述,描述清楚数据集包含的内容和特点。 配置索引方式:Dify 提供了三种索引方式供选择:高质量模式、经济模式和 Q&A 分段模式。根据实际需求选择合适的索引方式,如需要更高准确度可选高质量模式。 集成至应用:将创建好的数据集集成到 Dify 的对话型应用中,作为应用的上下文知识库使用。在应用设置中,可以配置数据集的使用方式,如是否允许跨数据集搜索等。 持续优化:收集用户反馈,对知识库内容和索引方式进行持续优化和迭代。定期更新知识库,增加新的内容以保持知识库的时效性。 【知识库】FastGPT + OneAPI + COW 带有知识库的机器人: 创建知识库应用: 地址输入浏览器:http://这里替换为你宝塔左上角的那一串:3000/ 进入后,点击应用并创建,选择 qwen 模型。 创建知识库。点击知识库 选择 qwen Embedding 1 点击确认创建。 上传文件,等待处理,最后文本状态是“已就绪”。 回到刚刚创建的应用,关联上创建的知识库。 点击两个发布。之前第一个叫做保存。 点击新建,创建 key。创建后保存同时将 API 根地址最后加上/v1 并保存下来。 安装并接入 cow: 回到宝塔,打开【终端】。 依次粘贴并回车:cd/root 。 git clone https://github.com/zhayujie/chatgptonwechat ,注意一定要粘贴完整。 出现下方的样子,就是成功了。如果失败,或者没反应,刷新一下,重新再试一次。 继续一行一行,依次输入:cd chatgptonwechat/ ,pip install r requirements.txt 。 等待执行完成,继续粘贴:pip install r requirements optional.txt 。 上边的都执行完成后,到“文件”菜单中去执行,点击文件 找到 root,进入 root 文件夹,找到 chatgpt on wechat 文件夹,并进入。
2025-01-19
个人知识库搭建
个人知识库搭建主要包括以下内容: 1. RAG 技术: 利用大模型能力搭建知识库是 RAG 技术的应用。 大模型训练数据有截止日期,当需要依靠不在训练集中的数据时,可通过检索增强生成 RAG 实现。 RAG 应用包括文档加载(从多种来源加载文档,如 PDF 等非结构化数据、SQL 等结构化数据及代码)、文本分割(把文档切分为指定大小的块)、存储(将切分好的文档块嵌入并转换为向量形式存储到向量数据库)、检索(通过检索算法找到与输入问题相似的嵌入片)、输出(把问题及检索出的嵌入片提交给 LLM 生成答案)。 2. GPT 相关: 搭建基于 GPT API 的定制化知识库涉及给 GPT 输入定制化知识,但 GPT3.5 一次交互支持的 Token 有限,OpenAI 提供了 embedding API 解决方案。 Embeddings 是浮点数字的向量,向量之间的距离衡量关联性,小距离表示高关联度,大距离表示低关联度。 3. 本地知识库进阶: 若要更灵活掌控知识库,可使用额外软件 AnythingLLM,其包含 Open WebUI 的能力,并额外支持选择文本嵌入模型和向量数据库。 安装地址:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。 AnythingLLM 中有 Workspace 概念,可创建独有 Workspace 与其他项目数据隔离,包括创建工作空间、上传文档并嵌入、选择对话模式(Chat 模式综合给出答案,Query 模式仅依靠文档数据给出答案)、测试对话。 最后,“看十遍不如实操一遍,实操十遍不如分享一遍”。如果对 AI Agent 技术感兴趣,可联系相关人员或加入免费知识星球(备注 AGI 知识库)。
2025-01-19
帮我搭建一个工作流编排的智能体
以下是搭建工作流编排智能体的步骤: 1. 逐步搭建 AI 智能体: 创建 Bot。 填写 Bot 介绍。 切换模型为“通义千问”(测试下来,通义对提示词理解、执行效果最好)。 把配置好的工作流添加到 Bot 中。 新增变量{{app_token}}。 添加外层 bot 提示词(可按需求和实际效果优化调整)。完成上述步骤后,在「预览与调试」窗口可与 AI 稍后读智能体对话并使用全部功能。 2. 选择工作流的对话模式: 创建一个工作流对话模式的智能体。 先完成创建,然后切换工作流的模式为对话模式。注意一定要在开始调整工作流节点之前切换模式,因为切换成对话模式会将工作流清空,重置为对话模式默认节点。 3. 确认分支情况: 根据需求分析,确定特定分支(如根据名字和祝福写对联、根据幸运数字写对联)和默认分支,以保证用户其他对话能得到良好回复。 4. 用户意图识别: 通过理解用户意图走不同分支,需将意图介绍写清楚、准确,否则可能导致意图识别不好用。 5. 幸运数字分支: 用代码分支获取用户输入的数字,然后匹配知识库,再对匹配的春联做赏析。代码里有容错机制,返回时加“.0”是为了按指定的幸运数字在知识库里匹配。 6. 名字写祝福: 根据用户输入的名字和祝福信息,通过提示词调试生成对应对联并输出。 7. 通用兜底回复: 在用户不符合前两个意图时进行友好回复。首先匹配知识库,然后让大模型结合匹配结果、历史记录、当前输入,输出符合对话内容的回复。 8. 知识库: 知识库是使用大模型生成的 100 对对联,都比较好看、经典、有意义。
2025-01-18
集文档管理、AI写作、资料搜索的AI大模型推荐
以下为您推荐一些集文档管理、AI 写作、资料搜索功能于一体的 AI 大模型: 1. RAG: 工作原理:就像超级智能的图书馆员,包括检索(从庞大知识库中找相关信息)、增强(筛选优化信息)、生成(整合信息给出连贯回答)。 优点:成本效益高、灵活性强、可扩展性好。 缺点:回答准确性相对不够。 相关网站:Metaso.cn(学术、研究)、So.360.com(生活、便捷)、Devv.ai(程序员、开发者)、Perplexity(付费、高质量)、Bing.com(通用)、Google.com(全球、精准)。 内幕:平均调用 9 次大语言模型,网络爬虫预先建立数据库,用便宜但推理弱的模型(免费版)。 2. 对于律师工作: AI 大模型擅长:信息检索与整理、模式识别与预测、自动化文档处理、多任务处理能力。 AI 大模型不擅长:法律解释与推理、理解道德和情感、创新或个性化的服务。 律师擅长:法律专业知识、沟通与谈判。 3. 沉浸式翻译:主打所有网页双语翻译、PDF 文档对照阅读,新功能可一键开启网页中 Youtube 视频的双语字幕。插件安装地址:https://immersivetranslate.com/ 4. Kimi:由月之暗面科技有限公司开发,最大特点是超长文本(支持最多 20 万字的输入和输出)处理和基于文件、链接内容对话的能力,能阅读并理解多种格式文件内容为用户提供回复。
2025-01-21
目前ai搜索功能最强的是什么模型
目前在 AI 搜索功能方面,Meta 于 2024 年 7 月 23 日发布的源模型 Llama 3.1 表现较为出色,其包含 8B、70B 和 405B 三个版本,其中 405B 是迄今为止最强大的模型,性能与 GPT4 和 Claude 3.5 相当。 在 AI 时代,搜索引擎结合大模型极大地增强了自身能力,比较优秀的公司有秘塔搜索(https://metaso.cn/)和 Perplexity(https://www.perplexity.ai/?loginsource=oneTapHome)。 AI 搜索结合了多种能力,如 fine tuning、实时联网查询和查询知识源等,能够为用户整理出想要的内容,一些 AI 搜索平台专注于特定领域,如为程序员提供代码搜索。 RAG 是一种通过引用外部数据源为模型做数据补充的方式,适用于动态知识更新需求高的任务,其原理是在基础大模型基础上引用外部数据,对搜索到的数据信息进行切片、拆分和语义理解,再根据用户提问进行检索和回答,但比基座模型更耗时,且能够支持在本地运行。 多模态大模型具有多种能力,像能唱会跳、精通多种技能的机器人,能看见、听见、思考、说话,例如能识别物体、听取指令等。生成式模型和决策式模型有所区别,决策式模型偏向逻辑判断,按预设程序固定输出;生成式模型偏随机性,能动态组合并结构化呈现,如在图像识别中,决策式模型返回关键词,生成式模型用语言表达结构化信息。
2025-01-19
请告诉我3个大众使用评价最好的ai搜索引擎
以下是 3 个大众使用评价较好的 AI 搜索引擎: 1. 秘塔 AI 搜索:由秘塔科技开发,具有多模式搜索、无广告干扰、结构化展示和信息聚合等功能,能提升用户搜索效率和体验。 2. Perplexity:聊天机器人式的搜索引擎,允许用户用自然语言提问,通过生成式 AI 技术从各种来源收集信息并给出答案,用户参与度高。 3. 360AI 搜索:360 公司推出,通过 AI 分析问题,生成清晰有理的答案,并支持增强模式和智能排序。
2025-01-16
Llm studio 联网搜索
以下是关于 LLM studio 联网搜索的相关内容: Cursor 方面: Cursor 适用于多种编程场景,如问答。在问答场景中,LLM 支持联网功能后,如 Claude、ChatGPT、Perplexity 等平台可咨询技术问题,能自动提炼关键字、联网搜索并总结分析搜索结果返回简洁答案,但答案置信率不高,而 Cursor 的上下文符号引用能力(如@Codebase 符号索引整个仓库)弥补了这一点,其将整个仓库 Embedding 成向量数据库供 LLM 消费,具备极强的私域知识理解能力,还能高效地帮用户分析总结各类项目的底层原理。 LLM Agent 方面: 工作步骤包括接收指令(用户通过文本、语音等方式发出指令或提出问题)、数据处理与理解(利用内部大语言模型解析用户输入,提取关键信息)、生成响应与执行任务(根据用户需求生成回答或采取行动,如查询数据库、搜索网络等)、输出结果(通过文本或语音将生成的结果反馈给用户)。 AIGC Weekly34 方面: 提出将 LLM 与互联网上的高质量内容结合来修复信息生态系统的问题,如 Metaphor 希望恢复搜索的神奇感,发布了 Metaphor API 用于将 LLM 连接到互联网。 介绍了 StarCraft II 作为强化学习环境的相关论文,提出了 AlphaStar Unplugged 基准测试。 提到了名为 Glean 的 AI 搜索工具能帮助用户在工作场景中进行搜索和优化,还讨论了人工智能人格模拟相关内容,如语言模型如何模拟和改变人格等。
2025-01-13
搜索所有deepseek相关资料
以下是关于 DeepSeek 的相关资料: DeepSeek 网址:https://www.deepseek.com/zh 。它很方便,国内能访问,网页登录方便,目前完全免费。新手推荐使用,您只需要获得游戏代码即可。点击开始对话,左边选择代码助手,直接向其许愿。 5 月 7 日的 XiaoHu.AI 日报中提到,DeepSeek 发布 2360 亿参数的 DeepSeekV2,它是 60 位专家混合开源模型,数学、编码和推理表现出色,有 236B 参数,21B 在生成过程中被激活,在 MTBench 上表现优异,中文能力强且性价比高。详细介绍:https://xiaohu.ai/p/7468
2024-12-31
那款搜索ai最好用
以下是一些好用的 AI 搜索引擎推荐: 1. 必应:通常是付费选项中的最佳选择。对于儿童,可汗学院的 Khanmigo 提供由 GPT4 驱动的良好的人工智能驱动辅导。 2. 秘塔 AI 搜索:由秘塔科技开发,提供多模式搜索、无广告干扰、结构化展示和信息聚合等功能,旨在提升用户的搜索效率和体验。 3. Perplexity:一款聊天机器人式的搜索引擎,允许用户用自然语言提问,使用生成式 AI 技术从各种来源收集信息并给出答案。 4. 360AI 搜索:360 公司推出的 AI 搜索引擎,通过 AI 分析问题,生成清晰、有理的答案,并支持增强模式和智能排序。 5. 天工 AI 搜索:昆仑万维推出的搜索引擎,采用生成式搜索技术,支持自然语言交互和深度追问,未来还将支持图像、语音等多模态搜索。 6. Flowith:一款创新的 AI 交互式搜索和对话工具,基于节点式交互方式,支持多种 AI 模型和图像生成技术,提供插件系统和社区功能。 7. Devv:面向程序员的 AI 搜索引擎,专注于提供编程、软件开发和人工智能等领域的专业建议和指导。 8. Phind:专为开发者设计的 AI 搜索引擎,利用大型语言模型提供相关的搜索结果和动态答案,特别擅长处理编程和技术问题。 需要注意的是,在使用人工智能作为搜索引擎时,存在幻觉的风险,大多数人工智能没有连接到互联网。在某些情况下,如技术支持、决定在哪里吃饭或获得建议,必应通常比谷歌更好。这是一个正在迅速发展的领域,使用时应小心。
2024-12-30
有哪些能够本地部署的AI视频生成模型
以下是一些能够本地部署的 AI 视频生成模型: 1. Stable Video Diffusion 模型: 准备工作:手动下载相关内容,分别放到指定路径。 模型选择:点击下拉箭头选择不同模型版本,勾选 load Model。 视频创作:支持图生视频,图片来源可选择 Midjourney、Stable Diffusion 等生成的图片,上传到 SVD 进行视频生成,可调节左侧参数控制效果。 保存路径:生成的视频在 outputs 下。 2. LTXVideo 模型: 基于 2B 参数 DiT,能够以 768x512 分辨率生成 24 FPS 的视频,速度比观看还快。 专为 RTX 4090 等 GPU 优化,使用 bfloat16 精度,实现高效内存使用且不影响质量。 ComfyUI 现已支持该模型,用户只需下载模型文件并获取工作流即可在本地运行。 3. Sora 模型: 功能:文生视频、图生视频、视频生视频,支持多种视频定制选项,如分辨率、视频长度和视频风格;具有故事板功能,允许用户通过时间线指导视频中的多个动作;提供混音和编辑功能,包括视频混音、延伸和剪辑、创建循环视频等;还有混合功能,可将两个视频场景合并成一个新的场景。 费用和订阅套餐:对于拥有 OpenAI Plus 或 Pro 账户的用户,使用包含在现有订阅中。OpenAI Plus 订阅每月 50 次视频生成次数,OpenAI Pro 订阅无限次慢速队列生成,500 次正常速度的视频生成次数。用户可根据需要选择更高分辨率的视频生成,但可能会减少每月使用次数。发布初期,某些地区(如欧洲和英国)可能会有延迟。
2025-01-21
国内文生图模型
以下是关于国内文生图模型的相关信息: Recraft 模型:用 8 个月自研模型,包含处理数据的模型、标注工作、训练 OCR 模型、新构建的数据集等。Recraft 生成带有长文本图像的流程图解,但存在生成默认是外国面孔而非亚洲面孔且生成的亚洲人不太自然的情况,可能与数据集有关。只有少数公司真正从头训练模型,创建自己的模型困难且成本高,需要超强团队和资金。 模型能力方面: 文本编码器的能力是文生图模型语义理解能力的关键。一开始大部分模型使用 CLIP 作为文本编码器,但存在一些问题。新的模型纷纷优化文本编码器能力,如引入更大更强的 T5XXL 或结合多个特征,但开源模型在中文生图方面能力一般。 腾讯开源的 HunyuanDiT 是较可用的中文生图模型,但仍存在优化空间。 Kolors 是最近开源的给力文生图模型,改进全面,技术实力强。
2025-01-21
吴恩达大模型教程
以下是一些与吴恩达大模型相关的教程和资源: 面向开发者的 LLM 入门课程: 地址: 简介:一个中文版的大模型入门教程,围绕吴恩达老师的大模型系列课程展开,包括吴恩达《ChatGPT Prompt Engineering for Developers》课程中文版等。 提示工程指南: 地址: 简介:基于对大语言模型的兴趣编写的全新提示工程指南,介绍了相关论文研究等。 LangChain🦜️🔗中文网,跟着 LangChain 一起学 LLM/GPT 开发: 地址: 简介:由两位 LLM 创业者维护的 Langchain 中文文档。 LLM 九层妖塔: 地址: 简介:包含 ChatGLM 等实战与经验。 目录:吴恩达讲 Prompt https://github.com/zard1152/deepLearningAI/wiki Coze 复刻:吴恩达开源的 AI 翻译项目 复刻步骤:包括配置反思优化的提示词、结合反思优化建议再次翻译、选择输出方式等。 大语言模型分为基础 LLM 和指令微调 LLM 两类。基础 LLM 经过训练可根据文本预测下一个词,指令微调 LLM 经过训练能遵循指令,为让系统更有帮助并遵循指令,通常会使用人类反馈强化学习(RLHF)技术优化。提示的关键原则包括尽可能保证下达的指令“清晰、没有歧义”,给大模型思考的时间以及足够的时间去完成任务。
2025-01-21
有哪个大模型工具可以提供“word文本转excel表格”功能
以下是一些可以将 word 文本转 excel 表格的大模型相关方法: 1. Markdown 格式输出 Markdown 编辑器 Excel:将大模型的输出结果复制到 Markdown 编辑器(如 Typora),然后再直接复制到 Excel,就可以得到直接可用的数据文档。 2. Markdown 格式输出 Excel 数据分组:把大模型的输出直接复制到 Excel,一般使用 Excel 的数据分列功能,用“|”作为分隔符号处理数据。 3. Markdown 格式输出 Excel 数据分组:要求大模型把输出转换成 CSV 格式,然后把结果复制到 txt 文档,另存为成 csv 文件(注意:txt 另存为时,文件后缀名更改为.csv,编码选择 ANSI)。
2025-01-21
有哪个大模型工具可以提供“word技术规范书转功能清单”功能
目前尚未有确切的大模型工具专门提供“word 技术规范书转功能清单”的功能。但一些通用的自然语言处理工具和办公软件的插件可能会对您有所帮助,例如一些基于云服务的办公自动化工具,不过其效果可能因具体的文档内容和格式而有所差异。
2025-01-21