直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

AI相关常见缩写及对应含义,包含例如prompt,rag

回答

以下是一些 AI 相关的常见缩写及对应含义:

  • LLM:Large language model 的缩写,即大语言模型。
  • Prompt:中文译作提示词,是输入给大模型的文本内容,可理解为与大模型说的话或下达的指令,其质量会显著影响大模型回答的质量。
  • Token:大模型语言体系中的最小单元。不同厂商的大模型对中文的文本切分方法不同,通常 1Token≈1-2 个汉字。大模型的收费计算及输入输出长度限制常以 token 为单位计量。
  • 上下文(context):指对话聊天内容前、后的内容信息,其长度和窗口会影响大模型回答的质量。

在 AI 绘画中,常见的画面构图提示词有:

  • 视图相关:Bottom view(底视图)、front,side,rear view(前视图、侧视图、后视图)、product view(产品视图)、extreme closeup view(极端特写视图)、look up(仰视)、first-person view(第一人称视角)、isometric view(等距视图)、closeup view(特写视图)、high angle view(高角度视图)、microscopic view(微观)、super side angle(超博角)、third-person perspective(第三人称视角)、Aerial view(鸟瞰图)、two-point perspective(两点透视)、Three-point perspective(三点透视)、portrait(肖像)、Elevation perspective(立面透视)、ultra wide shot(超广角镜头)、headshot(爆头)、a cross-section view of(a walnut)(核桃的横截面图)、cinematic shot(电影镜头)、in focus(焦点对准)、depth of field(dof)(景深(dof))
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

走入AI的世界

首先我们给出一些常见缩写和专业词汇的“人话”解释,它们十分基础,但理解他们至关重要。为了讨论更加聚焦,接下来的内容将主要围绕大语言模型为主进行展开(对于其他模态的大模型,我们暂且放放):LLM:Large language model的缩写,即大语言模型,前面百团大战中的各类大模型,说的都是大语言模型(极其应用)Prompt:中文译作提示词,就是我们输入给大模型的文本内容,可以理解为你和大模型说的话,下达的指令。提示词的质量好坏,会显著影响大模型回答的质量,很多时候如果你觉得大模型回答的太差了,AI味儿太浓了,很可能是你的提示词写的不够好,换言之,不是AI不行,而是你不行😌Token:就像人类有着不同的语言,大模型也有着自己的语言体系,如图9,我们发送文本给大模型时,大模型会先把文本转换为他自己的语言,并推理生成答案,而后再翻译成我们看得懂的语言输出给我们。正如人类不同语言都有最小的字词单元(汉语的字/词,英语的字母/单词),大模型语言体系中的最小单元就称为Token。这种人类语言到大模型语言的翻译规则,也是人类定义的,以中文为例,由于不同厂商的大模型采用了不同的文本切分方法,因此一个Token对应的汉字数量也会有所不同,但在通常情况下,1Token≈1-2个汉字。请注意,大模型的收费计算方法,以及对输入输出长度的限制,都是以token为单位计量的。上下文:英文通常翻译为context,指对话聊天内容前、后的内容信息。使用时,上下文长度和上下文窗口都会影响AI大模型回答的质量。上下文长度限制了模型一次交互中能够处理的最大token数量,而上下文窗口限制了模型在生成每个新token时实际参考的前面内容的范围(关于这一点,你需要看完3.2中关于GPT的讨论,方能更好理解)

AIGC常见名词解释(字典篇)

|黑话|解释|<br>|-|-|<br>|NAI|(Novel AI,一般特指Leak)|<br>|咒语|prompts,关键词|<br>|施法/吟唱/t2i|Text2Image|<br>|魔杖|t2i/i2i参数|<br>|i2i|Image2Image,一般特指全部图片生成|<br>|inpaint|i2i一种maskredraw,可以局部重绘|<br>|ti/emb/炼丹|Train中的文本反转,一般特指Embedding插件|<br>|hn/hyper/冶金|hypernetwork,超网络|<br>|炸炉|指训练过程中过度拟合,但炸炉前的日志插件可以提取二次训练|<br>|废丹|指完全没有训练成功|<br>|美学/ext|aesthetic_embeddings,emb一种,特性是训练飞快,但在生产图片时实时计算。|<br>|db/梦展|DreamBooth,目前一种性价比高(可以在极少步数内完成训练)的微调方式,但要求过高|<br>|ds|DeepSpeed,微软开发的训练方式,移动不需要的组件到内存来降低显存占用,可使db的vram需求降到8g以下。开发时未考虑win,目前在win有兼容性问题故不可用|<br>|8bit/bsb|一般指Bitsandbyte,一种8比特算法,能极大降低vram占用,使16g可用于训练db。由于链接库问题,目前/预计未来在win不可用|后面这些难啃一些,随便看看吧

AI绘画常用提示词

Bottom view底视图front,side,rear view前视图、侧视图、后视图product view产品视图extreme closeup view极端特写视图look up仰视first-person view第一人称视角isometric view等距视图closeup view特写视图high angle view高角度视图microscopic view微观super side angle超博角third-person perspective第三人称视角Aerial view鸟瞰图two-point perspective两点透视Three-point perspective三点透视portrait肖像Elevation perspective立面透视ultra wide shot超广角镜头headshot爆头a cross-section view of(a walnut)(核桃)的横截面图cinematic shot电影镜头in focus焦点对准depth of field(dof)景深(dof)

其他人在问
什么是AI
AI 是一门令人兴奋的科学,它研究如何使计算机表现出智能行为,例如做一些人类所擅长的事情。 对于 AI 的理解,对于不具备理工科背景的文科生来说可能较困难,可将其当成一个黑箱,只需要知道它是某种能模仿人类思维、理解自然语言并输出自然语言的东西即可。其生态位是一种似人而非人的存在,即便技术再进步,这一生态位也不会改变。 在实际应用中,有些任务无法明确编程让计算机完成,比如根据照片判断一个人的年龄,而这类任务正是 AI 所感兴趣的。 AI 健身是利用人工智能技术辅助或改善健身训练和健康管理的方法,能根据用户情况提供定制化训练计划和建议。相关的 AI 工具包括 Keep、Fiture、Fitness AI、Planfit 等。
2024-11-12
如何使用ai帮助我写作
利用 AI 帮助写作可以参考以下步骤和方法: 1. 确定写作主题:明确您的研究兴趣和目标,选择一个具有研究价值和创新性的主题。 2. 收集背景资料:使用 AI 工具如学术搜索引擎和文献管理软件来搜集相关的研究文献和资料。 3. 分析和总结信息:利用 AI 文本分析工具来分析收集到的资料,提取关键信息和主要观点。 4. 生成大纲:使用 AI 写作助手生成写作的大纲,包括引言、文献综述、方法论、结果和讨论等部分。 5. 撰写初稿:可以利用 AI 写作工具草拟任何东西的初稿,如博客文章、论文、宣传材料、演讲、讲座等。 6. 优化内容:将文本粘贴到 AI 中,要求它改进内容,或就如何为特定受众提供更好的建议。也可以要求它以不同风格创建多个草稿,使事物更生动,或者添加例子,以激发您做得更好。 7. 帮助完成任务:AI 可以做您没有时间做的事情,像实习生一样使用它写邮件,创建销售模板,提供商业计划的下一步等。 8. 数据分析(若涉及):如果写作内容涉及数据收集和分析,可以使用 AI 数据分析工具来处理和解释数据。 9. 生成参考文献:使用 AI 文献管理工具来生成正确的参考文献格式。 10. 审阅和修改:利用 AI 审阅工具来检查写作的逻辑性和一致性,并根据反馈进行修改。 11. 提交前的检查:最后,使用 AI 抄袭检测工具来确保写作的原创性,并进行最后的格式调整。 需要注意的是,AI 工具可以作为辅助,但不能完全替代您的专业判断和创造性思维。在使用 AI 进行写作时,应保持批判性思维,并确保写作的质量和学术诚信。 目前,一些较好的写作工具包括: 最佳免费选项: 付费选项:带有插件的4.0/ChatGPT 此外,GPT4 仍然是功能最强的人工智能写作工具,您可以在 Bing(选择“创新模式”)上免费访问,或者通过购买 ChatGPT 的$20/月订阅来访问。Claude 是紧随其后的第二名,也提供了有限的免费选项。这些工具也被直接集成到常见的办公应用程序中,如 Microsoft Office 将包括一个由 GPT 提供支持的副驾驶,Google Docs 将整合 Bard 的建议。
2024-11-12
为什么AI那么厉害
AI 之所以厉害,原因主要包括以下几点: 1. 具有非凡的潜力,能够在众多领域得到应用,如改善社会和经济,其影响力可与电力和互联网相媲美,能推动增长并创造就业机会。 2. 可支持人们完成现有工作,提高劳动力效率和工作场所安全性。 3. 是人类研究世界的有力工具,能帮助解决基础科学面临的瓶颈,例如在生物领域能快速计算蛋白质的折叠结构。 4. 不断发展和创新,如 GPT4 的升级,能为用户提供更多帮助。但同时也存在耗能等问题。
2024-11-12
国内有哪些AI出海产品
国内的 AI 出海产品有 ThinkAny、GenSpark、Devv 等。 在图像类 AI 产品方面,国内有可灵和通义万相。可灵由快手团队开发,用于生成高质量的图像和视频,图像质量高,但价格相对较高;通义万相是阿里旗下的工具,在中文理解和处理方面表现出色,用户可选择多种艺术和图像风格,操作界面简洁直观,且目前免费,但在某些方面存在局限性。 在 PPT 类 AI 产品方面,国内推荐爱设计 PPT,其背后有强大的团队,能敏锐把握市场机遇,已确立市场领先地位,能提高制作效率并保证高质量输出。
2024-11-12
0基础怎么快速学会做AI
对于 0 基础学习 AI,您可以参考以下步骤: 1. 了解 AI 基本概念: 建议阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,您能找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,您可以根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 此外,您还可以参考以下具体的学习活动: 1. 参加“AI 编程共学”活动,例如: 10 月 28 日 20:00 开始的“0 基础做小游戏分享:通往 AGI 之路增量小游戏、转生之我是野菩萨”,回放链接:。 10 月 29 日 20:00 开始的“0 编程基础入门 Cursor 极简使用指南”,回放链接:。 10 月 30 日 20:00 开始的“0 基础学做 AI 拍立得:Coze 工作流实现手把手教学、AI 拍立得开源代码开箱即用”,回放链接:。 10 月 31 日 20:00 开始的“0 基础做小游戏分享:猪猪🐷撞南墙”,回放链接:。 2. 对于技术纯小白,您可以: 从一个最最基础的小任务开始,让 AI 先帮您按照 best practice 写一个 say hello 的示例程序,并解释每个文件的作用及程序运行的逻辑,学会必备的调试技能。 通过和 AI 的对话,逐步明确项目需求,让 AI 帮助您梳理出产品需求文档。
2024-11-12
AI如何在平面设计工作流中提高效率,具体的步骤有哪些
以下是 AI 在平面设计工作流中提高效率的具体步骤和相关信息: 1. 工具选择 主要工具:Midjourney 和 Stabel Diffusion。 辅助工具:RUNWAY 和 PS beta 等。 2. 工作流效果 创意多样:设计解决方案更为多样和创新,项目中不同创意概念的提出数量增加了 150%。 执行加速:AI 生成的设计灵感和概念显著缩短了创意阶段所需时间,设计师在创意生成阶段的时间缩短了平均 60%。 整体提效:在整体项目的设计时间减少了 18%。 3. 提升能力的方法 建立针对性的 AI 工作流:使用 lora 模型训练的方式,生成特定的形象及 KV 风格,建立包含品牌形象、风格视觉 DNA 的模型,并根据实用场景进行分类。 实用的模型训练:在营销活动期间,根据市场环境和消费者偏好的变化迅速调整 lora 模型。 AI 设计资产储备:建立和管理 AI 设计资产,沉淀相关知识、技能、工具,促进团队内部的知识积累和提升。 此外,对于建筑设计师审核规划平面图,以下是一些可用的 AI 工具: HDAidMaster:云端工具,在建筑、室内和景观设计领域表现出色,搭载自主训练的建筑大模型 ArchiMaster。 Maket.ai:面向住宅行业,在户型和室内软装设计方面有探索,能根据输入需求自动生成户型图。 ARCHITEChTURES:AI 驱动的三维建筑设计软件,在住宅设计早期可引入标准和规范约束设计结果。 Fast AI 人工智能审图平台:形成全自动智能审图流程,实现数据的汇总与管理。 但每个工具都有其特定应用场景和功能,建议根据具体需求选择合适的工具。
2024-11-12
代码review的prompt
以下是关于代码 review 的 prompt 相关内容: 名词解释: Prompt:一段文本或语句,用于指导机器学习模型生成特定类型、主题或格式的输出。在自然语言处理领域中,通常由问题或任务描述组成,在图像识别领域中,可以是图片描述、标签或分类信息。 LangChain:开源 Python 库,由 Harrison Chase 开发,旨在支持使用大型语言模型和外部资源开发应用程序,提供标准接口,与其他工具集成,并为常见应用程序提供端到端链。 Embedding:将任意文本映射到固定维度的向量空间中,相似语义的文本,其向量在空间中的位置会比较接近。在 LLM 应用中常用于相似性的文本搜索。 向量数据库:存储向量表示的数据库,用于相似性搜索,如 Milvus、Pinecone 等。 Similarity Search:在向量数据库中搜索离查询向量最近的向量,用于检索相似项。 知识库:存储结构化知识的数据库,LLM 可以利用这些知识增强自己的理解能力。 InContext Learning:机器学习领域的概念,指不调整模型自身参数,在 Prompt 上下文中包含特定问题相关的信息,赋予模型解决新问题能力的一种方式。 Finetune /微调:在预训练模型基础上使用特定数据集进行微调,提升模型在某任务上的性能。 软件工程师相关的 Prompt 示例: 解释代码:👉向我解释此代码{要解释的代码} 请解释这段代码{代码段} 调试代码,找 Bug:👉这个{编程语言}代码有什么问题 代码:{待调试代码} 这段代码有什么问题{代码段} 生成单元测试:👉生成单元测试代码 请输入你要{要使用的语言和框架},再输入{代码段} 请为以下代码片段创建一组单元测试以进行彻底测试 它的功能。首先,概述你计划创建的测试用例。其次,使用{要使用的语言和框架}和下面提供的代码片段来实现测试用例。 创建样本代码库:👉为{描述功能所需的应用程序创建样板代码库}。请使用{指定的编程语言和框架}。 例如:为包含第三方 API 的应用程序创建样板代码库。请用 Django 框架上使用 Python 代码。 向代码添加注释:👉请输入你要添加注释的{代码段} 请查看以下代码片段并为每一行代码提供注释,解释其目的和功能。检查完代码后,请重新生成带有添加注释的代码段。 比较两段代码:👉请输入你要比较的两个{代码段 1}、{代码段 2},最好{描述你在建构的内容和目的} 我正在开发一个{描述你正在构建的}并且想评估和 将{第一个比较项}与{第二个比较项}进行比较。请提出基本{您正在构建的内容}的要求,并创建两个满足这些要求的代码库一个使用{第一个比较项},另一个使用{第二个比较项}。请提供在我的本地计算机上运行这两个应用程序的明确说明。 生成正则表达式:👉请创建一个正则表达式匹配{你想匹配的模式} 请创建一个正则表达式匹配{你想匹配的模式} 解决 Leetcode 问题:👉请用{所需语言}编写代码来解决以下挑战:{待解决挑战的概述} 请用{所需语言}编写代码来解决以下挑战:{待解决挑战的概述} 查找边缘情况:👉请帮我找下以下代码的边缘情况:{代码段} 我想让你充当软件开发人员。请帮我抓住这个功能的边缘情况{插入功能函数} 增强代码可读性:👉请帮我优化下面代码:{代码段} 我想让你充当代码分析器。您能否改进以下代码以提高可读性和可维护性?{插入代码}
2024-11-11
让GPT陪聊的prompt
以下是一些关于让 GPT 陪聊的 prompt 相关知识: 夙愿提出了使用 GPT 模仿创作内容的万能思路。在 Prompt 迭代方面,特别是 GPT 优化 Prompt 时,0.3 版创作的标题存在太夸张的问题。可通过与 GPT 深入交流来优化,如向 GPT 提问为何标题夸张,受哪些提示影响。影响因素包括修辞手法、日常口语风格、情感色彩和提供的示例等。 像高手一样编写 GPT 时,和上一个例子相同的是顶部有和 GPT 使用搜索和画图一样的小图示“Talk to”。其中包含两个英文单词,对应在 GPT 里设置的两个 Action,一个代表 themoviedb 的某条数据,一个代表使用 webpilot 这个工具,且有类似网址的内容。 南瓜博士提到让 AI 的回复更有灵性(人味儿)的 Prompt 小技巧。GPT 回答问题常很古板,常见方法是让其扮演特定角色、给出明确输出要求,但效果有限。要让其更有趣,可让它在回复中加点感情,如营造特定环境,用括号写出动作,通过示范给予上下文学习的机会,使其后续回复更具画面感。
2024-11-07
我要学习prompt,给我指定一个学习计划
以下是为您制定的学习 prompt 的计划: 一、准备阶段 首先,您需要拥有一个大模型账号,并熟悉与它们对话的方式。推荐使用性能较强的 ChatGPT4 ,国产平替有 。 二、基础学习 1. 阅读 OpenAI 的官方文档,包括: 同时,也可以参考我和熊猫 Jay 在 AGI 分享的中文精读版官方 Cookbook: 三、深入学习与实践 1. 学习 Claude 官方提示词,中文版(含 API Prompt),包括为给定主题创建全面的课程计划,如: 明确课程目标,使其清晰、可衡量,并与教育标准一致。 提供详细大纲,分为介绍、主要活动和总结,描述教学方法、学习活动和资源。 采用差异化策略适应不同学习需求和风格。 确定评估方法以评估学生的理解和掌握程度。 2. 进行苏格拉底式对话,就给定话题通过反复询问激发更深层次的思考和反思。 3. 针对给定主题生成同音连绵的词语和句子。 4. 掌握 Prompt 句式,例如: 对于“我想了解xxxx,我应该向你问哪些问题?”等句式,明确哪些是您不知道而 GPT 知道的。 对于“我理解的 xxx 是这样的,你觉得我的理解对吗?”等句式,进行认知的检验。 对于“我在 xxx 问题上遇到困难,你能提供一些可能的解决方案或建议吗?”等句式,实现认知的扩充。 希望这个学习计划对您有所帮助,祝您学习顺利!
2024-11-07
什么是prompt
Prompt 是您给模型(如 Claude 等)的文本,用于引发相关输出。它通常以问题或指示的形式出现。例如:“为什么天空是蓝色的?”。简单来说,它是一套您和大模型交互的语言模板,通过这个模板,您可以输出对大模型响应的指令,明确模型应做什么、完成什么任务、如何处理具体任务,并最终获得期望的结果。大模型的本质是基于语言的概率模型,若直接询问而不提供 Prompt,模型随机给出答案;有了 Prompt 则相当于给了一个包含对模型要求、输入和输出限制的模板,使模型在限制下得到概率最大的答案。此外,Prompt 是给到大模型输入的一段原始输入,能帮助模型更好地理解用户需求并按特定模式或规则响应。比如可以设定“假设你是一位医生,给出针对这种症状的建议”,后续对话将按此设定展开。还能在 Prompt 设定中要求模型按一定思路逻辑回答,如思维链(cot),也能让模型按特定格式(如 json)输出,使模型成为输出器。
2024-11-07
midjourney Prompt 编写指南
以下是关于 Midjourney Prompt 编写的指南: 1. 基本结构 与 Niji·journey 5 相似,Midjourney Prompt 结构为:<产出属性要求+设计主体描述+风格要求+效果要求> 2. 产出属性要求 例如:Anime, AAA character concept art, many details, full body view 等,需首先明确属性要求。 3. 设计主体描述 如:a blonde twintail short little Girl wear inside cyberpunk latex tiny tight Pilot suit, wear outside an ultra detailed Futuristic fashion oversized cyberpunk short coat with big wide sleeves, big cyberpunk boots 。可以参考相关特征进行描述,注意规避屏蔽词汇,通过描述年龄控制角色年龄段。 4. 风格要求 可以使用各种风格描述词汇,或直接写上参考游戏设计的名字,出于知识产权尊重,不建议写设计师名字。 5. 效果要求 包括:lineart, beautiful linework, high contrast, frisky, gradient, manga, hd 等。还可以写上 Midjourney 三视图关键词、背景颜色、不要生成文字 logo 等具体要求。 6. 其他相关 若公共频道消息刷太快,可在私信 Midjourney Bot 使用 /imagine 命令,私信创建的图像仍受内容和管理规则限制,且可在 Midjourney 网站查看。 Prompts 是 Midjourney Bot 中的指令,可简单或详细,Bot 会根据 Prompt 生成图像网格,可选择并修改操作。了解编写基础提示信息可参考 https://docs.midjourney.com/prompts ,探索通过艺术媒介、地点和时期描述改变图像可参考 https://docs.midjourney.com/exploreprompting 。 /blend 命令允许使用 Midjourney 的 AI 图像生成将多个图像混合,需上传至少两张图像,输入命令加上图像 ID 和选项,可调整混合设置,生成新图像。学习上传和混合自己的图片可参考 https://docs.midjourney.com/v1/docs/blend 。
2024-11-07
ai领域的prompt指什么
在 AI 领域,prompt 指的是直接描述或引导视频生成、帮助模型更好地理解用户需求并按照特定模式或规则进行响应的文本或指令。 在 AI 视频生成中,它包含主体、运动、风格等信息,用户借此控制和指导生成内容。其作用十分重要,是表达需求的方式,影响着视频的内容和质量。您可以将其理解为:把您输入的文字变成对应的画面和运动形式。 在大模型中,prompt 是给到大模型输入的一段原始输入,比如可以设定“假设你是一位医生,给出针对这种症状的建议”,后续与大模型的对话会按照这个原始设定展开。还有很多有趣的玩法,如要求模型按照一定的思路逻辑回答,像最近较火的思维链(cot)就在 prompt 环节对模型的输出进行指导,还可以让模型按照特定格式(如 json)输出,使模型成为一个输出器。
2024-11-07
RAG加速有什么好办法吗
以下是一些加速 RAG 的好办法: 1. 确保 LLM 以正确的格式回应:函数调用已成为确保 LLM 严格输出特定格式的相对靠谱的新方法,推荐使用此方法提升性能。可参考结构化输出文档,其中高层次的 LangChain API 展示了不同 LLM 如何调用工具和函数。 2. 使用参考样例:在实际操作中,将输入和对应输出的样例纳入其中通常大有裨益,这些样例有时比指示本身更能有效指导 LLM 处理特定情况。在提取用例文档中可找到更多细节,助您从 LLMs 中提取更好的性能。 此外,LangChain 携手 NVIDIA 为 RAG 加速带来了新的篇章: 1. 将 NVIDIA NIM 与 LangChain 结合使用:新增了支持 NIM 的集成包,安装专门的集成包后可导入所需模型,并通过示例展示如何构建应用程序,包括安装额外的包、加载数据源、初始化嵌入模型等一系列操作。 2. NVIDIA NIM 介绍:NVIDIA NIM 是一系列用户友好的微服务,旨在加速企业内部生成式 AI 的部署进程,支持广泛的 AI 模型,基于强大的推理引擎和技术构建,提供无缝的 AI 推理体验,是实现大规模、高性能生成式 AI 推理的最佳选择。其具有自托管特性,能保证数据安全;提供预构建的容器,方便选择和使用最新模型;具有可扩展性。开始使用 NIM 非常简单,在 NVIDIA API 目录中可轻松访问多种 AI 模型,NIM 是 NVIDIA AI Enterprise 的一部分,可通过相关博客获取详细指南。
2024-11-12
搜索DragGAN
DragGAN 于 2023 年 6 月 25 日开源。喜欢 AI 绘画的对它应该不陌生,期待它带来更大的惊艳。此外,相关论文中增加了微软研究院新发布的多模态 AI 助手;学习路径中增加了适合初学者的深度学习课程 fast.ai ;AI 名词增加到 80 多个,补充了很多技术名词。您可以通过以下链接获取更多详细信息:
2024-11-11
如何提高RAG应用中的准确率
以下是一些提高 RAG 应用准确率的方法: 1. 基于结构化数据来 RAG: 避免数据向量化和语义搜索的问题,直接利用原始数据和 LLM 的交互,提高准确率。因为结构化数据的特征和属性明确,能用有限标签集描述,可用标准查询语言检索,不会出现信息损失或语义不匹配的情况。 减少 LLM 的幻觉可能性,LLM 只需根据用户问题提取核心信息和条件,并形成标准查询语句,无需理解整个文档语义。 提高效率,省去数据向量化和语义搜索过程,直接使用标准查询和原始数据进行回复,且结构化数据的存储和更新更易更省空间。 增加灵活性,适应不同数据源和查询需求,只要数据是结构化的,就可用此方法进行 RAG。 2. 参考行业最佳实践,如 OpenAI 的案例: 从较低的准确率开始,尝试多种方法,标记哪些被采用到生产中。 通过尝试不同大小块的信息和嵌入不同内容部分,提升准确率。 采用 Reranking 和对不同类别问题特别处理的方法进一步提升。 结合提示工程、查询扩展等方法,最终达到较高的准确率,同时强调模型精调和 RAG 结合使用的潜力。 3. 深入了解 RAG 的基础概念: RAG 由检索器和生成器组成,检索器从外部知识中快速找到与问题相关的信息,生成器利用这些信息制作精确连贯的答案,适合处理需要广泛知识的任务,如问答系统,能提供详细准确的回答。
2024-11-08
什么是RAG的分词?
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。通过检索的模式为大语言模型的生成提供帮助,使大模型生成的答案更符合要求。 LLM 需要 RAG 进行检索优化的原因在于 LLM 存在一些缺点: 1. 无法记住所有知识,尤其是长尾的,受限于训练数据和现有的学习方式,对长尾知识的接受能力不高。 2. 知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. 输出难以解释和验证,存在内容黑盒、不可控以及受幻觉干扰等问题。 4. 容易泄露隐私训练数据。 5. 规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 在 PDF 结构识别方面,基于规则的方法 PyPDF 存在一些问题: 1. 不擅于检测段落的边界,没有解析段落的边界,使用特殊分隔符“.\n”的启发式方法在很多情况下不成立。 2. 无法识别表格内的结构,表格的结构会被完全破坏,大语言模型无法从中辨别有意义的信息。 3. 无法识别内容的阅读顺序,按照字符存储顺序解析文档,面对复杂布局时可能导致解析结果混乱。 4. 无法识别段落和表格的边界,会错误地分割表格,并将部分与后续段落合并。 PyPDF 的解析和分块工作流程是:先将 PDF 文档中的字符序列化为没有文档结构信息的长序列,然后使用分割规则如换行符“\n”进行分割,仅当组合块的长度不超过预定限制 N 个字符时,才会合并相邻块。
2024-11-05
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. 知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. 输出难以解释和验证,存在黑盒、不可控和受幻觉干扰等问题。 4. 容易泄露隐私训练数据。 5. 规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 便于管控用户隐私数据,可控、稳定、准确。 5. 可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt 中,提交给大模型,让大模型的回答充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器。 2. 文本分割:把 Documents 切分为指定大小的块。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示生成更合理的答案。
2024-11-05
RAG
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构。 它旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。通过检索的模式为大语言模型的生成提供帮助,使大模型生成的答案更符合要求。 LLM 需要 RAG 进行检索优化的原因在于 LLM 存在一些缺点: 1. 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. 知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. 输出难以解释和验证,存在内容黑盒、不可控以及受幻觉问题干扰的情况。 4. 容易泄露隐私训练数据。 5. 规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,结合模型的理解能力,降低大模型输出出错的可能。 4. 便于管控用户隐私数据,可控、稳定、准确。 5. 可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 在 Natural Questions、WebQuestions 和 CuratedTrec 等基准测试中表现出色,在使用 MSMARCO 和 Jeopardy 问题进行测试时,生成的答案更符合事实、具体且多样,FEVER 事实验证使用 RAG 后也得到了更好的结果。基于检索器的方法越来越流行,常与 ChatGPT 等流行 LLM 结合使用来提高其能力和事实一致性。 在商业化问答场景中,优化 AI 更准确回答问题的过程中,RAG 是一个重要的术语。它由检索器和生成器两部分组成,检索器从外部知识中快速找到与问题相关的信息,生成器利用这些信息制作精确连贯的答案,适合处理需要广泛知识的任务,如问答系统,能提供详细准确的回答。
2024-11-04
Ai相关缩写及对应含义
以下是一些常见的 AI 相关缩写及对应含义: AI:Artificial Intelligence,人工智能,一种目标,让机器展现智慧。 GenAI:Generative AI,生成式人工智能,一种目标,让机器产生复杂有结构的内容。 LLMs:Large Language Models,大语言模型,是一类具有大量参数的“深度学习”模型。 AIGC:Artificial Intelligence Generated Content,人工智能生成内容,是利用人工智能技术生成内容的新型生产方式,包括文本、图像、音频和视频等。 ANI:artificial narrow intelligence,弱人工智能,只可做一件事,如智能音箱、网站搜索、自动驾驶、工厂与农场的应用等。 AGI:artificial general intelligence,通用人工智能,能做任何人类可以做的事。
2024-11-08
Ai常见缩写及含义
以下是一些 AI 常见缩写及含义: AI:人工智能(Artificial Intelligence) AGI:通用人工智能(Artificial General Intelligence),能够像人类一样思考、学习和执行多种任务的人工智能系统 NLP:自然语言处理(Natural Language Processing),即处理和理解人类语言 LLM:大型语言模型(Large Language Model),数据规模大,耗费资金多 chatGPT:由致力于 AGI 的公司 OpenAI 研发的一款 AI 技术驱动的 NLP 聊天工具,于 2022 年 11 月 30 日发布,目前使用的是 GPT4 的 LLM 此外,还有一些相关的术语: NAI: 咒语:prompts,关键词 施法/吟唱/t2i:Text2Image 魔杖:t2i/i2i 参数 i2i:Image2Image,一般特指全部图片生成 inpaint:i2i 一种 maskredraw,可以局部重绘 ti/emb/炼丹:Train 中的文本反转,一般特指 Embedding 插件 hn/hyper/冶金:hypernetwork,超网络 炸炉:指训练过程中过度拟合,但炸炉前的日志插件可以提取二次训练 废丹:指完全没有训练成功 美学/ext:aesthetic_embeddings,emb 一种,特性是训练飞快,但在生产图片时实时计算 db/梦展:DreamBooth,目前一种性价比高(可以在极少步数内完成训练)的微调方式,但要求过高 ds:DeepSpeed,微软开发的训练方式,移动不需要的组件到内存来降低显存占用,可使 db 的 vram 需求降到 8g 以下。开发时未考虑 win,目前在 win 有兼容性问题故不可用 8bit/bsb:一般指 Bitsandbyte,一种 8 比特算法,能极大降低 vram 占用,使 16g 可用于训练 db。由于链接库问题,目前/预计未来在 win 不可用 关于机器学习: 机器学习是人工智能的一个分支。人工智能的研究历史有着一条从以“推理”为重点,到以“知识”为重点,再到以“学习”为重点的自然、清晰的脉络。显然,机器学习是实现人工智能的一个途径之一,即以机器学习为手段,解决人工智能中的部分问题。机器学习在近 30 多年已发展为一门多领域科际集成,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。 关于自然语言: 自然语言(NLP)认知和理解是让电脑把输入的语言变成有意思的符号和关系,然后根据目的再处理。自然语言生成系统则是把计算机数据转化为自然语言。自然语言处理是人工智能和语言学领域的分支学科,此领域探讨如何处理及运用自然语言;自然语言处理包括多方面和步骤,基本有认知、理解、生成等部分。 关于 AI 的推理: 推理是指利用训练好的模型,使用新数据推理出各种结论。借助神经网络模型进行运算,利用输入的新数据来一次性获得正确结论的过程。这也有叫做预测或推断。 关于 AI 的训练: 训练是指通过大数据训练出一个复杂的神经网络模型,通过大量标记过的数据来训练相应的系统,使其能够适应特定的功能。训练需要较高的计算性能、能够处理海量的数据、具有一定的通用性,以便完成各种各样的学习任务。
2024-11-08
AI常见缩写及对应含义
以下是 AI 常见的缩写及对应含义: AI:人工智能(Artificial Intelligence) AGI:通用人工智能(Artificial General Intelligence),能够像人类一样思考、学习和执行多种任务的人工智能系统。 NLP:自然语言处理(Natural Language Processing) LLM:大型语言模型(Large Language Model) chatGPT:是由致力于 AGI 的公司 OpenAI 研发的一款 AI 技术驱动的 NLP 聊天工具,于 2022 年 11 月 30 日发布,目前使用的是 GPT4 的 LLM。 此外,还有一些其他相关缩写及含义: NAI: 咒语:prompts,关键词 施法/吟唱/t2i:Text2Image 魔杖:t2i/i2i 参数 i2i:Image2Image,一般特指全部图片生成 inpaint:i2i 一种 maskredraw,可以局部重绘 ti/emb/炼丹:Train 中的文本反转,一般特指 Embedding 插件 hn/hyper/冶金:hypernetwork,超网络 炸炉:指训练过程中过度拟合,但炸炉前的日志插件可以提取二次训练 废丹:指完全没有训练成功 美学/ext:aesthetic_embeddings,emb 一种,特性是训练飞快,但在生产图片时实时计算。 db/梦展:DreamBooth,目前一种性价比高(可以在极少步数内完成训练)的微调方式,但要求过高 ds:DeepSpeed,微软开发的训练方式,移动不需要的组件到内存来降低显存占用,可使 db 的 vram 需求降到 8g 以下。开发时未考虑 win,目前在 win 有兼容性问题故不可用 8bit/bsb:一般指 Bitsandbyte,一种 8 比特算法,能极大降低 vram 占用,使 16g 可用于训练 db。由于链接库问题,目前/预计未来在 win 不可用 AI 的应用场景包括: 1. 医疗保健: 医学影像分析:AI 可用于分析医学图像,辅助诊断疾病。 药物研发:加速药物研发过程,识别潜在药物候选物和设计新治疗方法。 个性化医疗:分析患者数据,提供个性化治疗方案。 机器人辅助手术:控制手术机器人,提高手术精度和安全性。 2. 金融服务: 风控和反欺诈:识别和阻止欺诈行为,降低金融机构风险。 信用评估:评估借款人信用风险,帮助做出贷款决策。 投资分析:分析市场数据,辅助投资者决策。 客户服务:提供 24/7 服务,回答常见问题。 3. 零售和电子商务: 产品推荐:分析客户数据,推荐可能感兴趣的产品。 搜索和个性化:改善搜索结果,提供个性化购物体验。 动态定价:根据市场需求调整产品价格。 聊天机器人:回答客户问题,解决问题。 4. 制造业: 预测性维护:预测机器故障,避免停机。 质量控制:检测产品缺陷,提高质量。 供应链管理:优化供应链,提高效率和降低成本。 机器人自动化:控制工业机器人,提高生产效率。 5. 交通运输:(未给出具体应用场景)
2024-11-08
AGI是什么的缩写
AGI 是通用人工智能(Artificial General Intelligence)的缩写,指的是能够像人类一样思考、学习和执行多种任务的人工智能系统。 例如,OpenAI 在相关计划中涉及 AGI 的研究和发展,如原本计划发布的 Q 2025(GPT8)将实现完全的 AGI 等。GPT3 及其半步后继者 GPT3.5 在某种程度上是朝着 AGI 迈出的巨大一步,而早期的模型则并非如此。
2024-10-14
AGI是什么的缩写
AGI 是 artificial general intelligence 的缩写,意思是人工通用智能。 目前大多数人将 AGI 定义为一种能够完成任何聪明人类所能完成的智力任务的人工智能。 AI 分为 ANI 和 AGI,ANI(artificial narrow intelligence,弱人工智能)只能做一件事,如智能音箱、网站搜索、自动驾驶、工厂与农场的应用等;而 AGI 的目标是创建一个全面智能的系统,解决广泛问题并进行多种任务,能够在不同的环境中适应和学习,从不同的来源中获取信息,做出像人类一样的推理和决策。多模态大模型是实现 AGI 的必经之路,像 BabyAGI 就是一种基于强化学习和深度学习的自主通用人工智能系统,可根据用户需求进行学习和优化,实现更智能的操作。
2024-08-14
AGI是什么的缩写
AGI 是通用人工智能(Artificial General Intelligence)的缩写。它指的是能够像人类一样思考、学习和执行多种任务的人工智能系统。 AGI 是人工智能领域的一个重要概念,旨在实现更广泛、更智能的人工智能。与传统的人工智能系统相比,AGI 具有更强的通用性和适应性,可以处理各种不同类型的任务和问题。 在相关内容中,还提到了其他与 AGI 相关的信息。例如,OpenAI 是致力于 AGI 的公司,其研发的 chatGPT 是一款 AI 技术驱动的 NLP 聊天工具。此外,GPT3、GPT3.5 以及 GPT4 等模型也与 AGI 有关。 总之,AGI 是人工智能领域的一个重要发展方向,它的实现将对人类社会产生深远的影响。
2024-06-20