Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

AI相关常见缩写及对应含义,包含例如prompt,rag

Answer

以下是一些 AI 相关的常见缩写及对应含义:

  • LLM:Large language model 的缩写,即大语言模型。
  • Prompt:中文译作提示词,是输入给大模型的文本内容,可理解为与大模型说的话或下达的指令,其质量会显著影响大模型回答的质量。
  • Token:大模型语言体系中的最小单元。不同厂商的大模型对中文的文本切分方法不同,通常 1Token≈1-2 个汉字。大模型的收费计算及输入输出长度限制常以 token 为单位计量。
  • 上下文(context):指对话聊天内容前、后的内容信息,其长度和窗口会影响大模型回答的质量。

在 AI 绘画中,常见的画面构图提示词有:

  • 视图相关:Bottom view(底视图)、front,side,rear view(前视图、侧视图、后视图)、product view(产品视图)、extreme closeup view(极端特写视图)、look up(仰视)、first-person view(第一人称视角)、isometric view(等距视图)、closeup view(特写视图)、high angle view(高角度视图)、microscopic view(微观)、super side angle(超博角)、third-person perspective(第三人称视角)、Aerial view(鸟瞰图)、two-point perspective(两点透视)、Three-point perspective(三点透视)、portrait(肖像)、Elevation perspective(立面透视)、ultra wide shot(超广角镜头)、headshot(爆头)、a cross-section view of(a walnut)(核桃的横截面图)、cinematic shot(电影镜头)、in focus(焦点对准)、depth of field(dof)(景深(dof))
Content generated by AI large model, please carefully verify (powered by aily)

References

走入AI的世界

首先我们给出一些常见缩写和专业词汇的“人话”解释,它们十分基础,但理解他们至关重要。为了讨论更加聚焦,接下来的内容将主要围绕大语言模型为主进行展开(对于其他模态的大模型,我们暂且放放):LLM:Large language model的缩写,即大语言模型,前面百团大战中的各类大模型,说的都是大语言模型(极其应用)Prompt:中文译作提示词,就是我们输入给大模型的文本内容,可以理解为你和大模型说的话,下达的指令。提示词的质量好坏,会显著影响大模型回答的质量,很多时候如果你觉得大模型回答的太差了,AI味儿太浓了,很可能是你的提示词写的不够好,换言之,不是AI不行,而是你不行😌Token:就像人类有着不同的语言,大模型也有着自己的语言体系,如图9,我们发送文本给大模型时,大模型会先把文本转换为他自己的语言,并推理生成答案,而后再翻译成我们看得懂的语言输出给我们。正如人类不同语言都有最小的字词单元(汉语的字/词,英语的字母/单词),大模型语言体系中的最小单元就称为Token。这种人类语言到大模型语言的翻译规则,也是人类定义的,以中文为例,由于不同厂商的大模型采用了不同的文本切分方法,因此一个Token对应的汉字数量也会有所不同,但在通常情况下,1Token≈1-2个汉字。请注意,大模型的收费计算方法,以及对输入输出长度的限制,都是以token为单位计量的。上下文:英文通常翻译为context,指对话聊天内容前、后的内容信息。使用时,上下文长度和上下文窗口都会影响AI大模型回答的质量。上下文长度限制了模型一次交互中能够处理的最大token数量,而上下文窗口限制了模型在生成每个新token时实际参考的前面内容的范围(关于这一点,你需要看完3.2中关于GPT的讨论,方能更好理解)

AIGC常见名词解释(字典篇)

|黑话|解释|<br>|-|-|<br>|NAI|(Novel AI,一般特指Leak)|<br>|咒语|prompts,关键词|<br>|施法/吟唱/t2i|Text2Image|<br>|魔杖|t2i/i2i参数|<br>|i2i|Image2Image,一般特指全部图片生成|<br>|inpaint|i2i一种maskredraw,可以局部重绘|<br>|ti/emb/炼丹|Train中的文本反转,一般特指Embedding插件|<br>|hn/hyper/冶金|hypernetwork,超网络|<br>|炸炉|指训练过程中过度拟合,但炸炉前的日志插件可以提取二次训练|<br>|废丹|指完全没有训练成功|<br>|美学/ext|aesthetic_embeddings,emb一种,特性是训练飞快,但在生产图片时实时计算。|<br>|db/梦展|DreamBooth,目前一种性价比高(可以在极少步数内完成训练)的微调方式,但要求过高|<br>|ds|DeepSpeed,微软开发的训练方式,移动不需要的组件到内存来降低显存占用,可使db的vram需求降到8g以下。开发时未考虑win,目前在win有兼容性问题故不可用|<br>|8bit/bsb|一般指Bitsandbyte,一种8比特算法,能极大降低vram占用,使16g可用于训练db。由于链接库问题,目前/预计未来在win不可用|后面这些难啃一些,随便看看吧

AI绘画常用提示词

Bottom view底视图front,side,rear view前视图、侧视图、后视图product view产品视图extreme closeup view极端特写视图look up仰视first-person view第一人称视角isometric view等距视图closeup view特写视图high angle view高角度视图microscopic view微观super side angle超博角third-person perspective第三人称视角Aerial view鸟瞰图two-point perspective两点透视Three-point perspective三点透视portrait肖像Elevation perspective立面透视ultra wide shot超广角镜头headshot爆头a cross-section view of(a walnut)(核桃)的横截面图cinematic shot电影镜头in focus焦点对准depth of field(dof)景深(dof)

Others are asking
零基础学习ai
以下是为零基础学习 AI 提供的建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,可根据自己的兴趣选择特定模块深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。 知识库提供了很多实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解其工作原理和交互方式,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 此外,还有一个案例供您参考:二师兄来自上海,是典型的 80 后,房地产行业从业二十年,计算机零基础。2024 年 2 月,他在七彩虹的售后群中,因老哥分享用 AI 绘画的心得,要了 SD 秋叶安装包,下载了教学视频,迈出了 AI 学习的第一步。之后他不断学习和实践,如在 3 月啃完 SD 的所有教程并开始炼丹,4 月与小伙伴探讨 AI 变现途径,5 月加入 Prompt battle 社群,开始 Midjourney 的学习。
2025-02-18
AI数据分析
以下是关于 AI 数据分析的相关内容: ChatGPT 助力数据分析: 本文重点介绍了 AI 与数据分析结合的应用,通过实际案例与相关技巧,描述了 ChatGPT 如何助力数据分析。 实现了两种方式支持多维数据分析: SQL 分析:分析平台自身使用情况,输入一句话可分析用户配置图表相关数据。用户描述想分析的内容,后台连接 DB,附带表结构信息让 AI 输出 SQL 语句,校验为 SELECT 类型后执行返回结果数据,再传给 GPT 分析,最后输出分析结论和建议并返回前端页面渲染图表。 个性化分析:平台支持上传数据,可提供数据信息辅助分析,前端解析文件后传给 GPT 分析,后续步骤与 SQL 分析一致。 分析完成后展示结果数据的图表和分析结论,图表支持折线图和柱状图可随意切换。 生成式 AI 季度数据报告 2024 月 1 3 月: 作者包括郎瀚威 Will、张蔚 WeitoAGI、江志桐 Clara 等。 报告涵盖总体流量概览、分类榜单、文字相关(个人生产力、营销、教育、社交)、创意相关(图像、视频)、音频大类、代码大类、Agent、B2B 垂类等方面。 涉及数据准备、分类标准图谱准备、赛道分析、竞争分析等内容。
2025-02-18
找一个能够生成音乐的AI。我给一个曲名(比如《生日快乐歌》),他就能给我生成不同风格的音乐供我下载。
以下为您推荐能够根据给定曲名生成不同风格音乐并供下载的 AI 工具: 1. Suno AI: 地址:https://www.suno.ai/ 简介:被誉为音乐界的 ChatGPT,能够根据简单提示创造出从歌词到人声和配器的完整音乐作品。 账号要求:需要拥有 Discord、谷歌或微软中的至少一个账号,并确保网络环境稳定。 订阅信息: 免费用户每天 50 积分,每首歌消耗 5 积分,每天可创作 10 首歌曲,每次点击生成两首歌曲。 Pro 用户每月 2500 点数(大约 500 首歌),按月每月 10 美元,按年每月 8 美元,每年 96 美元。 Premier 用户每月 10000 点数(大约 2000 首歌),按月每月 30 美元,按年每月 24 美元,每年 288 美元。 操作模式: 默认模式:包括关闭个性化、歌曲描述、乐器开关、模型选择 v3 等设置。 个性化模式:开启个性化定制,可填写歌词、曲风、标题等。 生成歌词:可使用大模型如 Kimi、GPT、文心一言等生成。 开始生成:填写好所需内容后点击 Create,等待 2 3 分钟即可。 下载:生成后可下载。 2. Udio:由前 Google DeepMind 工程师开发,通过文本提示快速生成符合用户音乐风格喜好的高质量音乐作品。地址:https://www.udio.com/ 3. YuE:支持从歌词生成 5 分钟高质量音乐(含人声与伴奏),多语言支持(中、英、日、韩),覆盖多种音乐风格与专业声乐技术。详细介绍:https://www.xiaohu.ai/c/xiaohuai/yue5
2025-02-18
什么是aigc
AIGC(人工智能生成内容)是一种利用人工智能技术生成各种类型内容的应用方式。它能够通过机器学习和深度学习算法,根据输入的数据和指令生成符合特定要求的内容,在内容创作、广告、媒体等领域有着广泛的应用。 具体来说,AIGC 包括以下方面: 1. 文字生成:使用大型语言模型(如 GPT 系列模型)生成文章、故事、对话等内容。 2. 图像生成:使用 Stable Diffusion、DALLE 等模型生成艺术作品、照片等。 3. 视频生成:使用 Runway、KLING 等模型生成动画、短视频等。 AIGC 作为一种强大的技术,能赋能诸多领域,但也存在多重潜在的合规风险。目前,我国对 AIGC 的监管框架由《网络安全法》《数据安全法》及《个人信息保护法》构成,并与《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》、《生成式人工智能服务管理暂行办法》、《科技伦理审查办法(试行)》等形成了共同监管的形势。 AIGC 主要分为语言文本生成、图像生成和音视频生成。语言文本生成利用马尔科夫链、RNN、LSTMs 和 Transformer 等模型生成文本,如 GPT4 和 Gemini Ultra。图像生成依赖于 GANs、VAEs 和 Stable Diffusion 等技术,应用于数据增强和艺术创作,代表项目有 Stable Diffusion 和 StyleGAN 2。音视频生成利用扩散模型、GANs 和 Video Diffusion 等,广泛应用于娱乐和语音生成,代表项目有 Sora 和 WaveNet。此外,AIGC 还可应用于音乐生成、游戏开发和医疗保健等领域,展现出广泛的应用前景。 例如 AI 文本续写,文字转图像的 AI 图、AI 主持人等,都属于 AIGC 的应用。类似的名词缩写还有 UGC(普通用户生产),PGC(专业用户生产)等。能进行 AIGC 的产品项目也很多,能进行 AIGC 的媒介也很多,包括且不限于: 1. 语言文字类:OpenAI 的 GPT,Google 的 Bard,百度的文心一言,还有一种国内大佬下场要做的的 LLM 都是语言类的。 2. 语音声音类:Google 的 WaveNet,微软的 Deep Nerual Network,百度的 DeepSpeech 等,还有合成 AI 孙燕姿大火的开源模型 Sovits。 3. 图片美术类:早期有 GEN 等图片识别/生成技术,去年大热的扩散模型又带火了我们比较熟悉的、生成质量无敌的 Midjourney,先驱者谷歌的 Disco Diffusion,一直在排队测试的 OpenAI 的 Dalle·2,以及 stability ai 和 runaway 共同推出的 Stable Diffusion。
2025-02-18
多维表格AI接入分享课程有回放么
多维表格 AI 接入分享课程有回放。例如,在“1204|微信超级 AI 知识助手教学(上)—智谱共学营智能纪要”中提到直播有回放。在“飞书多维表格 AI 共学解锁更强大的豆包 2024 年 12 月 21 日”中,王大仙表示分享有回放,可顺着搭建流程使用。
2025-02-18
我的毕业论文是AIGC的陶寺遗址空间可视分析技术研究,请问有何思路
对于您的毕业论文主题“AIGC 的陶寺遗址空间可视分析技术研究”,以下是一些可能的思路供您参考: 首先,深入了解陶寺遗址的相关背景和特点,包括其历史、文化、地理等方面的信息,这将为后续的分析提供基础。 其次,研究 AIGC 技术在空间可视分析方面的应用现状和前沿成果,了解相关的算法、模型和工具。 然后,考虑如何收集和整理陶寺遗址的空间数据,例如通过实地测量、卫星图像、考古记录等方式获取数据,并对数据进行预处理和清洗。 接着,运用合适的 AIGC 技术和算法,对陶寺遗址的空间数据进行可视化呈现,例如创建三维模型、绘制地图、生成动态图像等,以直观展示遗址的空间特征和关系。 在可视化的基础上,进行深入的分析,例如探究遗址的布局规律、空间结构、功能分区等,挖掘潜在的历史和文化信息。 最后,对研究结果进行评估和验证,确保其准确性和可靠性,并提出进一步的改进和优化方向。 希望这些思路能对您有所帮助,祝您顺利完成毕业论文!
2025-02-18
口播文案 Prompt
以下是关于口播文案 Prompt 的相关内容: 一、景淮:漫画趣味高中大学时期对比图 GPTs 实战 在这个示例中,先将相关示例喂给 GPT,观察其生成文案的效果。提示词为上述高中和大学区别的口播搞笑视频,重点突出不同时期的生活状态和鲜明反差。输入关键词“下雨了”后,生成了以下口播文案: 1. 高中:下雨了,天哪,怎么办,我的数学书会湿!大学:下雨了,哦,正好,再睡一会儿。 2. 高中:下雨了,得快跑,别迟到了!大学:下雨了,那今天就不去了,网课见。 3. 高中:下雨了,我的鞋子!得小心踩!大学:下雨了,穿拖鞋去了,方便。 4. 高中:下雨了,雨衣雨伞全副武装!大学:下雨了,抓个文件夹顶顶就行。 5. 高中:下雨了,课间不能出去玩了。大学:下雨了,正好和室友打个牌。 6. 高中:下雨了,哦不,体育课怎么办?大学:下雨了,哈,今天体育课取消了! 7. 高中:下雨了,我的作业别淋湿了!大学:下雨了,电脑在宿舍,作业得推迟了。 8. 高中:下雨了,赶紧找地方躲雨。大学:下雨了,雨中漫步也挺浪漫的。 9. 高中:下雨了,不会影响放学吧?大学:下雨了,嘿,这是不是个不去自习的理由? 10. 高中:下雨了,我的头发!大学:下雨了,谁还没个糟糕的头发日呢。 二、歌词提示词 1. 柔和的原声乐器引子:指在歌曲开头使用柔和的原声乐器(如原声吉他或钢琴)演奏的部分。作用是设置温暖、亲密的氛围,引导听众进入歌曲。适用于民谣、流行音乐、乡村音乐等风格,编曲技巧是使用原声吉他或钢琴演奏柔和的旋律或和声,创造出温暖和亲密的开场效果。 2. 富有灵魂感的:充满情感和灵魂的表现,通常具有深情的旋律和强烈的情感表达。作用是增强音乐的情感深度和感染力,适用于灵魂乐、R&B、流行音乐等风格,编曲技巧是使用深情的旋律、柔和的和声和强烈的情感表达。 3. 富有灵魂感的桥段:在歌曲中间部分或过渡部分,充满情感和灵魂的旋律或和声。作用是增强音乐的情感深度和结构变化,适用于灵魂乐、R&B、流行音乐等风格,编曲技巧是在歌曲的过渡部分设计一个深情且富有灵魂感的桥段。 4. 口语:在歌曲或音乐中使用普通说话的方式进行表演,而不是唱歌。作用是增加音乐的叙述性和亲密感,强调歌词的内容和表达,适用于说唱、独立音乐、实验音乐等风格,编曲技巧是在适当的段落使用口语表演。 三、Prompt 的专场教程 基础篇 1. Prompt 是一段指令,用于指挥 AI 生成所需内容,每个单独的提示词叫 tag(关键词)。 2. 支持的语言为英语(不用担心英语不好的问题,),另外 emoji 也可以用。 3. 语法规则: 用英文半角符号逗号,来分隔 tag,逗号前后有空格或者换行都不影响效果。 改变 tag 权重:tag 顺序越靠前对于 SD 来说权重越大,可通过“括号,权重就重 1.1 倍,每加一层括号就反向减弱 1.1 倍)两种方式设置。 进行 tag 的步数控制(高级玩法):“”,数字大于 1 理解为第 X 步前为 tag1,第 X 步后变成 tag2,数字小于 1 理解为总步数的百分之 X 前为 tag1,之后变成 tag2。
2025-02-18
有什么提升 RAG 知识库问答的好的 prompt
以下是一些提升 RAG 知识库问答的好的 prompt 相关内容: RAG 在 Natural Questions、WebQuestions 和 CuratedTrec 等基准测试中表现出色,在使用 MSMARCO 和 Jeopardy 问题进行测试时,生成的答案更符合事实、具体且多样,FEVER 事实验证使用 RAG 后也有更好结果,说明 RAG 是可行方案,能增强知识密集型任务中语言模型的输出,基于检索器的方法常与 ChatGPT 等流行 LLM 结合提高能力和事实一致性,可在 LangChain 文档中找到相关例子。 RAG 能显著提高大模型在处理私域知识或垂直领域问答时的效果。其流程包括:上传文档(支持多种格式,会转换为 Markdown 格式)、文本切割、文本向量化(存入向量数据库)、问句向量化、语义检索匹配(匹配出与问句向量最相似的 top k 个)、提交 Prompt 至 LLM、生成回答返回给用户。RAG 研究范式分为基础 RAG、高级 RAG 和模块化 RAG。 高级 RAG 特点:支持多模态数据处理,增强对话性,具备自适应检索策略,能进行知识融合,扩展了基础 RAG 功能,解决复杂任务局限,在广泛应用中表现出色,推动自然语言处理和人工智能发展。 模块化 RAG 侧重于提供更高定制性和灵活性,将系统拆分成多个独立模块或组件,每个组件负责特定功能,便于根据不同需求灵活组合和定制。
2025-02-18
prompt的应用
以下是关于 prompt 应用的全面介绍: 一、什么是 prompt 1. 提示是您给模型(如 Claude)的文本,用于引发相关输出。它通常以问题或指示的形式出现。例如:“为什么天空是蓝色的?” 2. 在 AI 视频生成中,prompt 是直接描述或引导视频生成的文本或指令。类似给 AI 的提示,包含主体、运动、风格等信息,用户借此控制和指导生成内容。它在 AI 视频生成中作用十分重要,是表达需求的方式,影响视频内容和质量。如果上述过于抽象,您可以理解 Prompt 为:将您输入的文字变成对应的画面和运动形式。 3. 简单来说,prompt 是一套您和大模型交互的语言模板。通过这个模板,您可以输出对于大模型响应的指令,用于指定大模型应该具体做什么、完成什么任务、如何处理具体的任务,并最终输出您期望的结果。大模型的本质是一个基于语言的概率模型,若直接问大模型而不提供 prompt,相当于大模型随机给出答案。有了 prompt,相当于给了一个模板,包括对于模型的要求、输入和输出的限制,大模型在这个限制之下,去得到概率最大的答案。 二、prompt 在不同场景的应用 在即梦 AI 视频生成中,要想获得最佳的视频质量,需要写好 prompt。在图片生视频和文本生视频中,都有 prompt 的输入位置。
2025-02-18
12个精选prompt框架
以下是 12 个精选的 prompt 框架: 1. ICIO 框架: 指令:执行的具体任务。 背景信息:提供执行任务的背景信息、上下文内容,让大模型更好地回答。 输入信息:大模型需要用到的一些信息。 输出信息:明确输出的具体信息的要求,比如字数、风格、格式。 2. BROKE 框架:通过 GPT 的设计提示,来提升整体反馈的效率。 背景:提供足够背景信息,让大模型可以理解问题的上下文。 角色设定:特定的角色,让 GPT 根据特定的角色能力的特点来形成响应。 目标:明确任务的目标,让大模型知道您想让它做什么。 结果定义:明确可以衡量的结果,让大模型清楚自己做的情况。 调整:根据具体的情况,来调整具体的结果。 3. CRISPIE 框架: 能力和角色:您期望大模型扮演的角色洞察,提供幕后洞察力、背景信息和上下文。 声明:简洁明了地说明希望完成的任务。 个性:回应的风格、个性或者方式。 实验:提供多个回答的示例。 4. 课件中的 Prompt 之术“三板斧”: 分配角色。 给出示例(fewshots)。 思维链(ChainofThought)。
2025-02-17
prompt
以下是关于 prompt 的相关知识: 1. 提示简介: 提示是您给 Claude 的文本,用于引发相关输出,通常以问题或指示的形式出现。例如,“User:Why is the sky blue? 为什么天空是蓝色的?”,Claude 回答的文本被称为“响应”,有时也被称为“输出”或“完成”。 2. 改变区域+混音: 选择的大小会影响结果。更大的选择为中途机器人提供更多上下文信息,能改善新添加内容的扩展和上下文,但选择太多可能导致新生成的元素混合或替换原始图像的部分。 提示应集中于您希望在所选区域中发生的事情,较短且聚焦的提示通常更有效,不应是对话式的。 分步进行,如果要更改图像的多个部分,一次只处理一个部分。 技术细节:使用 Vary+Remix 模式生成的作业遵循 chaos、fast、iw、no、stylize、relax、style、version、video、weird 等参数。 3. 提示的类型: 基本提示:可以是简单的单词、短语或表情符号。中途机器人最适合用简单、简短的句子来描述您想看到的内容,避免长长的请求列表。 高级提示:可以包括一个或多个图像 URL、多个文本短语以及一个或多个参数。图像 URL 始终出现在提示的前面,精心编写的提示有助于生成令人惊叹的图像。
2025-02-17
给我提供一份标准的 DeepSeek R1大模型的 prompt 提示词模板
以下是一份关于 DeepSeek R1 大模型的 prompt 提示词模板: 一、核心原理认知 1. AI 特性定位 多模态理解:支持文本/代码/数学公式混合输入 动态上下文:对话式连续记忆(约 4K tokens 上下文窗口,换算成汉字是 8000 字左右) 任务适应性:可切换创意生成/逻辑推理/数据分析模式 2. 系统响应机制 采用意图识别+内容生成双通道 自动检测 prompt 中的:任务类型/输出格式/知识范围 反馈敏感度:对位置权重(开头/结尾)、符号强调敏感 二、基础指令框架 1. 四要素模板 2. 格式控制语法 强制结构:使用```包裹格式要求 占位符标记:用{{}}标注需填充内容 优先级符号:>表示关键要求,!表示禁止项 三、进阶控制技巧 1. 思维链引导 分步标记法:请逐步思考:1.问题分析→2.方案设计→3.风险评估 苏格拉底式追问:在得出最终结论前,请先列举三个可能存在的认知偏差 2. 知识库调用 领域限定指令:基于 2023 版中国药典,说明头孢类药物的配伍禁忌 文献引用模式:以 Nature 2022 年发表的论文为参考,解释 CRISPRCas9 最新突破 3. 多模态输出 此外,还有关于创建 DeepSeek 联网版工作流的相关内容: 1. 创建工作流 创建一个对话流,命名为 r1_with_net 开始节点,直接使用默认的 大模型分析关键词设置 模型:豆包通用模型lite 输入:直接使用开始节点的 USER_INPUT 作为大模型的输入 系统提示词:你是关键词提炼专家 用户提示词:根据用户输入`{{input}}`提炼出用户问题的关键词用于相关内容的搜索 bingWebSearch搜索 插件:BingWebSearch 参数:使用上一个节点,大模型分析输出的关键词作为 query 的参数 结果:data 下的 webPages 是网页搜索结果,将在下一个节点使用 大模型R1 参考搜索结果回答 这里需要在输入区域开启“对话历史” 模型:韦恩 AI 专用 DeepSeek 输入:搜索结果,选择搜索节点 data 下的 webPages;选择开始节点的 USER_INPUT;开启对话历史,设置 10 轮,默认不开启对话历史,开启后默认是 3 轮 系统提示词:这里不需要输入 用户提示词: 结束节点设置 输出变量选择大模型R1 参考搜索结果回答的输出 回答内容里直接输出:{{output}} 测试并发布工作流 输入你的测试问题,测试完成后,直接发布工作流 关于 HiDeepSeek 的相关内容: 1. 效果对比 用 Coze 做了个小测试,大家可以对比看看 2. 如何使用? Step1:搜索 www.deepseek.com,点击“开始对话” Step2:将装有提示词的代码发给 Deepseek Step3:认真阅读开场白之后,正式开始对话 3. 设计思路 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担 通过提示词文件,让 DeepSeek 实现:同时使用联网功能和深度思考功能 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改 用 XML 来进行更为规范的设定,而不是用 Lisp(对我来说有难度)和 Markdown(运行下来似乎不是很稳定) 4. 完整提示词 v 1.3 5. 特别鸣谢 李继刚:【思考的七把武器】在前期为我提供了很多思考方向 Thinking Claude:这个项目是我现在最喜欢使用的 Claude 提示词,也是我设计 HiDeepSeek 的灵感来源 Claude 3.5 Sonnet:最得力的助手
2025-02-16
rag
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来实现。Meta AI 引入 RAG 来完成这类任务,它把信息检索组件和文本生成模型结合,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 接受输入并检索相关支撑文档,给出来源,与原始提示词组合后送给文本生成器得到输出,能适应事实变化,让语言模型获取最新信息并生成可靠输出。 大语言模型(LLM)存在一些缺点,如无法记住所有知识尤其是长尾知识、知识易过时且不好更新、输出难以解释和验证、易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有数据库存储和更新稳定、数据更新敏捷且不影响原有知识、降低大模型输出出错可能、便于管控用户隐私数据、降低大模型训练成本等优点。 在 RAG 系统开发中存在 12 大痛点及相应的解决方案,旨在帮助理解设计和实施 RAG 系统面临的复杂挑战,激发开发更强大且适用于生产环境的 RAG 应用。
2025-02-18
大语言模型、多模态、数据、算力、算法、预训练、微调、RAG、自注意力机制、transformer、token、神经网络、向量、scaling law这些内容的含义
以下是对您所提到的这些内容含义的解释: 大语言模型:是一种基于大量文本数据进行训练的语言处理模型,其工作原理包括训练数据、算力、模型参数等。在训练数据一致的情况下,模型参数越大能力越强。 多模态:指能够处理多种不同类型的数据模态,如文本、图像、音频等,并将它们融合进行理解和生成。 数据:是大语言模型训练和应用的基础,包括各种文本、图像、音频等信息。 算力:指用于支持大语言模型训练和运行的计算能力。 算法:是大语言模型实现各种功能的数学和逻辑方法。 预训练:在大语言模型中,先在大规模数据上进行无特定任务的初步训练。 微调:基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。 RAG:检索增强生成,通过引用外部数据源为模型做数据补充,适用于动态知识更新需求高的任务。其工作流程包括检索、数据库索引、数据索引、分块、嵌入和创建索引、增强、生成等步骤。 自注意力机制:是 Transformer 架构中的重要部分,能理解上下文和文本关联,通过不断检索和匹配来寻找依赖关系,处理词和词之间的位置组合,预测下一个词的概率。 Transformer:是大语言模型训练架构,用于翻译等任务,具备自注意力机制。 Token:在自然语言处理中,是文本的基本单位。 神经网络:是大语言模型的基础架构,模拟人脑神经元的连接和信息处理方式。 向量:在大语言模型中,用于表示文本等数据的数学形式。 Scaling Law:关于大语言模型规模和性能之间关系的规律。
2025-02-18
大语言模型、多模态、数据、算力、算法、预训练、微调、RAG、自注意力机制、transformer、token、神经网络、向量、scaling law这些内容的含义
以下是对您所提到的这些内容含义的解释: 大语言模型:是一种基于大量文本数据进行训练的语言处理模型,其工作原理包括训练数据、算力、模型参数等。在训练数据一致的情况下,模型参数越大能力越强。 多模态:指能够处理多种不同类型的数据模态,如文本、图像、音频等,并将它们融合进行理解和生成。 数据:是大语言模型训练和应用的基础,包括各种文本、图像、音频等信息。 算力:指用于支持大语言模型训练和运行的计算能力。 算法:是大语言模型实现各种功能的数学和逻辑方法。 预训练:在大语言模型中,先在大规模数据上进行无特定任务的初步训练。 微调:基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。 RAG:检索增强生成,通过引用外部数据源为模型做数据补充,适用于动态知识更新需求高的任务。其工作流程包括检索、数据库索引、数据索引、分块、嵌入和创建索引、增强、生成等步骤。 自注意力机制:是 Transformer 架构中的重要部分,能理解上下文和文本关联,通过不断检索和匹配来寻找依赖关系,处理词和词之间的位置组合,预测下一个词的概率。 Transformer:是大语言模型训练架构,用于翻译等任务,具备自注意力机制。 Token:在自然语言处理中,是文本的基本单位。 神经网络:是大语言模型的基础架构,模拟人脑神经元的连接和信息处理方式。 向量:在大语言模型中,用于表示文本等数据的数学形式。 Scaling Law:关于大语言模型规模和性能之间关系的规律。
2025-02-18
rag
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来实现。Meta AI 引入 RAG 来完成这类任务,它把信息检索组件和文本生成模型结合,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 接受输入并检索相关/支撑文档,给出来源(如维基百科),这些文档作为上下文和原始提示词组合给文本生成器得到最终输出,能适应事实随时间变化,让语言模型获取最新信息并生成可靠输出。 大语言模型(LLM)存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有以下优点:数据库对数据的存储和更新稳定,无学习风险;数据更新敏捷,可解释且不影响原有知识;降低大模型输出出错可能;便于管控用户隐私数据;降低大模型训练成本。 在 RAG 系统开发中存在 12 大痛点及相应解决方案,包括原论文中的 7 个和额外发现的 5 个。
2025-02-17
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化,是因为 LLM 存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控以及受幻觉干扰等问题。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 在 RAG 的应用中,可以将其抽象为 5 个过程:文档加载、文本分割、存储(包括将文档块嵌入转换成向量形式并存储到向量数据库)、检索、输出(把问题以及检索出来的嵌入片一起提交给 LLM 生成答案)。
2025-02-17
AGI和AIGC是啥关系,分别是什么的缩写
AGI 指通用人工智能,是一种能够像人类一样执行各种智能任务的人工智能。 AIGC 是人工智能生成内容的缩写,在公众传播层面,最初指用 Stable Diffusion 或 Midjourney 生成图像内容,后来泛指用 AI 生成音乐、图像、视频等内容。AIGC 是一种利用人工智能技术生成各种类型内容的应用方式,包括文字生成(如使用 GPT 系列模型生成文章、故事、对话等)、图像生成(如使用 Stable Diffusion、DALLE 等模型生成艺术作品、照片等)、视频生成(如使用 Runway、KLING 等模型生成动画、短视频等)。 AIGC、UGC(用户生成内容)和 PGC(专业人士或机构生成内容)都是内容生成的不同方式。UGC 由用户通过社交媒体等平台发布自己的内容,内容丰富多样,反映用户真实想法和创意,适用于互动性强的平台。PGC 由专业团队或机构根据特定标准和流程创作高质量内容,适用于需要高质量内容的平台。AIGC 的优势在于可以快速、大规模地生成内容,适用于需要大量内容的场景。
2025-02-13
AGI缩写的全称是什么
AGI 是“Artificial General Intelligence”的缩写,中文意思是“通用人工智能”。它强调的是构建一种能够展示如 1994 年共识定义所捕捉到的广泛智能能力的人工系统,包括推理、规划、解决问题、抽象思维、理解复杂思想、快速学习和从经验中学习等能力,并且这些能力要在或超过人类水平。在 2000 年代初开始流行,许多相关研究和讨论都围绕着它展开。
2025-01-15
AGI是什么的缩写?
AGI 是 artificial general intelligence 的缩写,意思是通用人工智能,即能够做任何人类可以做的事。OpenAI 在其内部会议上分享了 AGI 的五个发展等级,分别为: 1. 聊天机器人(Chatbots):具备基本对话能力,主要依赖预设脚本和关键词匹配,用于客户服务和简单查询响应。 2. 推理者(Reasoners):具备人类推理水平,能够解决复杂问题,如 ChatGPT,能根据上下文和文件提供详细分析和意见。 3. 智能体(Agents):不仅具备推理能力,还能执行全自动化业务,但目前许多 AI Agent 产品在执行任务后仍需人类参与,尚未达到完全智能体的水平。 4. 创新者(Innovators):能够协助人类完成新发明,如谷歌 DeepMind 的 AlphaFold 模型,可以预测蛋白质结构,加速科学研究和新药发现。 5. 组织(Organizations):最高级别的 AI,能够自动执行组织的全部业务流程,如规划、执行、反馈、迭代、资源分配和管理等。
2024-12-27
Ai相关缩写及对应含义
以下是一些常见的 AI 相关缩写及对应含义: AI:Artificial Intelligence,人工智能,一种目标,让机器展现智慧。 GenAI:Generative AI,生成式人工智能,一种目标,让机器产生复杂有结构的内容。 LLMs:Large Language Models,大语言模型,是一类具有大量参数的“深度学习”模型。 AIGC:Artificial Intelligence Generated Content,人工智能生成内容,是利用人工智能技术生成内容的新型生产方式,包括文本、图像、音频和视频等。 ANI:artificial narrow intelligence,弱人工智能,只可做一件事,如智能音箱、网站搜索、自动驾驶、工厂与农场的应用等。 AGI:artificial general intelligence,通用人工智能,能做任何人类可以做的事。
2024-11-08
Ai常见缩写及含义
以下是一些 AI 常见缩写及含义: AI:人工智能(Artificial Intelligence) AGI:通用人工智能(Artificial General Intelligence),能够像人类一样思考、学习和执行多种任务的人工智能系统 NLP:自然语言处理(Natural Language Processing),即处理和理解人类语言 LLM:大型语言模型(Large Language Model),数据规模大,耗费资金多 chatGPT:由致力于 AGI 的公司 OpenAI 研发的一款 AI 技术驱动的 NLP 聊天工具,于 2022 年 11 月 30 日发布,目前使用的是 GPT4 的 LLM 此外,还有一些相关的术语: NAI: 咒语:prompts,关键词 施法/吟唱/t2i:Text2Image 魔杖:t2i/i2i 参数 i2i:Image2Image,一般特指全部图片生成 inpaint:i2i 一种 maskredraw,可以局部重绘 ti/emb/炼丹:Train 中的文本反转,一般特指 Embedding 插件 hn/hyper/冶金:hypernetwork,超网络 炸炉:指训练过程中过度拟合,但炸炉前的日志插件可以提取二次训练 废丹:指完全没有训练成功 美学/ext:aesthetic_embeddings,emb 一种,特性是训练飞快,但在生产图片时实时计算 db/梦展:DreamBooth,目前一种性价比高(可以在极少步数内完成训练)的微调方式,但要求过高 ds:DeepSpeed,微软开发的训练方式,移动不需要的组件到内存来降低显存占用,可使 db 的 vram 需求降到 8g 以下。开发时未考虑 win,目前在 win 有兼容性问题故不可用 8bit/bsb:一般指 Bitsandbyte,一种 8 比特算法,能极大降低 vram 占用,使 16g 可用于训练 db。由于链接库问题,目前/预计未来在 win 不可用 关于机器学习: 机器学习是人工智能的一个分支。人工智能的研究历史有着一条从以“推理”为重点,到以“知识”为重点,再到以“学习”为重点的自然、清晰的脉络。显然,机器学习是实现人工智能的一个途径之一,即以机器学习为手段,解决人工智能中的部分问题。机器学习在近 30 多年已发展为一门多领域科际集成,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。 关于自然语言: 自然语言(NLP)认知和理解是让电脑把输入的语言变成有意思的符号和关系,然后根据目的再处理。自然语言生成系统则是把计算机数据转化为自然语言。自然语言处理是人工智能和语言学领域的分支学科,此领域探讨如何处理及运用自然语言;自然语言处理包括多方面和步骤,基本有认知、理解、生成等部分。 关于 AI 的推理: 推理是指利用训练好的模型,使用新数据推理出各种结论。借助神经网络模型进行运算,利用输入的新数据来一次性获得正确结论的过程。这也有叫做预测或推断。 关于 AI 的训练: 训练是指通过大数据训练出一个复杂的神经网络模型,通过大量标记过的数据来训练相应的系统,使其能够适应特定的功能。训练需要较高的计算性能、能够处理海量的数据、具有一定的通用性,以便完成各种各样的学习任务。
2024-11-08
AI常见缩写及对应含义
以下是 AI 常见的缩写及对应含义: AI:人工智能(Artificial Intelligence) AGI:通用人工智能(Artificial General Intelligence),能够像人类一样思考、学习和执行多种任务的人工智能系统。 NLP:自然语言处理(Natural Language Processing) LLM:大型语言模型(Large Language Model) chatGPT:是由致力于 AGI 的公司 OpenAI 研发的一款 AI 技术驱动的 NLP 聊天工具,于 2022 年 11 月 30 日发布,目前使用的是 GPT4 的 LLM。 此外,还有一些其他相关缩写及含义: NAI: 咒语:prompts,关键词 施法/吟唱/t2i:Text2Image 魔杖:t2i/i2i 参数 i2i:Image2Image,一般特指全部图片生成 inpaint:i2i 一种 maskredraw,可以局部重绘 ti/emb/炼丹:Train 中的文本反转,一般特指 Embedding 插件 hn/hyper/冶金:hypernetwork,超网络 炸炉:指训练过程中过度拟合,但炸炉前的日志插件可以提取二次训练 废丹:指完全没有训练成功 美学/ext:aesthetic_embeddings,emb 一种,特性是训练飞快,但在生产图片时实时计算。 db/梦展:DreamBooth,目前一种性价比高(可以在极少步数内完成训练)的微调方式,但要求过高 ds:DeepSpeed,微软开发的训练方式,移动不需要的组件到内存来降低显存占用,可使 db 的 vram 需求降到 8g 以下。开发时未考虑 win,目前在 win 有兼容性问题故不可用 8bit/bsb:一般指 Bitsandbyte,一种 8 比特算法,能极大降低 vram 占用,使 16g 可用于训练 db。由于链接库问题,目前/预计未来在 win 不可用 AI 的应用场景包括: 1. 医疗保健: 医学影像分析:AI 可用于分析医学图像,辅助诊断疾病。 药物研发:加速药物研发过程,识别潜在药物候选物和设计新治疗方法。 个性化医疗:分析患者数据,提供个性化治疗方案。 机器人辅助手术:控制手术机器人,提高手术精度和安全性。 2. 金融服务: 风控和反欺诈:识别和阻止欺诈行为,降低金融机构风险。 信用评估:评估借款人信用风险,帮助做出贷款决策。 投资分析:分析市场数据,辅助投资者决策。 客户服务:提供 24/7 服务,回答常见问题。 3. 零售和电子商务: 产品推荐:分析客户数据,推荐可能感兴趣的产品。 搜索和个性化:改善搜索结果,提供个性化购物体验。 动态定价:根据市场需求调整产品价格。 聊天机器人:回答客户问题,解决问题。 4. 制造业: 预测性维护:预测机器故障,避免停机。 质量控制:检测产品缺陷,提高质量。 供应链管理:优化供应链,提高效率和降低成本。 机器人自动化:控制工业机器人,提高生产效率。 5. 交通运输:(未给出具体应用场景)
2024-11-08