以下是一些 AIGC 常见名词的解释:
此外,还有一些相对较难的名词解释:
AIGC:AI generated content,又称为生成式AI,意为人工智能生成内容。例如AI文本续写,文字转图像的AI图、AI主持人等,都属于AIGC的应用。类似的名词缩写还有UGC(普通用户生产),PGC(专业用户生产)等。能进行AIGC的产品项目也很多,能进行AIGC的媒介也很多包括且不限于语言文字类:OpenAI的GPT,Google的Bard,百度的文心一言,还有一种国内大佬下场要做的的LLM都是语言类的。语音声音类:Google的WaveNet,微软的Deep Nerual Network,百度的DeepSpeech等,还有合成AI孙燕姿大火的开源模型Sovits。图片美术类:早期有GEN等图片识别/生成技术,去年大热的扩散模型又带火了我们比较熟悉的、生成质量无敌的Midjourney,先驱者谷歌的Disco Diffusion,一直在排队测试的OpenAI的Dalle·2,以及stability ai和runaway共同推出的Stable Diffusion...[heading1]SD是什么?[content]SD是Stable Diffusion的简称。是它是由初创公司StabilityAI、CompVis与Runway合作开发,2022年发布的深度学习文本到图像生成模型。它主要用于根据文本的描述产生详细图像。Stable Diffusion是一种扩散模型(diffusion model)的变体,叫做“潜在扩散模型”(latent diffusion model; LDM)。SD的代码模型权重已公开发布,可以在大多数配备有适度GPU的电脑硬件上运行。当前版本为2.1稳定版(2022.12.7)。源代码库:github.com/Stability-AI/stablediffusion我们可以通过一系列的工具搭建准备,使用SD进行想要的图片aigc(心想事成的魔法施与)。
作者:小鱼干了发布时间:2023-06-29 23:45原文地址:https://mp.weixin.qq.com/s/ycDWZ8W46DrsyeNShC1-wA微信扫一扫关注该公众号[heading1]先热个身[content]chatGPT:是由致力于AGI的公司OpenAI研发的一款AI技术驱动的NLP聊天工具,于2022年11月30日发布,目前使用的是GPT-4的LLM。额!~ chatGPT我听过,也知道是啥,但你这个解释我直接给我干懵了,套娃呢,解释藏我不认识的单词是不!~ AI:人工智能(Artificial Intelligence)AGI:通用人工智能(Artificial General Intelligence)能够像人类一样思考、学习和执行多种任务的人工智能系统NLP:自然语言处理(Natural Language Processing),就是说人话LLM:大型语言模型(Large Language Model),数据规模很大,没钱你搞不出来的,大烧钱模型。这段解释chatGPT的释义,一句话就把关于AIGC的几个常见名词都涵盖了,不愧是去年火到我卖地瓜的二姨都知道的“鸡屁屉”。一个字!绝!
|黑话|解释|<br>|-|-|<br>|NAI|(Novel AI,一般特指Leak)|<br>|咒语|prompts,关键词|<br>|施法/吟唱/t2i|Text2Image|<br>|魔杖|t2i/i2i参数|<br>|i2i|Image2Image,一般特指全部图片生成|<br>|inpaint|i2i一种maskredraw,可以局部重绘|<br>|ti/emb/炼丹|Train中的文本反转,一般特指Embedding插件|<br>|hn/hyper/冶金|hypernetwork,超网络|<br>|炸炉|指训练过程中过度拟合,但炸炉前的日志插件可以提取二次训练|<br>|废丹|指完全没有训练成功|<br>|美学/ext|aesthetic_embeddings,emb一种,特性是训练飞快,但在生产图片时实时计算。|<br>|db/梦展|DreamBooth,目前一种性价比高(可以在极少步数内完成训练)的微调方式,但要求过高|<br>|ds|DeepSpeed,微软开发的训练方式,移动不需要的组件到内存来降低显存占用,可使db的vram需求降到8g以下。开发时未考虑win,目前在win有兼容性问题故不可用|<br>|8bit/bsb|一般指Bitsandbyte,一种8比特算法,能极大降低vram占用,使16g可用于训练db。由于链接库问题,目前/预计未来在win不可用|后面这些难啃一些,随便看看吧