以下是为您提供的小白学习 AI 辅助修图从入门到精通的教程大纲:
一、基础知识与基本玩法
二、常见问题与注意事项
三、常见误区与避坑指南
四、从入门到精通的进阶玩法
五、高级卡 bug 玩法 探索一些非常规但有效的技巧和方法,以突破常规限制,实现更出色的修图效果。但需注意,此部分玩法可能存在一定风险和不确定性。
六、常见红海赛道 分析当前 AI 辅助修图在不同领域的竞争激烈程度和应用热点。
在学习过程中,还需了解以下 AI 相关的技术原理和概念:
游戏里的科技树图标实在太多了,根本画不过来……在没有AI画画之前,我都不敢想啥时候能把这些玩意填完。AI画画出来之后,我抱着满腔热情去试,结果发现三个严重的问题:•全TM在画二次元,没有适合的风格,想用到游戏里必须自己炼丹。•画出来的画好多都是美少女看镜头,没有叙事性,没法当icon用。•已有素材几乎全是中世纪大胡子男人呆呆站着,图生图不可行,训练出来的泛化性也很差。一开始的规划是:•画出卡通简笔画风格。•资产条件:有98张人像和8张UI,且人像全是男人。•需要能产出带有该画风的具有一定叙事内容的图像,内容形式一定要多元。我尝试了最开始的Embedding:后来换成CKPT(画和训练集里接近的小人已经不错了,但泛化性还是不理想):然后是Lora(好!很接近了!):现在这个版本画人画物画事都很完美了,甚至能从全是大胡子男人的训练集里学会画女人:从中世纪里摘出摩托车:为了引导AI画出前景后景区分明显的画,还专门画了一组引导图。分别是只保留前景、只保留背景、全图共三张图,在Caption里打组:由于训练集中人物朝向太固定,此处额外做了镜像处理。
一、视频一主要回答了什么是AI大模型,原理是什么。1、概念:生成式AI生成的内容,叫做AIGC2、概念与关系:相关技术名词1)AI——人工智能2)机器学习——电脑找规律学习,包括监督学习、无监督学习、强化学习。3)监督学习——有标签的训练数据,算法的目标是学习输入和输出之间的映射关系。包括分类和回归。4)无监督学习——学习的数据没有标签,算法自主发现规律。经典任务包括聚类,比如拿一堆新闻文章,让模型根据主题或内容特征分成具有相似特征的组。5)强化学习——从反馈里学习,最大化奖励或最小化损失;类似训小狗。6)深度学习——一种方法,参照人脑有神经网络和神经元(因为有很多层所以叫深度)。神经网络可以用于监督学习、无监督学习、强化学习。7)生成式AI——可以生成文本、图片、音频、视频等内容形式8)LLM——大语言模型。对于生成式AI,其中生成图像的扩散模型就不是大语言模型;对于大语言模型,生成只是其中一个处理任务,比如谷歌的BERT模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类;3、技术里程碑——2017年6月,谷歌团队发表论文《Attention is All You Need》。这篇论文首次提出了Transformer模型,它完全基于自注意力机制(Self-Attention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN)。
一、视频一主要回答了什么是AI大模型,原理是什么。1、概念:生成式AI生成的内容,叫做AIGC2、概念与关系:相关技术名词1)AI——人工智能2)机器学习——电脑找规律学习,包括监督学习、无监督学习、强化学习。3)监督学习——有标签的训练数据,算法的目标是学习输入和输出之间的映射关系。包括分类和回归。4)无监督学习——学习的数据没有标签,算法自主发现规律。经典任务包括聚类,比如拿一堆新闻文章,让模型根据主题或内容特征分成具有相似特征的组。5)强化学习——从反馈里学习,最大化奖励或最小化损失;类似训小狗。6)深度学习——一种方法,参照人脑有神经网络和神经元(因为有很多层所以叫深度)。神经网络可以用于监督学习、无监督学习、强化学习。7)生成式AI——可以生成文本、图片、音频、视频等内容形式8)LLM——大语言模型。对于生成式AI,其中生成图像的扩散模型就不是大语言模型;对于大语言模型,生成只是其中一个处理任务,比如谷歌的BERT模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类;3、技术里程碑——2017年6月,谷歌团队发表论文《Attention is All You Need》。这篇论文首次提出了Transformer模型,它完全基于自注意力机制(Self-Attention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN)。