以下是为您制定的零基础学习 AIGC 的系统学习清单:
彭博社对谷歌CEO Sundar Pichai的访谈。讨论了搜索的未来,Gemini的构建,与微软和OpenAI竞争,美国与中国在AI方面的竞争,谷歌的文化挑战等。对于AI技术的未来,包括人工通用智能(AGI),Google承诺将负责任地推进基础研究。Pichai认为,执行能力是公司面临的最大威胁,因此公司必须不断自我革新以保持领先。他希望未来人们回顾当前的AI技术时,会认为它们是基础且原始的。[heading2][Elicit发布机器学习必读清单](https://github.com/elicit/machi[content]Elicit发布了一个机器学习必读清单,旨在帮助读者系统地了解机器学习的各个方面,尤其是语言模型。清单涵盖了机器学习基础、Transformer与基础模型、训练与微调、推理与运行策略等几个部分。这些部分从基础概念入门,到深度强化学习和反向传播等进阶内容,深入探讨了Transformer架构,并介绍了训练和精调语言模型的方法与策略。同时,清单还分析了大语言模型如何处理复杂的推理和解决问题的任务。[heading2][提示工程基础-三种高级提示工程技巧](https://x.com/cwolferesearch/s[content]老哥继续科普提示工程基础,三种高级提示工程技术,它们在实践中被广泛使用或引用。思维链(CoT)提示:通过在模型提示中的样本内嵌入一系列思维链(即一系列中间推理步骤)来激发LLM的推理能力。思维树(ToT)提示:ToT提示将一个复杂问题分解为一系列更简单的问题(或“思维”)。LLM生成许多思维,并通过自然语言(即通过提示)不断评估其向最终解决方案的进展。思维图(GoT)提示:我们可以在推导解决方案时重用思维,甚至通过一系列思维进行递归。已经提出了多种基于图的提示策略。
一、视频一主要回答了什么是AI大模型,原理是什么。1、概念:生成式AI生成的内容,叫做AIGC2、概念与关系:相关技术名词1)AI——人工智能2)机器学习——电脑找规律学习,包括监督学习、无监督学习、强化学习。3)监督学习——有标签的训练数据,算法的目标是学习输入和输出之间的映射关系。包括分类和回归。4)无监督学习——学习的数据没有标签,算法自主发现规律。经典任务包括聚类,比如拿一堆新闻文章,让模型根据主题或内容特征分成具有相似特征的组。5)强化学习——从反馈里学习,最大化奖励或最小化损失;类似训小狗。6)深度学习——一种方法,参照人脑有神经网络和神经元(因为有很多层所以叫深度)。神经网络可以用于监督学习、无监督学习、强化学习。7)生成式AI——可以生成文本、图片、音频、视频等内容形式8)LLM——大语言模型。对于生成式AI,其中生成图像的扩散模型就不是大语言模型;对于大语言模型,生成只是其中一个处理任务,比如谷歌的BERT模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类;3、技术里程碑——2017年6月,谷歌团队发表论文《Attention is All You Need》。这篇论文首次提出了Transformer模型,它完全基于自注意力机制(Self-Attention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN)。
一、视频一主要回答了什么是AI大模型,原理是什么。1、概念:生成式AI生成的内容,叫做AIGC2、概念与关系:相关技术名词1)AI——人工智能2)机器学习——电脑找规律学习,包括监督学习、无监督学习、强化学习。3)监督学习——有标签的训练数据,算法的目标是学习输入和输出之间的映射关系。包括分类和回归。4)无监督学习——学习的数据没有标签,算法自主发现规律。经典任务包括聚类,比如拿一堆新闻文章,让模型根据主题或内容特征分成具有相似特征的组。5)强化学习——从反馈里学习,最大化奖励或最小化损失;类似训小狗。6)深度学习——一种方法,参照人脑有神经网络和神经元(因为有很多层所以叫深度)。神经网络可以用于监督学习、无监督学习、强化学习。7)生成式AI——可以生成文本、图片、音频、视频等内容形式8)LLM——大语言模型。对于生成式AI,其中生成图像的扩散模型就不是大语言模型;对于大语言模型,生成只是其中一个处理任务,比如谷歌的BERT模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类;3、技术里程碑——2017年6月,谷歌团队发表论文《Attention is All You Need》。这篇论文首次提出了Transformer模型,它完全基于自注意力机制(Self-Attention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN)。