以下是为小白学习 AI 提供的指导:
一、了解 AI 基本概念 建议阅读「从这里启程」部分,熟悉 AI 的术语和基础概念,包括人工智能是什么,其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。同时,浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。
二、开始 AI 学习之旅 在「入门:AI 学习路径」中,能找到为初学者设计的课程,特别推荐李宏毅老师的课程。还可以通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。
三、选择感兴趣的模块深入学习 AI 领域广泛,涵盖图像、音乐、视频等,您可以根据自身兴趣选择特定模块深入学习。掌握提示词的技巧,因其上手容易且实用。
四、实践和尝试 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。知识库中有很多实践后的作品、文章分享,欢迎您实践后也进行分享。
五、体验 AI 产品 与现有的 AI 产品如 ChatGPT、Kimi Chat、智谱、文心一言等聊天机器人进行互动,了解其工作原理和交互方式,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。
此外,还可以参考《雪梅 May 的 AI 学习日记》,其适合纯 AI 小白。学习模式是输入→模仿→自发创造。学习资源免费开源,可在 waytoAGI 社区发现自己感兴趣的 AI 领域,学习最新内容。
在技术原理方面,通过【AI 学习笔记】小白可以了解以下内容:
了解AI基本概念:首先,建议阅读「[从这里启程](https://waytoagi.feishu.cn/wiki/PFXnwBTsEiGwGGk2QQFcdTWrnlb?table=blkjooAlLFNtvKJ2)」部分,熟悉AI的术语和基础概念。了解什么是人工智能,它的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。浏览入门文章,这些文章通常会介绍AI的历史、当前的应用和未来的发展趋势。开始AI学习之旅:在「[入门:AI学习路径](https://waytoagi.feishu.cn/wiki/ZYtkwJQSJiLa5rkMF5scEN4Onhd?table=tblWqPFOvA24Jv6X&view=veweFm2l9w)」中,你将找到一系列为初学者设计的课程。这些课程将引导你了解生成式AI等基础知识,特别推荐李宏毅老师的课程。通过在线教育平台(如Coursera、edX、Udacity)上的课程,你可以按照自己的节奏学习,并有机会获得证书。选择感兴趣的模块深入学习:AI领域广泛(比如图像、音乐、视频等),你可以根据自己的兴趣选择特定的模块进行深入学习。我建议你一定要掌握提示词的技巧,它上手容易且很有用。实践和尝试:理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出你的作品。在知识库提供了很多大家实践后的作品、文章分享,欢迎你实践后的分享。体验AI产品:与现有的AI产品进行互动是学习AI的另一种有效方式。尝试使用如ChatGPT、Kimi Chat、智谱、文心一言等AI聊天机器人,了解它们的工作原理和交互方式。通过与这些AI产品的对话,你可以获得对AI在实际应用中表现的第一手体验,并激发你对AI潜力的认识。
说明:1.适合纯AI小白:如果你还在观望AI,不知道从何入手,可以参考我这个日记。你可以先看左边的目录,会发现我现在已经快到100天了,在这个时间跨度里,我从一开始的到处看看到现在觉得自己已经走在了一条学习AI的轨道上。2.学习模式是什么:我平时有记录笔记的习惯,所以积累了这份AI学习日记。我最近整理复盘了这将近100天记录的日记后,我发现我学习AI的模式是输入→模仿→自发创造。如果你没有自信一开始就用费曼学习法来接触AI,那你可以试试我这个实践出来的学习模式。3.学习内容:我日记里的学习内容你可以不用直接复用,因为AI的节奏太快了,很多学习的材料在半年后的现在可能已经不适用了。比如coze之前共学的那些课程,你会发现coze已经改版了,如果你按照老课程来模仿,产品功能不一样了,对你来说会有转换的门槛。你可以去waytoAGI社区发现你自己感兴趣的AI领域,去学习你自己想学的最新的内容。4.有时间学吗:在半年多的时间跨度中,其中有100天在学习AI,所以这里的DAY(天数)不是每天依次进行,而是有空的时候学习。目前我进行到了90天,希望自己能够坚持满100天,甚至更多时间。5.有费用吗:本日记中学习资源的内容都是免费开源的,真的很感谢这些把信息开源的人,这样会AI的人才会越来越多。我也是秉持这个理念,把我的学习日记开源了
一、视频一主要回答了什么是AI大模型,原理是什么。1、概念:生成式AI生成的内容,叫做AIGC2、概念与关系:相关技术名词1)AI——人工智能2)机器学习——电脑找规律学习,包括监督学习、无监督学习、强化学习。3)监督学习——有标签的训练数据,算法的目标是学习输入和输出之间的映射关系。包括分类和回归。4)无监督学习——学习的数据没有标签,算法自主发现规律。经典任务包括聚类,比如拿一堆新闻文章,让模型根据主题或内容特征分成具有相似特征的组。5)强化学习——从反馈里学习,最大化奖励或最小化损失;类似训小狗。6)深度学习——一种方法,参照人脑有神经网络和神经元(因为有很多层所以叫深度)。神经网络可以用于监督学习、无监督学习、强化学习。7)生成式AI——可以生成文本、图片、音频、视频等内容形式8)LLM——大语言模型。对于生成式AI,其中生成图像的扩散模型就不是大语言模型;对于大语言模型,生成只是其中一个处理任务,比如谷歌的BERT模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类;3、技术里程碑——2017年6月,谷歌团队发表论文《Attention is All You Need》。这篇论文首次提出了Transformer模型,它完全基于自注意力机制(Self-Attention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN)。GPT含义:Transformer是关键。Transformer比RNN更适合处理文本的长距离依赖性。