对于小白学习 AI,以下是一些建议:
此外,还可以参考《雪梅 May 的 AI 学习日记》,其适合纯 AI 小白,学习模式是输入→模仿→自发创造。学习内容可在 waytoAGI 社区发现自己感兴趣的 AI 领域,学习最新的内容。该日记中的学习资源都是免费开源的。
在理解技术原理与建立框架方面,可通过以下通俗易懂的内容:
了解AI基本概念:首先,建议阅读「[从这里启程](https://waytoagi.feishu.cn/wiki/PFXnwBTsEiGwGGk2QQFcdTWrnlb?table=blkjooAlLFNtvKJ2)」部分,熟悉AI的术语和基础概念。了解什么是人工智能,它的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。浏览入门文章,这些文章通常会介绍AI的历史、当前的应用和未来的发展趋势。开始AI学习之旅:在「[入门:AI学习路径](https://waytoagi.feishu.cn/wiki/ZYtkwJQSJiLa5rkMF5scEN4Onhd?table=tblWqPFOvA24Jv6X&view=veweFm2l9w)」中,你将找到一系列为初学者设计的课程。这些课程将引导你了解生成式AI等基础知识,特别推荐李宏毅老师的课程。通过在线教育平台(如Coursera、edX、Udacity)上的课程,你可以按照自己的节奏学习,并有机会获得证书。选择感兴趣的模块深入学习:AI领域广泛(比如图像、音乐、视频等),你可以根据自己的兴趣选择特定的模块进行深入学习。我建议你一定要掌握提示词的技巧,它上手容易且很有用。实践和尝试:理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出你的作品。在知识库提供了很多大家实践后的作品、文章分享,欢迎你实践后的分享。体验AI产品:与现有的AI产品进行互动是学习AI的另一种有效方式。尝试使用如ChatGPT、Kimi Chat、智谱、文心一言等AI聊天机器人,了解它们的工作原理和交互方式。通过与这些AI产品的对话,你可以获得对AI在实际应用中表现的第一手体验,并激发你对AI潜力的认识。
说明:1.适合纯AI小白:如果你还在观望AI,不知道从何入手,可以参考我这个日记。你可以先看左边的目录,会发现我现在已经快到100天了,在这个时间跨度里,我从一开始的到处看看到现在觉得自己已经走在了一条学习AI的轨道上。2.学习模式是什么:我平时有记录笔记的习惯,所以积累了这份AI学习日记。我最近整理复盘了这将近100天记录的日记后,我发现我学习AI的模式是输入→模仿→自发创造。如果你没有自信一开始就用费曼学习法来接触AI,那你可以试试我这个实践出来的学习模式。3.学习内容:我日记里的学习内容你可以不用直接复用,因为AI的节奏太快了,很多学习的材料在半年后的现在可能已经不适用了。比如coze之前共学的那些课程,你会发现coze已经改版了,如果你按照老课程来模仿,产品功能不一样了,对你来说会有转换的门槛。你可以去waytoAGI社区发现你自己感兴趣的AI领域,去学习你自己想学的最新的内容。4.有时间学吗:在半年多的时间跨度中,其中有100天在学习AI,所以这里的DAY(天数)不是每天依次进行,而是有空的时候学习。目前我进行到了90天,希望自己能够坚持满100天,甚至更多时间。5.学习状态:我在2024年保持了比较好的学习状态,有意愿和动力也能头脑清醒的学进去东西。这种状态不仅体现在学AI,我在2024年还看了33本书,像《穷查理宝典》这样的大部头都能看进去。所以如果你看到这个100天日记觉得自己很难做到,那是学习状态没有到最好,不用有心里压力,能学多少算多少就行。6.有费用吗:本日记中学习资源的内容都是免费开源的,真的很感谢这些把信息开源的人,这样会AI的人才会越来越多。我也是秉持这个理念,把我的学习日记开源了
一、视频一主要回答了什么是AI大模型,原理是什么。1、概念:生成式AI生成的内容,叫做AIGC2、概念与关系:相关技术名词1)AI——人工智能2)机器学习——电脑找规律学习,包括监督学习、无监督学习、强化学习。3)监督学习——有标签的训练数据,算法的目标是学习输入和输出之间的映射关系。包括分类和回归。4)无监督学习——学习的数据没有标签,算法自主发现规律。经典任务包括聚类,比如拿一堆新闻文章,让模型根据主题或内容特征分成具有相似特征的组。5)强化学习——从反馈里学习,最大化奖励或最小化损失;类似训小狗。6)深度学习——一种方法,参照人脑有神经网络和神经元(因为有很多层所以叫深度)。神经网络可以用于监督学习、无监督学习、强化学习。7)生成式AI——可以生成文本、图片、音频、视频等内容形式8)LLM——大语言模型。对于生成式AI,其中生成图像的扩散模型就不是大语言模型;对于大语言模型,生成只是其中一个处理任务,比如谷歌的BERT模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类;3、技术里程碑——2017年6月,谷歌团队发表论文《Attention is All You Need》。这篇论文首次提出了Transformer模型,它完全基于自注意力机制(Self-Attention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN)。GPT含义:Transformer是关键。Transformer比RNN更适合处理文本的长距离依赖性。