对于小白学习 AI,以下是一些建议:
此外,还可以通过以下方式加深对 AI 技术原理的理解:
了解AI基本概念:首先,建议阅读「[从这里启程](https://waytoagi.feishu.cn/wiki/PFXnwBTsEiGwGGk2QQFcdTWrnlb?table=blkjooAlLFNtvKJ2)」部分,熟悉AI的术语和基础概念。了解什么是人工智能,它的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。浏览入门文章,这些文章通常会介绍AI的历史、当前的应用和未来的发展趋势。开始AI学习之旅:在「[入门:AI学习路径](https://waytoagi.feishu.cn/wiki/ZYtkwJQSJiLa5rkMF5scEN4Onhd?table=tblWqPFOvA24Jv6X&view=veweFm2l9w)」中,你将找到一系列为初学者设计的课程。这些课程将引导你了解生成式AI等基础知识,特别推荐李宏毅老师的课程。通过在线教育平台(如Coursera、edX、Udacity)上的课程,你可以按照自己的节奏学习,并有机会获得证书。选择感兴趣的模块深入学习:AI领域广泛(比如图像、音乐、视频等),你可以根据自己的兴趣选择特定的模块进行深入学习。我建议你一定要掌握提示词的技巧,它上手容易且很有用。实践和尝试:理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出你的作品。在知识库提供了很多大家实践后的作品、文章分享,欢迎你实践后的分享。体验AI产品:与现有的AI产品进行互动是学习AI的另一种有效方式。尝试使用如ChatGPT、Kimi Chat、智谱、文心一言等AI聊天机器人,了解它们的工作原理和交互方式。通过与这些AI产品的对话,你可以获得对AI在实际应用中表现的第一手体验,并激发你对AI潜力的认识。
我原以为,这种涉及代码和大模型能力的东西从来都是阳春白雪,我等小白触碰不得,可如今借由《谁是人类》这个活动,我意识到它和我就隔着几天的发烧努力——一个全程围观并做一点志愿者服务的元子语。我的AI之旅开始于prompt。显而易见,3.5刚出来的时候,对AI生成原理的理解加上prompt写得好,问问题和解决问题的效率是巨大的,当真能解决一些生活中的问题了。然而作为一个小白类型的Chat网页终端用户,更多的是临时捏一些prompt解决具体的问题,将prompt规范、抽象用以让AI拟人,当然试过,却远远做不到。不知道每一个比较小白的小伙伴,是不是都和我有类似的疑虑呢?然而来都来了,自然要参加一下,学习一下也是好的。作为一个围观人群,我虽然没有躬身入局,却因为近距离地作为线上志愿者,惊觉原来这一切其实门槛都在社区里一一解决过,需要的只是愿意花一些时间和做一些准备。在这个过程中,我也直接被点燃了。
一、视频一主要回答了什么是AI大模型,原理是什么。1、概念:生成式AI生成的内容,叫做AIGC2、概念与关系:相关技术名词1)AI——人工智能2)机器学习——电脑找规律学习,包括监督学习、无监督学习、强化学习。3)监督学习——有标签的训练数据,算法的目标是学习输入和输出之间的映射关系。包括分类和回归。4)无监督学习——学习的数据没有标签,算法自主发现规律。经典任务包括聚类,比如拿一堆新闻文章,让模型根据主题或内容特征分成具有相似特征的组。5)强化学习——从反馈里学习,最大化奖励或最小化损失;类似训小狗。6)深度学习——一种方法,参照人脑有神经网络和神经元(因为有很多层所以叫深度)。神经网络可以用于监督学习、无监督学习、强化学习。7)生成式AI——可以生成文本、图片、音频、视频等内容形式8)LLM——大语言模型。对于生成式AI,其中生成图像的扩散模型就不是大语言模型;对于大语言模型,生成只是其中一个处理任务,比如谷歌的BERT模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类;3、技术里程碑——2017年6月,谷歌团队发表论文《Attention is All You Need》。这篇论文首次提出了Transformer模型,它完全基于自注意力机制(Self-Attention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN)。GPT含义:Transformer是关键。Transformer比RNN更适合处理文本的长距离依赖性。