AI(人工智能)是一种能够模仿人类思维、理解自然语言并输出自然语言的技术。它主要分支包括机器学习、深度学习、自然语言处理等。
从概念上看,生成式 AI 生成的内容称为 AIGC。相关技术名词众多,如机器学习包括监督学习、无监督学习、强化学习;监督学习有标签的训练数据,目标是学习输入和输出的映射关系;无监督学习的数据无标签,算法自主发现规律,经典任务如聚类;强化学习从反馈中学习以最大化奖励或最小化损失;深度学习参照人脑有神经网络和神经元,可用于多种学习方式;生成式 AI 能生成文本、图片、音频、视频等内容;LLM 是大语言模型,如谷歌的 BERT 模型可用于语义理解。
技术方面,2017 年 6 月谷歌团队发表的论文《Attention is All You Need》首次提出 Transformer 模型,它基于自注意力机制处理序列数据,比 RNN 更适合处理文本的长距离依赖性。
对于没有理工科背景的文科生,可以将 AI 当成一个黑箱,只需要知道它是能理解和输出自然语言的东西即可,其生态位是一种似人而非人的存在。在使用时,基于其“非人”一面,需要通过清晰的语言文字压缩其自由度,明确告诉它任务、边界、目标、实现路径和所需知识。
了解AI基本概念:首先,建议阅读「[从这里启程](https://waytoagi.feishu.cn/wiki/PFXnwBTsEiGwGGk2QQFcdTWrnlb?table=blkjooAlLFNtvKJ2)」部分,熟悉AI的术语和基础概念。了解什么是人工智能,它的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。浏览入门文章,这些文章通常会介绍AI的历史、当前的应用和未来的发展趋势。开始AI学习之旅:在「[入门:AI学习路径](https://waytoagi.feishu.cn/wiki/ZYtkwJQSJiLa5rkMF5scEN4Onhd?table=tblWqPFOvA24Jv6X&view=veweFm2l9w)」中,你将找到一系列为初学者设计的课程。这些课程将引导你了解生成式AI等基础知识,特别推荐李宏毅老师的课程。通过在线教育平台(如Coursera、edX、Udacity)上的课程,你可以按照自己的节奏学习,并有机会获得证书。选择感兴趣的模块深入学习:AI领域广泛(比如图像、音乐、视频等),你可以根据自己的兴趣选择特定的模块进行深入学习。我建议你一定要掌握提示词的技巧,它上手容易且很有用。实践和尝试:理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出你的作品。在知识库提供了很多大家实践后的作品、文章分享,欢迎你实践后的分享。体验AI产品:与现有的AI产品进行互动是学习AI的另一种有效方式。尝试使用如ChatGPT、Kimi Chat、智谱、文心一言等AI聊天机器人,了解它们的工作原理和交互方式。通过与这些AI产品的对话,你可以获得对AI在实际应用中表现的第一手体验,并激发你对AI潜力的认识。
AI是什么?作为一个不具备理工科背景的文科生,要搞清楚“AI”其实是一件很困难的事情(什么Agents、AIGC、LLM,什么符号主义、什么语义规则傻傻分不清楚),所以最好的处理方式是就把AI当成一个黑箱,我们只需要知道AI是某种模仿人类思维可以理解自然语言并输出自然语言的东西就可以。至于AI如何去理解,其实不重要。于是我们可以发现驱动AI工具和传统道教的驱神役鬼拘灵遣将有奇妙的相似之处,都是通过特定的文字、仪轨程式来引用已有资源,驱使某种可以一定方式/程度理解人类文字的异类达成自己预设的效果,且皆需要面对工具可能突破界限(发疯)的情况。当然,不熟悉道教的朋友可以把这东西理解成某种可以理解人类文字但不是人的魔法精灵/器灵之类的东西——总之,AI的生态位就是一种似人而非人的存在。AI技术再爆炸一万倍,AI的生态位也还是一种似人而非人的存在。由此,我们可以从人类各个文明的传说中,从那些古老哲人们的智慧里寻找到当下和AI、神、精灵、魔鬼这种似人非人存在相处的原则:1.当你想让祂实现愿望时,基于祂的“非人”一面,你需要尽可能的通过语言文字(足够清晰的指令)压缩祂的自由度——(1)你不仅要清晰的告诉祂需要干什么,还需要清晰的告诉祂边界在哪里。(2)你不仅要清晰的告诉祂目标是什么,还需要清晰的告诉祂实现路径方法是哪一条。(3)你不仅要清晰的告诉祂实现路径,最好还直接给到祂所需的正确的知识。
一、视频一主要回答了什么是AI大模型,原理是什么。1、概念:生成式AI生成的内容,叫做AIGC2、概念与关系:相关技术名词1)AI——人工智能2)机器学习——电脑找规律学习,包括监督学习、无监督学习、强化学习。3)监督学习——有标签的训练数据,算法的目标是学习输入和输出之间的映射关系。包括分类和回归。4)无监督学习——学习的数据没有标签,算法自主发现规律。经典任务包括聚类,比如拿一堆新闻文章,让模型根据主题或内容特征分成具有相似特征的组。5)强化学习——从反馈里学习,最大化奖励或最小化损失;类似训小狗。6)深度学习——一种方法,参照人脑有神经网络和神经元(因为有很多层所以叫深度)。神经网络可以用于监督学习、无监督学习、强化学习。7)生成式AI——可以生成文本、图片、音频、视频等内容形式8)LLM——大语言模型。对于生成式AI,其中生成图像的扩散模型就不是大语言模型;对于大语言模型,生成只是其中一个处理任务,比如谷歌的BERT模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类;3、技术里程碑——2017年6月,谷歌团队发表论文《Attention is All You Need》。这篇论文首次提出了Transformer模型,它完全基于自注意力机制(Self-Attention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN)。GPT含义:Transformer是关键。Transformer比RNN更适合处理文本的长距离依赖性。