AI 的原理包括以下几个方面:
咱们会通过一些具体的例子,让大家对AI是什么有个印象;然后会尝试介绍一些AI的技术原理,希望你能体会到AI技术的美妙和深刻;接着我们会解释如何理解”AI能做什么“这个问题;再者我们会介绍一些具体的工具案例和资料;最后我们会简单聊一些AI的未来发展以及影响。首先来看AI是什么这个问题。我们从它的父亲说起。有一部电影叫做《模仿游戏》,它讲述的就是计算机科学和人工智能之父,图灵的故事。他在二战期间构建的机器,或者说计算机的原型,破译了德军的密码。他预见了计算机的发展,并开始考虑一个很深刻的问题:“如何判断一台机器具有智能?”在他的1950年的论文中,他提出了一种被称为“图灵测试”的方法。测试中,一位人类提问者通过文字通道向两个回应者(一个是计算机,另一个是人类)连续提问。在相当长的时间内,如果提问者无法可靠地区分哪个回应者是计算机,哪个是人类,那么可以认为这台计算机具备了智能。这是一个非常经典和深刻的方法,要实现这一点其实很困难。下面是2024年春OpenAI公司发布新一代ChatGPT聊天机器人(GPT4o)产品时的发布会视频,你可以选择从9分钟开始直接看用户和ChatGPT交流的现场展示部分。如果你之前对AI没有那么关注,相信你会感到震惊。这个体验已经非常接近和正常人类的交流。事实上如果考虑到知识丰富和情绪稳定,它应该比大多数人类更适合交流;p那么,请你想象一下,如果你是提问者,你觉得ChatGPT可以跨越图灵测试吗?虽然学术界依然存在着很多争议,但是确实有很多人认为目前的AI产品已经可以通过图灵测试。事实上,这可能比绝大多数人认为的到来得早得多。也有人说,我们需要新的标准来判定AI真正拥有智慧,比如,它是否拥有自主意识?那自主意识又是什么以及如何测定呢?这是人类面临的新问题。
一、视频一主要回答了什么是AI大模型,原理是什么。1、概念:生成式AI生成的内容,叫做AIGC2、概念与关系:相关技术名词1)AI——人工智能2)机器学习——电脑找规律学习,包括监督学习、无监督学习、强化学习。3)监督学习——有标签的训练数据,算法的目标是学习输入和输出之间的映射关系。包括分类和回归。4)无监督学习——学习的数据没有标签,算法自主发现规律。经典任务包括聚类,比如拿一堆新闻文章,让模型根据主题或内容特征分成具有相似特征的组。5)强化学习——从反馈里学习,最大化奖励或最小化损失;类似训小狗。6)深度学习——一种方法,参照人脑有神经网络和神经元(因为有很多层所以叫深度)。神经网络可以用于监督学习、无监督学习、强化学习。7)生成式AI——可以生成文本、图片、音频、视频等内容形式8)LLM——大语言模型。对于生成式AI,其中生成图像的扩散模型就不是大语言模型;对于大语言模型,生成只是其中一个处理任务,比如谷歌的BERT模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类;3、技术里程碑——2017年6月,谷歌团队发表论文《Attention is All You Need》。这篇论文首次提出了Transformer模型,它完全基于自注意力机制(Self-Attention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN)。
一、视频一主要回答了什么是AI大模型,原理是什么。1、概念:生成式AI生成的内容,叫做AIGC2、概念与关系:相关技术名词1)AI——人工智能2)机器学习——电脑找规律学习,包括监督学习、无监督学习、强化学习。3)监督学习——有标签的训练数据,算法的目标是学习输入和输出之间的映射关系。包括分类和回归。4)无监督学习——学习的数据没有标签,算法自主发现规律。经典任务包括聚类,比如拿一堆新闻文章,让模型根据主题或内容特征分成具有相似特征的组。5)强化学习——从反馈里学习,最大化奖励或最小化损失;类似训小狗。6)深度学习——一种方法,参照人脑有神经网络和神经元(因为有很多层所以叫深度)。神经网络可以用于监督学习、无监督学习、强化学习。7)生成式AI——可以生成文本、图片、音频、视频等内容形式8)LLM——大语言模型。对于生成式AI,其中生成图像的扩散模型就不是大语言模型;对于大语言模型,生成只是其中一个处理任务,比如谷歌的BERT模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类;3、技术里程碑——2017年6月,谷歌团队发表论文《Attention is All You Need》。这篇论文首次提出了Transformer模型,它完全基于自注意力机制(Self-Attention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN)。