AI(人工智能)的起源最早可追溯到上世纪。1943 年,心理学家麦卡洛克和数学家皮特斯提出机器的神经元模型,为后续神经网络奠定基础。1950 年,计算机先驱图灵最早提出图灵测试,作为判别机器是否具备智能的标准。1956 年,在美国达特茅斯学院,马文·明斯基和约翰·麦凯西等人共同发起召开了著名的达特茅斯会议,“人工智能”一词被正式提出,并确立为一门学科。
人工智能是一门研究如何使计算机表现出智能行为的科学。例如,对于“根据照片判断一个人的年龄”这类无法明确编程的任务,正是人工智能感兴趣的。
在技术原理方面,相关技术名词众多。AI 即人工智能,机器学习包括监督学习、无监督学习、强化学习。监督学习有标签的训练数据,无监督学习学习的数据无标签。强化学习从反馈里学习。深度学习参照人脑有神经网络和神经元。生成式 AI 可以生成文本、图片、音频、视频等内容形式,LLM 是大语言模型。2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出 Transformer 模型,它完全基于自注意力机制处理序列数据,比 RNN 更适合处理文本的长距离依赖性。
2022年11月30日,OpenAI发布基于GPT 3.5的ChatGPT,自此开始,一股AI浪潮席卷全球,但AI(人工智能,Artificial Intelligence)并不是近几年才有的新鲜事,他的起源,最早可以追溯到上世纪的1943年。1943年,心理学家麦卡洛克和数学家皮特斯提出了机器的神经元模型,为后续的神经网络奠定了基础。1950年,伟大的计算机先驱图灵最早提出了图灵测试,做为判别机器是否具备智能的标准(即在一个对外不可见的房间内放置一台可以与外界沟通的机器,如果外界交互的人无法区分房间里到底是真人还是机器,那么我们就说房间里的机器具备了智能,通过了图灵测试)。1956年,在美国一个小镇的达特茅斯学院中,马文·明斯基和约翰·麦凯西拉着香农大佬站台背书,共同发起召开了著名的达特茅斯会议,在这次会议上,人工智能Artificial Intelligence一词被正式提出,并做为一门学科被确立下来。此后接近70年的漫长时间里,AI的发展起起落落,两次掀起人类对AI毁灭人类世界的恐慌,热度拉满,但又最终以“不过如此”冷却收场。图1 AI发展史
译者:Miranda,原文见https://microsoft.github.io/AI-For-Beginners/lessons/1-Intro/README.md[heading1][课前测试](https://red-field-0a6ddfd03.1.azurestaticap[content]人工智能(Artificial Intelligence)是一门令人兴奋的科学,它研究我们如何使计算机表现出智能行为,例如做一些人类所擅长的事情。最初,查尔斯·巴贝奇(Charles Babbage)发明了计算机,用于按照一套明确定义的程序(即算法)来对数字进行运算。现代计算机虽然比19世纪提出的原始计算机模型要先进得多,但仍然遵循着相同的受控计算理念。因此,如果我们知道实现某些目标所需的每一个步骤及其顺序,就有可能编写出程序,使计算机按照我们的想法去做这些事。✅“根据照片判断一个人的年龄”是一件无法明确编程的任务,因为我们并不知道当我们在做这件事时,是如何经过某些清晰的步骤,从而在脑海中得到一个数字的。然而,对于有些任务,我们并不能知道明确的解法。例如从一个人的照片中来判断他/她的年龄。我们之所以能做这件事,是因为我们见过了很多不同年龄的人,但我们无法明确自己的大脑具体是通过哪些步骤来完成这项任务的,所以也无法编写明确的程序让计算机来完成。这种类型的任务正是人工智能(简称AI)感兴趣的。✅想一想,如果人工智能得以实现,哪些任务可以被交给计算机完成?考虑金融、医学和艺术领域,这些领域如今是如何从人工智能中受益的?
一、视频一主要回答了什么是AI大模型,原理是什么。1、概念:生成式AI生成的内容,叫做AIGC2、概念与关系:相关技术名词1)AI——人工智能2)机器学习——电脑找规律学习,包括监督学习、无监督学习、强化学习。3)监督学习——有标签的训练数据,算法的目标是学习输入和输出之间的映射关系。包括分类和回归。4)无监督学习——学习的数据没有标签,算法自主发现规律。经典任务包括聚类,比如拿一堆新闻文章,让模型根据主题或内容特征分成具有相似特征的组。5)强化学习——从反馈里学习,最大化奖励或最小化损失;类似训小狗。6)深度学习——一种方法,参照人脑有神经网络和神经元(因为有很多层所以叫深度)。神经网络可以用于监督学习、无监督学习、强化学习。7)生成式AI——可以生成文本、图片、音频、视频等内容形式8)LLM——大语言模型。对于生成式AI,其中生成图像的扩散模型就不是大语言模型;对于大语言模型,生成只是其中一个处理任务,比如谷歌的BERT模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类;3、技术里程碑——2017年6月,谷歌团队发表论文《Attention is All You Need》。这篇论文首次提出了Transformer模型,它完全基于自注意力机制(Self-Attention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN)。GPT含义:Transformer是关键。Transformer比RNN更适合处理文本的长距离依赖性。