Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

吴恩达

Answer

吴恩达(Andrew Ng)是人工智能领域的知名科学家和教育者。

他在机器学习、统计学和人工智能领域贡献显著:

  • 曾在斯坦福大学任副教授,领导过谷歌的大脑项目(Google Brain)。
  • 担任过百度公司首席科学家并领导百度研究院。

以深度学习和大规模机器学习系统的研究闻名,推动了人工智能技术的商业应用和普及,是多个人工智能和机器学习开源项目的倡导者,如 TensorFlow 和 Caffe。

他致力于普及人工智能教育,在斯坦福大学和 Coursera 教授的机器学习课程广受欢迎,吸引全球数百万学生参与。其教学和研究工作对人工智能领域发展影响深远。

在相关研究中,吴恩达逐渐意识到利用大量训练数据与快速计算能力的重要性,其想法在一些论文中得到支持。他参与的分散式代码研发,以及在相关领域的成果,为行业发展带来积极影响。

在机器学习课程方面,完成吴恩达的 Coursera 机器学习课程可能会激发对神经网络和深度学习的兴趣。

Content generated by AI large model, please carefully verify (powered by aily)

References

问:吴恩达是谁?

吴恩达(Andrew Ng)是一位在人工智能领域享有盛誉的科学家和教育者。他在机器学习、统计学和人工智能领域做出了重要贡献,并且是在线教育平台Coursera的联合创始人。吴恩达曾在斯坦福大学担任副教授,并领导了谷歌的大脑项目(Google Brain)。此外,他还曾担任百度公司首席科学家,并领导百度研究院。吴恩达以其在深度学习和大规模机器学习系统方面的研究而闻名,他在这些领域的工作推动了人工智能技术的商业应用和普及。他还是多个人工智能和机器学习开源项目的倡导者,包括TensorFlow和Caffe。除了在学术界和工业界的贡献,吴恩达还致力于普及人工智能教育。他教授的机器学习课程是斯坦福大学和Coursera上最受欢迎的在线课程之一,吸引了全球数百万学生的参与。通过他的教学和研究工作,吴恩达对人工智能领域的发展产生了深远的影响。内容由AI大模型生成,请仔细甄别。

深度 | 神经网络和深度学习简史第四部分:深度学习终迎伟大复兴

在这个案例中利用GPU而不是CPU到底能变得有多快很难说清楚,但是同年《Large-scale Deep Unsupervised Learning using Graphics Processors》这篇论文给出了一个数字:70倍。是的,70倍,这使得数以周记的工作可以被压缩到几天就完成,甚至是一天。之前研发了分散式代码的作者中包括高产的机器学习研究者吴恩达,他逐渐意识到利用大量训练数据与快速计算的能力在之前被赞同学习算法演变愈烈的研究员们低估了。这个想法在2010年的《Deep Big Simple Neural Nets Excel on Handwritten Digit Recognition》(作者之一J.Schimidhuber正是递归LTSM网络(recurrent LTSM networks)的投资者)中也得到了大力支持,展示了MNIST数据库能够达到令人惊叹的0.35%错误率,并且除去大型神经网络、输入的多个变量、以及有效的反向传播GPU实现以外没有任何特殊的地方。这些想法已经存在了数十年,因此尽管可以说算法的改进并不那么重要,但是结果确实强烈表明大型训练数据集与快速腭化计算的蛮力方法是一个关键。Dahl与Mohamed利用GPU打破记录是一个早期且相对有限的成功,但是它足以激励人们,并且对这两人来说也为他们带来了在微软研究室实习的机会。在这里,他们可以享受到那时已经出现的计算领域内另一个趋势所带来的益处:大数据。这个词语定义宽松,在机器学习的环境下则很容易理解——大量训练数据。大量的训练数据非常重要,因为没有它神经网络仍然不能做到很好——它们有些过拟合了(完美适用于训练数据,但无法推广到新的测试数据)。这说得通——大型神经网络能够计算的复杂度需要许多数据来使它们避免学习训练集中那些不重要的方面——这也是过去研究者面对的主要难题。因此现在,大型公司的计算与数据集合能力证明了其不可替代性。这两个学生在三个月的实习期中轻易地证明了深度学习的能力,微软研究室也自此成为了深度学习语音识别研究的前沿地带。

入门 | 机器学习研究者必知的八个神经网络架构

神经网络是机器学习文献中的一类模型。例如,如果你参加了Coursera的机器学习课程,很可能会学到神经网络。神经网络是一套特定的算法,它彻底改变了机器学习领域。他们受到生物神经网络的启发,目前深度神经网络已经被证实效果很好。神经网络本身是一般的函数逼近,这就是为什么它们几乎可以应用于任何从输入到输出空间复杂映射的机器学习问题。以下是说服你学习神经计算的三个理由:了解大脑是如何工作的:它非常大且很复杂,一旦破坏就会脑死亡,所以我们需要使用计算机模拟。了解受神经元及其适应性连接启发的并行计算风格:这种风格与序列计算截然不同。使用受大脑启发的新颖学习算法来解决实际问题:即使不是大脑的实际工作方式,学习算法也非常有用。在完成吴恩达的Coursera机器学习课程后,我开始对神经网络和深度学习产生兴趣,因此寻找最好的网上资源来了解这个主题,并找到了Geoffrey Hinton的机器学习神经网络课程。如果你正在做深度学习的工程或想要踏入深度学习/机器学习的领域,你应该参加这个课程。Geoffrey Hinton毫无疑问是深度学习领域的教父,在课程中给出了非凡的见解。在这篇博客文章中,我想分享我认为任何机器学习研究人员都应该熟悉的八个神经网络架构,以促进他们的工作。一般来说,这些架构可分为三类:1.前馈神经网络这是实际应用中最常见的神经网络类型。第一层是输入,最后一层是输出。如果有多个隐藏层,我们称之为「深度」神经网络。他们计算出一系列改变样本相似性的变换。各层神经元的活动是前一层活动的非线性函数。2.循环网络循环网络在他们的连接图中定向了循环,这意味着你可以按照箭头回到你开始的地方。他们可以有复杂的动态,使其很难训练。他们更具有生物真实性。

Others are asking
吴恩达课程
以下是关于吴恩达课程的相关信息: 对于强化学习的入门学习,如果没有相关基础,可先看吴恩达的课程以获得大致理解,此课程估计需要 25 小时左右。 吴恩达和 OpenAI 合作推出了免费的 Prompt Engineering(提示工程师)课程。课程主要内容是教书写 AI 提示词,并教利用 GPT 开发一个 AI 聊天机器人。相关资源包括: 原版网址:https://www.deeplearning.ai/shortcourses/chatgptpromptengineeringfordevelopers/ B 站版本:【合集·AI Course哔哩哔哩】https://b23.tv/ATc4lX0 、https://b23.tv/lKSnMbB 翻译版本: 推荐直接使用 Jupyter 版本学习,效率更高:https://github.com/datawhalechina/promptengineeringfordevelopers/ 课程一共 9 集全部已经翻译完成,并且改成了双语字幕,字幕文件也已经上传了。 视频下载地址:https://pan.quark.cn/s/77669b9a89d7 OpenAI 开源了教程:https://islinxu.github.io/promptengineeringnote/Introduction/index.html 纯文字版本: 吴恩达(Andrew Ng)是在人工智能领域享有盛誉的科学家和教育者。他在机器学习、统计学和人工智能领域有重要贡献,是在线教育平台 Coursera 的联合创始人。曾在斯坦福大学担任副教授,领导过谷歌的大脑项目(Google Brain),担任过百度公司首席科学家并领导百度研究院。以在深度学习和大规模机器学习系统方面的研究闻名,推动了人工智能技术的商业应用和普及,还是多个人工智能和机器学习开源项目的倡导者。其教授的机器学习课程是斯坦福大学和 Coursera 上最受欢迎的在线课程之一,对人工智能领域发展影响深远。内容由 AI 大模型生成,请仔细甄别。
2025-02-05
吴恩达大模型教程
以下是一些与吴恩达大模型相关的教程和资源: 面向开发者的 LLM 入门课程: 地址: 简介:一个中文版的大模型入门教程,围绕吴恩达老师的大模型系列课程展开,包括吴恩达《ChatGPT Prompt Engineering for Developers》课程中文版等。 提示工程指南: 地址: 简介:基于对大语言模型的兴趣编写的全新提示工程指南,介绍了相关论文研究等。 LangChain🦜️🔗中文网,跟着 LangChain 一起学 LLM/GPT 开发: 地址: 简介:由两位 LLM 创业者维护的 Langchain 中文文档。 LLM 九层妖塔: 地址: 简介:包含 ChatGLM 等实战与经验。 目录:吴恩达讲 Prompt https://github.com/zard1152/deepLearningAI/wiki Coze 复刻:吴恩达开源的 AI 翻译项目 复刻步骤:包括配置反思优化的提示词、结合反思优化建议再次翻译、选择输出方式等。 大语言模型分为基础 LLM 和指令微调 LLM 两类。基础 LLM 经过训练可根据文本预测下一个词,指令微调 LLM 经过训练能遵循指令,为让系统更有帮助并遵循指令,通常会使用人类反馈强化学习(RLHF)技术优化。提示的关键原则包括尽可能保证下达的指令“清晰、没有歧义”,给大模型思考的时间以及足够的时间去完成任务。
2025-01-21
吴恩达系列课程
以下是关于吴恩达系列课程的相关信息: 面向开发者的 LLM 入门课程: 地址: 简介:一个中文版的大模型入门教程,围绕吴恩达老师的大模型系列课程展开,包括吴恩达《ChatGPT Prompt Engineering for Developers》课程中文版、《Building Systems with the ChatGPT API》课程中文版、《LangChain for LLM Application Development》课程中文版等。 提示工程指南: 地址: 简介:该项目基于对大语言模型的浓厚兴趣,编写了这份全新的提示工程指南,介绍了大语言模型相关的论文研究、学习指南、模型、讲座、参考资料、大语言模型能力以及与其他与提示工程相关的工具。 LangChain🦜️🔗中文网,跟着 LangChain 一起学 LLM/GPT 开发: 地址: 简介:Langchain 的中文文档,由两个在 LLM 创业者维护,希望帮助到刚进入 AI 应用开发的朋友们。 LLM 开源中文大语言模型及数据集集合中的 LLM 九层妖塔: 地址: 简介:ChatGLM、ChineseLLaMAAlpaca、MiniGPT4、FastChat、LLaMA、gpt4all 等实战与经验。 吴恩达讲 Prompt 相关课程: 谷歌/百度 AI 部门负责人吴恩达和 OpenAI 合作推出了免费的 Prompt Engineering(提示工程师)课程。课程主要内容是教您书写 AI 提示词,并且最后会教您利用 GPT 开发一个 AI 聊天机器人。 原版网址:https://www.deeplearning.ai/shortcourses/chatgptpromptengineeringfordevelopers/ B 站版本:【合集·AI Course哔哩哔哩】https://b23.tv/ATc4lX0 、https://b23.tv/lKSnMbB 翻译版本: 推荐直接使用 Jupyter 版本学习,效率更高:https://github.com/datawhalechina/promptengineeringfordevelopers/ 吴恩达和 Open AI 合作的提示工程课程一共 9 集全部已经翻译完成,并且改成了双语字幕,字幕文件也已经上传了。 视频下载地址:https://pan.quark.cn/s/77669b9a89d7 OpenAI 开源了教程:https://islinxu.github.io/promptengineeringnote/Introduction/index.html 纯文字版本: 2023 年 8 月 24 日历史更新(归档): 吴恩达最新的《》短课程上线,课程内容包括了解何时对 LLM 应用微调、准备数据以进行微调、根据您自己的数据训练和评估 LLM。 《》非常深入浅出地介绍了基于大语言模型的 AI Agents,从记忆检索到决策推理,再到行动顺序的选择,真实展现了 Agent 的智能化进程。 在》,用一张清晰、具有美感的图片展示了 Models、Prompt Templates、Chains、Agent 和 MultiAgent 之间的关系。 《》,周伯文是清华大学讲席教授、衔远科技创始人,也是前京东集团高级副总裁,他在 GAIR 2023 论坛上发表了自己对未来的看法:AI 未来将融合语言与工具智能,实现人工智能在复杂场景下的应用。
2025-01-11
吴恩达的视频课程链接
以下是吴恩达相关视频课程的链接: 谷歌/百度 AI 部门负责人吴恩达和 OpenAI 合作推出的免费 Prompt Engineering(提示工程师)课程: 原版网址:https://www.deeplearning.ai/shortcourses/chatgptpromptengineeringfordevelopers/ B 站版本: 【合集·AI Course哔哩哔哩】https://b23.tv/ATc4lX0 https://b23.tv/lKSnMbB 翻译版本: 推荐直接使用 Jupyter 版本学习,效率更高:https://github.com/datawhalechina/promptengineeringfordevelopers/ 视频下载地址:https://pan.quark.cn/s/77669b9a89d7 OpenAI 开源了教程:https://islinxu.github.io/promptengineeringnote/Introduction/index.html 纯文字版本: 2023 年 11 月 9 日推出的新课程《》,一共 31 集,可在 B 站观看学习。
2025-01-07
我在哪里能看到吴恩达的大模型通识课?
以下是一些可以看到吴恩达大模型通识课的途径: 1. 中文版的大模型入门教程,围绕吴恩达老师的大模型系列课程展开,地址: 2. 目录:吴恩达讲 Prompt,地址:https://github.com/zard1152/deepLearningAI/wiki ; 3. 2023 年 8 月 24 日,吴恩达最新的《》短课程上线。
2024-12-30
吴恩达关于使用hugging face 、langchain 创建自己应用的教程
以下是一些与吴恩达关于使用 hugging face 、langchain 创建自己应用的相关教程资源: 1. 面向开发者的 LLM 入门课程: 地址: 简介:一个中文版的大模型入门教程,围绕吴恩达老师的大模型系列课程展开,包括吴恩达《ChatGPT Prompt Engineering for Developers》课程中文版,吴恩达《Building Systems with the ChatGPT API》课程中文版,吴恩达《LangChain for LLM Application Development》课程中文版等。 2. 提示工程指南: 地址: 简介:该项目基于对大语言模型的浓厚兴趣,编写了这份全新的提示工程指南,介绍了大语言模型相关的论文研究、学习指南、模型、讲座、参考资料、大语言模型能力以及与其他与提示工程相关的工具。 3. LangChain 🦜️🔗中文网,跟着 LangChain 一起学 LLM/GPT 开发: 地址: 简介:Langchain 的中文文档,由是两个在 LLM 创业者维护,希望帮助到从刚进入 AI 应用开发的朋友们。 4. AIGC Weekly 32 中的精选文章: 地址: 简介:这个短期课程是吴恩达工作室与 Hugging Face 合作的,旨在教授如何快速创建和演示机器学习应用程序。学员将学习构建图像生成、图像字幕和文本摘要应用程序,并与团队成员、测试人员等分享自己的应用程序。课程内容包括使用少量代码创建用户友好的应用程序,使用开源大型语言模型对输入文本进行摘要,并显示摘要。
2024-08-19