以下是一些入门经典必读的资源:
作者:[Derrick Harris](https://a16z.com/author/derrick-harris/),[Matt Bornstein](https://a16z.com/author/matt-bornstein/)和[Guido Appenzeller](https://a16z.com/author/guido-appenzeller/)原文地址:https://a16z.com/2023/05/25/ai-canon/译者:通往AGI之路后半部分:[目录:a16z推荐进阶经典](https://ywh1bkansf.feishu.cn/wiki/EXX1w3QyFiBz8fknLFYce7gvnug)人工智能的研究正在以指数级别的速度增长。对于AI专家来说,跟上所有新发布的内容已经非常困难,对于初学者来说更是难上加难。因此,在这篇文章中,我们分享了一份我们信赖的、用于更深入了解现代AI的精选资源列表。我们称之为“AI典藏”,因为这些论文、博客文章、课程和指南在过去几年中对该领域产生了巨大影响。我们首先对Transformer和Latent Diffusion(潜在扩散)模型进行了简单的介绍,这些模型正在推动当前的AI浪潮。接下来,我们深入研究了技术学习资源;构建大型语言模型(LLMs)的实用指南;以及AI市场的分析。最后,我们列出了一份里程碑式研究成果的参考列表,从2017年谷歌发布的“Attention is All You Need”开始——这篇论文向世界介绍了Transformer模型,并开启了生成AI的时代。
[Transformers,explained](https://daleonai.com/transformers-explained):这篇文章由Dale Markowitz撰写,是对“什么是LLM,它是如何工作的?”这个问题的一个更短、更直接的回答。这是一种很好的方式,可以轻松地进入这个主题,并对这项技术建立直观理解。这篇文章是关于GPT-3的,但仍适用于新的模型。翻译:[解析Transformer模型:理解GPT-3、BERT和T5背后的模型](https://ywh1bkansf.feishu.cn/wiki/WCOcwp3DYiNj2mkiGVycjJ0Znaf)[How Stable Diffusion works](https://mccormickml.com/2022/12/21/how-stable-diffusion-works/):这是一篇与上一篇文章在计算机视觉领域的对应文章。Chris McCormick为非专业人士解释了Stable Diffusion是如何工作的,并从文本到图像模型的角度,帮助你对这种技术建立直观理解。如果你希望更轻松地理解这个概念,可以查看来自r/StableDiffusion的这个[漫画](https://www.reddit.com/r/StableDiffusion/comments/zs5dk5/i_made_an_infographic_to_explain_how_stable/)。翻译:[稳定扩散(Stable Diffusion)是如何运作的](https://ywh1bkansf.feishu.cn/wiki/TNIRw7qsViYNVgkPaazcuaVfndc)
|多行文本|作者|备注|链接|附件||-|-|-|-|-||软件2.0|Andrej Karpathy|Andrej Karpathy是最早清楚解释(在2017年!)为什么新的AI浪潮真正重要的人之一。他的论点是,AI是一种新的、强大的编程计算机的方式。随着大语言模型(LLMs)的快速改进,这个论点被证明是有先见之明的,并为AI市场的可能进展提供了一个良好的思维模型。|[软件2.0(Software 2.0)](https://ywh1bkansf.feishu.cn/wiki/FFJawIKRpi77JokULCvcjIPBnBv)|||GPT的现状|Andrej Karpathy|这也是Karpathy的文章,这是一个非常容易理解的解释,说明了ChatGPT/GPT模型一般如何工作,如何使用它们,以及研发可能采取的方向。|[GPT的现状(State of GPT)](https://ywh1bkansf.feishu.cn/wiki/IXjfwF9l9iX0IzkUg1Ec0Vcinx3)|||ChatGPT是在做什么,为什么它有效?|Stephen Wolfram|计算机科学家和企业家Stephen Wolfram给出了一篇长而易读的解释,从一开始的原理解释了现代AI模型是如何工作的。他跟随从早期神经网络到今天的LLMs和ChatGPT的时间线|[ChatGPT是在做什么,为什么它有效?](https://ywh1bkansf.feishu.cn/wiki/LnMOwmKIwihcRakRalcczNgrnjf)|||解析Transformer模型:理解GPT-3、BERT和T5背后的模型|Dale Markowitz|这篇文章由Dale Markowitz撰写,是对“什么是LLM,它是如何工作的?”这个问题的一个更短、更直接的回答。这是一种很好的方式,可以轻松地进入这个主题,并对这项技术建立直观理解。这篇文章是关于GPT-3的,但仍适用于新的模型。|[解析Transformer模型:理解GPT-3、BERT和T5背后的模型](https://ywh1bkansf.feishu.cn/wiki/WCOcwp3DYiNj2mkiGVycjJ0Znaf)||群友解读: