以下是为您推荐的学习 AIGC 的入门理论书籍和相关资料:
腾讯非常系统的Stable Diffusion介绍文章,量大管饱。使用入门指南包括硬件需求、安装Python和Git、装配模型,以及如何使用该模型进行图像生成。同时可以通过安装插件等个性化配置,对生成过程进行优化。[heading2][AIGC之我见-马丁的面包屑](https://whjlnspmd6.feishu.cn/wik[content]产品经理、独立开发者马丁整理的自己关于AIGC的一些碎片化思考,很多观点想的很清楚,非常值得一看。[heading2][多邻国创始人Luis von Ahn专访](https://www.newyorker.com/m[content]介绍了Luis von Ahn创建多邻国的过程和对AI的一些思考,特别是AI对教育的影响,他认为AI能以极低的成本产出匹配人类教师教学水平的内容,可以极大的促进教育平权。[heading2][自监督学习CookBook-Mate](https://ai.facebook.com/blog/[content]Meta AI发布了一本“自监督学习烹饪书”,为AI研究人员和从业者提供了使用SSL方法的实用指南。SSL是最近AI突破的关键因素之一,能够在多个领域推动深度学习的边界,从而使模型在自然语言(例如翻译和大语言模型)、音频(例如data2vec)以及计算机视觉模型等模态上实现灵活。本指南提供了一个SSL基础和其食谱,以易于研究人员使用的方式描述了方法的方法家族以及连接其目标的理论线程。研究人员可以使用此烹饪书来学习SSL的基本技术和词汇。[heading2][大语言模型发展历程](https://briefgpt.xyz/lm)[content][Rick Yu](https://twitter.com/cosmtrek)的论文工具增加了一个页面回顾了大语言模型的发展历程,介绍了历代先驱者的研究成果,从N-gram、神经语言模型到现在的GPT系列等。
对Stable Diffusion工作原理的介绍。来源:[https://jalammar.github.io/illustrated-stable-diffusion/](https://jalammar.github.io/illustrated-stable-diffusion/)Emad写的关于SD V2模型的一些笔记。来源:[https://twitter.com/EMostaque/status/1595731398450634755](https://twitter.com/EMostaque/status/1595731398450634755)Hugging Face Inference Endpoints指南,介绍如何部署Stable Diffusion以针对给定的输入提示生成图像。来源:[https://www.philschmid.de/stable-diffusion-inference-endpoints](https://www.philschmid.de/stable-diffusion-inference-endpoints)GPT-4预测TLDR:Paras认为GPT-4将能够结合语言模型和代码,这可能意味着它将能够通过生成代码并执行代码来获得所需的答案。时间会证明一切!来源:[https://twitter.com/paraschopra/status/1596762675710918656](https://twitter.com/paraschopra/status/1596762675710918656)AI时代工作的未来。这是一本很棒的读物,讲述了未来的新工作流程:人类提出创造性提示,使用AI完成大量工作,然后人类调整和完善输出。[https://noahpinion.substack.com/p/generative-ai-autocomplete-for-everything](https://noahpinion.substack.com/p/generative-ai-autocomplete-for-everything)
一、视频一主要回答了什么是AI大模型,原理是什么。1、概念:生成式AI生成的内容,叫做AIGC2、概念与关系:相关技术名词1)AI——人工智能2)机器学习——电脑找规律学习,包括监督学习、无监督学习、强化学习。3)监督学习——有标签的训练数据,算法的目标是学习输入和输出之间的映射关系。包括分类和回归。4)无监督学习——学习的数据没有标签,算法自主发现规律。经典任务包括聚类,比如拿一堆新闻文章,让模型根据主题或内容特征分成具有相似特征的组。5)强化学习——从反馈里学习,最大化奖励或最小化损失;类似训小狗。6)深度学习——一种方法,参照人脑有神经网络和神经元(因为有很多层所以叫深度)。神经网络可以用于监督学习、无监督学习、强化学习。7)生成式AI——可以生成文本、图片、音频、视频等内容形式8)LLM——大语言模型。对于生成式AI,其中生成图像的扩散模型就不是大语言模型;对于大语言模型,生成只是其中一个处理任务,比如谷歌的BERT模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类;3、技术里程碑——2017年6月,谷歌团队发表论文《Attention is All You Need》。这篇论文首次提出了Transformer模型,它完全基于自注意力机制(Self-Attention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN)。GPT含义:Transformer是关键。Transformer比RNN更适合处理文本的长距离依赖性。