Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

transformer是通往AGI的必经之路吗?什么是世界模型,当前有哪些进展

Answer

Transformer 并非通往 AGI 的必经之路。在已知的 token space 中,Transformer 符合一些条件,但在更通用的场景中不太符合。AI 本质包含一堆 scaling law,一个值得被 scale up 的架构是基础,且架构要支持不断加入更多数据。当前在数据方面,如限定问题的数据生成有进展,但通用问题还没有完全的解法。

世界模型方面,目前的研究正在以指数级别的速度增长。对于语言这种有结构、有规则的指令系统,其逻辑受指向描述变化,如早期语言模型建模中用到的 RNN、LSTM 及当前 LLM 的 Transformer 模型结构,都是对语言序列性所体现逻辑结构的适配。同时也在思考是否存在其他形式的符号化表征及相应的建模结构,以及对于非碳基生物语言的使用情况等。未来通往 AGI 的道路并非简单,需要探寻 RL 与 LLM 的本质普遍性。

Content generated by AI large model, please carefully verify (powered by aily)

References

融合RL与LLM思想,探寻世界模型以迈向AGI「中·下篇」

“AI本质就是一堆scaling law..今天能看到最好的模型是10的25到26次方FLOPs这种规模。这个数量级接下来肯定还会持续增长,所以我认为算力是个必要条件,因为机器学习或者AI研究了七八十年,唯一work的东西其实是scaling Law,就是放大这几种生产要素。你需要一个同时满足scalability和generality这两点的架构,但今天其实很多架构已经不满足这两条了。transformer在已知的token space符合这两条,但放大到一个更通用的场景,也不太符合。数据也是一个生产要素,包括整个世界的数字化,和来自用户的数据。现在“吃”的是base model的scaling law,未来可能会去“吃”用户这个数据源的scaling law。因为其实alignment也有scaling law,它肯定是可以被解决的,只要你能找到对的数据。AI本质就是一堆scaling law。一个值得被scale up的架构是基础,这个架构首先得支持不断加入更多数据,然后数据才会真的成为瓶颈。我们现在说的数据瓶颈,从文本模态上,2024年就会遇到,但多模态数据的引入进来会把这个问题推迟1-2年。如果视频和多模态的卡点解决不了,那文本的数据瓶颈就会很关键。这点上其实我们也有些进展——如果限定了问题,比如数学或者写代码,数据是相对好生成的。通用的问题现在还没有完全的解法,但是存在一些方向可以去探索。统计模型没有什么问题。当next token prediction足够好的时候,它能够平衡创造性和事实性。

入门经典必读

作者:[Derrick Harris](https://a16z.com/author/derrick-harris/),[Matt Bornstein](https://a16z.com/author/matt-bornstein/)和[Guido Appenzeller](https://a16z.com/author/guido-appenzeller/)原文地址:https://a16z.com/2023/05/25/ai-canon/译者:通往AGI之路后半部分:[目录:a16z推荐进阶经典](https://ywh1bkansf.feishu.cn/wiki/EXX1w3QyFiBz8fknLFYce7gvnug)人工智能的研究正在以指数级别的速度增长。对于AI专家来说,跟上所有新发布的内容已经非常困难,对于初学者来说更是难上加难。因此,在这篇文章中,我们分享了一份我们信赖的、用于更深入了解现代AI的精选资源列表。我们称之为“AI典藏”,因为这些论文、博客文章、课程和指南在过去几年中对该领域产生了巨大影响。我们首先对Transformer和Latent Diffusion(潜在扩散)模型进行了简单的介绍,这些模型正在推动当前的AI浪潮。接下来,我们深入研究了技术学习资源;构建大型语言模型(LLMs)的实用指南;以及AI市场的分析。最后,我们列出了一份里程碑式研究成果的参考列表,从2017年谷歌发布的“Attention is All You Need”开始——这篇论文向世界介绍了Transformer模型,并开启了生成AI的时代。

融合RL与LLM思想,探寻世界模型以迈向AGI「中·下篇」

「逻辑性」:语言是一种有结构、有规则的指令系统。语言的逻辑受语言的指向描述而变化。如:我是一个中国人/我像一个中国人,1+1=2/1*1=1,this is an apple/this is a car等。在上述语言的「指向性」中,能力体会语言这种单一的词、字符号化可以指向真实世界的某一个概念,然而在这个世界中,事物亦是可以组织或者事物间是有着逻辑上的关联和结构的,因此除了抽象概念的一对一映射指向,语言作为一种序列组织结构,在序列的这种形式化表征上,可以体现出复杂的逻辑性或数学结构,实现对真是物理世界的进一步抽象表征。比如在早期语言模型建模中经常用到过的RNN、LSTM,当前LLM的Transformer模型结构,正式对这种语言序列性所体现出的逻辑机构进行的适配。当然图结构作为一种非欧符号化表征,GCN模型也是对知识图谱符号的一种建模结构适配。这里有兴趣的读者可以再延申一下思考:世界上是否存在除了自然语言、变成语言、数学语言等其它形式的符号化表征的存在,如果存在,那么用于机器学习建模的模型结构应该是什么样子的呢?同时,对于非碳基生物来讲,语言是否像能够对人类使用一样,进行得那么顺畅和友好?「这里同样再栓个扣子,不知大家是否还记得在上篇论述AMIE的过程中,提到了语言或其它符号的分布或构象所衍生出的探索语义空间的更深一层的表征潜力,关联LLM的pre-traning到super alignment,再到杨植麟所提到的LLM在进行pre-traning到alignment过程中的scaling law本质,我们似乎能够体会到未来通往AGI的道路并非如此简单,这也是本篇文章想要表达的核心观点之一,也是希望能够探寻RL与LLM的本质普遍性,试图

Others are asking
如何利用WaytoAGI系统学习AI智能体
利用 WaytoAGI 系统学习 AI 智能体可以参考以下内容: 1. 先精美地解释六大策略,参加小七姐在社区带来的共学课程及直播分享和回放,像喂饭教程般帮助理解 prompt。每个板块下有共学快闪,社区老师会带着大家动手操作并讲解思路,还提到官方最佳 prompt 有 6 个实践办法,看熟任意一个即可。 2. 了解到智能体由大语言模型衍生而来,提示词很关键。学习智能体进阶案例拆解,推荐景淮老师的相关成果。同时知晓扣子、千帆百炼属于智能体范畴,扣子更偏 ToC 应用,所以有专门讲解扣子相关内容。 3. 学习 AI agent 可能较痛苦,建议先吃透 prompt 再看相关内容。官方文档内容很全面,包含市面上 cos 的教程等。社区小伙伴参加 cos 比赛常拿大奖,有共学活动,获奖小伙伴会分享经验。cos 平台可用于工作生产,有很多功能,感兴趣可体验其官网,能进行对话感受功能。 4. 理解工具方面,AI Agent 有效使用工具的前提是全面了解工具的应用场景和调用方法。利用 LLM 强大的 zeroshot learning 和 fewshot learning 能力,AI Agent 可以通过描述工具功能和参数的 zeroshot demonstartion 或提供特定工具使用场景和相应方法演示的少量提示来获取工具知识。 5. 使用工具方面,AI Agent 学习使用工具的方法主要包括从 demonstartion 中学习和从 reward 中学习(清华有一篇从训练数据中学习的文章)。这包括模仿人类专家的行为,以及了解其行为的后果,并根据从环境和人类获得的反馈做出调整。 6. 了解具身智能,在追求人工通用智能(AGI)的征途中,具身 Agent 正成为核心的研究范式,它强调将智能系统与物理世界的紧密结合。与传统的深度学习模型相比,LLMbased Agent 不再局限于处理纯文本信息或调用特定工具执行任务,而是能够主动地感知和理解其所在的物理环境,进而与其互动。
2025-03-18
agi是什么
AGI 即通用人工智能(Artificial General Intelligence),指的是能够像人类一样思考、学习和执行多种任务的人工智能系统。 OpenAI 在其内部会议上分享了 AGI 的五个发展等级: 1. 聊天机器人(Chatbots):具备基本对话能力,主要依赖预设脚本和关键词匹配,用于客户服务和简单查询响应。 2. 推理者(Reasoners):具备人类推理水平,能够解决复杂问题,如 ChatGPT,能根据上下文和文件提供详细分析和意见。 3. 智能体(Agents):不仅具备推理能力,还能执行全自动化业务,但目前许多 AI Agent 产品在执行任务后仍需人类参与,尚未达到完全智能体的水平。 4. 创新者(Innovators):能够协助人类完成新发明,如谷歌 DeepMind 的 AlphaFold 模型,可预测蛋白质结构,加速科学研究和新药发现。 5. 组织(Organizations):最高级别的 AI,能够自动执行组织的全部业务流程,如规划、执行、反馈、迭代、资源分配和管理等。 此外,OpenAI 通用人工智能(AGI)的计划曾因埃隆·马斯克的诉讼而受到影响。GPT3 及其半步后继者 GPT3.5 在某种程度上是朝着 AGI 迈出的巨大一步,而早期的模型则不是这样。ChatGPT 是由致力于 AGI 的公司 OpenAI 研发的一款 AI 技术驱动的 NLP 聊天工具。
2025-03-17
AGI 是什么英语单词缩写
AGI 是通用人工智能(Artificial General Intelligence)的缩写。通常来说,它指一种能够在许多领域内以人类水平应对日益复杂的问题的系统,能够像人类一样思考、学习和执行多种任务。 OpenAI 在其内部会议上分享了 AGI 的五个发展等级,分别为: 1. 聊天机器人(Chatbots):具备基本对话能力,主要依赖预设脚本和关键词匹配,用于客户服务和简单查询响应。 2. 推理者(Reasoners):具备人类推理水平,能够解决复杂问题,如 ChatGPT,能根据上下文和文件提供详细分析和意见。 3. 智能体(Agents):不仅具备推理能力,还能执行全自动化业务,但目前许多产品在执行任务后仍需人类参与。 4. 创新者(Innovators):能够协助人类完成新发明,如谷歌 DeepMind 的 AlphaFold 模型,可预测蛋白质结构,加速科学研究和新药发现。 5. 组织(Organizations):最高级别的 AI,能够自动执行组织的全部业务流程,如规划、执行、反馈、迭代、资源分配和管理等。
2025-03-17
什么是AGI
AGI 即人工通用智能,通常指能够完成任何聪明人类所能完成的智力任务的人工智能,其能力不局限于特定领域。例如,能够在许多领域内以人类水平应对日益复杂的问题。GPT3 及其半步后继者 GPT3.5 在某种程度上是朝着 AGI 迈出的巨大一步。当 AGI 真正实现并可能迅速发展为超人工智能(ASI)时,人类社会将在随后的二十年里经历深刻变革,如社会结构、价值观、权力格局、人类角色等方面。OpenAI 曾有关于 AGI 的相关计划,如原计划在 2026 年发布的 GPT7 因埃隆·马斯克的诉讼而暂停,计划在 2027 年发布的 Q2025(GPT8)将实现完全的 AGI。Sam Altman 认为确保 AGI 造福全人类是使命,且 AGI 是人类进步脚手架上的另一个工具。
2025-03-17
AI和AGI的区别
AI(人工智能)分为 ANI(弱人工智能)和 AGI(通用人工智能)。 ANI(artificial narrow intelligence)是弱人工智能,它只能完成特定的单一任务,例如智能音箱、网站搜索、自动驾驶、工厂与农场的应用等。 AGI(artificial general intelligence)则是通用人工智能,能够像人类一样思考、学习和执行多种任务。 例如,ChatGPT 掀起的革命中,AGI 被视为“大脑”,与以往作为“工具”的 AI 有本质区别。OpenAI 一直致力于将世界上所有的知识压缩到模型里,使其成为“世界模型”,GPT 从一开始就以此为目标。但目前大众和政府还未准备好迎接 AGI 的降临。
2025-03-17
未来AGI新职业有哪些
未来 AGI 可能催生以下新职业: 1. 与 AGI 技术安全和伦理相关的工作,如负责确保 AGI 可控性和与人类价值对齐的专业人员。 2. 参与公共政策制定和全球合作的“政策顾问”和“外交官”,协助制定 AGI 相关的规则和标准。 3. 由于 AGI 对劳动力市场的冲击,可能会出现帮助劳动者快速适应职业转换、学习新技能的职业培训师和指导顾问。 同时,AGI 的广泛应用将对劳动力市场产生巨大冲击,许多传统职业可能被取代,但历史经验表明,每次技术革命虽淘汰旧岗位,但也会创造全新岗位。例如汽车取代马车夫催生了汽车产业的新工作,AGI 时代也有望出现我们今日难以想象的新职业,整体上有望维持就业的动态平衡。不过在调整过渡期,许多劳动者将面临前所未有的职业转换压力,需要快速适应并学习新技能,转向机器不能完全胜任的任务。
2025-03-17
Transformer模型
Transformer 模型是一种基于注意力机制的深度学习模型,由 Vaswani 等人在论文《Attention is All You Need》中提出,用于处理序列到序列的任务,如机器翻译、文本摘要等。其原理主要包括以下几个关键点: 1. 自注意力机制:能够同时考虑输入序列中所有位置的信息,而非像循环神经网络或卷积神经网络一样逐个位置处理。通过自注意力机制,模型可根据输入序列中不同位置的重要程度,动态分配注意力权重,从而更好地捕捉序列中的关系和依赖。 2. 位置编码:由于自注意力机制不考虑输入序列的位置信息,为使模型能够区分不同位置的词语,Transformer 模型引入了位置编码。位置编码是一种特殊的向量,与输入词向量相加,用于表示词语在序列中的位置信息。位置编码通常基于正弦和余弦函数计算得到的固定向量,可帮助模型学习到位置信息的表示。 3. 多头注意力机制:通过引入多头注意力机制,可以并行地学习多个注意力表示,从不同的子空间中学习不同的特征表示。每个注意力头都是通过将输入序列线性变换成查询、键和值向量,并计算注意力分数,然后将多个头的输出拼接在一起得到最终的注意力表示。 4. 残差连接和层归一化:在每个子层(SelfAttention 层和前馈神经网络层)的输入和输出之间都引入了残差连接,并对输出进行层归一化。残差连接可缓解梯度消失和梯度爆炸问题,使得模型更容易训练和优化;层归一化可加速训练过程,并提高模型的泛化能力。 5. 位置感知前馈网络:在每个注意力子层之后,Transformer 模型还包含了位置感知前馈网络,它是一个两层的全连接前馈神经网络,用于对注意力表示进行非线性转换和映射。位置感知前馈网络在每个位置独立地进行计算,提高了模型的并行性和计算效率。 Transformer 模型主要由两大部分组成:编码器和解码器。每个部分都是由多个相同的层堆叠而成,每层包含了多头注意力机制和位置全连接前馈网络。 编码器可以理解为将自然语言转换成向量文本,以模型内的既有参数表示。这些参数包含了原始信息,同时也融合了序列内元素间的相互关系。例如,输入“我喜欢猫”,将自然语言转换成词嵌入向量:我>,经过自注意力机制,输出编码器输出一个序列的向量,表示对输入句子的理解。 解码器基于编码器的输出和之前生成的输出逐步生成目标序列,也就是把向量文本重新转化成自然语言。例如,目标生成中文句子“我喜欢猫”,初始输入为解码器接收一个开始符号,用,对应“猫”。这是一个简单的复现概念,当模型得到匹配度高的参数时,它就会一个词一个词地判断需要输出的语言文本。
2025-03-14
Transformer 架构
Transformer 架构主要由编码器(Encoder)和解码器(Decoder)两大部分组成。 编码器可以将自然语言转换成向量文本,其内部参数包含了原始信息以及序列内元素间的相互关系。例如,输入“我喜欢猫”,会将自然语言转换成词嵌入向量,如“我”对应,然后通过自注意力机制输出一个表示对输入句子理解的向量序列。 解码器基于编码器的输出和之前生成的输出逐步生成目标序列,将向量文本重新转化成自然语言。例如生成中文句子“我喜欢猫”,解码器接收开始符号,然后逐步根据编码器输出和已生成的词决定生成后续的词。 Transformer 是一种使用注意力机制的编码器解码器模型,其模型架构使得它可以利用多元化的优势,同时处理大量数据,有助于提高机器翻译等应用程序的性能。 此外,Transformer 架构能够并行处理大量数据吞吐,且满足 scaling law,在各个模态和技术栈具有优势,被 OpenAI 广泛使用。使用同样的架构可以复用模型的参数来引导不同技术栈的训练,以及使用一套 infra 框架训练不同的模型。
2025-03-14
transformer
Transformer 是一种深度学习模型,其核心思想是“Attention is all you need”,来源于 2017 年 Google Brain 团队发布的同名论文,主要用于处理序列数据,包括热门的 NLP 任务,完全基于注意力机制,不使用传统的 RNN 或 CNN 计算架构。 其工作流程如下: 1. 输入嵌入:将每个单词映射为一个向量,即单词嵌入。例如“ I ”映射为一个 512 维的向量。 2. 位置编码:由于 Transformer 没有捕获序列顺序的结构,需给每个词位置加上位置编码,使模型知道词语的相对位置。 3. 编码器:输入序列的嵌入向量和位置编码相加后被送入编码器层。编码器由多个相同的层组成,每层有两个核心部分,多头注意力机制捕捉单词间的依赖关系,前馈神经网络对 attention 的结果进行进一步编码。 4. 解码器:编码器的输出被送入解码器层。解码器也是由多个相同层组成,每层除了编码器组件外,还有一个额外的注意力模块,对编码器的输出序列建模依赖关系。 5. 输出嵌入:解码器最后一层的输出被映射为输出单词概率分布。例如生成单词“我”“是”等概率。 6. 生成:基于概率分布,以贪婪或 beam search 等解码策略生成完整的输出序列。 Transformer 模型用途广泛,可以用来翻译文本、写诗、写文章,甚至生成计算机代码。像 AlphaFold 2、GPT3、BERT、T5、Switch、Meena 等强大的自然语言处理(NLP)模型都建立在 Transformer 基础之上。如果想在机器学习,特别是自然语言处理方面与时俱进,至少要对 Transformer 有一定了解。
2025-03-13
Transformer是什么?
Transformer 是一种注意力模型,也被称为变形金刚模型。它源于 Google 团队在 2017 年发布的论文《Attention is All Your Needs》。 Transformer 是一种深度学习模型,核心思想是“Attention is all you need”。其主要用于处理序列数据,包括当下热门的自然语言处理(NLP)任务。与传统模型不同,Transformer 完全基于注意力机制,不依赖传统的循环神经网络(RNN)或卷积神经网络(CNN)的计算架构。 基于 Transformer 的模型众多,例如最流行的 BERT,它是“来自 Transformer 的双向编码器表示”的缩写。BERT 经过在庞大文本语料库上的训练,已成为自然语言处理的通用模型,可用于文本摘要、问答、分类、命名实体识别、文本相似度、攻击性信息/脏话检测、理解用户查询等一系列任务。 此外,Transformer 不仅在自然语言处理领域表现出色,还在自然语言处理之外的领域掀起浪潮,如作曲、根据文本描述生成图像以及预测蛋白质结构。像 ChatGPT 这样的模型在闲聊中也能展现出更多的世界知识和某种程度的推理能力,能够更好地理解人类语言的含义和上下文,并生成更自然流畅的语言表达。
2025-03-06
大语言模型、多模态、数据、算力、算法、预训练、微调、RAG、自注意力机制、transformer、token、神经网络、向量、scaling law这些内容的含义
以下是对您所提到的这些内容含义的解释: 大语言模型:是一种基于大量文本数据进行训练的语言处理模型,其工作原理包括训练数据、算力、模型参数等。在训练数据一致的情况下,模型参数越大能力越强。 多模态:指能够处理多种不同类型的数据模态,如文本、图像、音频等,并将它们融合进行理解和生成。 数据:是大语言模型训练和应用的基础,包括各种文本、图像、音频等信息。 算力:指用于支持大语言模型训练和运行的计算能力。 算法:是大语言模型实现各种功能的数学和逻辑方法。 预训练:在大语言模型中,先在大规模数据上进行无特定任务的初步训练。 微调:基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。 RAG:检索增强生成,通过引用外部数据源为模型做数据补充,适用于动态知识更新需求高的任务。其工作流程包括检索、数据库索引、数据索引、分块、嵌入和创建索引、增强、生成等步骤。 自注意力机制:是 Transformer 架构中的重要部分,能理解上下文和文本关联,通过不断检索和匹配来寻找依赖关系,处理词和词之间的位置组合,预测下一个词的概率。 Transformer:是大语言模型训练架构,用于翻译等任务,具备自注意力机制。 Token:在自然语言处理中,是文本的基本单位。 神经网络:是大语言模型的基础架构,模拟人脑神经元的连接和信息处理方式。 向量:在大语言模型中,用于表示文本等数据的数学形式。 Scaling Law:关于大语言模型规模和性能之间关系的规律。
2025-02-18
大语言模型、多模态、数据、算力、算法、预训练、微调、RAG、自注意力机制、transformer、token、神经网络、向量、scaling law这些内容的含义
以下是对您所提到的这些内容含义的解释: 大语言模型:是一种基于大量文本数据进行训练的语言处理模型,其工作原理包括训练数据、算力、模型参数等。在训练数据一致的情况下,模型参数越大能力越强。 多模态:指能够处理多种不同类型的数据模态,如文本、图像、音频等,并将它们融合进行理解和生成。 数据:是大语言模型训练和应用的基础,包括各种文本、图像、音频等信息。 算力:指用于支持大语言模型训练和运行的计算能力。 算法:是大语言模型实现各种功能的数学和逻辑方法。 预训练:在大语言模型中,先在大规模数据上进行无特定任务的初步训练。 微调:基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。 RAG:检索增强生成,通过引用外部数据源为模型做数据补充,适用于动态知识更新需求高的任务。其工作流程包括检索、数据库索引、数据索引、分块、嵌入和创建索引、增强、生成等步骤。 自注意力机制:是 Transformer 架构中的重要部分,能理解上下文和文本关联,通过不断检索和匹配来寻找依赖关系,处理词和词之间的位置组合,预测下一个词的概率。 Transformer:是大语言模型训练架构,用于翻译等任务,具备自注意力机制。 Token:在自然语言处理中,是文本的基本单位。 神经网络:是大语言模型的基础架构,模拟人脑神经元的连接和信息处理方式。 向量:在大语言模型中,用于表示文本等数据的数学形式。 Scaling Law:关于大语言模型规模和性能之间关系的规律。
2025-02-18
给我一份通往AIGC的学习目录
以下是一份通往 AIGC 的学习目录: 1. AIGC 概述 1.1 GenAI、AIGC 的基本概念 GenAI 的定义、工作原理及应用 典型的 GenAI 产品 AIGC 的定义及创建方式 国内 AIGC 的监管框架 1.2 AIGC 的分类及应用 语言文本生成的模型和代表项目 图像生成的技术和代表项目 音视频生成的方法和代表项目 AIGC 在音乐生成、游戏开发和医疗保健等领域的应用 1.3 AIGC 应用可能引发的风险 内生风险,如算法的不可解释性和不可问责性,代码开源的安全和伦理担忧 数据隐私问题,如数据泄露、匿名化不足、未经授权的数据共享 知识产权风险,如作品侵权、不当竞争 相关法律和规定对 AIGC 的要求 AIGC 滥用可能导致的问题,如虚假信息传播、侵犯隐私 2. AI 赋能教学 从易到难的学习路径 了解 AI 工作原理 尝试各种 AI 工具 学会优化提示词 生成课程资源 解决教学场景 课上师生机共学 促学生正确使用 提升人机共创力 相关主题 AIGC 教育革命:技术原理与课堂实践 AI 从工具到助手赋能教师提升效率与能力 大语言模型的教学潜力:交流技巧与心得 AI 与教育场景融合拓展教学边界与创新场景 AI 与人类智能的共生放大学生思考力塑造深度学习能力 一线教师的 AI 需求与高效工具推荐 AI 赋能课堂的核心逻辑:从理论到应用 解码 AI 教学案例:创新与实践 教学主要负担分析,如备课压力、适应新课标
2025-03-17
通往GAI之路中AI提示词板块李继刚的提示词如何使用
李继刚的提示词使用方法如下: 从最佳实践中的收录内容开始学习,其结构化提示词能让模型给出更优质、完整的答案。 操作时可点开并复制相关提示词,将复制内容丢进大语言模型对话,会有不同效果。 近期提示词有升级,李继刚老师将提示词玩到新高度,cloud 等大语言模型可直接显示编译结果内容。 输入特定提示词可生成卡片,小创业项目可利用并改变提示词形成独到见解或小应用。 李继刚老师会在 13 号讲创作思路。 从工程视角看,一个提示词就能用于写游戏,如现在的 AI 编程(如 CURSOR)能做出开源小游戏,可拿来使用、交流并研究内容、优化改造。
2025-03-09
通往AG之路
“通往 AGI 之路”是一个由开发者、学者和有志人士等参与的学习社区和开源的 AI 知识库。 它不仅是一个知识库,还是连接学习者、实践者和创新者的社区。这里为学习者提供系统全面的 AI 学习路径,涵盖从基础概念到实际应用的各个方面,帮助用户有效地获取 AI 知识,提高自身能力。 平台提供丰富的学习资源,包括文章、教程、工具推荐以及最新的 AI 行业资讯等。此外,社区还定期组织活动,如视频挑战赛、模型创作大赛等,鼓励成员在实践中学习,促进交流与合作。 其品牌 VI(视觉识别)融合了独特的设计元素,以彩虹色彰显多元性和创新,以鹿的形象象征智慧与优雅,通过非衬线字体展现现代感和清晰性,共同构建了一个充满活力和前瞻性的品牌形象。 如果您对 AI 学习感兴趣,加入“通往 AGI 之路”社区将是一个不错的选择。在这里,您可以获取最新的 AI 知识,参与实践活动,与志同道合的学习者共同成长。如果您不知道从哪里开始,可以进一步探索社区的相关指引。
2025-03-06
如何学习利用通往AGI之路
以下是关于学习利用通往 AGI 之路的相关内容: 关于 AE 软件: 基本功能:可通过图层软件抠元素加插件做特效,如利用 auto field 自动填充工具,轨道遮罩功能让图层按特定形状变化等。 与 AI 结合运用:如用 runway 生成烟花爆炸素材,结合 AE 的图层混合模式、遮罩等功能实现特效可控的画面。 其他应用:用内容识别填充功能处理视频画面,如抹掉入镜的人;从素材网站获取粒子素材为画面添加氛围感。 学习路径:可在 B 站找丰富的 AE 软件入门课程自学,也可从包图网下载工程文件学习。 学习方法:通过拆解视频、留意路边广告特效、按层级逻辑思考画面运动来学习 AE,还可参考模板。 与 AI 的关系:AI 出现后,AE 使用减少,有些动效可用 AI 完成。 在短剧中的应用:在火焰、文字、光线等方面有少量应用。 关于 AI 知识库: 使用情况、AIPO 活动的发起背景、内容安排及相关资源等。 线下活动的规则和玩法,以及 AI 在科技发展中的重要地位和相关研究方向。 way to AGI 社区活动的安排、材料准备以及知识库的使用和相关内容更新等情况。 相关名词解释:包括 AGI、AIGC、agent、prompt 等,建议通过与 AI 对话或李继刚老师的课程来理解。 信息来源:有赛博蝉星公众号、国外优质博主的 blog 或 Twitter 等,推荐大家订阅获取最新信息并投稿。 社区共创项目:如 AIPU、CONFIUI 生态大会,每月有切磋大会等活动,还发起了新活动 AIPO。 学习路径:有李弘毅老师的生成式 AI 导论等高质量学习内容,可系统化学习或通过社区共创活动反推学习,鼓励整理学习笔记并分享交流。 经典必读文章:如介绍 GPT 运作原理、Transformer 模型、扩散模型等的文章,还包括软件 2.0 时代相关内容。 初学者入门推荐:推荐看 open AI 的官方 Cookbook,小琪姐做了中文精读翻译,也可查看 cloud 的相关内容。 历史脉络类资料:整理了 open AI 的发展时间线和万字长文回顾等。 学习路径推荐: 应用:深入了解 Prompt,选择适合自己的 AI 对话、绘画和语音产品,每天都用它,并使用它们来解决实际问题或提升效率。 分析:大量阅读各类文章、视频以及行业报告,理解各知识之间的关系。
2025-03-05
我要跟AI工作流有关的文章,只要飞书里边的,最好是飞行社和通往AGI之路里面的
以下是为您整合的与 AI 工作流相关的飞书内容: 根据 AI 使用的多少,人和 AI 协同的方式分为三种: 1. 嵌入式模式:工作仍由人主导,仅在部分步骤借助 AI 进行搜索或提供建议。 2. 协作模式:AI 完成部分完整步骤,如写文章时由 AI 完成初稿,人再调整,此模式基于目前 AI 发展程度最为常用。 3. 智能体模式:人设定目标并监督,整个工作流程由 AI 完成。 ChatGPT 给出了 AI 聊天机器人可完成的任务供参考,结合有效提示词,ChatGPT 能做的远超此列表,且 AI 工具不止 ChatGPT 一种。 个人常用任务对应的国内外 AI 产品可供了解尝试,需注意 AI 产品众多且更新变化快。 推荐网站“通往 AGI 之路”,该网站有大量 AI 相关的技术、产品、教程和案例等信息,并持续更新。 AI 不仅是个人的“外挂”,对公司也会带来变革。未来公司会加速数字化,业务拓展更多依托算力增加而非人力扩充,可能出现更多高效的小团队公司,满足未被满足的需求。 此外,“通往 AGI 之路”还有以下相关内容: 1. 对“飞书”感兴趣或想交流企业/个人效率提升,可访问“飞书官方社区——飞行社”。 2. 如需下载研究报告,可加入知识星球,内有数百份涵盖 AI 各方面的报告,并保持长期活跃更新。 3. 作者 Allen 端午假期实践了三篇教程,并准备调整写作工作流。
2025-03-04
通往AGI之路
“通往 AGI 之路”是一个致力于人工智能学习的中文知识库和社区平台。 其愿景和目标是让每个人在学习人工智能的过程中少走弯路,让更多的人因 AI 而强大。 该平台由开发者、学者和 AI 爱好者共同参与建设,提供丰富的学习资源,包括文章、教程、工具推荐以及最新的 AI 行业资讯等。 品牌 VI 融合了独特的设计元素,以彩虹色彰显多元性和创新,以鹿的形象象征智慧与优雅,通过非衬线字体展现现代感和清晰性。 平台不仅是一个知识库,还是连接学习者、实践者和创新者的社区,定期组织活动,如视频挑战赛、模型创作大赛等,鼓励成员在实践中学习,促进交流与合作。 您可以通过多种渠道获取相关内容,如公众号、网站、B 站、小红书、X(Twitter)等。如果您对 AI 学习感兴趣,加入这个社区将是一个不错的选择。
2025-02-28