Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

大模型学习资料

Answer

以下是为您提供的大模型学习资料:

大模型的底层原理

大模型的特点与架构

  • 架构分类:包括 encoder-only(适用于自然语言理解任务,如分类和情感分析,代表模型是 BERT)、encoder-decoder(同时结合 Transformer 架构的 encoder 和 decoder 来理解和生成内容,代表是 google 的 T5)、decoder-only(更擅长自然语言生成任务,如故事写作和博客生成,众多 AI 助手采用此架构)。
  • 规模特点:预训练数据量大,往往来自互联网,包括论文、代码、公开网页等,一般用 TB 级别的数据进行预训练;参数多,如 Open 在 2020 年发布的 GPT-3 就已达到 170B 的参数。

大模型的通俗解释: 大模型是输入大量语料,让计算机获得类似人类的“思考”能力,能进行文本生成、推理问答、对话、文档摘要等工作。可以用“上学参加工作”来类比其训练、使用过程:

  1. 找学校:训练大模型需要大量计算,GPU 更合适,只有有资本购买大量 GPU 的才有能力训练。
  2. 确定教材:需要大量数据,几千亿序列(Token)的输入是基本标配。
  3. 找老师:选择合适算法让大模型更好理解 Token 之间的关系。
  4. 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。
  5. 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称为推导(infer)。在 LLM 中,Token 被视为模型处理和生成的文本单位,会被分割并数字化形成词汇表。
Content generated by AI large model, please carefully verify (powered by aily)

References

走入AI的世界

那么预训练阶段大模型就行学了些什么,又学了多少内容呢?以GPT-3为例,训练他一共用了4990亿token的数据集(约570GB文本),这其中绝大多数都是来源于高质量的网页、书籍数据库、维基百科等的内容,可能你对4990亿token这个数字没有直观的体感,那么我们不妨做个换算,它大概相当于86万本《西游记》,人生不过3万天,也就是说,即使你不吃不喝不睡,以每天读完一本《西游戏》的阅读速度去看这些资料,也大概要28.6辈子才能读完。转换器模型(Transformer):Transformer这个单词你可能很陌生,但它的另一个中文翻译“变形金刚”你一定不陌生,Transformer是一种处理文本内容的经典模型架构,图16中左半部分就是GPT-1所使用的Transformer架构图(右边则是经典的Diffusion模型架构图,用于图像生成)。图16 Transformer和Diffusion关于Transformer的具体细节,即使不清楚,也并不太会影响你用好大模型,因此我们不做更多展开讨论了,感兴趣的朋友可以移步这里:[【官方双语】GPT是什么?直观解释Transformer|深度学习第5章_哔哩哔哩_bilibili](https://www.bilibili.com/video/BV13z421U7cs/?vd_source=951ca0c0cac945e03634d853abc79977)[Transformer Explainer:LLM Transformer Model Visually Explained](https://poloclub.github.io/transformer-explainer/)

从 0 到 1 了解大模型安全,看这篇就够了

encoder-only:这些模型通常适用于可以自然语言理解任务,例如分类和情感分析.最知名的代表模型是BERTencoder-decoder:此类模型同时结合了Transformer架构的encoder和decoder来理解和生成内容。该架构的一些用例包括翻译和摘要。encoder-decoder的代表是google的T5decoder-only:此类模型更擅长自然语言生成任务。典型使用包括故事写作和博客生成。这也是我们现在所熟知的众多AI助手的结构我们目前耳熟能详的AI助手基本都来自左侧的灰色分支,当然也包括ChatGPT。这些架构都是根据谷歌2017年发布的论文“attention is all you need”中提出的transformer衍生而来的,在transformer中,包括Encoder,Decoder两个结构目前的大型语言模型就是右侧只使用Decoder的Decoder-only架构的模型大模型又大在哪呢?第一,大模型的预训练数据非常大,这些数据往往来自于互联网上,包括论文,代码,以及可进行爬取的公开网页等等,一般来说,现在最先进的大模型一般都是用TB级别的数据进行预训练。第二,参数非常多,Open在2020年发布的GPT-3就已经达到170B的参数在GPT3中,模型可以根据用户输入的任务描述,或给出详细的例子,完成任务但这与我们熟知的ChatGPT仍然有着很大的差距,使用ChatGPT只需要像和人类一样对话,就可以完成任务。除了形式上的不同之外,还有一个更加重要的差距,那就是安全性上的差别。

大模型入门指南

通俗来讲,大模型就是输入大量语料,来让计算机获得类似人类的“思考”能力,使之能够理解自然语言,能够进行『文本生成』、『推理问答』、『对话』、『文档摘要』等工作。既然是学习,那我们就可以用『上学参加工作』这件事来类比大模型的训练、使用过程:1.找学校::训练LLM需要大量的计算,因此GPU更合适,因此只有购买得起大量GPU的贵族学校才有资本训练自己的大模型2.确定教材::大模型顾名思义就是大,需要的数据量特别多,几千亿序列(Token)的输入基本是标配3.找老师::即用什么样的算法讲述“书本”中的内容,让大模型能够更好理解Token之间的关系4.就业指导::学完书本中的知识后,为了让大模型能够更好胜任某一行业,需要进行微调(fine tuning)指导5.搬砖::就业指导完成后,下面就要正式干活了,比如进行一次翻译、问答等,在大模型里称之为推导(infer)在LLM中,Token([2])被视为模型处理和生成的文本单位。它们可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。Token是原始文本数据与LLM可以使用的数字表示之间的桥梁。在将输入进行分词时,会对其进行数字化,形成一个词汇表(Vocabulary),比如:The cat sat on the mat,会被分割成“The”、“cat”、“sat”等的同时,会生成下面的词汇表:|Token|ID||-|-||The|345||cat|1256||sat|1726||…|…|

Others are asking
帮我列举2025年3月1日以来,国内外、闭源开源模型厂商的更新记录。
以下是 2025 年 3 月 1 日以来,国内外、闭源开源模型厂商的部分更新记录: 2025 年 3 月 20 日,OpenAI 推出了一套全新的音频模型,旨在通过 API 为开发者提供更智能、更可定制的语音代理支持,包括改进的语音转文本和文本转语音功能,为语音交互应用带来显著提升。 李开复公开表示 OpenAI 面临生存危机,商业模式不可持续。他强调中国的 DeepSeek 以极低成本提供接近的性能,开源模式将主导未来 AI 发展。他认为企业级 AI 应用将成为投资重点,资源限制反而促进了创新。李开复大胆预测,中国将出现三大 AI 玩家,竞争愈发激烈。 SuperCLUE 发布《中文大模型基准测评 2025 年 3 月报告》,指出 2022 2025 年经历多阶段发展,国内外模型差距缩小。测评显示 o3mini总分领先,国产模型表现亮眼,如 DeepSeekR1 等在部分能力上与国际领先模型相当,且小参数模型潜力大。性价比上,国产模型优势明显。DeepSeek 系列模型深度分析表明,其 R1 在多方面表现出色,蒸馏模型实用性高,不同第三方平台的联网搜索和稳定性有差异。 以上信息来源包括: 《》 《》 《》
2025-03-26
用扣子的时候怎么让大模型严格按照知识库内容进行输出
以下是关于让大模型严格按照知识库内容进行输出的相关信息: 扣子的知识库功能强大,可上传和存储知识内容,提供多种查找方法。在智能体中使用知识库,收集相关内容,当智能体回答用户时会先检索知识库,使回复更准确。 在“掘金 x 扣子 Hackathon 活动 深圳站”的总冠军工作流中,对于用户向小说人物角色的提问,通过一系列节点,包括开始节点接收问题、知识库节点检索、大模型节点生成答案等,本质上是一个根据用户 query 进行检索增强生成(RAG)的任务,每个工作流中都嵌入了知识库节点,维护了如小说合集等知识库。 大模型节点是调用大语言模型,使用变量和提示词生成回复。按需选择基础版或专业版模型,基础版支持扣子预设的一批模型资源,专业版除默认添加的豆包模型外,还支持按需接入火山引擎方舟平台的模型资源。模型选择右下角生成多样性可从多个维度调整不同模型在生成内容时的随机性,有精确模式、平衡模式和创意模式等预置模式。输入方面,开启智能体对话历史后,上下文信息将自动携带进入大模型,参数名可随意设置但建议有规律,变量值可引用前面链接过的节点的输出或进行输入。
2025-03-26
我是一个没有技术背景且对AI感兴趣的互联网产品经理,目标是希望理解AI的实现原理并且能够跟开发算法工程师沟通交流,请给我举出AI模型或者机器学习的分类吧。
以下是 AI 模型和机器学习的分类: 1. AI(人工智能):是一个广泛的概念,旨在使计算机系统能够模拟人类智能。 2. 机器学习:是人工智能的一个子领域,让计算机通过数据学习来提高性能。包括以下几种类型: 监督学习:使用有标签的训练数据,算法学习输入和输出之间的映射关系,包括分类和回归任务。 无监督学习:学习的数据没有标签,算法自主发现规律,经典任务如聚类。 强化学习:从反馈中学习,以最大化奖励或最小化损失,类似训练小狗。 3. 深度学习:是机器学习的一个子领域,模拟人脑创建人工神经网络处理数据,包含多个处理层,在图像识别、语音识别和自然语言处理等任务中表现出色。 4. 大语言模型:是深度学习在自然语言处理领域的应用,目标是理解和生成人类语言,如 ChatGPT、文心一言等。同时具有生成式 AI 的特点,能够生成文本、图像、音频和视频等内容。 2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它基于自注意力机制处理序列数据,不依赖循环神经网络或卷积神经网络。生成式 AI 生成的内容称为 AIGC。
2025-03-26
是什么类似本地知识库的模型
本地知识库相关的模型主要涉及 RAG(Retrieval Augmented Generation,检索增强生成)技术。以下是对 RAG 技术的详细介绍: 背景:大模型的训练数据有截止日期,当需要依靠不在训练集中的数据时,RAG 技术发挥作用。 过程: 文档加载:从多种来源加载文档,如 PDF 等非结构化数据、SQL 等结构化数据以及代码等。 文本分割:把文档切分为指定大小的块。 存储:包括将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 检索:通过检索算法找到与输入问题相似的嵌入片。 输出:把问题及检索出来的嵌入片提交给 LLM,生成更合理的答案。 如果想要对本地知识库进行更灵活的掌控,可以使用额外的软件 AnythingLLM。其安装地址为:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步: 1. 选择大模型。 2. 选择文本嵌入模型。 3. 选择向量数据库。 在 AnythingLLM 中有 Workspace 的概念,可以创建独有的 Workspace 与其他项目数据隔离。构建本地知识库的步骤包括: 1. 首先创建一个工作空间。 2. 上传文档并在工作空间中进行文本嵌入。 3. 选择对话模式,包括 Chat 模式(大模型根据训练数据和上传的文档数据综合给出答案)和 Query 模式(大模型仅依靠文档中的数据给出答案)。 4. 测试对话。 在一个政府政策问答的项目实践中,由于传统智能问答产品在政策咨询方面存在困难,而大模型具有诸多优势,选择 LangChainChatchat 框架构建政策文档的本地知识库,实现基于本地知识库内容生成回答,为用户提供政策问答和解读服务。
2025-03-26
好用的大语言模型
目前好用的大语言模型有以下几种: 1. OpenAI 的 GPT4:是最先进和广泛使用的大型语言模型之一,在多种任务上表现卓越,包括文本生成、理解、翻译以及各种专业和创意写作任务。 2. Anthropic 公司的 Claude 3:在特定领域和任务上表现出色。 3. 谷歌的 Gemini。 4. 百度的文心一言。 5. 阿里巴巴的通义大模型:通义千问 2.0 在代码、上下文对话基础能力上排名国内第一,各项能力较为均衡,位于国内大模型第一梯队。适用于金融、医疗、汽车等垂直专业场景,以及代码生成与纠错、实时搜索信息、通用工具调用、办公等场景。 6. OPPO 的 AndesGPT:具有对话增强、个性专属和端云协同三大技术特征,已接入 OPPO 智能助理新小布,可用于用机助手、内容创作、超级问答、专属 AI、日程管理等全新能力,聚焦在移动设备端的应用。 7. 百川智能的 Baichuan213BChat:在逻辑推理、知识百科、生成与创作、上下文对话等基础能力上排名 200 亿参数量级国内模型第一,可应用场景广泛且可以私有化部署。 如果想了解国内的大模型效果,可以参考第三方基准评测报告: 。请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-03-26
如果调教ai助力成为网文作家?选用市面上哪种ai模型好一些
如果想调教 AI 助力成为网文作家,以下是一些建议和可选用的 AI 模型: 借助 AI 分析好的文章: 找出您最喜欢的文章,投喂给 DeepSeek R1(理论上来说适合大多数 AI,尤其是有推理模型)。 分三次询问:第一次从写作角度分析;第二次从读者角度分析;第三次指出文章的缺点、不足及改善和提升的空间。 对作者进行侧写,分析成长背景、个人经历和知识结构对文章的影响。 让 AI 对您写的文章进行点评:使用类似“现在我希望你是一名资深中文写作教师/小学语文老师/中学语文老师/公文写作培训师,拥有 30 年教育经验,是一名传授写作技巧的专家。请先阅读我提供给你的文章,然后对文章进行分析,然后教我如何提升写作水平。请给出详细的优缺点分析,指出问题所在,并且给出具体的指导和建议。为了方便我能理解,请尽量多举例子而非理论陈述”的提示词。 分享一个根据文章内容对作者心理侧写的提示词:“我希望你扮演一个从业 20 多年,临床诊治过两千多例心理分析案例的人性洞察和意识分析方面的专家,精通心理学、人类学、文史、文化比较。先阅读后附文章全文,然后对作者进行人格侧写。要尖锐深刻,不要吹捧包装,不要提出一些只能充当心理安慰的肤浅的见解。包括作者的基本画像、核心性格特质、认知与价值观、潜在心理动机、行为模式推测、矛盾与盲点、文化符号映射。” 在模型选择方面: 目前只推荐 Claude 3.7 Sonnet,Anthropic 对 Claude 在编程和美学方面有深度优化,效果较好。但您也可以使用 DeepSeek 等模型进行尝试。 对于模型的选用,没有强制必须用某个模型的说法。而是根据自己的习惯、实测的响应速度、生成质量、调用费用进行综合选择。比如 Doubao Function Call 模型,对于插件调用、Coze 内 json 格式输出比较擅长;MiniMax 处理文字速度很快;GLM 对于用户提示词的理解比较好。每个模型都有自己擅长的特点,而且每家模型都在不断的迭代。所以模型的选用,需要根据实测情况综合调整。一般可选择豆包·function call 32k,“function call”代表有着更好的 Coze 的工具调用能力,“32k”代表模型的上下文窗口大小,即模型在处理文本时能够考虑的单词或标记的数量。如果输出和输入的类型不是纯文本时,比如是 array、object 结构,请根据实测情况,考虑替换上豆包 function call 版本,其他的 LLM 可能会输出格式比较混乱。
2025-03-25
MCP是什么 ?通往AGI之路中有相关的学习资料吗?
MCP(模型上下文协议)是由 Anthropic 于 2024 年 11 月推出的一项创新标准。它旨在实现大语言模型与第三方数据源的无缝连接,通过支持内容存储库、业务工具和开发环境等多种外部服务,让 AI 模型获取更丰富的上下文信息,从而生成更加精准、相关的智能回答。 Lark 认为,用一句话概括,MCP 是一种通用的方式,向各类大语言模型提供数据源和工具。官网解释:MCP 是一个开放协议,用于标准化应用程序向大语言模型提供上下文的方式,可以将其想象成 AI 应用程序的 USBC 接口。 此外,还有文章介绍了如何通过 MCP 连接 Claude 3.7 与 Blender,实现一句话生成 3D 场景的功能。随着 MCP 的崛起,AI 不再是数据孤岛,未来的 AI 智能体将能自主完成更复杂的任务,开启创作的新纪元。
2025-03-25
四轮腿机器人资料
以下是关于四轮腿机器人的相关资料: 宇树科技在该领域的情况: 推动了 AI + 机器人技术的标准化、模块化、智能化,实现快速、低成本落地。 基于企业训练数据完善深度学习训练模型及预测代码,通过四足机器人完成救援场景任务执行。 其四足机器人产品能力出众,多场景头部客户落地验证。 发布了 Aliengo 四足机器人,采用全新设计的动力系统,更轻量集成,一体化机身设计。 其 CEO 王兴兴在硕士期间独立开发了低成本外转子无刷电机驱动的高性能四足机器人 Xdog,开创了全球低成本高性能四足机器人方案的技术先河,并于 2016 年创立宇树科技。 2021 年 6 月发布伴随仿生机器人 Go1,以超低价格和优秀的感知运动能力,成为人类科技史上首款真正走入大众生活的移动机器人。2022 年 2 月“泰哥”亮相,2022 年 4 月推出 PUMP 健身泵。2023 年 4 月发布仿生 4D 激光雷达 L1。未来还将推出 Go 1 升级版、行业版、人形机器人等产品。 具身智能方面: 具身智能是将机器学习算法适配至物理实体,从而与物理世界交互的人工智能范式。以 ChatGPT 为代表的“软件智能体”使用大模型通过网页端、手机 APP 与用户进行交互,具身智能体则将大模型嵌入到物理实体上,通过机器配备的传感器与人类交流,强调智能体与物理环境之间的交互。通俗讲就是给人工智能装上“身体”,人形机器人是具身智能的代表产品。 具身智能的三要素包括“本体”(硬件载体)、“智能”(大模型、语音、图像、控制、导航等算法)、“环境”(本体所交互的物理世界),本体、智能、环境的高度耦合是高级智能的基础,不同环境下会有不同形态的硬件本体适应环境,比如室内平地适用轮式机器人,崎岖不平地面适用四足机器人。 具身智能的行动分为“感知 决策 行动 反馈”四个步骤,分别由四个模块完成,并形成一个闭环。
2025-03-25
请推荐一份学习rag的资料
以下是为您推荐的学习 RAG(RetrievalAugmented Generation,检索增强生成)的资料: 1. 《RetrievalAugmented Generation for Large Language Models:A Survey》(https://arxiv.org/pdf/2312.10997.pdf),该资料对 RAG 进行了较为全面的介绍和分析。 2. 关于新知识的学习,您可以参考“胎教级教程:万字长文带你理解 RAG 全流程”。其中提到可以通过 Claude 帮助了解细节概念,然后再通过 Coze 搭建 Demo 来实践学习。还不知道 Coze 是什么的同学可以看公开分享: 。 3. 了解“RAG 是什么?”:RAG 是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型提供额外的、来自外部知识源的信息。通过检索模式为大语言模型的生成提供帮助,使生成的答案更符合要求。同时,还介绍了大模型存在的缺点以及 RAG 的优点,如数据库对数据存储和更新稳定、敏捷、可解释等。 希望这些资料对您学习 RAG 有所帮助。
2025-03-25
设计一条大模型学习之路,并给出推荐资料
以下是为您设计的大模型学习之路及推荐资料: 学习之路: 1. 了解大模型的基本概念:通俗来讲,大模型是输入大量语料,让计算机获得类似人类的“思考”能力,能进行文本生成、推理问答、对话、文档摘要等工作。可以用“上学参加工作”来类比大模型的训练和使用过程,包括找学校(训练所需的大量计算和 GPU 等)、确定教材(大量的数据量)、找老师(算法讲述内容)、就业指导(微调)、搬砖(推导)。 2. 学习大模型的构建过程: 收集海量数据:如同教孩子成为博学多才的人需要让其阅读大量资料,对于大模型,要收集互联网上的文章、书籍、维基百科条目、社交媒体帖子等各种文本数据。 预处理数据:像为孩子整理适合的资料,AI 研究人员要清理和组织收集到的数据,如删除垃圾信息、纠正拼写错误、分割文本。 设计模型架构:为孩子设计学习计划一样,研究人员要设计大模型的“大脑”结构,如使用 Transformer 架构等特定的神经网络结构。 训练模型:如同孩子开始阅读和学习,大模型开始“阅读”提供的数据,通过反复预测句子中的下一个词来逐渐学会理解和生成人类语言。 推荐资料: 1. 直播共学: 可在飞书知识库中查看以下分享内容和教程:小七姐、刘宇龙、熊猫、MQ、财猫、李继刚、凯翔、AJ、南瓜博士、江树的分享。 参与每晚群里的分享和讨论会,包括 3.4 直播聊天(讲讲大家最初入门学 prompt 的一些入门方法)、3.5 直播分享(小七姐提示词学习路径)、3.5 直播答疑(小七姐、宇龙、AJ 学习路径中的各类问题和 AGI 对应知识推荐)、3.6 直播分享(MQ:文科小白+普通宝妈的 AI 学习之路、熊猫提示词和思维模型)、3.7 直播分享(南瓜博士&财猫文理兼修话 PROMPT)、3.7 直播聊天解答作业等。 2. 文章学习: 大模型工具请大家自行准备,推荐顺序为:1.chat 2.kimi.ai 3.智谱清言 4
2025-03-23
想转型AI产品经理,推荐学习的资料有?
以下是为您推荐的学习资料,有助于您从产品经理转型为 AI 产品经理: 1. 林粒粒呀的相关视频,如“小白如何理解技术原理与建立框架”,其中介绍了思维链、RAG、PAL、ReAct 等概念,并且提到 Transformer 是仿生算法的阶段性实现。 思维链:谷歌在 2022 年一篇论文提到思维链可以显著提升大语言模型在复杂推理的能力,即使不用小样本提示,也可以在问题后面加一句【请你分步骤思考】。 RAG:检索增强生成(RetrievalAugmented Generation),外部知识库切分成段落后转成向量,存在向量数据库。用户提问并查找到向量数据库后,段落信息会和原本的问题一块传给 AI,可搭建企业知识库和个人知识库。 PAL:程序辅助语言模型(ProgramAided Language Model),2022 年一篇论文中提出,对于语言模型的计算问题,核心在于不让 AI 直接生成计算结果,而是借助其他工具比如 Python 解释器作为计算工具。 ReAct:2022 年一篇《React:在语言模型中协同推理与行动》的论文提出了 ReAct 框架,即 reason 与 action 结合,核心在于让模型动态推理并采取行动与外界环境互动。比如用搜索引擎对关键字进行搜索,观察行动得到的结果。可借助 LangChain 等框架简化构建流程。 2. 余一的相关内容,如《AI 时代个人生存/摸鱼探索指南.Beta》《从 2023 年报,看中国上市公司怎么使用生成式 AI》。 3. 相关网页链接: 创新公司观察: 2022 2024 年融资 2000w 美金以上的公司列表和详细公司分析:https://ameliadev.notion.site/202220242000w08f50fafd81b420fa7f26ecd6c0b3243?pvs=4 AI Grant 公司列表和详细公司分析(三期):https://ameliadev.notion.site/AIGranta52f291e81f34b418c9919497961e831?pvs=4 AIGC 行业与商业观察(2024.1):https://gamma.app/docs/AIGCDev9q1bax2pspnlxqu 【AI 产品/功能构建】: 顶级科技公司产品团队正在构建哪些 AI 功能【总览】:https://gamma.app/docs/AIzawqmb2ff3cv958 顶级科技公司产品团队正在构建哪些 AI 功能【产品分析】:https://gamma.app/docs/AItebxqet8ubz3rje 顶级科技公司产品团队正在构建哪些 AI 功能【思考借鉴】
2025-03-18
AI和教育结合的案例以及资料
以下是一些 AI 和教育结合的案例及相关资料: 张翼然是湖南农业大学教育技术系副教授,国家教学成果奖获得者,也是“人工智能+教育”实践专家。其相关研究包括 AI 从工具到助手赋能教师提升效率与能力、AI 与教育场景融合拓展教学边界与创新场景、AI 与人类智能的共生放大学生思考力塑造深度学习能力、AIGC 教育革命:技术原理与课堂实践、大语言模型的教学潜力:交流技巧与心得、一线教师的 AI 需求与高效工具推荐、AI 赋能课堂的核心逻辑:从理论到应用、解码 AI 教学案例:创新与实践等。 例如,在个性化支持与学习自主性方面,AI 通过数据分析与即时反馈,提供定制化学习路径和资源,帮助学生根据自身兴趣、需求和能力规划学习,同时赋予学生更多学习自主权,支持自定步调学习,实现精准教学,关注每个学生的个体需求,帮助学生在学习过程中培养自主决策能力。 在科技伦理与批判性思维方面,通过 AI 生成的开放性问题与多维数据,帮助学生审视技术的潜在风险,培养批判性思维与负责任的科技使用态度,引导学生辨析技术优劣,理解科技的伦理边界,通过讨论和反思提升学生的审辨能力。如课堂讨论 AI 生成内容的真实性与偏见,并设计项目探索数据隐私的保护方案。 同时也指出了大模型在多数任务中可快速达到及格水平,但在绝大多数领域难以达到优秀水平,以及现阶段 AI 在教育领域应用存在知识适配的层次性问题等局限性。 深圳福田区梅山中学梁玉老师使用百度文库的 AI 有声画本导入故事生成,用即梦 AI 生成数字人。 教研员贺亚使用通义千问根据评分标准改英语作文。 黎加厚提出让每一位教师都掌握教育智能体金钥匙。
2025-03-17
我想通过al制作短视频,请问应该如何学习
以下是关于通过 AI 制作短视频的学习建议: 1. 了解 AI 在影视制作中的局限性与弥补方式,可参考相关讨论,如。 2. 注重剧本创作中画面与声音的连贯性,相关内容可查看。 3. 探讨剧本、叙事手法和工具在视频制作中的重要性,详情见。 4. 学习提高短视频制作能力的方法和技巧,参考。 5. 借鉴出版行业从业者刘洋洋学习 AI 的经历,见。 6. 参考动效设计师尤慧影的经验,了解其对 AI 视频技巧的探索,见。 7. 了解新同学杨嘉宜加入 AI 团队的热情和兴趣,参考。 8. 学习社群成员参与 AI 创作的经历和经验,见。 9. 参考阿汤短片的制作过程,包括剧本创作、分镜脚本创作、角色设计、分镜图片制作、动画制作、配音和配乐等步骤。在角色设计阶段保持角色的一致性并增加个性化特性,分镜图片生成阶段及时调整画面,动画镜头制作阶段可使用 pixverse、pika、runway 等视频生成工具。了解制作短片的基础逻辑,从短故事片入手,后续再探讨广告片等类型。原文: ,更新日志:2.24 分镜图片生成/动画镜头制作更新(对于小猫动作画面效果需要进一步探索)。
2025-03-26
学习ai有哪些渠道资源
以下是学习 AI 的一些渠道资源: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛(比如图像、音乐、视频等),根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,进行实践来巩固知识,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 6. 持续学习和跟进: 关注 AI 领域的新闻、博客、论坛和社交媒体,保持对最新发展的了解。 考虑加入 AI 相关的社群和组织,参加研讨会、工作坊和会议,与其他 AI 爱好者和专业人士交流。 此外,一位投资人的 AI 信息源包括: 1. 简报: TLDR AI The Sequence Deep Learning Weekly Ben’s Bites Last week in ai Your guide to AI 2. 播客: No Priors podcast hosted by Robot Brains Podcast hosted by Lex Fridman Podcast hosted by The Gradient podcast hosted by Generally Intelligent hosted by Last Week in AI 3. 会议: World AI Cannes Festival
2025-03-26
怎么零基础学习ai
以下是零基础学习 AI 的建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 对于中学生学习 AI,建议如下: 1. 从编程语言入手学习: 可以从 Python、JavaScript 等编程语言开始学习,学习编程语法、数据结构、算法等基础知识。 2. 尝试使用 AI 工具和平台: 可以使用 ChatGPT、Midjourney 等 AI 生成工具,体验 AI 的应用场景。 探索一些面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 3. 学习 AI 基础知识: 了解 AI 的基本概念、发展历程、主要技术如机器学习、深度学习等。 学习 AI 在教育、医疗、金融等领域的应用案例。 4. 参与 AI 相关的实践项目: 参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动。 尝试利用 AI 技术解决生活中的实际问题,培养动手能力。 5. 关注 AI 发展的前沿动态: 关注 AI 领域的权威媒体和学者,了解 AI 技术的最新进展。 思考 AI 技术对未来社会的影响,培养对 AI 的思考和判断能力。 总之,无论是零基础还是中学生,学习 AI 可以从编程基础、工具体验、知识学习、实践项目等多个方面入手,全面系统地学习 AI 知识和技能。
2025-03-25
stablediffusion学习
以下是关于系统学习 Stable Diffusion 的相关内容: 学习 Stable Diffusion 的提示词是一个系统性的过程,需要理论知识和实践经验相结合。具体步骤如下: 1. 学习基本概念: 了解 Stable Diffusion 的工作原理和模型架构。 理解提示词如何影响生成结果。 掌握提示词的组成部分,如主题词、修饰词、反面词等。 2. 研究官方文档和教程: 通读 Stable Diffusion 官方文档,了解提示词相关指南。 研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例: 熟悉 UI、艺术、摄影等相关领域的专业术语和概念。 研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧: 学习如何组合多个词条来精确描述想要的效果。 掌握使用“()”、“”等符号来控制生成权重的技巧。 了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈: 使用不同的提示词尝试生成各种风格和主题的图像。 对比提示词和实际结果,分析原因,总结经验教训。 在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库: 根据主题、风格等维度,建立自己的高质量提示词库。 将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿: 关注 Stable Diffusion 的最新更新和社区分享。 及时掌握提示词的新技术、新范式、新趋势。 此外,Stable Diffusion 是一个 AI 自动生成图片的软件,通过输入文字就能生成对应的图片。学习 Stable Diffusion 非常简单,不需要深入了解其原理也能熟练使用。 Stable Diffusion 是一种扩散模型的变体,称为潜在扩散模型。其核心组件包括将用户输入的 Prompt 文本转化成 text embedding 的 CLIP、VAE EncoderDecoder 以及进行迭代降噪和在文本引导下进行多轮预测的 UNET 等。在训练和模型方面,有多种模型实例、训练方法、格式等,如 SD1.5、SDXL 等,还包括融合模型等形式。
2025-03-25