以下是为您设计的大模型学习之路及推荐资料:
学习之路:
推荐资料:
大模型工具请大家自行准备,推荐顺序为:1.chat 2.kimi.ai 3.智谱清言 4
这个板块还有很多会做一下详细讲解:[1.2入门:Prompts(提示词)](https://waytoagi.feishu.cn/wiki/Q5mXww4rriujFFkFQOzc8uIsnah)[heading2]学习导师W[content]咱们队伍越来越强大了🥹咱们知识库的好朋友们都来支援了之前知识库prompt板块共建的小伙伴们小七姐,刘宇龙,熊猫,MQ,财猫,李继刚,凯翔,南瓜博士,江树都来了,大家排班这几天每天晚上群里发起分享和讨论会3.4直播聊天:聊天加答疑讲讲大家最初入门学prompt的一些入门方法3.5直播分享:小七姐提示词学习路径3.5直播答疑:小七姐、宇龙、AJ(学习路径中的各类问题和AGI对应知识推荐)3.6直播分享:MQ:文科小白+普通宝妈的AI学习之路3.6直播分享:熊猫提示词和思维模型3.7直播分享:南瓜博士&财猫文理兼修话PROMPT3.7直播聊天解答作业等:以上顺序和嘉宾还有话题有可能会有变化,目前参与的好朋友有小七姐,宇龙,熊猫,MQ,财猫,李继刚,凯翔,AJ,南瓜博士,江树,在知识库里都可以找到他们的分享内容和教程飞书群答疑:大家会看到就解答[heading2]课备[content]大模型工具请大家自行准备哈。根据自己条件准备,以下是推荐顺序:1.chat2.kimi.ai3.智谱清言4
通俗来讲,大模型就是输入大量语料,来让计算机获得类似人类的“思考”能力,使之能够理解自然语言,能够进行『文本生成』、『推理问答』、『对话』、『文档摘要』等工作。既然是学习,那我们就可以用『上学参加工作』这件事来类比大模型的训练、使用过程:1.找学校::训练LLM需要大量的计算,因此GPU更合适,因此只有购买得起大量GPU的贵族学校才有资本训练自己的大模型2.确定教材::大模型顾名思义就是大,需要的数据量特别多,几千亿序列(Token)的输入基本是标配3.找老师::即用什么样的算法讲述“书本”中的内容,让大模型能够更好理解Token之间的关系4.就业指导::学完书本中的知识后,为了让大模型能够更好胜任某一行业,需要进行微调(fine tuning)指导5.搬砖::就业指导完成后,下面就要正式干活了,比如进行一次翻译、问答等,在大模型里称之为推导(infer)在LLM中,Token([2])被视为模型处理和生成的文本单位。它们可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。Token是原始文本数据与LLM可以使用的数字表示之间的桥梁。在将输入进行分词时,会对其进行数字化,形成一个词汇表(Vocabulary),比如:The cat sat on the mat,会被分割成“The”、“cat”、“sat”等的同时,会生成下面的词汇表:|Token|ID||-|-||The|345||cat|1256||sat|1726||…|…|
旁白当你发现大模型的效果并没有你预期想的那么好时,你打算放弃但是你也听到了另一种声音:如果大模型没有你想的那么好,可能是你没有了解他的能力边界。你不想就这么放弃,为了更好的理解大模型,你首先了解了他的创建过程[heading2]1.收集海量数据[content]想象一下,我们要教一个孩子成为一个博学多才的人。我们会怎么做?我们会让他阅读大量的书籍,观看各种纪录片,与不同背景的人交谈等。对于AI模型来说,这个过程就是收集海量的文本数据。例子:研究人员会收集互联网上的文章、书籍、维基百科条目、社交媒体帖子等各种文本数据。[heading2]2.预处理数据[content]在孩子开始学习之前,我们可能会先整理这些资料,确保内容适合他的年龄和学习能力。同样,AI研究人员也需要清理和组织收集到的数据。例子:删除垃圾信息,纠正拼写错误,将文本分割成易于处理的片段。[heading2]3.设计模型架构[content]就像我们要为孩子设计一个学习计划一样,研究人员需要设计AI模型的"大脑"结构。这通常是一个复杂的神经网络。这里我们就不展开了,我们只需要了解,为了让AI能够很好的学习知识,科学家们设计了一种特定的架构。例子:研究人员可能会使用Transformer架构,这是一种特别擅长处理序列数据(如文本)的神经网络结构。[heading2]4.训练模型[content]就像孩子开始阅读和学习一样,AI模型开始"阅读"我们提供的所有数据。这个过程被称为"训练"。例子:模型会反复阅读数据,尝试预测句子中的下一个词。比如给出"太阳从东方__",模型学会预测"升起"。通过不断重复这个过程,模型逐渐学会理解和生成人类语言。