利用大模型写教案可以参考以下要点:
我们具体来看,“表达什么?”这个事情怎么做经历了一段时间的抽象总结,我最终总结出了这么一句,就是read in.prompt out。也就是,要输出,首先你得有输入。比如:你要写一个商业分析的Prompt,你如果没有读过《商业模式新生代》,你不知道商业模式画布这个事的话,你琢磨了半天你都是在外围打转,你没有进到那个内核。而你一旦读了它这个商业模式画布这几个字符,你输进去直接就出一个非常惊艳的效果。因为大模型也学了它。大模型是知道所有通用的知识。但是不同的人去用跟他对话去交流,针对同样一个场景去拿到的结果是不一样的,有些非常惊艳,有些很一般。为什么?根源在于不同人给模型的输入。编程界有一句话叫garbage in,garbage out垃圾进去,垃圾出来。如果你的输入是一个没有信息量的,全是一些片汤话进去的:我想写商业计划书,你给我一个。那他一定给你一个中庸的40分、30分的东西。就是你,你说它不是计划书,它也是。你说它是,但他压根就不能用,所以就大家会觉得大模型很鸡肋,但其实是没用好它。大模型智商已经在了,怎么让他输出很惊艳呢?同时他又不是很长的描述就能写好,这一块就是要求你脑海里得有那个概念。那个概念来自于哪?只能是先输入。也就是说你想写好提示词,这个结果不来自于这个结果的1234,而来自于源头,这是果,不是因,因在前边在读上,这个读当然是泛指的read。
通俗来讲,大模型就是输入大量语料,来让计算机获得类似人类的“思考”能力,使之能够理解自然语言,能够进行『文本生成』、『推理问答』、『对话』、『文档摘要』等工作。既然是学习,那我们就可以用『上学参加工作』这件事来类比大模型的训练、使用过程:1.找学校::训练LLM需要大量的计算,因此GPU更合适,因此只有购买得起大量GPU的贵族学校才有资本训练自己的大模型2.确定教材::大模型顾名思义就是大,需要的数据量特别多,几千亿序列(Token)的输入基本是标配3.找老师::即用什么样的算法讲述“书本”中的内容,让大模型能够更好理解Token之间的关系4.就业指导::学完书本中的知识后,为了让大模型能够更好胜任某一行业,需要进行微调(fine tuning)指导5.搬砖::就业指导完成后,下面就要正式干活了,比如进行一次翻译、问答等,在大模型里称之为推导(infer)在LLM中,Token([2])被视为模型处理和生成的文本单位。它们可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。Token是原始文本数据与LLM可以使用的数字表示之间的桥梁。在将输入进行分词时,会对其进行数字化,形成一个词汇表(Vocabulary),比如:The cat sat on the mat,会被分割成“The”、“cat”、“sat”等的同时,会生成下面的词汇表:|Token|ID||-|-||The|345||cat|1256||sat|1726||…|…|
“AI时代我们都翻身农奴当老板,拥有数字员工后的我们,了解这些员工的秉性,成为新时代的超级个体。”[heading1]01[heading1]—[heading1]是否需要提示词工程,是否需要学提示词?[content]我是持反对观点的,像打字和写作一样。方法论不是关键,不断尝试和大模型交互,便是最佳方法。[heading1]02[heading1]—[heading1]和大模型交互需要遵循规则吗?[content]不需要。网上流传最广的提示词方法论,是“你需要给大模型一个角色”。这确实是一个好的策略,因为小学老师,大学老师这样的角色,预设很多背景信息。这是一个非常讨巧的方式。但我并不认为这是一条必须要遵循的原则,甚至所有的规则都不是必须遵守的。你可以在提示词里面设定规则,也可以聊着聊着临时更改规则,和大模型交互时完全不需要考虑规则。要考虑的就是是否达成了你的目的,如果没达成,那就锲而不舍的开一个新窗口,再尝试一下。如果还是不行,换个模型。[heading1]03[heading1]—[heading1]用Markdown格式清晰表达问题[content]Markdown通过其易读性、格式化的灵活性和信息的清晰结构,使得与大模型的交流更加高效和精确。有助于模型更好地理解用户的意图。1.结构清晰:Markdown通过简单的标记语法提供了丰富的格式化选项,如列表、标题、加粗、斜体、链接等。这使得信息呈现出清晰的结构,有助于模型更好地理解问题的重点和结构。2.格式化强调:Markdown允许用户通过格式化来强调问题中的关键部分,如使用加粗来突出重点或使用列表来组织多个问题或信息点。强调有助于模型识别和优先考虑文本的关键部分,从而提高回答的相关性和准确性。3.适用性广:由于Markdown在技术和非技术领域的广泛应用,使用这种格式交流可以确保信息的有效传达。普适性强。[heading1]04