以下是零基础学习 prompt 的指南:
您可以关注作者小七姐的 prompt 学习社群 https://t.zsxq.com/15KhQ0RE7 ,获取更多丰富内容。
可能对于学了很久prompt的包括小七姐在内的很多星友来说,下面这些内容真的已经是老生常谈了,总觉得没有必要反复提及,但今天认真搜索和翻阅了一下星球关于prompt新手教程的帖子,的确发现对新手不是很友好,比较零散,不成体系。这里做一个统一的收集和整理,小七姐也努力不断调起自己初学时的同理心,尽量写的再入门一点,希望能帮助更多刚入门学习提示词的朋友。第一步:你要有一个大模型帐号,至少已经熟悉和它们对话的方式。最强性能当属ChatGPT4,当然也推荐国产平替:[Kimi.ai-帮你看更大的世界](https://kimi.moonshot.cn)[智谱清言](https://chatglm.cn)第二步:看OpenAI的官方文档:[目录:OpenAI官方指南](https://waytoagi.feishu.cn/wiki/EGU4wV4q6i6vprk5A7dckaGTne0)[OpenAI官方提示工程指南](https://waytoagi.feishu.cn/wiki/HuClwX8wai1fD7kLhyBcdxzJnJf)这是每个学习prompt的人必须看的基础课,相当于人教版教材,建议阅读学习。我和熊猫Jay也在AGI分享了中文精度版的官方Cookbook:[Cookbook:OpenAI中文精读](https://waytoagi.feishu.cn/wiki/Pu2OwhTuni6H3jkiv3FcwCuLn7c)[熊猫Jay:万字解读ChatGPT提示词最佳实践](https://waytoagi.feishu.cn/wiki/FoJJwvwBNiEJYjkx1ygccO2CnVe)
作者:小七姐可以在以下地址关注她,主页内容更丰富:[小七姐的prompt学习社群](https://t.zsxq.com/15KhQ0RE7)今天是这个系列的第二部分,只说一个要点:“如何开始练习有效提问。”—认真写出你的第一个prompt第一步、理解GPT的工作原理为什么在指南的第二篇里我要推荐这些常识科普呢?因为小七姐发现,最早学习prompt的这一波初学者,因为当时太震撼了,太颠覆了,资料也相对很珍稀,所以大家都是从啃原理、了解概念、从最简单的1+1=2的prompt开始学的,这样虽然当初进展很慢,但是基础比较扎实,对原理理解的比较清楚,这样在后面才可能得心应手的去拆解和应用各种框架去编写自己需要的提示词。而最近,关于AI、提示词的信息越来越多,越来越超过我们能阅览和吸收的能力范围。就算我自己也会常常陷入太多优秀的文档不知道先看哪个好,索性都在收藏夹吃灰的情况。在这里我还是建议初学者,无论如何,至少先真正理解以下几个问题:1、GPT说人话的能力是怎么来的2、“涌现”的产生3、prompt的概念和意义4、为什么现阶段我们不得不用prompt这里我也推荐两个课外阅读,这两篇都是B站视频,建议一看长文就犯困但又想看看GPT生成原理的同学上下班通勤路上看看,好看不费脑子,讲的很清楚透彻。一个是B站UP Yjango(于建国博士)很早前就发布的:
1、理解Token限制,形成“当前消耗了多少Token”的自然体感,显然会有利于你在连续对话的时候把握一次有效记忆的长度。这样你就不会傻乎乎在超过9000 Token的时候还在继续问最初的问题,然后得到一个失忆的回答,自己也很懵。2、编写Prompt的时候你需要珍惜你的Token s,尽可能秉承奥卡姆剃刀原理,能不多说一句废话就不多说一句,句子、措辞,都值得精简。尤其是在连续多轮对话中,精简有效的表达习惯是非常重要的。五、基于上述原理有哪些Tips1、熟练使用中英文切换。Prompt本身太长了的话,建议用英文设定,要求它用中文输出即可,这样一来可以把省出来的Token留给更多次数的对话。2、了解一些本身就自带方法论的英文短语或者句子,很多时候你只要提到这个词,GPT就知道你指的是什么意思,而不用写一个自然段来描述你需要的这个方法,例如:“Chain of thought”最后:🤔️那你有没有想过,这些公司为什么不把Token限制放高一点呢?大不了比GPT-4 API价格再高一点呗,咱为了良好的体验,也不是不愿意花钱。其实不是OpenAI、Google不想,而是他们不能。即使Claude 2.0声称能接受10万Token s(约等于5万汉字),你实际去用就会发现,它其实也记不清10万Token s那么多。GPT本质是文字接龙,根据过往Token序列推测下一个最有可能的Token是什么⬇️过往Token序列太长,会导致计算量过大、计算精度下降⬇️OpenAI为GPT模型增加了Token限制