以下是一些与吴恩达大模型相关的教程和资源:
大语言模型分为基础 LLM 和指令微调 LLM 两类。基础 LLM 经过训练可根据文本预测下一个词,指令微调 LLM 经过训练能遵循指令,为让系统更有帮助并遵循指令,通常会使用人类反馈强化学习(RLHF)技术优化。提示的关键原则包括尽可能保证下达的指令“清晰、没有歧义”,给大模型思考的时间以及足够的时间去完成任务。
面向开发者的LLM入门课程:地址:[https://github.com/datawhalechina/prompt-engineering-for-developers](https://github.com/datawhalechina/prompt-engineering-for-developers)简介:一个中文版的大模型入门教程,围绕吴恩达老师的大模型系列课程展开,主要包括:吴恩达《ChatGPT Prompt Engineering for Developers》课程中文版,吴恩达《Building Systems with the ChatGPT API》课程中文版,吴恩达《LangChain for LLM Application Development》课程中文版等。提示工程指南:地址:[https://www.promptingguide.ai/zh](https://www.promptingguide.ai/zh)简介:该项目基于对大语言模型的浓厚兴趣,编写了这份全新的提示工程指南,介绍了大语言模型相关的论文研究、学习指南、模型、讲座、参考资料、大语言模型能力以及与其他与提示工程相关的工具。LangChain🦜️🔗中文网,跟着LangChain一起学LLM/GPT开发:地址:[https://www.langchain.asia](https://www.langchain.asia/)简介:Langchain的中文文档,由是两个在LLM创业者维护,希望帮助到从刚进入AI应用开发的朋友们。LLMs九层妖塔:地址:[https://github.com/km1994/LLMsNineStoryDemonTower](https://github.com/km1994/LLMsNineStoryDemonTower)简介:ChatGLM、Chinese-LLaMA-Alpaca、MiniGPT-4、FastChat、LLaMA、gpt4all等实战与经验。
https://github.com/zard1152/deepLearningAI/wiki[ChatGPT提示工程中文翻译版(仅用于学习分享)](https://fieghf3pzz6.feishu.cn/wiki/MazPw5eo5iW95gkvWAhcSTxdnSc)[openai官方《提示词工程课》超详细中文笔记](https://ec26ubh65w.feishu.cn/docx/PuULdQP3wojyZYxn157cnsDXnqe)[GitHub-Kevin-free/chatgpt-prompt-engineering-for-developers:吴恩达《ChatGPT Prompt Engineering for De](https://github.com/Kevin-free/chatgpt-prompt-engineering-for-developers)[heading2]介绍[content]有两类大语言模型:基础LLM:基础大型语言模型经过训练,可以根据文本预测下一个词。训练数据通常基于大量来自互联网和其他来源的数据,以推断出最有可能出现的下一个词。指令微调LLM:指令调优的大型语言模型是当前大型语言模型研究和实践的主要发展方向。指令调优的大型语言模型经过训练,能够遵循指令。为了让系统更有帮助并遵循指令,通常会进一步使用一种名为人类反馈强化学习(RLHF)的技术来优化。因为指令调优的大型语言模型经过训练,更有助于提供有用的、无害的回答。[heading2]原则与技巧[content]两个提示的关键原则:1)原则1:尽可能保证下达的指令“清晰、没有歧义”2)原则2:给大模型思考的时间,以及足够的时间去完成任务
1.然后就是核心的反思优化的大模型节点,这里我们需要配置反思优化的提示词,告诉模型应该如何去思考和优化翻译结果,并将这些建议都提出来。提示词的设计非常关键,直接决定了反思优化的效果。我们可以继续参考项目给出的示例提示词,也可以根据自己的经验和需求进行改进。这里我就先参考示例提示词进行填写,具体分为两个提示词,如下:没有语言翻译特色的反思优化的提示词:有语言翻译特色的反思优化的提示词:1.接下来就是结合反思优化的建议后再翻译的大模型节点了,这里其实就是结合上述的反思优化的建议,再结合初始翻译的结果再次进行翻译,以此获得更好的翻译结果,如下图:相关提示词:1.最后我们就可以将优化过的翻译结果输出给结束节点了,这里我们可以选择输出的方式了,这里我选择了自定义的内容输出+流式传输来输出翻译后的结果,如下图:讲到这里,相信大家对如何在Coze上复刻吴恩达的AI翻译项目已经有了一个比较全面的了解。虽然整个过程涉及到不少配置和调试,但是在Coze的帮助下,一切都变得简单易行了。即使是零基础的小白,只要肯花点时间,也完全可以搭建出一个强大的AI翻译助手!当然,这里还有个功能是还没有复刻的,那就是分块处理,这个功能其实也是非常重要的,因为对于长文本的翻译,分块处理可以提高处理效率,更重要的是可以让模型在局部文本上进行更精细的优化,翻译质量可以进一步提升。这个进阶的功能,我就留到下次再和大家分享了,或者等你们熟悉了Coze平台后,自己去尝试实现也是可以的。