以下是关于 LLM 解决方案的相关内容:
我们知道LLM可以是复杂、通用和强大的系统,可以在广泛的任务上表现出色。LLM也可以用于或微调以执行特定任务,例如知识生成([Liu等人,2022(opens in a new tab)](https://arxiv.org/pdf/2110.08387.pdf))和自我验证([Weng等人,2022(opens in a new tab)](https://arxiv.org/abs/2212.09561v1))。同样,LLM可以用于检测对抗提示并将其过滤掉。[Armstrong和Gorman(2022)(opens in a new tab)](https://www.alignmentforum.org/posts/pNcFYZnPdXyL2RfgA/using-gpt-eliezer-against-chatgpt-jailbreaking)提出了一个有趣的解决方案。以下是它在实践中的样子。第一步是定义提示评估器。在文章中,作者提出了一个chatgpt-prompt-evaluator,看起来像下面这样:Prompt:这是一个有趣的解决方案,因为它涉及定义一个特定的代理,负责标记对抗提示,以避免LM响应不良输出。我们已经为您准备了[此笔记本](https://www.promptingguide.ai/zh/notebooks/pe-chatgpt-adversarial.ipynb),供您尝试此策略。
[title]Apple Intelligence里面各种智能应用的提示词已经被曝光了帮助回复邮件的提示词(图二)你是一个帮助用户回复邮件的助理。请根据提供的回复片段起草一个简洁自然的回复。请将答案限制在50个单词以内。不要产生或编造虚假信息。保留输入邮件的语气。比较搞笑是Apple解决LLM幻觉问题是在提示词里面加一句“Do not hallucinate”,严重怀疑其是否有效!总结邮件的提示词(图三)在3句话内总结所提供的邮件,不超过60个单词。不要回答邮件中的任何问题。很简洁,用“3句话”和“60个单词”来限定总结的长度不要太长,虽然无法严格遵守,但是应该也还行。
[title]LLM应用程序的新兴架构原文地址:https://a16z.com/2023/06/20/emerging-architectures-for-llm-applications/译者:通往AGI之路,若有瑕疵之处,请在段落评论中斧正,谨此致谢发表时间:2023年6月20日大型语言模型(LLM)是构建软件的强大新基础设施。但由于它们太新了——并且与普通计算资源的行为如此不同——如何使用它们并不总是显而易见的。在本文中,我们将分享新兴LLM应用程序堆栈的参考架构。它展示了我们见过的AI初创公司和成熟的科技公司使用的最常见的系统、工具和设计模式。这个堆栈还处于非常早期的阶段,可能会随着底层技术的进步而发生重大变化,但我们希望它现在能作为使用LLM的开发人员的有用参考。这项工作基于与AI初创公司创始人和工程师的对话。我们尤其依赖于以下人员的意见:Ted Benson、Harrison Chase、Ben Firshman、Ali Ghodsi、Raza Habib、Andrej Karpathy、Greg Kogan、Jerry Liu、Moin Nadeem、Diego Oppenheimer、Shreya Rajpal、Ion Stoica、Dennis Xu、Matei Zaharia和Jared Zoneraich。感谢你们的帮助!