直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

LLM是什么

回答

LLM(语言逻辑模型)是 LangChain 平台与各种大模型进行交互的核心模型,是一个能够处理语言输入和输出的抽象概念,可理解为黑盒。其输入是表示用户请求或问题的字符串,输出是表示模型回答或结果的字符串。

LLM 具有以下优势:

  1. 让开发者无需关心大模型的细节和复杂性,只需关注语言的逻辑和意义,就能利用大模型的能力构建应用。
  2. 使开发者能灵活选择和切换不同的大模型,无需修改代码或适配接口。
  3. 允许开发者自己封装自己的 LLM,实现自己的语言逻辑和功能。

RAG 对大语言模型(LLM)的作用如同开卷考试对学生,事实性知识与 LLM 的推理能力相分离,被存储在容易访问和及时更新的外部知识源中,包括参数化知识(模型在训练过程中学习得到,隐式储存在神经网络的权重中)和非参数化知识(存储在外部知识源,如向量数据库中)。

此外,LLM 可以是复杂、通用和强大的系统,能在广泛任务上表现出色,也可用于或微调执行特定任务,如知识生成和自我验证。同时,LLM 可用于检测对抗提示并将其过滤掉,如 Armstrong 和 Gorman(2022)提出的有趣解决方案,包括定义提示评估器等。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

开发:LangChain大模型应用开发指南-封装自己的LLM

原创AI小智AI小智2023-12-07 08:10发表于湖北在之前的课程中,我带领小伙伴们使用开源项目实现了将星火模型的OpenAI-API接口适配转换封装,没有看过的小伙伴可以点击链接查看:[AI课程合集](https://mp.weixin.qq.com/mp/appmsgalbum?__biz=Mzg2ODA5NTM1OA==&action=getalbum&album_id=3115055723522015235#wechat_redirect)但是这种做法的局限性也很强,只能使用开源项目适配过的大模型,并且由于多了一层适配代理,接口的性能也存在一定损耗。今天,我将给大家介绍一个更加通用的方案,基于LangChain()平台提供的LLM基础模型,完成任意模型接口的封装。[heading2]LangChain与大模型交互的核心模型-LLM[content]LLM(语言逻辑模型)是LangChain平台与各种大模型进行交互的核心模型,它是一个抽象的概念,可以理解为一个能够处理语言输入和输出的黑盒。LLM的输入是一个字符串,表示用户的请求或问题,LLM的输出也是一个字符串,表示模型的回答或结果。LLM可以根据不同的输入,调用不同的大模型,来完成不同的语言任务,如文本生成、文本理解、文本翻译等。LLM的优势在于,它可以让开发者无需关心大模型的细节和复杂性,只需要关注语言的逻辑和意义,就可以利用大模型的能力来构建自己的应用。LLM也可以让开发者灵活地选择和切换不同的大模型,而无需修改代码或适配接口。LLM还可以让开发者自己封装自己的LLM,来实现自己的语言逻辑和功能。

问:RAG 是什么?

RAG对大语言模型(Large Language Model,LLM)的作用,就像开卷考试对学生一样。在开卷考试中,学生可以带着参考资料进场,比如教科书或笔记,用来查找解答问题所需的相关信息。开卷考试的核心在于考察学生的推理能力,而非对具体信息的记忆能力。同样地,在RAG中,事实性知识与LLM的推理能力相分离,被存储在容易访问和及时更新的外部知识源中,具体分为两种:参数化知识(Parametric knowledge):模型在训练过程中学习得到的,隐式地储存在神经网络的权重中。非参数化知识(Non-parametric knowledge):存储在外部知识源,例如向量数据库中。

对抗性提示

我们知道LLM可以是复杂、通用和强大的系统,可以在广泛的任务上表现出色。LLM也可以用于或微调以执行特定任务,例如知识生成([Liu等人,2022(opens in a new tab)](https://arxiv.org/pdf/2110.08387.pdf))和自我验证([Weng等人,2022(opens in a new tab)](https://arxiv.org/abs/2212.09561v1))。同样,LLM可以用于检测对抗提示并将其过滤掉。[Armstrong和Gorman(2022)(opens in a new tab)](https://www.alignmentforum.org/posts/pNcFYZnPdXyL2RfgA/using-gpt-eliezer-against-chatgpt-jailbreaking)提出了一个有趣的解决方案。以下是它在实践中的样子。第一步是定义提示评估器。在文章中,作者提出了一个chatgpt-prompt-evaluator,看起来像下面这样:Prompt:这是一个有趣的解决方案,因为它涉及定义一个特定的代理,负责标记对抗提示,以避免LM响应不良输出。我们已经为您准备了[此笔记本](https://www.promptingguide.ai/zh/notebooks/pe-chatgpt-adversarial.ipynb),供您尝试此策略。

其他人在问
LLM 提示词怎么写
以下是关于 LLM 提示词编写的相关内容: 在“艾木:提示词编程|有必要用 Lisp 语言写提示词吗?”中,“小确幸”这段提示词用 Lisp 语言描述了一个简单工作流,包含对用户输入文本的处理和生成 SVG 卡片等步骤,内部还有一系列子步骤和 fewshot examples。但大语言模型按程序描述的逻辑运行这类复杂程序有难度。 在“走入 AI 的世界”中,提示词(Prompt)是输入给大模型的文本内容,其质量会显著影响大模型回答的质量。 在“藏师傅教你用 AI 三步制作任意公司的周边图片,不用到处找样机文件”中,介绍了用 LLM 生成图像提示词的流程,包括获取 Logo 图片的描述,根据描述和生成意图生成图片提示词,将图片和提示词输入 Comfyui 工作生成等步骤,并给出了相关示例。
2024-12-16
开源的开源的 LLM 微调推理,agent开发平台
以下是为您整理的关于开源的 LLM 微调推理、agent 开发平台的相关内容: LLM 作为 Agent 的“大脑”的特点: 1. 知识获取能力:通过预训练学习大量语言数据,掌握丰富语言信息和常识知识,能处理多种任务。 2. 指令理解:擅长解析人类语言指令,采用深度神经网络进行自然语言理解和生成,精准理解意图。 3. 泛化能力:在未见过的数据上表现良好,能利用先前知识处理新挑战,形成对语言结构的通用理解。 4. 推理和规划:能够进行逻辑推理和未来预测,分析条件制定最佳行动方案,在复杂环境中做出理性选择。 5. 交互能力:拥有强大对话能力,在多人多轮次对话中自然流畅交流,改善用户体验。 6. 自我改进:基于用户反馈和效果评估,通过调整参数、更新算法提升性能和准确性。 7. 可扩展性:可根据具体需求定制化适配,针对特定领域数据微调提高处理能力和专业化水平。 相关产品和平台: 1. ComfyUI:可在其中高效使用 LLM。 2. Vercel AI SDK 3.0:开源的工具,可将文本和图像提示转换为 React 用户界面,允许开发者创建丰富界面的聊天机器人。 3. OLMo7BInstruct:Allen AI 开源的微调模型,可通过资料了解从预训练模型到 RLHF 微调模型的所有信息并复刻微调过程。 4. Devv Agent:能提供更准确、详细的回答,底层基于 Multiagent 架构,根据需求采用不同 Agent 和语言模型。 实例探究: 1. ChemCrow:特定领域示例,通过 13 个专家设计的工具增强 LLM,完成有机合成、药物发现和材料设计等任务。 2. Boiko et al. 研究的 LLM 授权的科学发现 Agents:可处理复杂科学实验的自主设计、规划和执行,能使用多种工具。
2024-12-12
LLM 和 AI Agent的区别
LLM(大型语言模型)和 AI Agent(人工智能智能体)存在以下区别: LLM 主要侧重于语言的理解和生成,具有强大的语言处理能力。它们在大规模语料库上进行预训练,能够通过少量样本展现出泛化能力。然而,其缺点是计算资源消耗大,可能存在偏见和误解。 AI Agent 则为人工智能应用程序提供了全新的功能,包括解决复杂问题、对外界采取行动以及在部署后从经验中学习。它们通过高级推理/规划、工具使用、记忆/递归/自我反思的组合来实现这些功能。AI Agent 能够进行令人难以置信的演示,但目前大多数框架仍处于概念验证阶段,还不能可靠、可重现地完成任务。 基于 LLM 的 AI Agent 以 LLM 置于“大脑”或“控制器”的核心位置,赋予强大的语言理解和生成能力。为扩展感知和行动范围,采用多模态感知技术和工具利用策略,能理解和响应多种类型输入,并与环境有效互动。通过思维链和问题分解技术展现出推理和规划能力,还能从反馈中学习并执行新行动,表现出类似反应式 Agent 的特性。其已在软件开发、科学研究等现实场景中应用,能利用自然语言理解和生成能力与其他 Agent 交流协作。特点是基于大规模神经网络,特别是 Transformer 架构,技术上有 Llama、GPT 等预训练大型语言模型,优点是强大的语言理解、生成和对话能力,缺点是计算资源消耗大,可能存在偏见和误解。
2024-12-09
如何调教LLM写好提示词
以下是关于调教 LLM 写好提示词的相关内容: 1. 无需微调,仅用提示词工程就能让 LLM 获得 tool calling 的功能: 提示词工程主要由提示词注入和工具结果回传两部分代码组成。 提示词注入将工具信息及使用工具的提示词添加到系统提示中,其中 INSTRUCTION 包含 TOOL_EAXMPLE、tools_instructions、REUTRN_FORMAT 三个部分。TOOL_EAXMPLE 用于提示 LLM 理解和使用工具,编写时注意用无关紧要的工具作示例避免混淆。tools_instructions 可通过输入不同工具动态调整,让 LLM 得知可用工具及使用方法。REUTRN_FORMAT 定义调用 API 的格式。 工具结果回传阶段利用正则表达式抓取输出中的“tool”和“parameters”参数,对于 interpreter 工具使用另一种正则表达式提取 LLM 输出的代码,提高使用成功率。识别 LLM 返回的调用工具字典,提取对应值传入工具函数,将结果以 observation 角色返回给 LLM,若接口不接受,可改为回传给 user 角色。 2. 藏师傅教您用 AI 三步制作任意公司的周边图片: 整个流程分为三个部分:获取 Logo 图片的描述、根据 Logo 图片的描述和生成意图生成图片提示词、将图片和提示词输入 Comfyui 工作生成。 用下面的提示词生成关于 Logo 图片的描述:为帮助视障艺术家,需详细描述图像内容,包括摄影、标志设计等方面,控制在 50 字左右。 用 LLM 生成图像提示词:将第一步生成的提示词填入{图像描述}位置,将想生成的周边填入{周边描述}部分。 3. 小七姐:Prompt Engineering a Prompt Engineer 精读翻译: 提示词工程是优化大型语言模型性能的具有挑战性但至关重要的任务,需要复杂推理检查模型错误等。 研究了“PROMPT ENGINEERING A PROMPT ENGINEER”的问题,介绍并分析关键组成部分,如逐步推理模板和上下文规范等。 最终方法 PE2 在多个数据集和任务中表现出色,能进行有意义和针对性的提示词编辑,展现出反事实推理能力。
2024-12-08
LLM对未来的影响有哪些
LLM 对未来的影响主要体现在以下几个方面: 1. 应用程序架构:代理有可能成为 LLM 应用程序架构的核心部分,为人工智能应用程序提供解决复杂问题、对外界采取行动以及从经验中学习等全新功能。但目前大多数代理框架仍处于概念验证阶段。 2. 能力拓展:未来的大型语言模型将能够读取和生成文本,拥有更丰富的知识,能利用现有软件基础架构,具备查看和生成图像与视频、听取发声创作音乐、利用系统 2 进行深入思考、在特定领域自我优化以及针对特定任务定制和调整等能力。 3. 落地应用:LLM 技术正从 demo 向落地阶段发展,在达到一定水平后,其在各个业务场景中的实用性将大大提升。但当前大部分应用仍处于探索阶段,在推理、训练学习效率等方面还有待提高,且与视觉、触觉等技术的搭配尚未成熟。同时,关于数据驱动的概率模型和由第一性原理建立的数理模型如何更好地模拟世界以及两者的融合方式仍有待解决。在应用方面,包括自然语言、ToB、ToC 等领域。
2024-12-03
LLM最大的价值是什么
LLM 具有以下重要价值: 1. 作为 LangChain 平台与各种大模型交互的核心模型,是一个能处理语言输入和输出的抽象概念,开发者无需关心大模型细节,只关注语言逻辑和意义,就能利用其能力构建应用,还能灵活选择和切换大模型,甚至自行封装实现特定语言逻辑和功能。 2. 能够强化人类既有的能力,未来可能促使每个人成为全栈人员,并重新划分岗位,关键在于对 LLM、自身技能和业务应用的理解。 3. 具有知识获取能力,通过预训练学习大量语言数据,掌握丰富语言信息和常识知识,能处理多种任务。 4. 擅长解析人类语言指令,精准理解用户语言表达意图。 5. 具备泛化能力,在未见过的数据上表现良好,能利用先前知识处理新挑战。 6. 能够进行逻辑推理和未来预测,在复杂动态环境中做出理性选择并引导行动。 7. 拥有强大的交互能力,在多人多轮次对话中自然流畅交流,改善用户体验。 8. 可以基于用户反馈和效果评估进行自我改进,逐渐提升性能和准确性。 9. 具有可扩展性,能根据具体需求定制化适配,通过微调提高特定领域处理能力和专业化水平。
2024-12-03