Navigate to WaytoAGI Wiki →
Home/question.detail.breadcrumb.questionList/question.detail.breadcrumb.questionDetail

LLM是什么,有什么方法能够调优

Answer

LLM 即大型语言模型(Large Language Model)。以下是一些调优 LLM 的方法:

  1. 改进提示:在上下文中提供基本事实,例如相关文章段落或维基百科条目,以减少模型生成虚构文本的可能性。通过降低概率参数并指示模型在不知道答案时承认(例如,“我不知道”)来配置模型以生成更少样式的响应。在提示中提供问题和答案的组合示例,其中可能知道和不知道的问题和答案。
  2. 微调:采用在通用数据集上预训练的模型,复制这个模型,然后以这些学习到的权重为起点,在新的特定领域数据集上重新训练模型。但由于 LLM 规模较大,更新每个权重可能需要很长时间的训练工作,且计算成本较高,所以微调大型语言模型可能不是最佳选择。
  3. 参数有效调优:这是一种创新的调优方法,旨在通过仅训练一部分参数来减少微调 LLM 的挑战。这些参数可能是现有模型参数的子集,也可以是一组全新的参数,例如向模型添加一些额外的层或额外的嵌入到提示。参数有效调整非常适合拥有“适度”数量训练数据的场景,例如数百或数千个训练示例。训练数据应以文本到文本格式构建为受监督的训练数据集,数据中的每条记录或行都应包含输入文本(即提示)。

此外,研究发现 GPT-4 等 LLM 在一些简单的代数问题上存在表现局限性,例如随着 L 的增加,模型更容易犯计算错误,90%的错误是由于在合并相似项时跳过了步骤。这启发了是否有有效方法训练或微调 LLM 以实现更准确计算能力的研究问题。同时,LLM 在计数方面也存在困难,不仅在转换器架构中难以实现,而且数据集中计数示例的稀缺性也加剧了这个问题。

Content generated by AI large model, please carefully verify (powered by aily)

References

真实性

[title]真实性LLM模型有时会生成听起来连贯且令人信服但有时是虚构的回答。改进提示可以帮助提高模型生成更准确/真实的回答,并降低生成不一致和虚构回答的可能性。一些解决方案可能包括:在上下文中提供基本事实(例如相关文章段落或维基百科条目),以减少模型生成虚构文本的可能性。通过降低概率参数并指示模型在不知道答案时承认(例如,“我不知道”)来配置模型以生成更少样式的响应。在提示中提供问题和答案的组合示例,其中可能知道和不知道的问题和答案。让我们看一个简单的例子:提示:输出:我编造了“Neto Beto Roberto”的名字,所以模型在这种情况下是正确的。尝试稍微改变问题,看看是否可以使其正常工作。根据您迄今学到的所有知识,还有不同的方法可以进一步改进它。

9. 生成式 AI Studio 简介

[title]9.生成式AI Studio简介[heading2]课程字幕12:29即使您确实为您的用例发现了一个好的提示,您可能会注意到模型响应的质量并不完全一致。为了缓解这些问题,我们可以做的一件事是调整模型。12:40那么调音是什么?好吧,您可能熟悉的一个版本是微调。在这种情况下,我们采用在通用数据集上预训练的模型。我们复制了这个模型。12:51然后,以这些学习到的权重为起点,我们在新的特定领域数据集上重新训练模型。这种技术对于许多不同的用例都非常有效。13:01但是当我们尝试微调LLM时,我们遇到了一些挑战。顾名思义,法学硕士是大型的。因此更新每个权重可能需要很长时间的训练工作。13:12将所有这些计算与现在必须为这个巨大模型提供服务的麻烦和成本相结合……因此,微调大型语言模型可能不是您的最佳选择。13:21但是有一种创新的调优方法称为参数有效调优。这是一个非常令人兴奋的研究领域,旨在通过仅训练一部分参数来减少微调LLM的挑战。13:34这些参数可能是现有模型参数的子集。或者它们可以是一组全新的参数。例如,也许您向模型添加了一些额外的层或额外的嵌入13:45到提示。如果您想了解更多关于参数有效调整和一些不同方法的信息,本课程的阅读列表中包含一篇摘要论文。13:53但如果您只想着手构建,那么让我们转到Generative AI Studio,看看如何开始调优工作。从Generative AI Studio的语言部分,14:02选择调整。为了创建一个调整模型,我们提供了一个名称。然后指向训练数据的本地或Cloud Storage位置。参数有效调整非常适合您拥有“适度”数量的场景14:14训练数据,例如数百或数千个训练示例。您的训练数据应以文本到文本格式构建为受监督的训练数据集。数据中的每条记录或行都将包含输入文本,换句话说,提示,

报告:GPT-4 通用人工智能的火花

[title]报告:GPT-4通用人工智能的火花[heading1]10.方向与结论[heading2]10.3到底发生了什么?上面的表格分析了LLMs在一个非常简单的代数问题上的表现。虽然GPT-4的表现比以前的模型有了显著的提高,但我们可以看到,随着L的增加,模型更容易犯计算错误。我们手动检查了100个错误的实例,发现其中90%是由于在合并相似项时跳过了步骤。这指向了模型的重大局限性,并启发了以下研究问题:是否有一种有效的方法来训练或微调LLM,使它们能够将计算分解成较小的步骤,从而实现更准确的计算能力?计数错误:合理地假设LLMs在计数方面存在困难。不仅在转换器架构中难以实现此操作,而且数据集中计数示例的稀缺性只会加剧这个问题。为了系统地评估GPT-4在这方面的能力,我们创建了一个数据集,其中包含形式为A1,A2,…,AL的字符串序列。其中每个Ai都是长度为k的随机数字序列。我们要求模型计算序列中不同元素的数量,答案范围在L/2到L-1之间。这是L = 5,k = 2的示例:我们对模型进行了测试,其中L ∈[5,10,15,25],k = 2,7,12。结果如下:

Others are asking
LLM
系统学习 LLM 开发是一个系统性的过程,涵盖以下方面: 1. 掌握深度学习和自然语言处理基础:包括机器学习、深度学习、神经网络等基础理论,以及自然语言处理中的词向量、序列模型、注意力机制等。相关课程有吴恩达的深度学习课程、斯坦福 cs224n 等。 2. 理解 Transformer 和 BERT 等模型原理:熟悉 Transformer 模型架构及自注意力机制原理,掌握 BERT 的预训练和微调方法,阅读相关论文如 Attention is All You Need、BERT 论文等。 3. 学习 LLM 模型训练和微调:进行大规模文本语料预处理,使用 LLM 预训练框架如 PyTorch、TensorFlow 等,微调 LLM 模型进行特定任务迁移。相关资源有 HuggingFace 课程、论文及开源仓库等。 4. LLM 模型优化和部署:掌握模型压缩、蒸馏、并行等优化技术,进行模型评估和可解释性研究,实现模型服务化、在线推理、多语言支持等。相关开源工具有 ONNX、TVM、BentoML 等。 5. LLM 工程实践和案例学习:结合行业场景进行个性化的 LLM 训练,分析和优化具体 LLM 工程案例,研究 LLM 新模型、新方法的最新进展。 6. 持续跟踪前沿发展动态:关注顶会最新论文、技术博客等资源。 以下是 2 月 19 日的 Xiaohu.AI 日报相关内容: 1. Large World Model探索:介绍了百万 Token 的通用世界大模型,旨在理解长视频和超长文本。LWM 在 100 万个令牌的上下文中超越 GPT4V 和 Gemini Pro 的检索精度,特色能力包括长视频理解、高精度事实检索和多格式内容生成。相关链接:https://largeworldmodel.github.io 、https://github.com/LargeWorldModel/LWM 、https://x.com/xiaohuggg/status/1759566391693504940?s=20 2. 世界上最快的大型语言模型:Mixtral 8X7B 输出速度为 500 token/s,Llama 2 7B 的速度是 750 tokens/s,速度快但准确性有待提高。相关链接:http://groq.com 、http://wow.groq.com 、https://x.com/xiaohuggg/status/1759457147962941852?s=20 3. Reddit 用户自制 GLIGEN GUI:由于缺少直观的 GUI,一个 Reddit 大佬自己动手制作了一个。用户可以自定义图像中对象的大小、位置和空间关系,强调了用户对生成图像细节的控制能力。相关链接:https://github.com/mutex/gligengui 、https://gligen.github.io 、https://x.com/xiaohuggg/status/1759431911951450437?s=20
2024-12-24
LLM 提示词怎么写
以下是关于 LLM 提示词编写的相关内容: 在“艾木:提示词编程|有必要用 Lisp 语言写提示词吗?”中,“小确幸”这段提示词用 Lisp 语言描述了一个简单工作流,包含对用户输入文本的处理和生成 SVG 卡片等步骤,内部还有一系列子步骤和 fewshot examples。但大语言模型按程序描述的逻辑运行这类复杂程序有难度。 在“走入 AI 的世界”中,提示词(Prompt)是输入给大模型的文本内容,其质量会显著影响大模型回答的质量。 在“藏师傅教你用 AI 三步制作任意公司的周边图片,不用到处找样机文件”中,介绍了用 LLM 生成图像提示词的流程,包括获取 Logo 图片的描述,根据描述和生成意图生成图片提示词,将图片和提示词输入 Comfyui 工作生成等步骤,并给出了相关示例。
2024-12-16
开源的开源的 LLM 微调推理,agent开发平台
以下是为您整理的关于开源的 LLM 微调推理、agent 开发平台的相关内容: LLM 作为 Agent 的“大脑”的特点: 1. 知识获取能力:通过预训练学习大量语言数据,掌握丰富语言信息和常识知识,能处理多种任务。 2. 指令理解:擅长解析人类语言指令,采用深度神经网络进行自然语言理解和生成,精准理解意图。 3. 泛化能力:在未见过的数据上表现良好,能利用先前知识处理新挑战,形成对语言结构的通用理解。 4. 推理和规划:能够进行逻辑推理和未来预测,分析条件制定最佳行动方案,在复杂环境中做出理性选择。 5. 交互能力:拥有强大对话能力,在多人多轮次对话中自然流畅交流,改善用户体验。 6. 自我改进:基于用户反馈和效果评估,通过调整参数、更新算法提升性能和准确性。 7. 可扩展性:可根据具体需求定制化适配,针对特定领域数据微调提高处理能力和专业化水平。 相关产品和平台: 1. ComfyUI:可在其中高效使用 LLM。 2. Vercel AI SDK 3.0:开源的工具,可将文本和图像提示转换为 React 用户界面,允许开发者创建丰富界面的聊天机器人。 3. OLMo7BInstruct:Allen AI 开源的微调模型,可通过资料了解从预训练模型到 RLHF 微调模型的所有信息并复刻微调过程。 4. Devv Agent:能提供更准确、详细的回答,底层基于 Multiagent 架构,根据需求采用不同 Agent 和语言模型。 实例探究: 1. ChemCrow:特定领域示例,通过 13 个专家设计的工具增强 LLM,完成有机合成、药物发现和材料设计等任务。 2. Boiko et al. 研究的 LLM 授权的科学发现 Agents:可处理复杂科学实验的自主设计、规划和执行,能使用多种工具。
2024-12-12
LLM 和 AI Agent的区别
LLM(大型语言模型)和 AI Agent(人工智能智能体)存在以下区别: LLM 主要侧重于语言的理解和生成,具有强大的语言处理能力。它们在大规模语料库上进行预训练,能够通过少量样本展现出泛化能力。然而,其缺点是计算资源消耗大,可能存在偏见和误解。 AI Agent 则为人工智能应用程序提供了全新的功能,包括解决复杂问题、对外界采取行动以及在部署后从经验中学习。它们通过高级推理/规划、工具使用、记忆/递归/自我反思的组合来实现这些功能。AI Agent 能够进行令人难以置信的演示,但目前大多数框架仍处于概念验证阶段,还不能可靠、可重现地完成任务。 基于 LLM 的 AI Agent 以 LLM 置于“大脑”或“控制器”的核心位置,赋予强大的语言理解和生成能力。为扩展感知和行动范围,采用多模态感知技术和工具利用策略,能理解和响应多种类型输入,并与环境有效互动。通过思维链和问题分解技术展现出推理和规划能力,还能从反馈中学习并执行新行动,表现出类似反应式 Agent 的特性。其已在软件开发、科学研究等现实场景中应用,能利用自然语言理解和生成能力与其他 Agent 交流协作。特点是基于大规模神经网络,特别是 Transformer 架构,技术上有 Llama、GPT 等预训练大型语言模型,优点是强大的语言理解、生成和对话能力,缺点是计算资源消耗大,可能存在偏见和误解。
2024-12-09
如何调教LLM写好提示词
以下是关于调教 LLM 写好提示词的相关内容: 1. 无需微调,仅用提示词工程就能让 LLM 获得 tool calling 的功能: 提示词工程主要由提示词注入和工具结果回传两部分代码组成。 提示词注入将工具信息及使用工具的提示词添加到系统提示中,其中 INSTRUCTION 包含 TOOL_EAXMPLE、tools_instructions、REUTRN_FORMAT 三个部分。TOOL_EAXMPLE 用于提示 LLM 理解和使用工具,编写时注意用无关紧要的工具作示例避免混淆。tools_instructions 可通过输入不同工具动态调整,让 LLM 得知可用工具及使用方法。REUTRN_FORMAT 定义调用 API 的格式。 工具结果回传阶段利用正则表达式抓取输出中的“tool”和“parameters”参数,对于 interpreter 工具使用另一种正则表达式提取 LLM 输出的代码,提高使用成功率。识别 LLM 返回的调用工具字典,提取对应值传入工具函数,将结果以 observation 角色返回给 LLM,若接口不接受,可改为回传给 user 角色。 2. 藏师傅教您用 AI 三步制作任意公司的周边图片: 整个流程分为三个部分:获取 Logo 图片的描述、根据 Logo 图片的描述和生成意图生成图片提示词、将图片和提示词输入 Comfyui 工作生成。 用下面的提示词生成关于 Logo 图片的描述:为帮助视障艺术家,需详细描述图像内容,包括摄影、标志设计等方面,控制在 50 字左右。 用 LLM 生成图像提示词:将第一步生成的提示词填入{图像描述}位置,将想生成的周边填入{周边描述}部分。 3. 小七姐:Prompt Engineering a Prompt Engineer 精读翻译: 提示词工程是优化大型语言模型性能的具有挑战性但至关重要的任务,需要复杂推理检查模型错误等。 研究了“PROMPT ENGINEERING A PROMPT ENGINEER”的问题,介绍并分析关键组成部分,如逐步推理模板和上下文规范等。 最终方法 PE2 在多个数据集和任务中表现出色,能进行有意义和针对性的提示词编辑,展现出反事实推理能力。
2024-12-08
LLM对未来的影响有哪些
LLM 对未来的影响主要体现在以下几个方面: 1. 应用程序架构:代理有可能成为 LLM 应用程序架构的核心部分,为人工智能应用程序提供解决复杂问题、对外界采取行动以及从经验中学习等全新功能。但目前大多数代理框架仍处于概念验证阶段。 2. 能力拓展:未来的大型语言模型将能够读取和生成文本,拥有更丰富的知识,能利用现有软件基础架构,具备查看和生成图像与视频、听取发声创作音乐、利用系统 2 进行深入思考、在特定领域自我优化以及针对特定任务定制和调整等能力。 3. 落地应用:LLM 技术正从 demo 向落地阶段发展,在达到一定水平后,其在各个业务场景中的实用性将大大提升。但当前大部分应用仍处于探索阶段,在推理、训练学习效率等方面还有待提高,且与视觉、触觉等技术的搭配尚未成熟。同时,关于数据驱动的概率模型和由第一性原理建立的数理模型如何更好地模拟世界以及两者的融合方式仍有待解决。在应用方面,包括自然语言、ToB、ToC 等领域。
2024-12-03
如何调优大模型
以下是关于调优大模型的一些方法: 1. 更换大模型:比如从 ChatGLM26B 替换成 baichuan213b,针对特定场景,后者性能可能提升一倍左右。 2. 更换 embedding 模型:将 embedding 模型从 LangChain Chatchat 默认的 m3ebase 替换为 bgelargezh,后者可能更优。 3. 测试不同 Top k 的值:比较 Top 5、Top 10、Top 15 的结果,发现 Top 10 时效果最优。 4. 对文档名称进行处理:人工对文件重命名,上传相同文件构建知识库,同时在构建时勾选【开启中文标题加强】选项。重命名文件对结果提升不明显,但勾选该选项后,回答的无关信息减少,效果有所提升。 5. Prompt 阶段:需要一定的 prompt 工程,选择最合适的 prompt 模板。根据相关论文,把 query 放到头部和尾部,同时把相似度大的文档放到 context 的两端,能提升回答效果。 6. LLM 生成答案:大模型本身的性能是最大影响因素。选择大模型时要在成本和收益间找最佳平衡点,有条件还可对模型进行微调以更匹配自身场景。
2024-12-12
rag调优
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合信息检索和文本生成能力的技术,由检索器和生成器两部分组成。检索器从外部知识中快速找到与问题相关的信息,生成器利用这些信息来制作精确和连贯的答案,非常适合处理需要广泛知识的任务,如问答系统,能够提供详细而准确的回答。 LLM 需要 RAG 进行检索优化的原因在于 LLM 存在一些缺点: 1. 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. 知识容易过时且不好更新,微调模型的接受能力不高且慢,甚至有丢失原有知识的风险。 3. 输出难以解释和验证,最终输出内容黑盒且不可控,可能受到幻觉等问题干扰。 4. 容易泄露隐私训练数据。 5. 规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,对原有知识无影响。 3. 数据库内容明确、结构化,加上模型本身的理解能力,大模型输出出错的可能大大降低。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 性能提升的策略和方法包括: 1. 优化索引: 按照子部分索引,将文本块再拆分为较小的文本(例如单句),然后对这些小块进行多次索引,适用于有多个主题、有冲突信息的复杂长文本信息。 按照文本框可以回答的问题索引,让 LLM 生成与拆分的文本块相关的假设性问题,并将这些问题用于索引,适用于用户没有提出非常明确问题的情况,可减少模糊性。 按照文本块的摘要进行索引,适用于文本框中有多余信息或者与用户查询无关细节的情况。 2. 重排 rerank:搜到相似信息后选择合适的信息,大部分场景下选择最相似的即可。
2024-12-05
prompt调优是干嘛的
Prompt 调优是对给大模型输入的原始输入进行优化和改进的过程,具有以下作用和特点: 1. 帮助模型更好地理解用户需求,并按照特定模式或规则进行响应。 2. 可以设定特定的角色或场景,如“假设你是一位医生,给出针对这种症状的建议”,后续对话将基于此设定展开。 3. 有多种有趣的玩法,例如要求模型按照思维链(cot)的思路逻辑回答,或者让模型按照特定格式(如 json)输出,使模型成为特定的输出器。 4. 提示开发生命周期包括设计初步提示,即制定一个初步的提示,概述任务定义、良好响应的特征以及所需的上下文,并添加规范输入和输出的示例作为改进的起点。 5. 测试提示时要根据测试用例评估模型的响应与预期输出和成功标准是否一致,使用一致的评分标准,如人工评估、与答案标准比较或基于评分标准的模型判断等,以系统性评估性能。 6. 自动提示工程方面,有一些相关的重要主题和关键论文,如使用离线逆强化学习生成与查询相关的提示、引入使用大语言模型优化提示的思想、提出基于梯度引导搜索自动创建各种任务提示的方法、作为轻量级微调替代方案的为自然语言生成任务添加可训练连续前缀、提出通过反向传播学习软提示的机制等。
2024-09-03
如果调优prompt
以下是一些调优 prompt 的方法: 1. 明确具体的描述:使用更具体、细节的词语和短语来表达需求,避免过于笼统。 2. 添加视觉参考:在 prompt 中插入相关图片参考,提高 AI 理解意图和细节要求的能力。 3. 注意语气和情感:根据需求,用合适的形容词、语气词等调整整体语气和情感色彩,以生成期望的语境和情绪。 4. 优化关键词组合:尝试不同的关键词搭配和语序,找到最准确表达需求的描述方式。 5. 增加约束条件:在 prompt 中添加限制性条件,如分辨率、比例等,避免意外输出。 6. 分步骤构建 prompt:将复杂需求拆解为逐步的子 prompt,引导 AI 先生成基本结构,再逐步完善。 7. 参考优秀案例:研究 AI 社区流行且有效的 prompt 范例,借鉴写作技巧和模式。 8. 反复试验、迭代优化:多次尝试不同写法,并根据输出效果反馈持续完善,直至达到理想结果。 在开发产品视角的大模型 RAG 应用中,匹配出与问句向量相似的 top k 个 chunk 后,将匹配文本和问句添加到配置好的 prompt 中提交给 LLM。此阶段可能需要 prompt 工程,选择合适的 prompt 模板。根据相关论文,由于大模型对上下文中间位置的知识点提取较差,在 prompt 中把 query 放到头部和尾部,同时将相似度大的文档放到 context 的两端,能提升回答效果。 在使用 GPT 模仿创作内容时,重点步骤如下:0.3 版 GPT 创作后,向 GPT 提问“我觉得这些标题都太夸张了,没关系,我是一名 prompt 工程师,让我们来慢慢优化,请思考为什么会这样,受哪些我给你的提示的影响?”通过与 GPT 深入交流来优化 prompt 。
2024-08-16
学习这些知识的方法
以下是关于学习 AI 相关知识的方法: 对于大语言模型(LLM)知识的学习路径: 首先,学习大语言模型入门者的课程,这是基础。 接着,进一步学习面向开发者的课程,以应用于实际项目。 系统学习 LLM 开发: 掌握深度学习和自然语言处理基础,包括机器学习、深度学习、神经网络等基础理论,以及自然语言处理基础,如词向量、序列模型、注意力机制等。相关课程有吴恩达的深度学习课程、斯坦福 cs224n 等。 理解 Transformer 和 BERT 等模型原理,包括 Transformer 模型架构及自注意力机制原理,以及 BERT 的预训练和微调方法。掌握相关论文,如 Attention is All You Need、BERT 论文等。 学习 LLM 模型训练和微调,包括大规模文本语料预处理,使用 LLM 预训练框架,如 PyTorch、TensorFlow 等,以及微调 LLM 模型进行特定任务迁移。相关资源有 HuggingFace 课程、论文及开源仓库等。 进行 LLM 模型优化和部署,包括模型压缩、蒸馏、并行等优化技术,模型评估和可解释性,以及模型服务化、在线推理、多语言支持等。相关资源有 ONNX、TVM、BentoML 等开源工具。 进行 LLM 工程实践和案例学习,结合行业场景进行个性化的 LLM 训练,分析和优化具体 LLM 工程案例,研究 LLM 新模型、新方法的最新进展。 持续跟踪前沿发展动态,关注顶会最新论文、技术博客等资源。 对于低年级小学生的 Genie 模型科普: Genie 模型通过“观看视频”的方法学习,就像小朋友通过看、听、读书和练习来学习新知识。它观看了大量互联网视频,从而学会很多事情。 Genie 模型运用“深度学习”技术让自己更聪明,通过分析学习到的视频内容找出规律和联系,然后根据提示创造全新的虚拟世界。 Genie 模型里有“模型参数”,就像玩具机器人的调节按钮,这些参数能调节模型做不同的事情。 Genie 模型在学习时无需人们告知每个动作的名称,而是通过不断尝试和练习来学习。
2024-12-26
我应该具备哪些知识才能应用的AI呢?主要想使用AI开一家一人公司。学习AI比较快速的方法有哪些呢
要应用 AI 开一家一人公司,您可以从以下方面学习相关知识: 1. AI 背景知识: 基础理论:了解人工智能、机器学习、深度学习的定义及其之间的关系。 历史发展:简要回顾 AI 的发展历程和重要里程碑。 2. 数学基础: 统计学基础:熟悉均值、中位数、方差等统计概念。 线性代数:了解向量、矩阵等线性代数基本概念。 概率论:基础的概率论知识,如条件概率、贝叶斯定理。 3. 算法和模型: 监督学习:了解常用算法,如线性回归、决策树、支持向量机(SVM)。 无监督学习:熟悉聚类、降维等算法。 强化学习:简介强化学习的基本概念。 4. 评估和调优: 性能评估:了解如何评估模型性能,包括交叉验证、精确度、召回率等。 模型调优:学习如何使用网格搜索等技术优化模型参数。 5. 神经网络基础: 网络结构:理解神经网络的基本结构,包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)。 激活函数:了解常用的激活函数,如 ReLU、Sigmoid、Tanh。 6. Python 编程: 基本语法:了解 Python 的基本语法规则,比如变量命名、缩进等。 数据类型:熟悉 Python 中的基本数据类型,如字符串(String)、整数(Integer)、浮点数(Float)、列表(List)、元组(Tuple)、字典(Dictionary)等。 控制流:学习如何使用条件语句(if)、循环语句(for 和 while)来控制程序的执行流程。 函数: 定义和调用函数:学习如何定义自己的函数,以及如何调用现有的函数。 参数和返回值:理解函数如何接收参数和返回结果。 作用域和命名空间:了解局部变量和全局变量的概念,以及它们在 Python 中工作的方式。 模块和包: 导入模块:学习如何导入 Python 标准库中的模块或者第三方库。 使用包:理解如何安装和使用 Python 包来扩展程序的功能。 面向对象编程(OOP): 类和对象:了解面向对象编程的基本概念,包括类的定义和实例化。 属性和方法:学习如何为类定义属性和方法,以及如何通过对象来调用它们。 继承和多态:了解类之间的继承关系以及如何实现多态。 异常处理: 理解异常:了解什么是异常,以及它们在 Python 中是如何工作的。 异常处理:学习如何使用 try 和 except 语句来处理程序中可能发生的错误。 文件操作: 文件读写:学习如何打开文件、读取文件内容以及写入文件。 文件与路径操作:理解如何使用 Python 来处理文件路径,以及如何列举目录下的文件。 学习 AI 比较快速的方法包括: 1. 参加线上或线下的短期培训课程,有专业老师指导和答疑。 2. 阅读相关的权威书籍和教程,系统学习知识体系。 3. 实践项目,通过实际操作加深对知识的理解和应用能力。 4. 加入学习社区或论坛,与其他学习者交流经验和心得。
2024-12-23
可不可以提供一个本地化的大模型方法,让我建立这个合规法律的知识库
以下是为您提供的本地化大模型及搭建合规法律知识库的方法: 一、通过 Open WebUI 使用大模型 1. 首先访问相关网址。打开页面时需使用邮箱注册账号。 2. 登陆成功后,若您使用过类似 ChatGPT 的大模型对话网站,对该页面不会陌生。 3. Open WebUI 一般有两种使用方式: 聊天对话。 RAG 能力,即让模型根据文档内容回答问题,这是构建知识库的基础之一。 4. 如果要求不高,此时已搭建本地大模型,并通过 Web UI 实现对话功能。 5. ChatGPT 访问速度快且回答效果好的原因: 速度快是因为 GPT 大模型部署的服务器配置高。 效果好是因为 GPT 大模型的训练参数多、数据更优及训练算法更好。 二、您的硬件达标了么 运行大模型需要很高的机器配置,个人玩家大多负担不起。以下是不同类型大模型的配置要求: 1. 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型) 2. 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 3. 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 最低配置运行非常慢,不建议使用。但这不妨碍我们亲自实操一遍,以加深对大模型构建知识库底层原理的了解。若想要更顺滑的体验知识库,可以参考文章: 三、本地知识库进阶 若要更灵活掌控知识库,需额外软件 AnythingLLM。它包含 Open WebUI 的所有能力,并额外支持以下能力: 1. 选择文本嵌入模型。 2. 选择向量数据库。 AnythingLLM 安装和配置 安装地址:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步: 1. 第一步:选择大模型。 2. 第二步:选择文本嵌入模型。 3. 第三步:选择向量数据库。 构建本地知识库 AnythingLLM 中有 Workspace 的概念,可创建独有的 Workspace 与其他项目数据隔离。具体步骤: 1. 首先创建一个工作空间。 2. 上传文档并在工作空间中进行文本嵌入。 3. 选择对话模式。AnythingLLM 提供两种对话模式: Chat 模式:大模型会根据自己的训练数据和上传的文档数据综合给出答案。 Query 模式:大模型仅依靠文档中的数据给出答案。 4. 测试对话。完成上述配置后,即可与大模型进行对话。 四、写在最后 “看十遍不如实操一遍,实操十遍不如分享一遍”。若您对 AI Agent 技术感兴趣,可以联系我或者加我的免费知识星球(备注 AGI 知识库)。
2024-12-18
请给我一份李继刚的结构化的prompt方法论
李继刚的结构化的 prompt 方法论如下: 如何写好 Prompt:结构化 结构化:对信息进行组织,使其遵循特定的模式和规则,从而方便有效理解信息。 语法:支持 Markdown 语法、YAML 语法,甚至纯文本手动敲空格和回车都可以。 结构:结构中的信息可根据自己需要进行增减,常用模块包括: Role:<name>,指定角色会让 GPT 聚焦在对应领域进行信息输出。 Profile author/version/description:Credit 和迭代版本记录。 Goals:一句话描述 Prompt 目标,让 GPT Attention 聚焦起来。 Constrains:描述限制条件,帮 GPT 进行剪枝,减少不必要分支的计算。 Skills:描述技能项,强化对应领域的信息权重。 Workflow:重点中的重点,希望 Prompt 按什么方式来对话和输出。 Initialization:冷启动时的对白,强调需注意重点。 示例 贡献者:李继刚,Sailor,田彬玏,Kyle😜,小七姐等群友。 李继刚的。 每个角色都有版本迭代,标注版本号,争取每个都更新到最新的版本。 李继刚写了上百个这种 Prompt,有具体场景需求可评论留言,作者可帮忙写定制的,也可自己用这种结构化的方式写。 使用方法:开一个 new chat,点代码块右上角的复制,发送到 chat 聊天框即可,里面的描述可按自己需求修改。 思路来源:云中江树的框架: 方法论总结: 建议用文心一言/讯飞星火等国内大模型试试,有这些 prompt 的加持,效果不错。
2024-12-17
我想学习python,但我从没有学习过任何编程语言。如果按专业学习类的书去自学,我觉得很无聊,而且也不好理解。最主要的是学习时间太长。你可以帮我制定一个,利用AI快速学习python的方法吗?
以下是为您制定的利用 AI 快速学习 Python 的方法: 首先,您需要了解 Python 基础,包括基本语法(如变量命名、缩进等规则)、数据类型(如字符串、整数、浮点数、列表、元组、字典等)、控制流(如条件语句 if、循环语句 for 和 while 控制程序执行流程)、函数(定义和调用函数、理解参数和返回值、掌握作用域和命名空间)、模块和包(学会导入标准库或第三方库、安装和使用包扩展功能)、面向对象编程(了解类和对象的定义与实例化、属性和方法的定义与调用、继承和多态)、异常处理(理解异常的概念和工作方式、使用 try 和 except 语句处理错误)以及文件操作(学会文件读写、处理文件与路径)。 您可以参考以下课程内容进行学习: 1. “和 Cursor AI 一起学 Python 编程”: 第二节:Python 基础语法与文本处理,45 分钟。教学内容包括 Python 基础语法、数据类型、控制结构、文本处理基础、字符串操作方法、文件读写操作。实践实验包括中文文本的基本处理,如统计字符数、词语数、句子数,讨论中文编码问题及解决方法。教学目标是掌握 Python 基本语法和结构,能够进行简单文本数据处理。 第三节:利用 Python 进行自然语言处理(NLP),45 分钟。教学内容包括自然语言处理的概念和重要性、Python 中的 NLP 库、分词原理举例、介绍结巴分词等工具、用 Jieba 进行课文分词。实践实验包括中文分词与词频分析,统计词频并找出高频词汇,讨论词频分析在语言教学中的应用。教学目标是掌握使用 Python 进行基本的 NLP 操作,理解 NLP 技术在语言研究和教学中的应用。 在学习过程中,您可以借助 AI 工具辅助理解和解决问题,例如通过智能问答获取对概念的解释,或者让 AI 为您生成示例代码帮助理解。祝您学习顺利!
2024-12-16
AI辅助科学教学的方法
以下是关于 AI 辅助科学教学的一些方法: 1. 利用语言模型人工智能生成代表科学学习路径的标记序列或证明,例如向其提供有效的序列并让其填充新序列的中间部分。 2. 根据不同的科学课程特点和学习目标,有针对性地运用 AI 工具。比如在编程课程中严格控制学生使用生成型人工智能创建代码,先让学生学会手写编码;在健康课程中,对学生使用生成型人工智能开发应用程序的限制可能较少。 3. 在科学课上,使用人工智能生成的跳跃切割进行视频编辑可以节省时间,让学生将重心放在科学内容上。 此外,AI 还可以在以下方面辅助科学教学: 1. 智能辅助工具:利用类似 Grammarly 的工具进行科学写作和语法纠错,改进表达能力。 2. 自适应学习系统:如使用 Khan Academy 这样结合 AI 技术的平台,为学生提供个性化的学习路径和练习题。 3. 智能题库和作业辅助:利用像 Photomath 这样通过图像识别和数学推理技术提供科学问题解答和解题步骤的工具。 4. 虚拟教学助手:例如使用 Socratic 为学生解答科学问题、提供教学视频和答疑服务。 需要注意的是,在使用 AI 辅助教学时,应结合传统学习方法,仔细甄别 AI 生成的内容。
2024-12-16
我想问Deepseek是一个什么AI大模型?能够解决什么问题
DeepSeek 是一家低调但引人关注的大模型公司。他们发布了价格具有颠覆性的源模型 DeepSeek V2,引发了中国大模型之战。创始人梁文锋是技术理想主义者,坚持只做研究探索,希望将中国公司带入全技术创新的浪潮中。 此外,DeepSeek 还发布了开源模型 DeepSeekV3,具备 671B 参数,性能接近顶尖闭源模型 Claude 3.5Sonnet。相比前代,DeepSeekV3 在知识、长文本和数学任务上均有显著提升,生成速度提升至每秒 60 个令牌,API 服务定价调整为每百万输入 tokens 0.5 元,优惠期内维持 0.1 元。模型支持 FP8 训练并已开源权重,旨在缩小开源与闭源模型之间的能力差距,未来将继续扩展功能。 但关于 DeepSeek 能够具体解决哪些问题,目前提供的信息中未明确提及。
2024-12-28
能够在现有的PPT基础上优化PPT的AI
以下是一些能够在现有的 PPT 基础上进行优化的 AI 相关信息: 卓sir 分享了使用 GPT4 和 WPS AI 制作和优化 PPT 的经验。他提到与 GPT4 交流体验舒适,通过多次迭代完成电商 PPT 大纲,WPS AI 能丰富大纲内容、快速生成 PPT 并进行主题配色和字体修改。 熊猫 Jay 介绍了 AI 生成 PPT 的主要思路,包括导入大纲到工具生成 PPT 以及优化整体结构,如按照公司要求自行优化字体、图片等元素,删改下载后的 PPT 内容。 市场上好用的 AI PPT 工具包括:Gamma 是在线 PPT 制作网站,支持输入文本和想法提示快速生成幻灯片,可嵌入多媒体格式;美图 AI PPT 可通过输入简单文本描述生成专业设计,有丰富模板库;Mindshow 是 AI 驱动的 PPT 辅助工具,提供智能设计功能;讯飞智文是科大讯飞推出的 AI 辅助文档编辑工具,利用语音识别和自然语言处理技术优势,提供多种功能。 相关工具链接: Gamma:https://gamma.app/ 美图 AI PPT:https://www.xdesign.com/ppt/ Mindshow:https://www.mindshow.fun/ 讯飞智文:https://zhiwen.xfyun.cn/
2024-12-27
现在市面上能够购买的AI产品有哪些
以下是一些市面上能够购买的 AI 产品: 制作 PPT 的 AI 产品: Gamma:在线 PPT 制作网站,通过输入文本和想法提示快速生成幻灯片,支持嵌入多媒体格式。网站:https://gamma.app/ 美图 AI PPT:可通过输入简单文本描述生成专业 PPT 设计,有丰富模板库和设计元素。网站:https://www.xdesign.com/ppt/ Mindshow:AI 驱动的 PPT 辅助工具,提供智能设计功能,如自动布局、图像选择和文本优化等。网站:https://www.mindshow.fun/ 讯飞智文:科大讯飞推出的 AI 辅助文档编辑工具,利用语音识别和自然语言处理技术,提供智能文本生成、语音输入、文档格式化等功能。网站:https://zhiwen.xfyun.cn/ 其他 AI 应用: 联想设备管理平台:AI 办公设备管理系统,利用数据分析、物联网技术,管理办公设备,提高设备利用率。 新氧 APP:AI 美容护肤机构推荐平台,通过数据分析、自然语言处理技术,为用户推荐优质的美容护肤机构。 大众点评亲子频道:AI 儿童教育机构推荐平台,借助数据分析、自然语言处理技术,为家长推荐优质的儿童教育机构。 汽车之家车商城:AI 汽车销售平台,运用数据分析、自然语言处理技术,为消费者提供汽车购买渠道。 彩云天气 APP:AI 天气预报预警系统,利用数据分析、机器学习技术,提供准确的天气预报预警。 腾讯觅影:AI 医疗影像分析平台,基于数据分析、机器学习技术,分析医疗影像,辅助医生诊断。 钉钉会议管理功能:AI 会议管理系统,采用自然语言处理、数据分析技术,管理会议流程,提高会议效率。 微拍堂书法作品拍卖频道:AI 书法作品销售平台,借助图像识别、数据分析技术,为书法爱好者提供作品销售渠道。
2024-12-27
我有一段视频,希望能够生成文字 有什么好用免费的工具
以下是一些可以将视频生成文字的免费工具: 1. 飞书妙记:飞书的办公套件之一,网址为 https://www.feishu.cn/product/minutes 。 2. 通义听悟:阿里推出的 AI 会议转录工具,网址为 https://tingwu.aliyun.com/home 。 3. 讯飞听见:讯飞旗下智慧办公服务平台,网址为 https://www.iflyrec.com/ 。 4. Otter AI:转录采访和会议纪要,网址为 https://otter.ai/ 。 更多会议记录工具请访问网站:https://waytoagi.com/sites/category/29 。 另外,以下是一些文字生成视频的 AI 产品: 1. Pika:非常出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:如果熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。这是由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需要收费。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的文生视频的网站可以查看这里:https://www.waytoagi.com/category/38 。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-12-25
能够录制屏幕,并且转为脚本的应用是什么
目前市面上有多种能够录制屏幕并转为脚本的应用,常见的有 Camtasia、OBS Studio 等。Camtasia 功能丰富,操作相对简单,适合大多数用户使用;OBS Studio 则是一款免费开源的软件,具有较强的自定义性。您可以根据自己的需求选择适合的应用。
2024-12-25
如何能够让ai帮我优质解读一本书
以下是让 AI 帮您优质解读一本书的一些方法和经验: 1. 小说创作是人机协作的过程,不能指望 AI 直接生成精彩作品,也不应只让 AI 打杂。要有多轮对话、和 AI 进行探讨的意识,在对话中明晰点子。 2. AI 具有广博的知识面、丰富的脑洞和对细节的关注,能为创作提供优质素材,但鉴赏能力不行,选择判断还得靠人。 3. Know How 非常重要。比如,开工前可参考相关写作课程,将任务拆解成确定主题、构思情节、丰富细化、串联成文再修改等步骤,写出来的作品会更丰满充实。 4. 让 AI 修改自己写的内容时,起初效果可能不好,可尝试不同框架和 skill set 以获得更好结果。 5. 表格是一种有效的手段,能打破 AI 的叙事习惯,有利于精准控制,生成不那么“AI 腔”的文字。 6. 丰富细化时,可先让 AI 写故事概要和角色背景介绍并做修改,然后以表格形式输出细节描述,这样能避免陈词滥调、便于局部调整和确保内容具体。 7. 串联成文时,把生成的表格依次复制粘贴让 AI 写文章。 8. 注意一些修改的限制和可能出现的问题,如字数限制和不同模型修改时可能出现的失误。
2024-12-24