Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

从零到一的 LLM 学习教程

Answer

以下是从零到一学习 LLM 的教程:

  1. 掌握深度学习和自然语言处理基础:
    • 学习机器学习、深度学习、神经网络等基础理论。
    • 掌握自然语言处理基础,如词向量、序列模型、注意力机制等。
    • 相关课程:吴恩达的深度学习课程、斯坦福 cs224n 等。
  2. 理解 Transformer 和 BERT 等模型原理:
    • 了解 Transformer 模型架构及自注意力机制原理。
    • 掌握 BERT 的预训练和微调方法。
    • 阅读相关论文,如 Attention is All You Need、BERT 论文等。
  3. 学习 LLM 模型训练和微调:
    • 进行大规模文本语料预处理。
    • 运用 LLM 预训练框架,如 PyTorch、TensorFlow 等。
    • 微调 LLM 模型进行特定任务迁移。
    • 相关资源:HuggingFace 课程、论文及开源仓库等。
  4. LLM 模型优化和部署:
    • 掌握模型压缩、蒸馏、并行等优化技术。
    • 进行模型评估和可解释性研究。
    • 实现模型服务化、在线推理、多语言支持等。
    • 相关资源:ONNX、TVM、BentoML 等开源工具。
  5. LLM 工程实践和案例学习:
    • 结合行业场景,进行个性化的 LLM 训练。
    • 分析和优化具体 LLM 工程案例。
    • 研究 LLM 新模型、新方法的最新进展。
  6. 持续跟踪前沿发展动态:
    • 关注顶会最新论文、技术博客等资源。

此外,为您推荐以下 LLM 开源中文大语言模型及数据集集合的学习资源:

  1. 面向开发者的 LLM 入门课程:
    • 地址:https://github.com/datawhalechina/prompt-engineering-for-developers
    • 简介:一个中文版的大模型入门教程,围绕吴恩达老师的大模型系列课程展开,主要包括:吴恩达《ChatGPT Prompt Engineering for Developers》课程中文版,吴恩达《Building Systems with the ChatGPT API》课程中文版,吴恩达《LangChain for LLM Application Development》课程中文版等。
  2. 提示工程指南:
    • 地址:https://www.promptingguide.ai/zh
    • 简介:该项目基于对大语言模型的浓厚兴趣,编写了这份全新的提示工程指南,介绍了大语言模型相关的论文研究、学习指南、模型、讲座、参考资料、大语言模型能力以及与其他与提示工程相关的工具。
  3. LangChain🦜️🔗中文网,跟着 LangChain 一起学 LLM/GPT 开发:
    • 地址:https://www.langchain.asia
    • 简介:Langchain 的中文文档,由是两个在 LLM 创业者维护,希望帮助到从刚进入 AI 应用开发的朋友们。
  4. LLMs 九层妖塔:

关于 LLM 的预测原理: LLM 接触了包括教科书、文章、网站等在内的庞大数据集。在训练阶段,它们学会了理解语言的上下文和流动性,掌握了包括语法、风格,甚至是文本的语调等方面。当您用一个句子或问题来指导 LLM 时,它便利用自己所学的知识,预测接下来最可能的一个或几个词。这不仅是基于它在训练期间观察到的模式和规则的推测。

在提示工程方面,鉴于 LLM 的概率本质,提示工程师面临的挑战是如何引导 LLM 向着高度可预测和准确的结果方向发展。在相关课程中,您将学习许多技巧,这些技巧将帮助您掌握高度可预测的 LLM 输出结果的艺术和科学。但在深入学习之前,可以先从一些简单的练习开始,激活思维。

Content generated by AI large model, please carefully verify (powered by aily)

References

问:怎么系统学习 llm 开发?

学习大型语言模型(LLM)的开发是一个系统性的过程,需要涵盖多个方面的知识和技能。以下是一些建议的学习路径和资源:1.掌握深度学习和自然语言处理基础-机器学习、深度学习、神经网络等基础理论-自然语言处理基础,如词向量、序列模型、注意力机制等-相关课程:吴恩达的深度学习课程、斯坦福cs224n等2.理解Transformer和BERT等模型原理-Transformer模型架构及自注意力机制原理-BERT的预训练和微调方法-掌握相关论文,如Attention is All You Need、BERT论文等3.学习LLM模型训练和微调-大规模文本语料预处理-LLM预训练框架,如PyTorch、TensorFlow等-微调LLM模型进行特定任务迁移-相关资源:HuggingFace课程、论文及开源仓库等4.LLM模型优化和部署-模型压缩、蒸馏、并行等优化技术-模型评估和可解释性-模型服务化、在线推理、多语言支持等-相关资源:ONNX、TVM、BentoML等开源工具5.LLM工程实践和案例学习-结合行业场景,进行个性化的LLM训练-分析和优化具体LLM工程案例-研究LLM新模型、新方法的最新进展6.持续跟踪前沿发展动态-关注顶会最新论文、技术博客等资源

LLM开源中文大语言模型及数据集集合

面向开发者的LLM入门课程:地址:[https://github.com/datawhalechina/prompt-engineering-for-developers](https://github.com/datawhalechina/prompt-engineering-for-developers)简介:一个中文版的大模型入门教程,围绕吴恩达老师的大模型系列课程展开,主要包括:吴恩达《ChatGPT Prompt Engineering for Developers》课程中文版,吴恩达《Building Systems with the ChatGPT API》课程中文版,吴恩达《LangChain for LLM Application Development》课程中文版等。提示工程指南:地址:[https://www.promptingguide.ai/zh](https://www.promptingguide.ai/zh)简介:该项目基于对大语言模型的浓厚兴趣,编写了这份全新的提示工程指南,介绍了大语言模型相关的论文研究、学习指南、模型、讲座、参考资料、大语言模型能力以及与其他与提示工程相关的工具。LangChain🦜️🔗中文网,跟着LangChain一起学LLM/GPT开发:地址:[https://www.langchain.asia](https://www.langchain.asia/)简介:Langchain的中文文档,由是两个在LLM创业者维护,希望帮助到从刚进入AI应用开发的朋友们。LLMs九层妖塔:地址:[https://github.com/km1994/LLMsNineStoryDemonTower](https://github.com/km1994/LLMsNineStoryDemonTower)简介:ChatGLM、Chinese-LLaMA-Alpaca、MiniGPT-4、FastChat、LLaMA、gpt4all等实战与经验。

歸藏翻译:简单易懂,强烈推荐-Codesignal提示工程教程 #1

你可能会好奇,LLMs是如何进行这些预测的。答案其实在于训练。LLMs接触了包括教科书、文章、网站等在内的庞大数据集。在这个训练阶段,它们学会了理解语言的上下文和流动性。它们掌握了包括语法、风格,甚至是文本的语调等方面。当你用一个句子或问题来指导LLM时,它便利用自己所学的知识,预测接下来最可能的一个或几个词。这不仅是基于它在训练期间观察到的模式和规则的推测。[heading2]尝试一些提示工程(Prompt Engineering)[content]鉴于LLMs的概率本质,提示工程师(Prompt Engineers)面临的挑战是如何引导LLMs向着高度可预测和准确的结果方向发展。在这门课程中,你将学习许多技巧,这些技巧将帮助你掌握高度可预测的LLM输出结果的艺术和科学。但在我们深入学习之前,让我们先从一些简单的练习开始,激活我们的思维。

Others are asking
LLM大模型与运维
以下是关于 LLM 大模型与运维的相关内容: 部署方面: 本地部署包括三大部分:本地部署大语言模型、本地部署 FastGPT+OneAPI、本地部署 HOOK 项目或 COW。 下载并安装 Ollama:根据电脑系统,从 https://ollama.com/download 下载,双击打开点击“Install”,安装完成后将下方地址复制进浏览器中确认:http://127.0.0.1:11434/ 。 下载 qwen2:0.5b 模型:Windows 电脑点击 win+R 输入 cmd 回车,Mac 电脑按下 Command(⌘)+Space 键打开 Spotlight 搜索输入“Terminal”或“终端”,然后复制命令行粘贴回车等待自动下载完成。 训练方面: 模型训练比推理复杂得多,是一个计算量极大的过程。获取参数面临计算复杂性问题。例如训练 Llama2 70B 这样的开源模型,需要约 10TB 的文本,通常来源于互联网的抓取,大约 6000 个 GPU,运行约 12 天,费用约 200 万美元,得到的参数文件约 140GB,压缩比约 100 倍,且是有损压缩。 整体架构方面: 基础层:为大模型提供硬件支撑,数据支持,如 A100、数据服务器等。 数据层:包括静态的知识库和动态的三方数据集。 模型层:有 LLm(如 GPT,一般使用 transformer 算法)或多模态模型(如文生图、图生图等,训练数据为图文或声音等多模态数据集)。 平台层:如大模型的评测体系或 langchain 平台等,提供模型与应用间的组成部分。 表现层:即应用层,是用户实际看到的地方。
2025-03-09
RAG内LLM的主要作用,简单概括
RAG(检索增强生成)中LLM(大语言模型)的主要作用包括: 1. 利用外部检索到的知识片段生成更符合要求的答案。由于LLM无法记住所有知识,尤其是长尾知识,且知识容易过时、不好更新,输出难以解释和验证,容易泄露隐私训练数据,规模大导致训练和运行成本高,通过RAG为LLM提供额外且及时更新的知识源,有助于生成更准确和有用的回答。 2. 在RAG的工作流程中,LLM接收整合后的知识片段和特定指令,利用其推理能力生成针对用户问题的回答。 3. 事实性知识与LLM的推理能力相分离,LLM专注于运用推理能力处理外部知识源提供的信息。
2025-03-08
使用llm的爬虫工具推荐下,开源免费
以下是为您推荐的开源免费的使用 LLM 的爬虫工具: 1. Jina 开源的网页内容爬取工具:Reader API 能从网址提取出核心内容,并将其转化为干净、易于大语言模型处理的文本,确保为您的 AI 智能体及 RAG 系统提供高品质的数据输入。 2. Scrapy 库(Python 语言):在 crawlab 可以做到分布式爬取,非常高效。 3. GPT Crawler:主要运用 typescript 进行数据爬取。 4. 在开源的项目中,为实现对含有 JavaScript 内容的网页抓取,不使用 Python 自己的 request 库,而是使用 playwright 之类的浏览器,并将网页内容按照一定规则转化成 markdown 格式,方便 LLM 后续的理解和抓取。 同时,对于爬虫工具的选择,还需根据您的具体需求和技术熟悉程度来决定。
2025-03-06
llm项目
以下是一些与 LLM 项目相关的信息: 开源中文大语言模型及数据集集合: LuotuoChineseLLM:地址为,囊括了一系列中文大语言模型开源项目,包含基于已有开源模型进行二次微调的语言模型、指令微调数据集等。 Linly:地址为,提供中文对话模型 LinlyChatFlow、中文基础模型 LinlyChineseLLaMA 及其训练数据。 ChatYuan:地址为,是元语智能发布的一系列支持中英双语的功能型对话语言大模型,在微调数据、人类反馈强化学习、思维链等方面进行了优化。 ChatRWKV:地址为,开源了一系列基于 RWKV 架构的 Chat 模型(包括英文和中文),可以直接闲聊及进行诗歌、小说等创作。 无需微调,仅用提示词工程就能让 LLM 获得 tool calling 的功能:作者 ailm 提出一种仅使用提示词工程和精巧的代码设计,即可让 LLM 获得稳定的 tool calling 能力。使用多个不具备 tool calling 能力的 LLM 作为测试模型,在多个工具调用任务上实验成功率为 100%。工作基于 comfyui 开发,适合无代码基础的人员复现和修改。 XiaoHu.AI 日报 1 月 29 日: LLMsfromscratch 项目:详细解释 LLMs 的工作原理,提供创建自己的 LLM 的逐步指南,适合企业团队、初创公司和教育机构学习。链接: SliceGPT 微软开发的大语言模型压缩方法:在保持高性能的同时大幅减少模型参数,允许在更少的 GPU 上运行,提高运行速度,显著降低在消费级 GPU 上的总计算量。链接: VisualWebArena 自主智能体的视觉网络任务基准测试:评估智能体在网络环境中的规划、推理和执行任务能力,着重于视觉信息的重要性和多模态智能体评估,提供深入的定量和定性分析,揭示 LLM 智能体的限制。链接: 百川智能的 Baichuan 3 模型:中文任务评测表现卓越,超越 GPT4,在医疗领域和中华传统文化理解方面表现突出,引入创新技术,提高训练效率和数据质量。链接: Apple Vision Pro 最新宣传片:链接
2025-03-04
如何写适配多个llm的提示词
以下是关于如何写适配多个 LLM 的提示词的详细内容: 实现原理: 提示词工程主要由两部分代码组成,即提示词注入和工具结果回传。提示词注入用于将工具信息及使用工具的提示词添加到系统提示中,它包含 TOOL_EAXMPLE、tools_instructions、REUTRN_FORMAT 三个部分。TOOL_EAXMPLE 用于提示 LLM 如何理解和使用工具,编写时应注意用无关紧要的工具作示例以免 LLM 混淆。tools_instructions 是将通用工具字典转换成 LLM 可读的工具列表,实际使用时可动态调整以让 LLM 知晓可用工具及使用方法。REUTRN_FORMAT 定义了调用 API 的格式。工具结果回传则是解析 tool calling 的输出,并将工具返回的内容再次嵌入 LLM,利用正则表达式抓取输出中的“tool”和“parameters”参数,对于 interpreter 工具使用另一种正则表达式提取 LLM 输出的代码,以提高成功率。对于不接受某些角色的 LLM 接口,可改为回传给 user 角色。 相关成果: 目前绝大多数小型本地开源大语言模型以及部分商用大模型接口不支持稳定的 tool calling 功能,现有的微调 LLM 解决方案会浪费大量时间和算力。本文提出仅使用提示词工程和精巧的代码设计,让 LLM 获得稳定的 tool calling 能力。使用多个不具备该能力的 LLM 作为测试模型,在多个工具调用任务上实验成功率达 100%,且基于 comfyui 开发,适合无代码基础的人员复现和修改。
2025-03-03
什么是llm
LLM(大型语言模型)是一种具有重要地位和强大功能的人工智能系统。 从不同角度来看: 它更像是新操作系统的核心程序,能够协调跨多种模式的输入与输出(如文本、音频、视觉),具备代码解释和运行程序的能力,还拥有浏览器/上网功能、嵌入式数据库用于文件和内部内存存储与检索等。 在开发中,LLM 是 LangChain 平台与各种大模型进行交互的核心模型,是一个抽象概念,输入是字符串表示的用户请求或问题,输出也是字符串表示的模型回答或结果,能调用不同大模型完成不同语言任务,让开发者无需关心大模型细节,还能灵活选择和切换大模型,甚至自己封装 LLM 实现特定语言逻辑和功能。 简单理解,LLM 就像一个非常聪明、知识丰富的“朋友”,能够通过学习大量文字数据来理解和生成自然语言,回答各种问题、写故事、完成作文等。可以把它想象成一个从小读了很多书、知识不断丰富的小朋友,虽然不是真人而是计算机程序,但能处理和学习海量文字数据,这些数据来源广泛。如今的搜索引擎背后可能就有 LLM 的支持,能更准确完整地回答问题。 总的来说,LLM 是一种通过学习大量文本数据,能够理解和生成自然语言的人工智能系统。
2025-03-01
如何从零到一学习LLM上层AI应用开发
从零到一学习 LLM 上层 AI 应用开发,您可以参考以下步骤: 1. 掌握深度学习和自然语言处理基础: 学习机器学习、深度学习、神经网络等基础理论。 掌握自然语言处理基础,如词向量、序列模型、注意力机制等。 相关课程:吴恩达的深度学习课程、斯坦福 cs224n 等。 2. 理解 Transformer 和 BERT 等模型原理: 熟悉 Transformer 模型架构及自注意力机制原理。 掌握 BERT 的预训练和微调方法。 阅读相关论文,如 Attention is All You Need、BERT 论文等。 3. 学习 LLM 模型训练和微调: 进行大规模文本语料预处理。 熟悉 LLM 预训练框架,如 PyTorch、TensorFlow 等。 学会微调 LLM 模型进行特定任务迁移。 相关资源:HuggingFace 课程、论文及开源仓库等。 4. LLM 模型优化和部署: 掌握模型压缩、蒸馏、并行等优化技术。 了解模型评估和可解释性。 熟悉模型服务化、在线推理、多语言支持等。 相关资源:ONNX、TVM、BentoML 等开源工具。 5. LLM 工程实践和案例学习: 结合行业场景,进行个性化的 LLM 训练。 分析和优化具体 LLM 工程案例。 研究 LLM 新模型、新方法的最新进展。 6. 持续跟踪前沿发展动态: 关注顶会最新论文、技术博客等资源。 以下是一些相关的学习资源: 面向开发者的 LLM 入门课程: 提示工程指南: LangChain🦜️🔗中文网,跟着 LangChain 一起学 LLM/GPT 开发: LLMs 九层妖塔: 在课程方面,欢迎来到针对开发者的 AIGPT 提示工程课程。该课程将分享软件开发最佳实践的提示,涵盖常见用例,包括总结、推理、转换和扩展,并指导使用 LLM 构建一个聊天机器人。在大型语言模型或 LLM 的开发中,大体上有基础 LLM 和指令调整后的 LLM 两种类型。基础 LLM 已训练出根据文本训练数据预测下一个单词,通常在大量数据上训练,以找出接下来最有可能的单词。
2025-01-28
我想用AI完成一个编程项目,帮我从零到一完成一个个人介绍网站,我现在使用vo.dev完成了一个网站,但是不可以供我使用我上传github后再vercel运行发现会出现404请问我该怎么办
很抱歉,暂时没有关于您所描述问题的相关内容。出现 404 错误通常是由于页面未找到导致的。您可以先检查一下以下几个方面: 1. 确认您在 GitHub 上的代码上传是否完整且正确,包括相关的配置文件和依赖项。 2. 检查 Vercel 的部署设置,确保配置正确,例如域名绑定、环境变量等。 3. 查看服务器的日志,以获取更详细的错误信息,从而确定问题的具体原因。 希望这些建议能对您有所帮助,如果问题仍未解决,建议您进一步查阅相关的技术文档或向技术社区寻求帮助。
2024-12-19
coze 最新最全教程
以下是一些最新最全的 Coze 教程资源: 此外,还有一泽 Eze 的教程:
2025-03-10
comfyui教程
以下是一些关于 ComfyUI 的学习教程资源: 1. ComfyUI 官方文档:提供使用手册和安装指南,适合初学者和有经验的用户,可在获取相关信息。 2. 优设网:有详细的 ComfyUI 入门教程,适合初学者,介绍了特点、安装方法及生成图像等内容,教程地址是。 3. 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解的用户,可在找到相关教程。 4. Bilibili:提供了一系列涵盖从新手入门到精通各个阶段的视频教程,可在找到。 此外,还有以下教程: 1. 一个全面的 ComfyUI 教程:https://www.comflowy.com/zhCN 2. 超有意思的 ComfyUI 教程:https://comfyanonymous.github.io/ComfyUI_tutorial_vn/ ComfyUI 基础教程中 KSampler 相关内容: KSampler 即采样器,包含以下参数: 1. seed:随机种子,用于控制潜空间的初始噪声,若要重复生成相同图片,需种子和 Prompt 相同。 2. control_after_generate:设置每次生成完图片后 seed 数字的变化规则,有 randomize(随机)、increment(递增 1)、decrement(递减 1)、fixed(固定)。 3. step:采样的步数,一般步数越大效果越好,但与使用的模型和采样器有关。 4. cfg:值一般设置在 6 8 之间较好。 5. sampler_name:可通过此设置采样器算法。 6. scheduler:控制每个步骤中去噪的过程,可选择不同的调度算法。 7. denoise:表示要增加的初始噪声,文生图一般默认设置成 1。 内容由 AI 大模型生成,请仔细甄别。
2025-03-10
comfyui 教程
以下是一些关于 ComfyUI 的教程资源: 1. ComfyUI 官方文档:提供使用手册和安装指南,适合初学者和有经验的用户,可在获取相关信息。 2. 优设网:有详细的 ComfyUI 入门教程,适合初学者,介绍了特点、安装方法及生成图像等内容,教程地址是。 3. 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解的用户,可在找到相关教程。 4. Bilibili:提供了一系列涵盖从新手入门到精通各个阶段的视频教程,可在找到。 5. 关于 ComfyUI 中的 Redux 使用: 将 ComfyUI 更新到最新。 下载 sigclip_vision_patch14_384.safetensors 模型并放在 ComfyUI/models/clip_vision 文件夹中。夸克网盘:链接:https://pan.quark.cn/s/739f71d42b87 ;百度网盘:见前文。 下载 flux1reduxdev.safetensors 并放在 ComfyUI/models/style_models 文件夹中。夸克网盘:链接:https://pan.quark.cn/s/32c8291c1c72 ;百度网盘:见前文。 确保 ComfyUI/models/unet/文件夹中有 flux dev 或 flux schnell。 导入工作流:使用 flux_redux_model_example 工作流。夸克网盘:链接:https://pan.quark.cn/s/4ec9d4cfce89 ;百度网盘:链接:https://pan.baidu.com/s/1qK_2kUojF6nsha9cD2Eg2Q?pwd=ris5 提取码:ris5 。 6. 全面的 ComfyUI 教程:https://www.comflowy.com/zhCN 。 7. 超有意思的 ComfyUI 教程:https://comfyanonymous.github.io/ComfyUI_tutorial_vn/ 。 请注意,内容由 AI 大模型生成,请仔细甄别。
2025-03-09
推荐下coze学习教程
以下为您推荐一些 Coze 学习教程: 1. 胎教级教程:万字长文带你理解 RAG 全流程 其中九、用 Coze 学习 RAG 部分提到,新知识学习可采用 Claude + Coze 的方法。Claude 是目前最强的 AI 大模型,Coze 是一款 AI Agent 的衍生产品,其最大价值在于跟进 AI Agent 工具发展情况、发现商业化机会以及做产品 Demo。还不知道 Coze 是什么的同学可以看公开分享:。在学习 RAG 过程中,可先通过 Claude 了解细节概念,再通过 Coze 搭建 Demo,且创建了产品资料问答机器人等 4 个 Bot,相关资料请参考上述公开分享。 2. 一泽 Eze:万字实践教程,全面入门 Coze 工作流|用 Coze 打造 AI 精读专家智能体,复刻 10 万粉公众号的创作生产力 可能是全网最好的 Coze 教程之一,即使是非技术出身的爱好者也能上手跟学,一站式学会 AI Agent 从设计到落地的全流程方法论。核心看点包括通过实际案例逐步演示用 Coze 工作流构建生成结构化内容的 AI Agent、开源 AI Agent 的设计到落地的全过程思路、10+项常用的 Coze 工作流的配置细节、常见问题与解决方法。适合玩过 AI 对话产品的一般用户以及对 AI 应用开发平台(如 Coze、Dify)和 AI Agent 工作流配置感兴趣的爱好者。注:本文不单独讲解案例所涉及 Prompt 的撰写方法。文末「拓展阅读」中,附有相关 Prompt 通用入门教程、Coze 其他使用技巧等内容,以供前置或拓展学习。
2025-03-09
Coze 智能体 教程 初学者
以下是为初学者提供的 Coze 智能体相关教程: 1. 可能是全网最好的 Coze 教程之一,能一次性带您入门 Coze 工作流。即使是非技术出身的爱好者也能上手跟学,一站式学会 AI Agent 从设计到落地的全流程方法论。 阅读指南:长文预警,请视情况收藏保存。 核心看点:通过实际案例逐步演示,用 Coze 工作流构建一个能够稳定按照模板要求,生成结构化内容的 AI Agent;开源 AI Agent 的设计到落地的全过程思路;10+项常用的 Coze 工作流的配置细节、常见问题与解决方法。 适合人群:任何玩过 AI 对话产品的一般用户(如果没用过,可以先找个国内大模型耍耍);希望深入学习 AI 应用开发平台(如 Coze、Dify),对 AI Agent 工作流配置感兴趣的爱好者。 注:本文不单独讲解案例所涉及 Prompt 的撰写方法。文末「拓展阅读」中,附有相关 Prompt 通用入门教程、Coze 其他使用技巧等内容,以供前置或拓展学习。 2. 90 分钟从 0 开始打造您的第一个 Coze 应用: 智能纪要: 智能章节: 页面布局的常见方式与实际操作讲解:本章节主要介绍页面布局。先讲解常见的左右、上下布局及嵌套方法,演示如何设置容器实现左右布局、调整大小分割等,强调外层高度设置的重要性。接着说明溢出处理方式及内边距影响,建议初学者用固定宽高布局。最后介绍换行布局及元素分布设置,用于图片排版。 讲解证件照应用搭建过程及布局设置:本章节介绍证件照应用搭建。会魔法的大人让大家创建应用、清理页面,先设置第一个 div 容器方便后续操作。提到要 1:1 复刻其应用,讲解证件照基础界面为上下布局,分标题、示例、操作展示三块,需拖三个容器,因排列方向问题可能只看到两个,还提到顶部高度大概 100。 证件照应用的用户界面搭建与业务逻辑构建讲解:本章节主要讲解证件照应用的搭建。先介绍用户界面搭建,包括各部分尺寸、布局、组件设置,如文本、图片、表单等;后阐述业务逻辑搭建,创建工作流,添加图片理解、图像生成、智能换脸等插件,设置参数、提示词,并进行测试,还告知文档地址在社区智能体 1.3 共学里。
2025-03-09
dify 教程
以下是关于 Differential Diffusion 和 Dify 接入企业微信的教程: Differential Diffusion 教程 1. 技术特点 适用于保持图像整体一致性和自然感的场景,通过软填充技术平滑填补图像空白或损坏部分,并细微调整周围区域,实现新填充内容与原始图像无缝融合。 利用变化地图实现更自然、和谐的软填充效果,适用于精确控制填充过程和结果的场景。 强度扇是可视化不同编辑强度效果的工具,帮助用户直观比较并选择合适的编辑强度。 操作仅在推理阶段进行,无需训练或微调,可直接利用现有扩散模型进行高度自定义的图像编辑。 与现有扩散模型兼容,可集成到 Stable Diffusion XL、Kandinsky 和 DeepFloyd IF 等模型中,增强编辑和生成能力。 2. 主要功能特点 精细的编辑控制:通过引入变化地图,可对图像每个像素或区域指定不同变化程度,支持离散和连续编辑。 文本驱动的图像修改:通过文本提示指导图像修改方向,实现非专业用户的专业级图像创作。 软填充技术:在填补图像空白或修复部分时,细微调整周围区域,确保新内容与原图无缝融合。 3. 实际应用举例 假设作为艺术家创作从春天到冬天逐渐变化的风景画,可使用变化地图为图像各部分指定变化强度,结合文本提示进行精细编辑。 Dify 接入企业微信教程 1. 创建聊天助手应用:在 Dify 平台创建基础编排聊天助手应用,获取 API 密钥和 API 服务器地址。 2. 下载 Dify on WeChat 项目:下载并安装依赖。 3. 填写配置文件:在项目根目录创建 config.json 文件,填写 API 密钥和服务器地址。 4. 把基础编排聊天助手接入微信:快速启动测试,扫码登录,进行对话测试,可选择源码部署或 Docker 部署。 5. 把工作流编排聊天助手接入微信:创建知识库,导入知识库文件,创建工作流编排聊天助手应用,设置知识检索节点和 LLM 节点,发布更新并访问 API。 6. 把 Agent 应用接入微信:创建 Agent 应用,设置对话模型和添加工具,生成 API 密钥,填写配置文件,启动程序并进行测试。 更多内容请访问原文:https://docs.dify.ai/v/zhhans/learnmore/usecases/difyonwechat
2025-03-09
怎么学习提示词
学习提示词可以参考以下方法: 1. 基础概念学习 了解相关模型(如 Stable Diffusion)的工作原理和架构。 理解提示词如何影响生成结果。 掌握提示词的组成部分,如主题词、修饰词、反面词等。 2. 研究官方资料 通读官方文档,获取提示词相关指南。 学习开发团队和专家的教程与技巧分享。 3. 熟悉常见术语和范例 了解 UI、艺术、摄影等领域的专业术语和概念。 研究优秀的图像标题和描述作为范例。 4. 掌握关键技巧 学会组合多个词条精确描述想要的效果。 掌握使用特定符号控制生成权重。 学会处理抽象概念、情感等无形事物的描述。 5. 实践与反馈 用不同提示词生成各种风格和主题的图像。 对比结果,分析原因,总结经验。 在社区分享,请教高手获取反馈建议。 6. 创建提示词库 按主题、风格等维度建立自己的词库。 记录成功案例,方便后续参考复用。 7. 持续跟进前沿 关注模型的最新更新和社区动态。 掌握提示词的新技术、新范式和新趋势。 此外,还需注意: 1. 理解提示词的作用,它为模型提供上下文和指示,影响输出质量。 2. 学习构建技巧,明确任务目标,提供背景信息和示例,使用清晰指令,明确特殊要求。 3. 参考优秀案例,在社区、Github 等资源中寻找。 4. 多实践、迭代和优化,尝试变体并分析输出差异。 5. 活用提示工程工具,如 Anthropic 的 Constitutional AI。 6. 跟上前沿研究,关注最新成果和方法论。 提示词学习可分为五个维度,舒适的学习顺序是: 1. 场景:直接切入提示词的场景学习,对比不同场景下提示词的使用效果。 2. 工具:使用现成方便的提示词工具,包括 Meta Prompt、Al 角色定制等。 3. 有效语句:学习大量经典论文中提出的提示词语句。 4. 方法论:将有效语句及其原理整合成稳定可控的方法,自动编写稳定的提示词。 5. 思维框架:构建整体的思维框架,融入提示词学习课程。
2025-03-10
1.根据论文题目:"基于机器学习的中国股市波动率预测与美股市场对比分析",列出详细框架列出框架,每条框架要明确具体方向内容及数据图表要求。
很抱歉,暂时没有关于“基于机器学习的中国股市波动率预测与美股市场对比分析”这一论文题目的详细框架相关内容。但我可以为您提供一个大致的框架思路供您参考: 一、引言 1. 研究背景和意义 阐述中国股市和美股市场的重要性 说明波动率预测的价值 2. 研究目的和问题 明确对比分析的主要目标 提出具体的研究问题 二、文献综述 1. 机器学习在股市波动率预测中的应用 总结相关方法和模型 分析其优缺点 2. 中国股市和美股市场波动率的特征 回顾已有研究成果 指出研究空白 三、理论基础与方法 1. 机器学习算法介绍 如随机森林、支持向量机等 解释其原理和适用场景 2. 数据来源和预处理 说明中国股市和美股市场的数据来源 描述数据清洗和预处理的步骤 3. 波动率计算方法 介绍常用的波动率计算指标 四、实证分析 1. 模型构建与训练 运用所选机器学习算法构建预测模型 展示训练过程和参数调整 2. 结果评估与比较 评估中国股市和美股市场预测结果的准确性 进行对比分析 数据图表要求:绘制预测结果与实际波动率的对比图 3. 影响因素分析 探讨可能影响波动率预测的因素 数据图表要求:绘制影响因素与波动率的关系图 五、结论与展望 1. 研究结论总结 概括中国股市和美股市场波动率预测的成果 对比分析的主要发现 2. 研究的局限性 指出研究中存在的不足 3. 未来研究方向 提出进一步研究的建议和方向 以上框架仅供参考,您可以根据实际研究需求进行调整和完善。
2025-03-10
新手怎么学习ai
对于新手学习 AI,以下是一些建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,可根据自己的兴趣选择特定模块深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出自己的作品。 在知识库中有很多大家实践后的作品、文章分享,欢迎实践后进行分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解其工作原理和交互方式,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 6. 持续学习和跟进: AI 是快速发展的领域,新的研究成果和技术不断涌现。关注 AI 领域的新闻、博客、论坛和社交媒体,保持对最新发展的了解。 考虑加入 AI 相关的社群和组织,参加研讨会、工作坊和会议,与其他 AI 爱好者和专业人士交流。 记住,学习 AI 是一个长期的过程,需要耐心和持续的努力。不要害怕犯错,每个挑战都是成长的机会。随着时间的推移,您将逐渐建立起自己的 AI 知识体系,并能够在这一领域取得成就。完整的学习路径建议参考「通往 AGI 之路」的布鲁姆分类法,设计自己的学习路径。
2025-03-10
我应该如何系统学习本站的内容,以应用为主,基础理论为辅
如果您想系统学习本站内容,以应用为主、基础理论为辅,可以参考以下步骤: 基础理论方面: 了解人工智能、机器学习、深度学习的定义及其之间的关系。 简要回顾 AI 的发展历程和重要里程碑。 掌握数学基础,包括统计学基础(熟悉均值、中位数、方差等统计概念)、线性代数(了解向量、矩阵等基本概念)、概率论(基础的概率论知识,如条件概率、贝叶斯定理)。 算法和模型方面: 对于监督学习,了解常用算法,如线性回归、决策树、支持向量机(SVM)。 熟悉无监督学习中的聚类、降维等算法。 了解强化学习的基本概念。 评估和调优方面: 学会如何评估模型性能,包括交叉验证、精确度、召回率等。 掌握使用网格搜索等技术优化模型参数的方法。 神经网络基础方面: 理解神经网络的基本结构,包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)。 了解常用的激活函数,如 ReLU、Sigmoid、Tanh。 关于知识库的使用,以 Agent 板块为例: 链接: 用法:从下往上看,一个一个点进去,都有视频。 注意事项:共学都有视频,都是手把手从注册开始的教学,不会就多看几遍,基本保障一个工具能调通、一个 Agent 能搭好。确实内容有点多,点进去看看哪个工具您听过就从哪个工具开始,不然太累。 链接: 用法:看了一些视频之后,您就知道您要看理论还是应用了,找到导航,想看哪里点哪里。 备注:智能千帆、阿里云百炼都是有视频的,其余没有视频。 注意事项:内容较多,您如果都看到这里了,就要考虑聚焦了,先挑一个,开始手把手一起做起来,看看能不能持续用起来,只要您开始用起来,这事儿就成啦!快捷菜单找不到的话,看这里。
2025-03-10
我刚刚对open ai有了基本理解,我该如何进阶学习
以下是为您提供的进阶学习 OpenAI 的建议: 1. 系统学习 API 相关知识:深入了解 API 的工作原理、接口规范、数据传输等方面的内容。 2. 实践练习:在网上寻找可用的 API 进行实际操作和练习。 3. 挖掘 GPT Action 的更多潜力:探索其更多的功能和应用场景。 4. 构建知识体系:通过不同的教程和资料,识别知识之间的共性和逻辑关系,深化对主题的理解。 5. 了解 OpenAI 的模型数据和训练:例如 GPT4.5 是通过扩展无监督学习和思维链推理等范式来提升 AI 能力,以及新的对齐技术如何促进更好的人机协作等。 6. 参考相关资料:查看官方 cookbook、万字长文回顾等历史脉络内容,以及入门经典必读和面向开发者的文章。 7. 从国内模型工具入手:先熟悉国内免费的模型工具,例如从提示词开始学习。掌握结构化提示词的优势,学会清晰地与模型对话。
2025-03-10
在 2025 年 环境下的 AI 小白,如何学习,学习什么,才能够赶上初始 AI 人的脚步
对于 2025 年环境下的 AI 小白,以下是一些学习建议和学习内容,以帮助您赶上初始 AI 人的脚步: 1. 积极参与相关活动: 参加类似上海火山引擎原动力大会、camelai 的现场黑客松活动等。 参与社区共学智能体搭建的课程分享。 报名参加如 VB 等各类 AI 建模和绘画活动。 2. 学习提示词: 从复制社区里他人的提示词开始,逐渐提升自己撰写提示词的能力。 了解提示词撰写的要点,如明确主体、动作、场景,避免使用专有名词和网络名词,给 AI 清晰描述。 3. 参与社区共建: 写产品体验文章等,与其他学习者交流经验。 4. 制定学习计划: 明确学习目标和步骤,例如规划参与特定的课程和活动。 5. 学习 AI 编程: 认识到不懂代码学 AI 编程入门不易,但可借助工具。 参加如 build down tree AI 编程挑战活动。 按照后续课程安排进行系统学习。 6. 学习 AI 视频制作: 重视人物设定与剧本,包括主体、动作、场景等要素。 掌握分镜处理,明确用几个镜头表述内容。 熟悉生成与后期的流程,包括抽卡、粗检和如 AI 配音剪辑、加过渡滤镜等后期处理。 做好脚本即提示词,耐心抽卡,不断提升撰写提示词能力。 选择适合自己的工具,如剪映(主力机是 MacBook Pro 可使用 final cut)。 向 ChatGPT 询问获取灵感。 总之,要相信自己,只要不停下学习的脚步,就一定能够在 AI 领域取得进步。
2025-03-10