Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

大语言模型学习

Answer

学习大型语言模型(LLM)的开发是一个系统性的过程,涵盖多个方面的知识和技能,以下是详细的学习路径和相关建议:

  1. 深度学习和自然语言处理基础

    • 掌握机器学习、深度学习、神经网络等基础理论。
    • 熟悉自然语言处理基础,如词向量、序列模型、注意力机制等。
    • 相关课程:吴恩达的深度学习课程、斯坦福 cs224n 等。
  2. 理解 Transformer 和 BERT 等模型原理

    • 深入了解 Transformer 模型架构及自注意力机制原理。
    • 掌握 BERT 的预训练和微调方法。
    • 研读相关论文,如 Attention is All You Need、BERT 论文等。
  3. 学习 LLM 模型训练和微调

    • 进行大规模文本语料预处理。
    • 运用 LLM 预训练框架,如 PyTorch、TensorFlow 等。
    • 对 LLM 模型进行微调以实现特定任务迁移。
    • 相关资源:HuggingFace 课程、论文及开源仓库等。
  4. LLM 模型优化和部署

    • 掌握模型压缩、蒸馏、并行等优化技术。
    • 进行模型评估和可解释性研究。
    • 实现模型服务化、在线推理、多语言支持等。
    • 相关资源:ONNX、TVM、BentoML 等开源工具。
  5. LLM 工程实践和案例学习

    • 结合行业场景,开展个性化的 LLM 训练。
    • 分析和优化具体 LLM 工程案例。
    • 研究 LLM 新模型、新方法的最新进展。
  6. 持续跟踪前沿发展动态

    • 关注顶会最新论文、技术博客等资源。

此外,关于大语言模型介绍,您可以通过以下视频课程学习:

  • 视频课程学习地址:https://youtu.be/zizonToFXDs
  • 宝玉 XP 的翻译版本:https://www.youtube.com/watch?v=zfFA1tb3q8Y
  • Google 的教学视频《Introduction to Large Language Models|大语言模型介绍》,介绍了大型语言模型(Large Language Models,LLMs)的概念、使用场景、提示调整以及 Google 的 Gen AI 开发工具。大型语言模型是深度学习的一个子集,可以预训练并进行特定目的的微调。这些模型经过训练,可以解决诸如文本分类、问题回答、文档摘要、跨行业的文本生成等常见语言问题。然后,可以利用相对较小的领域数据集对这些模型进行定制,以解决零售、金融、娱乐等不同领域的特定问题。大型语言模型的三个主要特征是:大型、通用性和预训练微调。“大型”既指训练数据集的巨大规模,也指参数的数量。“通用性”意味着这些模型足够解决常见问题。“预训练和微调”是指用大型数据集对大型语言模型进行一般性的预训练,然后用较小的数据集对其进行特定目的的微调。使用大型语言模型的好处包括:一种模型可用于不同的任务;微调大型语言模型需要的领域训练数据较少;随着数据和参数的增加,大型语言模型的性能也在持续增长。此外,视频还解释了传统编程、神经网络和生成模型的不同,以及预训练模型的 LLM 开发与传统的 ML 开发的区别。在自然语言处理中,提示设计和提示工程是两个密切相关的概念,这两者都涉及创建清晰、简洁、富有信息的提示。视频中还提到了三种类型的大型语言模型:通用语言模型、指令调整模型和对话调整模型。每种模型都需要以不同的方式进行提示。

AI 教父 Hinton 最新万字精彩访谈中提到:

  • 随着模型规模的扩大,其推理能力会得到提升。这种推理能力的提升类似于 AlphaGo 或 AlphaZero 的工作方式,它们通过蒙特卡罗推演来修改评估函数,从而提高推理精度。大型语言模型也应该开始通过推理来训练,而不仅仅是模仿人类的行为。
  • 在多模态学习方面,引入图像、视频和声音等多种模式将极大地改变模型的理解和推理能力,特别是在空间理解方面。多模态模型可以通过更多的数据和更少的语言来进行学习,这将使其在未来占据主导地位。
  • 在语言与认知的关系上,Hinton 提出了三种观点:符号观点、向量观点和嵌入观点。他认为,最合理的模型是将符号转换成大向量,但保留符号的表面结构,这样可以更好地理解和预测下一个符号。
  • Hinton 回顾了他在 2009 年提出使用 GPU 进行神经网络训练的早期直觉。他发现,使用 GPU 可以将运算速度提高 30 倍,这对于机器学习研究人员来说至关重要。他在 NIPS 会议上公开推荐了 NVIDIA 的 GPU,并向 NVIDIA 请求赞助,最终得到黄仁勋的支持。
  • Hinton 提出,模拟计算可以在较低的功率下运行大型语言模型,但每个硬件的特性都会有所不同,因此学习过程需要利用硬件的特定属性。然而,这种方法的局限性在于,当一个人去世后,他的大脑中的权重对其他人没有用处。相比之下,数字系统可以通过共享权重来提高效率,因为一旦有了权重,就可以在不同的计算机上复制相同的计算过程。这种方式使得数字系统在知识共享方面远胜于人类。
  • Hinton 还讨论了神经科学的时间尺度问题,指出在大脑中,权重改变的时间尺度很多,这是我们的神经模型尚未实现的。大脑使用快速权重进行临时记忆,而我们的模型由于需要处理大量不同的情况,所以无法实现这一点。
Content generated by AI large model, please carefully verify (powered by aily)

References

问:怎么系统学习 llm 开发?

学习大型语言模型(LLM)的开发是一个系统性的过程,需要涵盖多个方面的知识和技能。以下是一些建议的学习路径和资源:1.掌握深度学习和自然语言处理基础-机器学习、深度学习、神经网络等基础理论-自然语言处理基础,如词向量、序列模型、注意力机制等-相关课程:吴恩达的深度学习课程、斯坦福cs224n等2.理解Transformer和BERT等模型原理-Transformer模型架构及自注意力机制原理-BERT的预训练和微调方法-掌握相关论文,如Attention is All You Need、BERT论文等3.学习LLM模型训练和微调-大规模文本语料预处理-LLM预训练框架,如PyTorch、TensorFlow等-微调LLM模型进行特定任务迁移-相关资源:HuggingFace课程、论文及开源仓库等4.LLM模型优化和部署-模型压缩、蒸馏、并行等优化技术-模型评估和可解释性-模型服务化、在线推理、多语言支持等-相关资源:ONNX、TVM、BentoML等开源工具5.LLM工程实践和案例学习-结合行业场景,进行个性化的LLM训练-分析和优化具体LLM工程案例-研究LLM新模型、新方法的最新进展6.持续跟踪前沿发展动态-关注顶会最新论文、技术博客等资源

2. 大语言模型介绍

视频课程学习地址:https://youtu.be/zizonToFXDs宝玉XP的翻译版本:https://www.youtube.com/watch?v=zfFA1tb3q8YGoogle的教学视频《Introduction to Large Language Models|大语言模型介绍》,介绍了大型语言模型(Large Language Models,LLMs)的概念、使用场景、提示调整以及Google的Gen AI开发工具。大型语言模型是深度学习的一个子集,可以预训练并进行特定目的的微调。这些模型经过训练,可以解决诸如文本分类、问题回答、文档摘要、跨行业的文本生成等常见语言问题。然后,可以利用相对较小的领域数据集对这些模型进行定制,以解决零售、金融、娱乐等不同领域的特定问题。大型语言模型的三个主要特征是:大型、通用性和预训练微调。"大型"既指训练数据集的巨大规模,也指参数的数量。"通用性"意味着这些模型足够解决常见问题。"预训练和微调"是指用大型数据集对大型语言模型进行一般性的预训练,然后用较小的数据集对其进行特定目的的微调。使用大型语言模型的好处包括:一种模型可用于不同的任务;微调大型语言模型需要的领域训练数据较少;随着数据和参数的增加,大型语言模型的性能也在持续增长。此外,视频还解释了传统编程、神经网络和生成模型的不同,以及预训练模型的LLM开发与传统的ML开发的区别。在自然语言处理中,提示设计和提示工程是两个密切相关的概念,这两者都涉及创建清晰、简洁、富有信息的提示。视频中还提到了三种类型的大型语言模型:通用语言模型、指令调整模型和对话调整模型。每种模型都需要以不同的方式进行提示。参考资料:

观点:AI 教父 Hinton 最新万字精彩访谈:直觉,AI 创新的洞见和思考,未来 (附全文+视频)

Hinton认为,随着模型规模的扩大,其推理能力会得到提升。这种推理能力的提升类似于AlphaGo或AlphaZero的工作方式,它们通过蒙特卡罗推演来修改评估函数,从而提高推理精度。大型语言模型也应该开始通过推理来训练,而不仅仅是模仿人类的行为。在多模态学习方面,Hinton认为引入图像、视频和声音等多种模式将极大地改变模型的理解和推理能力,特别是在空间理解方面。多模态模型可以通过更多的数据和更少的语言来进行学习,这将使其在未来占据主导地位。在语言与认知的关系上,Hinton提出了三种观点:符号观点、向量观点和嵌入观点。他认为,最合理的模型是将符号转换成大向量,但保留符号的表面结构,这样可以更好地理解和预测下一个符号。Hinton回顾了他在2009年提出使用GPU进行神经网络训练的早期直觉。他发现,使用GPU可以将运算速度提高30倍,这对于机器学习研究人员来说至关重要。他在NIPS会议上公开推荐了NVIDIA的GPU,并向NVIDIA请求赞助,最终得到黄仁勋的支持。Hinton提出,模拟计算可以在较低的功率下运行大型语言模型,但每个硬件的特性都会有所不同,因此学习过程需要利用硬件的特定属性。然而,这种方法的局限性在于,当一个人去世后,他的大脑中的权重对其他人没有用处。相比之下,数字系统可以通过共享权重来提高效率,因为一旦有了权重,就可以在不同的计算机上复制相同的计算过程。这种方式使得数字系统在知识共享方面远胜于人类。Hinton还讨论了神经科学的时间尺度问题,指出在大脑中,权重改变的时间尺度很多,这是我们的神经模型尚未实现的。大脑使用快速权重进行临时记忆,而我们的模型由于需要处理大量不同的情况,所以无法实现这一点。

Others are asking
大模型稳定输出
大模型在稳定输出方面具有以下特点和相关情况: 在翻译场景中: 突破传统翻译模型局限,大幅提升翻译质量,为广泛应用带来机遇。 能够通过深度上下文分析理解语言真正含义,适应不同语境,避免词不达意和语境脱节,精准捕捉并传达原文意图,尤其在处理隐喻、习语或文化特征文本时表现出色。 生成更流畅、自然且地道的翻译,接近母语水平,保持原文语言风格和情感色彩,更具亲和力和感染力。 具有强大适应性,能根据不同翻译场景灵活调整策略,在多场景翻译中更具灵活性和精准度。 能够深入理解文化内涵,避免因文化差异导致误解或偏差,在专业领域能提供更专业且符合行业标准的翻译结果。 在旅行青蛙智能体搭建过程中: 涉及多个意图分支,如定向旅行、投喂青蛙、在家休息等,每个分支包含多个大模型节点和相关操作。 关于大模型是否具有道德观念: 大型语言模型本身不具有真正的道德观念或意识,它们是通过大量数据训练来模拟语言统计规律的。 但可以被设计用来识别和生成包含道德观念内容的文本。 为确保其输出符合社会道德和伦理标准,采取了多种方法,如数据清洗、算法设计、制定准则、保持透明度、用户反馈、持续监控、人工干预以及教育和培训等。然而,确保 AI 模型的道德和伦理性仍是复杂且持续的挑战,相关标准也在不断演进。
2025-03-04
redux模型
Redux 模型是一个轻量级模型,具有以下特点和应用: 1. 可与 Flux.1配合使用,基于 1 个输入图像生成图像变体,无需提示,适合快速生成特定样式的图像。 2. 位置:将 Redux 模型下载到 comfyui/models/style_models,下载 sigclip_patch14384.safetensors 到 ComfyUI/models/clip_vision。 3. 重绘节点:ComfyUIInpaintEasy,相关链接:https://github.com/CYCHENYUE/ComfyUIInpaintEasy 。 4. 在工作流中的应用: 用于电商服饰行业的换装、虚拟试穿等场景,提升效果并简化工作流。 模特生成:加入 Redux 模型,强度不用太高,让提示词生效(Reduxprompt 节点风格细节等级 1=27×27 最强,14=1×1 最弱)。 服装高精度处理:使用 Flux 的 fill 模型,提示词书写格式为这是一组图片,左边是衣服,右边的模特穿着左边的衣服,Redux 权重调整为最大。 FLUX.1 Redux 还适用于所有 FLUX.1 基本模型,用于生成图像变化,给定输入图像能重现具有轻微变化的图像,自然集成到更复杂工作流程中,通过提示解锁图像重新设计。最新型号 FLUX1.1Ultra 支持该功能,允许组合输入图像和文本提示,创建具有灵活宽高比的高质量 4 兆像素输出。
2025-03-04
Joy_caption_two_load模型
Joy_caption_two_load 模型相关信息如下: 下载地址: 模型可从 https://huggingface.co/unsloth/MetaLlama3.18Bbnb4bit 下载,存放文件夹为 Models/LLM/MetaLlama3.18Bbnb4bit 。 网盘链接:https://huggingface.co/spaces/fancyfeast/joycaptionprealpha/tree/main/wpkklhc6 ,存放文件夹为 models/Joy_caption 。 此外,还有 MiniCPMv2_6提示生成器+CogFlorence 可从 https://huggingface.co/pzc163/MiniCPMv2_6promptgenerator 和 https://huggingface.co/thwri/CogFlorence2.2Large 下载。 节点安装地址:D:\\ComfyUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 安装步骤: (Comfyui evn python.exe)python m pip install rrequirements.txt 或点击 install_req.bat ,注意 transformers 版本不能太低。 下载模型或者运行 comfyui 自动下载模型到合适文件夹。 模型安装: Joy_caption ,运行自动下载模型(推荐手动下载)。 三个模型(页面显示和实际大小有一定差异): 3.5G,放到:你的\\ComfyUI\\models\\clip\\siglipso400mpatch14384 。 5.7G,放到:你的\\ComfyUI\\models\\LLM\\MetaLlama3.18Bbnb4bit 。 86MB,放到:你的\\ComfyUI\\models\\Joy_caption 。 相关模型介绍: Joy Caption 模型在 SigLIP 和 Llama3.1 的基础之上,使用 Adapter 模式,训练出更好的描述图像的模型,需要与 SigLIP 和 Llama3.1 混合使用,输入图像,输出一段语义丰富的图像描述。 Google 的 SigLIP 是一种改进的多模态模型,类似于 CLIP,但是采用了更优的损失函数。 MetaLlama3.18Bbnb4bit 是优化的多语言大语言模型,基于 Meta 的 Llama 3.1 架构,使用 BitsAndBytes 库进行 4bit 量化,大幅减少内存使用,同时保持模型性能。 模型工作流程: siglipso400mpatch14384(视觉模型): 接收输入图像。 分析图像的视觉内容(如物体、场景、颜色、纹理等)。 将这些视觉信息编码成一组特征向量。 image_adapter.pt(适配器): 接收来自视觉模型的特征向量。 转换和调整这些特征,使其适合语言模型处理。 一些特定任务的优化或微调(如图片到文字)。 MetaLlama3.18Bbnb4bit(语言模型): 接收经过适配器处理的特征。 基于这些特征生成相应的文本描述。 应用语言知识来确保描述的连贯性和准确性。
2025-03-04
小公司, 想部署一个本地ai系统,希望它能够, 对运维, 运营, 客服, 美术, 策划, 程序都能够有很大的帮助, 目前市面上那款 ai 模型比较合适
对于小公司想要部署一个能对运维、运营、客服、美术、策划、程序都有帮助的本地 AI 系统,以下是一些相关信息: 线上和线下本地部署的 AI 特点: 线上部署的优势在于出图速度快,不依赖本地显卡配置,无需下载大型模型,还能参考其他创作者的作品,但出图尺寸受限。线下部署的优势是可添加插件,出图质量高,但使用时电脑可能宕机,配置不高可能爆显存导致出图失败。建议线上用于找参考、测试模型,线下作为主要出图工具。 Ollama: 支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同场景。 易于使用,适用于 macOS、Windows 和 Linux 系统,支持 CPU 和 GPU。 提供模型库,用户可从中下载不同模型,满足不同需求和硬件条件。 支持自定义模型,可调整参数。 提供 REST API 用于运行和管理模型,以及与其他应用集成。 社区贡献丰富,有多种集成插件和界面。 Google Gemma: 是 Google 发布的家用版小模型,有 2b(20 亿参数)和 7b(70 亿参数)版本。小模型可能不适合复杂任务,但适合提升基础操作效率。部署环境友好,可通过 ollama 方便部署,支持热加载模型文件。2b 反应速度快但互动话题有限,7b 输出质量高但可能卡顿,对非英文语种反馈不稳定。 综合考虑,如果您的公司对出图质量要求较高,且有较好的硬件配置,可以选择线下部署结合线上测试的方式。在语言模型方面,Ollama 具有较多优势,可根据具体需求选择合适的模型进行部署。
2025-03-04
小游戏公司, 想部署一个本地ai系统,希望它能够, 对运维, 运营, 客服, 策划, 程序都能够有很大的帮助, 目前市面上那款 ai 模型比较合适
对于小游戏公司部署本地 AI 系统以帮助运维、运营、客服、策划和程序等方面,以下是一些建议和相关信息: 目前市面上的 AI 模型各有特点。线上 AI 具有出图速度快、不依赖本地显卡配置、无需下载大型模型以及能参考其他创作者作品等优势,但出图尺寸受限。线下部署的 AI 可以添加插件、出图质量高,但可能导致电脑宕机且对配置要求高。 在游戏领域,AI 大模型带来了诸多变化,如游戏内容辅助生成(包括文、图、3D 和音乐),可应用于游戏策划人和美术设计师。文生图和图生图能提高创作效率,动画辅助渲染可改变角色风格,游戏智能运营涵盖智能 NPC 互动、客服、攻略问答和代码脚本生成等,适用于产品经理、运营经理和社区运营经理。 Google 刚刚发布的家用版小模型 Gemma 有 2b(20 亿参数)和 7b(70 亿参数)版本。相对千亿参数的大模型,这类小模型可能不太适合处理复杂任务,但代表了模型本地化提升基础操作效率的趋势。Ollama 是一个开源的大型语言模型服务,方便部署最新版本的 GPT 模型并通过接口使用,支持热加载模型文件,且像小型的 llama 也支持本地部署。部署时,需进入 ollama.com 下载程序并安装,通过命令提示符进行操作和切换模型。2b 反应速度快但互动话题有限,7b 输出质量高但可能卡顿,且对非英文语种反馈不太稳定。 综合考虑,小游戏公司可以根据自身需求和硬件配置选择合适的 AI 模型。如果对出图质量要求高且有较好的硬件配置,可尝试线下部署;若更注重效率和便捷性,线上模型可能更适合。同时,也可以考虑像 Gemma 这样的小模型进行本地化部署以提升基础操作效率。
2025-03-04
小游戏公司, 想部署一个本地ai系统,希望它能够, 对运维, 运营, 客服, 美术, 策划, 程序都能够有很大的帮助, 目前市面上那款 ai 模型比较合适
对于小游戏公司部署本地 AI 系统以帮助运维、运营、客服、美术、策划、程序等方面,以下是一些建议和目前市面上合适的 AI 模型分析: 线上 AI 平台的优势在于出图速度快,对本地显卡配置要求低,无需下载大型模型,还能参考其他创作者的作品,但出图分辨率有限制。 线下部署的优势是可以添加插件,出图质量高,但使用时电脑可能宕机,配置不高还可能爆显存导致出图失败。 综合考虑,建议充分发挥线上和线下平台的优势。线上可用于找参考、测试模型,线下作为主要出图工具。 在图像生成方面,2022 年主流生成式图像应用如 DALLE 2.0、Stable Diffusion 和 Midjourney 使图像生成精细化程度提升,提示对图像生成结果的控制能力增强。 在 3D 模型生成中,AI 能完成 3D 模型生成流程的“一步到位”,大大提升效率。 在游戏开发中,AI 可用于游戏内容辅助生成(如文、图、3D、音乐)、动画辅助渲染、游戏智能运营(包括智能 NPC 互动、客服、攻略问答、代码和脚本生成)等。 对于小游戏公司,Stable Diffusion 可能是一个较为合适的选择,它在 2D 美术素材辅助生成方面能够提高创作效率、降低成本,并且有多种应用场景,如文生图、图生图等。同时,也可以考虑结合线上平台进行参考和测试。
2025-03-04
deepseek 的提示词应该怎么写?和以往的大语言模型的提示词有什么不同?
DeepSeek 的提示词具有以下特点: 1. 语气上还原帝王语气,不过分用力,使用相对古典但兼顾可读性的文字,避免傻气的表达。 2. 对历史细节熟悉,这可能与支持“深度探索”和“联网搜索”同时开启有关,能准确还原如“太极宫”“甘露殿”“掖庭局”“观音婢”“宫门鱼符”等唐初的历史称谓。 3. 输出极其具体且充满惊人细节,行文的隐喻拿捏到位,如“狼毫蘸墨时发现指尖残留着未洗净的血痂”“史官们此刻定在掖庭局争吵。该用‘诛’还是‘戮’,‘迫’还是‘承’。‘只是这次,他不敢触碰我甲胄上元吉的掌印’”等句子,虽未直接写“愧疚与野心,挣扎与抱负”,但句句体现。 与以往大语言模型的提示词的不同在于:以往模型可能在语气、历史细节和具体细节的处理上不如 DeepSeek 出色。
2025-02-28
在汉语言文学师范领域中是否存在具有商业价值的问题,利用 AI 技术进行市场调研和分析,探索可能的创业方向
在汉语言文学师范领域,利用 AI 技术进行市场调研和分析是有可能发现具有商业价值的问题和创业方向的。 首先,通过对教育市场的大数据分析,AI 可以帮助了解汉语言文学师范专业的就业趋势和需求变化,例如特定地区对该专业教师的需求增长情况,或者新兴教育模式对该专业人才培养的新要求。 其次,利用自然语言处理技术,分析学生和家长对汉语言文学师范教育的反馈和期望,从而发现潜在的教育服务需求,比如个性化的辅导课程、线上教学平台的优化等。 再者,借助 AI 预测模型,可以评估汉语言文学师范相关教材和教育资源的市场需求,为开发创新的教育产品提供依据。 总之,结合 AI 技术,在汉语言文学师范领域进行深入的市场调研和分析,有机会挖掘出具有商业潜力的问题和创业方向。
2025-02-27
一名扬州大学汉语言文学师范专业的大一在读生,无创业经验,如何在ai帮助下在未来几年寻找创业方向和努力路径
对于一名扬州大学汉语言文学师范专业的大一在读生,无创业经验,在未来几年借助 AI 寻找创业方向和努力路径,可以参考以下建议: 首先,了解不同的发展路径特点。在学术研究方面,要培养适应能力,保持对研究的热爱以应对长期缺乏即时反馈的挑战。创业如同“当海盗”,充满刺激和不确定性,需要快速学习、适应市场和承担风险,虽能直接面对社会,但可能带来巨大压力并影响生活质量。在大公司工作需确保个人目标与公司一致,创业公司有生存压力,而打工人有稳定收入和学习机会,但可能限制思维。 其次,明确选择路径的逻辑。无论选择哪种路径,强烈的内在动机是长期成功的关键,动机可能源于内心欲望或对失败的恐惧,要直面并理解它们,将其转化为积极向上的动机,确保符合个人价值观。确定积极动机后,具有学术价值的问题可考虑读博,有商业价值的问题可尝试创业,至少有成长价值的问题可从打工开始。 最后,为持续提升自我,可以采用从导师或上级的角度每周总结工作的实用方法。分析未达成目标的原因,如果是懒惰,要直面并解决,比如找学习伙伴相互监督;如果是能力不足,可以考虑转向擅长领域或增加学习时间。 对于您来说,可以结合自身的兴趣和优势,思考在汉语言文学师范领域中是否存在具有商业价值的问题,利用 AI 技术进行市场调研和分析,探索可能的创业方向。同时,也可以通过打工或参与相关项目积累经验。
2025-02-27
搭建知识库支语言好
搭建知识库可以采用以下几种方式和涉及的相关语言: 1. 基于 GPT API 搭建定制化知识库: 需给 GPT 输入(投喂)定制化知识,但 GPT3.5(当前免费版的 ChatGPT)一次交互(输入和输出)只支持最高 4096 个 Token,约等于 3000 个单词或 2300 个汉字,容量对于多数领域知识不够。 为处理大量领域知识,OpenAI 提供了 embedding API 解决方案,embeddings 是浮点数字的向量(列表),两个向量之间的距离衡量关联性,小距离表示高关联度,大距离表示低关联度。 2. 本地部署大模型搭建个人知识库: 利用大模型的能力搭建知识库是 RAG 技术的应用,在实操前需了解 RAG。 RAG 应用包括文档加载(从多种来源加载文档,LangChain 提供 100 多种文档加载器)、文本分割(把 Documents 切分为指定大小的块)、存储(将切分好的文档块嵌入转换成向量形式并存储到向量数据库)、检索(通过检索算法找到与输入问题相似的嵌入片)、Output(把问题及检索出的嵌入片提交给 LLM 生成答案)。 3. 用 Coze 免费打造微信 AI 机器人: 设计 AI 机器人时创建知识库,整理“关键字”与“AI 相关资料链接”的对应关系并存储。 知识库文档类型支持本地文档、在线数据、飞书文档、Notion 等,可使用本地文档,按照操作指引上传文档、分段设置、确认数据处理。 知识库好不好用与内容切分粒度有关,可在内容中加特殊分割符如“”,分段标识符号选择“自定义”并填入“”。
2025-02-27
前馈神经网络、循环网络、对称连接网络区别是什么,当前大语言模型属于前面说的哪种网络架构,为什么这种网络架构流行
前馈神经网络、循环网络和对称连接网络的区别如下: 1. 前馈神经网络:这是实际应用中最常见的神经网络类型。第一层是输入,最后一层是输出。若有多个隐藏层,则称为“深度”神经网络。各层神经元的活动是前一层活动的非线性函数,通过一系列变换改变样本相似性。 2. 循环网络:在连接图中存在定向循环,意味着可以按箭头回到起始点。它们具有复杂的动态,训练难度较大,但更具生物真实性。目前如何高效地训练循环网络正受到广泛关注,它是模拟连续数据的自然方式,相当于每个时间片段具有一个隐藏层的深度网络,且在每个时间片段使用相同权重和输入,能长时间记住隐藏状态信息,但难以训练其发挥潜能。 3. 对称连接网络:有点像循环网络,但单元之间的连接是对称的(在两个方向上权重相同)。比起循环网络,对称连接网络更易分析。没有隐藏单元的对称连接网络被称为“Hopfield 网络”,有隐藏单元的则称为玻尔兹曼机。 当前的大语言模型通常基于 Transformer 架构,它属于前馈神经网络的一种变体。这种架构流行的原因包括:能够处理长序列数据、并行计算效率高、具有强大的特征提取和表示能力等。
2025-02-25
神经网络从架构上有哪几种类型,当前流行的大语言模型用哪种类型神经网络,为什么这种神经网络架构更为流行
神经网络从架构上主要有以下几种类型: 1. 马尔科夫链:用于文本生成。 2. 循环神经网络(RNN):可应用于文本生成。 3. 长短时记忆网络(LSTMs):在文本生成等领域发挥作用。 4. Transformer:当今最流行的模型大多基于此架构,包括流行的大型语言模型,如 GPT3、GPTJ 或 BERT 等。 5. Encoderonly:适用于自然语言理解任务,如分类和情感分析,代表模型是 BERT。 6. Encoderdecoder:同时结合 Transformer 架构的 encoder 和 decoder 来理解和生成内容,用例包括翻译和摘要,代表是 Google 的 T5。 7. Decoderonly:更擅长自然语言生成任务,众多 AI 助手采用此结构。 当前流行的大语言模型,如 GPT3、ChatGPT 等,多采用 Decoderonly 架构的神经网络。这种架构更为流行的原因在于:它更擅长自然语言生成任务,能够根据用户输入生成相应的内容。同时,Transformer 架构具有延长的注意力广度,能够更好地处理长序列数据,提高模型的性能和表现。
2025-02-25
关于deepseek有什么学习材料吗
以下是关于 DeepSeek 的一些学习材料: 此外,还有以下相关内容: 宝玉日报 1 月 27 日中关于 DeepSeek 的讨论,包括其在全球 AI 社区的意义、技术突破、资源分配策略、创新路径以及中国在 AI 追赶中的潜力与挑战等。相关链接: 【今晚 8 点】聊聊你怎么使用 DeepSeek!2025 年 2 月 6 日的智能纪要,其中包含关于 DP 模型的使用分享、音系学和与大模型互动的分享、Deepseek 的介绍与活动预告等内容。
2025-03-04
新手怎么学习
以下是新手学习 AI 的建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,如图像、音乐、视频等,可根据兴趣选择特定模块深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品如 ChatGPT、Kimi Chat、智谱、文心一言等聊天机器人进行互动,了解其工作原理和交互方式,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 6. 持续学习和跟进: AI 是快速发展的领域,新的研究成果和技术不断涌现。关注 AI 领域的新闻、博客、论坛和社交媒体,保持对最新发展的了解。 考虑加入 AI 相关的社群和组织,参加研讨会、工作坊和会议,与其他 AI 爱好者和专业人士交流。 记住,学习 AI 是一个长期的过程,需要耐心和持续的努力。不要害怕犯错,每个挑战都是成长的机会。随着时间的推移,您将逐渐建立起自己的 AI 知识体系,并能够在这一领域取得成就。完整的学习路径建议参考「通往 AGI 之路」的布鲁姆分类法,设计自己的学习路径。
2025-03-04
想学习coze
以下是关于学习 Coze 的相关内容: 制作 Coze 社群机器人的大致流程看似步骤繁多,但实际操作因 Coze 本身的设计和强大的社区力量并不复杂。关键是要“迈出第一步”,在制作过程中能体会到诸多乐趣,如与社区成员设计方案时的深入讨论,在 Coze 平台上灵活组装功能时的高效畅快,以及见证机器人在社区不断“成长”的成就感。未来会有更多社区加入,社群机器人可能不仅是助手,更是凝聚社区智慧的伙伴。目前的社区机器人还有不足,会继续优化以提供更优质服务。 如果对学习 Coze 和 AI Agent 有兴趣,可以加入免费的 AI Agent 共学群,该群组基于 WaytoAGI 社区等高质量信息源,分享 AI Agent 相关的玩法、经验和前沿资讯。可搜索微信号 Andywuwu07 或扫描二维码加微信,备注 AI 共学即可被拉入群。 另外,大圣的文章从非编程人士角度讲清楚了 Coze 中数据库的概念和基本使用,未陷入传统教学讲 SQL 语法的模式,而是通过与 Excel 对比让人了解数据库本质概念,以更好利用 ChatGPT 等工具辅助学习。大圣还正在规划关于 AI 时代应具备的编程基础系列,包括数据库、知识库、变量、JSON、API、操作系统与服务器、Docker 等内容。
2025-03-04
这个网站有学习AI绘画的教程吗
以下是一些学习 AI 绘画的教程资源: 视频教程: 「AI 绘画」软件比较与 stable diffusion 的优势: 「AI 绘画」零基础学会 Stable Diffusion: 「AI 绘画」革命性技术突破: 「AI 绘画」从零开始的 AI 绘画入门教程——魔法导论: 「入门 1」5 分钟搞定 Stable Diffusion 环境配置,消灭奇怪的报错: 「入门 2」stable diffusion 安装教程,有手就会不折腾: 「入门 3」你的电脑是否跑得动 stable diffusion?: 「入门 4」stable diffusion 插件如何下载和安装?: 从 0 入门 AI 绘画教程: 线上教程: AI 线上绘画教程:
2025-03-04
AI小白,怎么开始学习AI
对于 AI 小白来说,可以按照以下步骤开始学习 AI: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,可以根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出自己的作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 此外,您还可以参考《雪梅 May 的 AI 学习日记》,其中作者介绍了适合纯 AI 小白的学习模式,即输入→模仿→自发创造。学习日记中的学习内容可能因时效性不一定适用,但您可以去 waytoAGI 社区发现自己感兴趣的 AI 领域,学习最新的内容。同时,该日记中的学习资源都是免费开源的。 像元子语一样,从 prompt 开始,即使是小白类型的 Chat 网页终端用户,也可以通过临时捏一些 prompt 解决具体的问题。参加相关活动,作为围观人群也可能被点燃学习的热情。
2025-03-04
我是新手怎么学习
对于新手学习 AI,以下是一些建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,如图像、音乐、视频等,可根据兴趣选择特定模块深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品如 ChatGPT、Kimi Chat、智谱、文心一言等聊天机器人互动,了解其工作原理和交互方式,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 6. 持续学习和跟进: AI 是快速发展的领域,新的研究成果和技术不断涌现。关注 AI 领域的新闻、博客、论坛和社交媒体,保持对最新发展的了解。 考虑加入 AI 相关的社群和组织,参加研讨会、工作坊和会议,与其他 AI 爱好者和专业人士交流。 记住,学习 AI 是一个长期的过程,需要耐心和持续的努力。不要害怕犯错,每个挑战都是成长的机会。随着时间的推移,您将逐渐建立起自己的 AI 知识体系,并能够在这一领域取得成就。完整的学习路径建议参考「通往 AGI 之路」的布鲁姆分类法,设计自己的学习路径。
2025-03-04