直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

详细说明大语言模型的架构

回答

大语言模型的架构主要包括以下几个部分:

  1. 基础层:为大模型提供硬件支撑,如 A100、数据服务器等,以及数据支持。
  2. 数据层:分为静态的知识库和动态的三方数据集。这里的数据层并非指用于基层模型训练的数据基集,而是企业根据自身特性维护的垂域数据。
  3. 模型层:包括 LLm(大语言模型),一般使用 Transformer 算法实现,例如 GPT;还有多模态模型,如文生图、图生图等的模型,其训练所用的数据与 llm 不同,采用图文或声音等多模态的数据集。
  4. 平台层:例如大模型的评测体系或 langchain 平台等,是模型与应用之间的组成部分。
  5. 表现层:也就是应用层,是用户实际看到和使用的地方。

此外,大语言模型的架构还具有以下特点:

  • Transformer 架构:Transformer 是大语言模型训练架构,于 2017 年出现用于翻译,具备自我注意力机制能理解上下文和文本关联,其工作原理是单词预测,通过嵌入、位置编码、自注意力机制生成内容,模型调教中有控制输出的 temperature。
  • 不同类型:包括 encoder-only 模型,适用于自然语言理解任务;encoder-decoder 模型,同时结合 Transformer 架构的 encoder 和 decoder 来理解和生成内容;decoder-only 模型,更擅长自然语言生成任务,目前熟知的众多 AI 助手基本都采用这种结构。
  • 规模特点:预训练数据非常大,往往来自互联网上的论文、代码、公开网页等,通常是 TB 级别的数据。参数也非常多,如 Open 在 2020 年发布的 GPT-3 就已达到 170B 的参数。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

Ranger:【AI 大模型】非技术背景,一文读懂大模型(长文)

首先为方便大家对大模型有一个整体的认知,我们先从大模型的整体架构着手,来看看大模型的组成是怎么样的。下面是我大致分的个层。从整体分层的角度来看,目前大模型整体架构可以分为以下几层:[heading3]1.基础层:为大模型提供硬件支撑,数据支持等[content]例如A100、数据服务器等等。[heading3]2.数据层[content]这里的数据层指的不是用于基层模型训练的数据基集,而是企业根据自己的特性,维护的垂域数据。分为静态的知识库,和动态的三方数据集[heading3]3.模型层:LLm或多模态模型[content]LLm这个大家应该都知道,large-language-model,也就是大语言模型,例如GPT,一般使用transformer算法来实现。多模态模型即市面上的文生图、图生图等的模型,训练所用的数据与llm不同,用的是图文或声音等多模态的数据集[heading3]4.平台层:模型与应用间的平台部分[content]比如大模型的评测体系,或者langchain平台等,提供模型与应用间的组成部分[heading3]5.表现层:也就是应用层,用户实际看到的地方[content]这个就很好理解了,就不用我多作解释了吧

02-基础通识课

[heading2]总结大语言模型的介绍与原理国内大模型的分类:国内大模型有通用模型如文心一言、讯飞星火等,处理自然语言;还有垂直模型,专注特定领域如小语种交流、临床医学、AI蛋白质结构预测等。大模型的体验:以‘为什么我爸妈结婚的时候没有邀请我参加婚礼’和‘今天我坐在凳子上’为例,体验了Kimi、通义千问、豆包等大模型的回答和续写能力,发现回复有差异,且大模型基于统计模型预测生成内容。大语言模型的工作原理:大语言模型工作原理包括训练数据、算力、模型参数,在训练数据一致情况下,模型参数越大能力越强,参数用b链形容大小。Transformer架构:Transformer是大语言模型训练架构,17年出现用于翻译,具备自我注意力机制能理解上下文和文本关联,其工作原理是单词预测,通过嵌入、位置编码、自注意力机制生成内容,模型调教中有控制输出的temperature。关于大语言模型的原理、应用及相关概念Transformer模型原理:通过不断检索和匹配来寻找依赖关系,处理词和词之间的位置组合,预测下一个词的概率,是一个偏向概率预测的统计模型。大模型幻觉:大模型通过训练数据猜测下一个输出结果,可能因错误数据导致给出错误答案,优质数据集对其很重要。Prompt的分类和法则:分为system prompt、user prompt和assistant prompt,写好prompt的法则包括清晰说明、指定角色、使用分隔符、提供样本等,核心是与模型好好沟通。Fine tuning微调:基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。RAG概念:未对RAG的具体内容进行详细阐述,仅提出了这个概念。

从 0 到 1 了解大模型安全,看这篇就够了

encoder-only:这些模型通常适用于可以自然语言理解任务,例如分类和情感分析.最知名的代表模型是BERTencoder-decoder:此类模型同时结合了Transformer架构的encoder和decoder来理解和生成内容。该架构的一些用例包括翻译和摘要。encoder-decoder的代表是google的T5decoder-only:此类模型更擅长自然语言生成任务。典型使用包括故事写作和博客生成。这也是我们现在所熟知的众多AI助手的结构我们目前耳熟能详的AI助手基本都来自左侧的灰色分支,当然也包括ChatGPT。这些架构都是根据谷歌2017年发布的论文“attention is all you need”中提出的transformer衍生而来的,在transformer中,包括Encoder,Decoder两个结构目前的大型语言模型就是右侧只使用Decoder的Decoder-only架构的模型大模型又大在哪呢?第一,大模型的预训练数据非常大,这些数据往往来自于互联网上,包括论文,代码,以及可进行爬取的公开网页等等,一般来说,现在最先进的大模型一般都是用TB级别的数据进行预训练。第二,参数非常多,Open在2020年发布的GPT-3就已经达到170B的参数在GPT3中,模型可以根据用户输入的任务描述,或给出详细的例子,完成任务但这与我们熟知的ChatGPT仍然有着很大的差距,使用ChatGPT只需要像和人类一样对话,就可以完成任务。除了形式上的不同之外,还有一个更加重要的差距,那就是安全性上的差别。

其他人在问
超融合架构与AI
超融合架构与 AI 相关的知识如下: 在融合 RL(强化学习)与 LLM(大型语言模型)思想方面: AI 本质涉及多种缩放规律(scaling law),当前较好的模型规模在 10 的 25 到 26 次方 FLOPs,算力是必要条件。 需满足可扩展性(scalability)和通用性(generality)的架构,如 Transformer 在已知 token 空间符合部分条件,但在更通用场景存在不足。 未来可能会利用用户数据源的缩放规律,对齐(alignment)问题存在缩放规律且可解决,数据瓶颈在文本模态上 2024 年可能出现,多模态数据引入可推迟 1 2 年。 在面向智能的架构方面: 包括为 Machine Learning 优化的高性能芯片,如 Nvidia 的 H100 Tensor Core GPU 和 Google 的 TPU,内置多计算核心和高带宽内存。 能完全发挥硬件效率的系统软件,如 Nvidia 推出的 CUDA。 用于训练和推理的分布式计算框架,可跨多个节点扩展模型训练操作。 数据和元数据管理系统,提供可靠、统一和可重复使用的管理通道。 极低延迟的服务基础设施,支持快速执行基于实时数据和上下文相关的智能操作。 Machine Learning 持续集成平台(MLOps)、模型解释器、质保和可视化测试工具,可大规模监测、调试、优化模型和应用。 封装了整个 Machine Learning 工作流的终端平台,抽象出全流程复杂性,易于使用。 在 Q猜想方面:当前各界有很多相关文章或论文发表,推测可能通过 LLM 融合 RL 的方法实现,前期数据准备工作具有巨大挑战。
2024-12-18
超融合架构与AI
超融合架构与 AI 相关的知识如下: 在融合 RL 与 LLM 思想方面: AI 本质上是一堆 scaling law,当前能看到的最好模型规模在 10 的 25 到 26 次方 FLOPs 且规模还会持续增长,算力是必要条件。 需要同时满足 scalability 和 generality 的架构,如 transformer 在已知 token space 符合部分条件,但在更通用场景不太符合。 未来可能会利用用户数据源的 scaling law,alignment 也有 scaling law,只要找到对的数据就能解决。 一个值得被 scale up 的架构是基础,要支持不断加入更多数据,数据会成为瓶颈,如文本模态在 2024 年可能遇到,多模态数据引入可推迟 1 2 年。 在面向智能的架构方面: 包括为 Machine Learning 优化的高性能芯片,如 Nvidia 的 H100 Tensor Core GPU 和 Google 的 TPU,内置多计算核心和高带宽内存(HBM),可高度并行化执行神经网络计算。 能够完全发挥硬件效率的系统软件,如 Nvidia 推出的 CUDA 可直接访问 GPU 的虚拟指令集,执行内核级别的并行计算。 用于训练和推理的分布式计算框架,可有效地跨多个节点扩展模型的训练操作。 数据和元数据管理系统,为创建、管理、训练和预测数据而设计。 极低延迟的服务基础设施,使机器能够快速执行基于实时数据和上下文相关的智能操作。 Machine Learning 持续集成平台(MLOps)、模型解释器、质保和可视化测试工具,可大规模监测、调试、优化模型和应用。 封装了整个 Machine Learning 工作流的终端平台,抽象出全流程的复杂性,易于使用。 在 Q猜想方面:当前各界有很多关于 Qstar 猜想的文章或论文发表,结合核心要点内容,通往 Qstar 可能通过 LLMs 融合 RL 的方法实现,这需要大量复杂的前期数据准备工作,也是为 super alignment 做必要准备,前期数据工程相关工作挑战巨大,OpenAI 常采用简单暴力的方法解决,但目前情况未知。
2024-12-18
AI这个产品的基础架构是什么,in other words what powers AI
AI 的基础架构通常包括以下几个关键部分: 1. 语言生成:能够生成自然语言文本,以实现交流和表达。 2. 增长引擎:推动 AI 系统的不断发展和优化。 3. 广告定制和优化:根据用户需求和数据进行精准的广告定制和效果优化。 从技术层面来看,在最简单的情况下,使用 AI 做归纳推理时,输入一系列测量结果,然后让其预测尚未完成的测量结果。此时,AI 被视为黑匣子,重要的是其能否给出正确答案。但不可避免地,AI 中存在一些底层结构,使其最终会假设某种数据模型。 在实际应用中,对 AI 的监管是基于其在特定应用中可能产生的结果,具有很强的情境特异性。例如,并非将关键基础设施中的所有 AI 应用都归为高风险,像识别机器表面划痕这类应用风险可能相对较低。同样,用于在线服装零售商客户服务请求分类的 AI 聊天机器人,与作为医疗诊断过程一部分的类似应用,监管方式不应相同。
2024-12-11
能否整理AI AGENT的架构图
AI Agent 的架构主要包括以下部分: 1. 中间的“智能体”通常是 LLM(大语言模型)。 2. 为 LLM 增加的四个能力分别是工具、记忆、行动和规划。 工具:通过如 Langchain 框架将 LLM 与工具进行串接,例如给大模型提供数据库工具用于长期记忆。 记忆:让大模型能够记录重要信息。 规划:在大模型的 prompt 层进行目标拆解。 行动:每一步拆解后输出不同的固定格式 action 指令给工具作为输入。 AI Agent 是一个融合了语言学、心理学、神经学、逻辑学、社会科学、计算机科学等多个学科精髓的综合实体,不仅有实体形态,还有丰富的概念形态,具备许多人类特有的属性。这些学科大多以人为研究对象,探索人类内在本质。但网络上对其的介绍往往晦涩难懂,其自主性、学习能力、推理能力等核心概念,以及如何规划和执行任务、理解和处理信息等内容常笼罩在神秘面纱之下。
2024-11-30
请问有ai生成架构图的工具么
以下是一些可以生成架构图(包括逻辑视图、功能视图、部署视图)的工具: 1. Lucidchart:流行的在线绘图工具,支持多种图表创建,用户可通过拖放轻松创建架构图。 2. Visual Paradigm:全面的 UML 工具,提供创建各种架构视图的功能。 3. ArchiMate:开源建模语言,与 Archi 工具配合使用可创建逻辑视图。 4. Enterprise Architect:强大的建模、设计和生成代码工具,支持多种架构视图创建。 5. Microsoft Visio:广泛使用的图表和矢量图形应用程序,提供丰富模板。 6. draw.io(现称 diagrams.net):免费在线图表软件,支持创建多种类型图表。 7. PlantUML:文本到 UML 转换工具,通过编写描述生成序列图等,辅助创建逻辑视图。 8. Gliffy:基于云的绘图工具,提供创建架构图功能。 9. Archi:免费开源工具,用于创建 ArchiMate 和 TOGAF 模型,支持逻辑视图创建。 10. Rational Rose:IBM 的 UML 工具,支持创建多种视图。 请注意,这些工具并非都是基于 AI 的。AI 在绘图工具中的应用通常涉及智能推荐布局、自动生成图表代码或识别图表中的模式和关系。在选择工具时,应考虑具体需求,如是否支持特定建模语言、是否与特定开发工具集成、偏好在线工具或桌面应用程序等。 此外,以下是一些可以辅助或自动生成 CAD 图的 AI 工具: 1. CADtools 12:Adobe Illustrator 插件,为 AI 添加 92 个绘图和编辑工具。 2. Autodesk Fusion 360:集成 AI 功能的云端 3D CAD/CAM 软件。 3. nTopology:基于 AI 的设计软件,可创建复杂 CAD 模型。 4. ParaMatters CogniCAD:基于 AI 的 CAD 软件,能根据输入自动生成 3D 模型。 5. 主流 CAD 软件(如 Autodesk 系列、SolidWorks 等)的生成设计工具,可根据设计目标和约束条件自动产生多种设计方案。 这些工具通常需要一定的 CAD 知识和技能才能有效使用。对于 CAD 初学者,建议先学习基本的 3D 建模技巧,然后尝试使用这些 AI 工具来提高设计效率。 以上内容由 AI 大模型生成,请仔细甄别。
2024-11-09
请帮我总结AI AGENT的总体架构,帮助我更快学习相关的知识,尽快进行具体场景的商业落地
AI Agent 是一个融合了多学科精髓的综合实体,不仅有实体形态,还有丰富的概念形态,并具备许多人类特有的属性。其总体架构包括以下方面: 1. 大模型 LLM 扮演“大脑”。 2. 规划:包括子目标分解、反思与改进。子目标分解将大型任务分解为较小可管理的子目标以处理复杂任务;反思和改进可对过去的行动进行自我批评和反思,从错误中学习并改进未来步骤,提高最终结果质量。 3. 记忆。 此外,AI Agent 还具有以下特点和应用: 1. 能够自行规划任务执行的工作流路径,面向简单或线性流程的运行。 2. 可以实现多 Agent 协作,例如让大语言模型扮演不同角色,相互协作共同开发应用或复杂程序。
2024-11-04
如何利用AGI创建3D打印的模型
利用 AGI 创建 3D 打印模型的方法如下: 1. 将孩子的画转换为 3D 模型: 使用 AutoDL 部署 Wonder3D:https://qa3dhma45mc.feishu.cn/wiki/Pzwvwibcpiki2YkXepaco8Tinzg (较难) 使用 AutoDL 部署 TripoSR:https://qa3dhma45mc.feishu.cn/wiki/Ax1IwzWG6iDNMEkkaW3cAFzInWe (小白一学就会) 具体实物(如鸟/玩偶/汽车)的 3D 转换效果最佳,wonder3D 能智能去除背景(若效果不佳,需手动扣除背景) 对于一些非现实类玩偶类作品,wonder3D 识别效果不佳时,可先使用 StableDiffusion 将平面图转换为伪 3D 效果图再生成模型。以 usagi 为例,先通过 SD 生成 3D 的 usagi,再将 usagi 输入 wonder3D。 2. 生成特定模型,如创建一个乐高 logo 的 STL 文件: 设计乐高 logo:使用矢量图形编辑软件(如 Adobe Illustrator 或 Inkscape)创建或获取矢量格式的乐高 logo,确保符合标准。 导入 3D 建模软件:将矢量 logo 导入到 3D 建模软件(如 Blender、Fusion 360 或 Tinkercad)中。 创建 3D 模型:在 3D 建模软件中根据矢量图形创建 3D 模型,调整尺寸和厚度以适合打印。 导出 STL 文件:将完成的 3D 模型导出为 STL 文件格式。 以下是在 Blender 中使用 Python 脚本创建简单 3D 文本作为乐高 logo 并导出为 STL 文件的步骤: 打开 Blender,切换到“脚本编辑器”界面。 输入脚本,点击“运行脚本”按钮,Blender 将创建 3D 文本对象并导出为 STL 文件。 检查生成的 STL 文件,可根据需要调整脚本中的参数(如字体、位置、挤压深度等)以获得满意的乐高 logo 3D 模型。 此外,还有一些其他动态: 阿里妈妈发布了:https://huggingface.co/alimamacreative/FLUX.1TurboAlpha ,演示图片质量损失小,比 FLUX schell 本身好很多。 拓竹旗下 3D 打印社区 Make World 发布 AI:https://bambulab.com/zh/signin ,3D 生成模型找到落地和变现路径。 上海国投公司搞了一个:https://www.ithome.com/0/801/764.htm ,基金规模 100 亿元,首期 30 亿元,并与稀宇科技(MiniMax)、阶跃星辰签署战略合作协议。 智谱的:https://kimi.moonshot.cn/ 都推出基于深度思考 COT 的 AI 搜索。 字节跳动发布:https://mp.weixin.qq.com/s/GwhoQ2JCMQwtLN6rsrJQw ,支持随时唤起豆包交流和辅助。 :https://x.com/krea_ai/status/1844369566237184198 ,集成了海螺、Luma、Runway 和可灵四家最好的视频生成模型。 :https://klingai.kuaishou.com/ ,现在可以直接输入文本指定对应声音朗读,然后再对口型。
2024-12-20
如何通过提示词提高模型数据对比和筛选能力
以下是一些通过提示词提高模型数据对比和筛选能力的方法: 1. 选择自定义提示词或预定义话题,在网站上使用如 Llama3.1 8B Instruct 模型时,输入对话内容等待内容生成,若右边分析未刷新可在相关按钮间切换。由于归因聚类使用大模型,需稍作等待,最终结果可能因模型使用的温度等因素而不同。 2. 在写提示词时不能依赖直觉和偷懒,要实话实说,补充详细信息以避免模型在边缘情况上犯错,这样也能提高数据质量。 3. 在分类问题中,提示中的每个输入应分类到预定义类别之一。在提示末尾使用分隔符如“\n\n\n\n”,选择映射到单个 token 的类,推理时指定 max_tokens=1,确保提示加完成不超过 2048 个 token,每班至少有 100 个例子,可指定 logprobs=5 获得类日志概率,用于微调的数据集应在结构和任务类型上与模型使用的数据集相似。例如在确保网站广告文字正确的案例中,可微调分类器,使用合适的分隔符和模型。
2024-12-20
通过提示词可以提高模型的数学计算能力吗
通过提示词可以在一定程度上提高模型的数学计算能力。例如 PoT 技术,它是思维链技术的衍生,适用于数值推理任务,会引导模型生成一系列代码,再通过代码解释器工具进行运算,这种方式能显著提升模型在数学问题求解上的表现。PoT 作为 CoT 的衍生技术,遵循零样本和少样本的学习范式,零样本 PoT 与 CoT 方法相似,不需要大量样本即可进行有效推理,少样本 PoT 也通过较少样本优化模型表现。但需要注意的是,大模型在解决数学问题时可能存在不够可靠的情况。
2024-12-20
哪一个开源大语言模型对中文支持比较好?
以下是一些对中文支持较好的开源大语言模型: 1. OpenChineseLLaMA: 地址: 简介:基于 LLaMA7B 经过中文数据集增量预训练产生的中文大语言模型基座,对比原版 LLaMA,该模型在中文理解能力和生成能力方面均获得较大提升,在众多下游任务中均取得了突出的成绩。 2. BELLE: 地址: 简介:开源了基于 BLOOMZ 和 LLaMA 优化后的一系列模型,同时包括训练数据、相关模型、训练代码、应用场景等,也会持续评估不同训练数据、训练算法等对模型表现的影响。 3. Panda: 地址: 简介:开源了基于 LLaMA7B,13B,33B,65B 进行中文领域上的持续预训练的语言模型,使用了接近 15M 条数据进行二次预训练。 4. Llama2Chinese13bChat: 地址: 5. Gemma7bit: 地址: 此外,AndesGPT 在语言理解与抽取、角色扮演能力上排名国内前一,在代码、生成与创作、上下文对话能力上排名国内前三,各项能力较为均衡,聚焦在移动设备端的应用。Baichuan213BChat 是百川智能自主训练的开源大语言模型,是中文开源模型的主导力量。
2024-12-20
说明jetson orin nano可以使用什么模型?Grok-1模型可以吗?
目前没有关于 Jetson Orin Nano 是否可以使用 Grok1 模型的明确信息。但一般来说,Jetson Orin Nano 可以支持多种常见的深度学习模型,如基于 TensorFlow、PyTorch 框架开发的模型等。具体能够使用哪些模型,还需要考虑模型的计算需求、内存占用以及 Jetson Orin Nano 的硬件配置和性能限制等因素。
2024-12-20
怎么用已经公布的源代码,自己拥有一个私人ai。详细步骤,并且列出硬件设施,说明jetson orin nano可以使用什么模型?
目前已公布的源代码种类繁多,要利用其拥有一个私人 AI 并非简单直接的过程,且需要一定的技术知识和经验。 一般来说,以下是大致的步骤: 1. 选择合适的源代码:根据您的需求和技术能力,从众多已公布的源代码中选择适合的项目。 2. 环境搭建:安装所需的开发工具、编程语言和相关依赖库。 3. 数据准备:收集和整理适合训练和优化模型的数据。 4. 代码理解与修改:深入理解所选源代码的结构和逻辑,根据您的需求进行必要的修改和优化。 5. 训练模型:使用准备好的数据对模型进行训练。 6. 评估与优化:对训练好的模型进行评估,根据评估结果进行进一步的优化。 关于硬件设施,Jetson Orin Nano 是一款性能不错的嵌入式计算设备。它可以支持多种模型,例如常见的深度学习模型如卷积神经网络(CNN)、循环神经网络(RNN)等。但具体能使用哪些模型,还取决于模型的规模、计算需求以及您对性能和资源的要求。
2024-12-20
如何使用AI进行中学历史教学,详细些介绍
以下是关于如何使用 AI 进行中学历史教学的一些方法和案例: 1. 利用 GPT 生成“沉浸式”历史片段游戏,让学生扮演特定角色“设身处地”地做决策,例如模拟明朝灭亡时期在南京的场景。 2. 让学生的作业是找出 GPT 生成内容中的错误,以加深对历史知识的理解和批判性思维。 3. 在历史课中,对于制作展示宏观经济学原理理解的信息图表等任务,可以使用 AI 生成的图像。 4. 对于一些需要快速制作以展示学习成果的视频,如科学课中的学习展示,可利用 AI 生成的跳切来节省时间。 同时需要注意,AI 生成的历史模拟内容并非完全准确,可能存在错误和幻觉,但有时幻觉也可能成为一种特点而非缺陷。在使用 AI 辅助教学时,要引导学生正确对待和利用 AI 生成的内容,培养他们的批判性思维和对历史知识的深入理解。
2024-12-20
如何使用AI进行中学历史教学,详细些
以下是一些使用 AI 进行中学历史教学的方法和案例: 1. 利用 GPT 生成“沉浸式”历史片段游戏,让学生扮演特定角色“设身处地”地做决策,例如模拟明朝灭亡时期在南京的情境。 2. 让学生的作业是找出 GPT 生成内容中的错误,以加深对历史知识的理解和批判性思维。 3. 在历史课中,对于制作展示宏观经济学原理理解的信息图表等任务,可接受 AI 生成的图像。 4. 对于不同的历史情境模拟,可参考详细的提示链接,并根据 Claude 或 ChatGPT 进行定制。 需要注意的是,这些模拟并非完全准确,可能存在错误和幻觉,但有时幻觉也可能成为一种特点而非缺陷。同时,在教学中要引导学生正确看待和利用 AI ,培养他们的批判性思维和对知识的深入理解。
2024-12-20
怎么用已经公布的源代码,自己拥有一个私人ai。详细步骤让小白都能成功,并且列出硬件设施。
以下是使用已公布的源代码拥有一个私人 AI 的详细步骤,适合小白操作,并列出所需的硬件设施: 硬件设施: 云服务器 步骤: 1. 利用云服务器,在宝塔面板的终端安装相关命令。可通过以下链接获取详细信息:https://docs.dify.ai/v/zhhans/gettingstarted/installselfhosted/dockercompose 。这些命令在宝塔面板的终端安装,安装的 dockercompose 文件位于 /root/dify/docker 目录下。 2. 检查运行情况,使用 docker compose ps 命令,如果 nginx 容器无法运行,可能是 80 端口被占用。将终端输出的代码粘贴给 AI ,按照 AI 的方法检查谁占用了端口,并停止占用进程。确保每一步成功后再进行下一步,可将代码复制询问 AI 以确认。 3. 在浏览器地址栏输入公网 IP(可在腾讯云服务器或宝塔面板地址栏查看,去掉后面的:8888),随便填写邮箱密码建立一个知识库,在知识库中选择设置。 4. 选择模型,国内模型通常有免费额度,例如智谱 AI 。点击设置,从智谱 AI 获取钥匙,进入智谱官网用手机号注册,添加 API keys 并复制。查看免费额度(智谱在资源包管理中查看,赠送 500 万一个月)。 5. 回到之前的页面,复制钥匙并保存,随便创建一个应用。 6. 可以先选择智谱 glm4 进行测试,聊两句看是否有回应,然后点击发布。 7. 点击 api 秘钥,创建一个并复制。
2024-12-20
机器学习的各种模型详细介绍
以下是对机器学习中一些常见模型的详细介绍: 模型下载网站: 模型安装: 下载模型后需要将之放置在指定的目录下,不同类型的模型应放置在不同目录。模型的类型可通过检测。 大模型(Ckpt):放入 models\\Stablediffusion VAE 模型:一些大模型需要配合 vae 使用,对应的 vae 同样放置在 models\\Stablediffusion 或 models\\VAE 目录,然后在 webui 的设置栏目选择。 Lora/LoHA/LoCon 模型:放入 extensions\\sdwebuiadditionalnetworks\\models\\lora,也可以在 models/Lora 目录 Embedding 模型:放入 embeddings 目录 智谱·AI 开源模型: WebGLM10B:利用百亿参数通用语言模型(GLM)提供高效、经济的网络增强型问题解答系统。它旨在通过将网络搜索和检索功能集成到预训练的语言模型中,改进现实世界的应用部署。代码链接: WebGLM2B:代码链接: MathGLM2B:在训练数据充足的情况下,20 亿参数的 MathGLM 模型能够准确地执行多位算术运算,准确率几乎可以达到 100%,其结果显著超越最强大语言模型 GPT4 在相同测试数据上 18.84%的准确率。代码链接: MathGLM500M:模型下载: MathGLM100M:模型下载: MathGLM10M:模型下载: MathGLMLarge:采用 GLM 的不同变体作为骨干来训练 MathGLM,包括具有 335M 参数的 GLMlarge 和 GLM10B。此外,还使用 ChatGLM6B 和 ChatGLM26B 作为基座模型来训练 MathGLM。这些骨干模型赋予 MathGLM 基本的语言理解能力,使其能够有效理解数学应用题中包含的语言信息。模型下载: OpenAI 模型: GPT4 Beta:一组改进 GPT3.5 的模型,可以理解和生成自然语言或代码 GPT3.5:一组改进 GPT3 的模型,可以理解并生成自然语言或代码 DALL·E Beta:可以在给定自然语言提示的情况下生成和编辑图像的模型 Whisper Beta:可以将音频转换为文本的模型 Embeddings:一组可以将文本转换为数字形式的模型 Codex Limited Beta:一组可以理解和生成代码的模型,包括将自然语言转换为代码 Moderation:可以检测文本是否敏感或不安全的微调模型 GPT3:一组可以理解和生成自然语言的模型
2024-12-17
用扣子智能体制作一个有关热门旅游景点攻略小助手的工作流,能够根据不同用户的需求,制定个性化的旅行计划,涵盖各种热门旅游景点,提供详细的行程安排、交通指南和景点特色介绍
要使用扣子智能体制作一个有关热门旅游景点攻略小助手的工作流,以下是一些参考信息: 1. 扣子智能体通常由工作流和数据库组成。工作流的设计相对简单,一个输入对接知识库,搭载豆包 function call 大模型,最后输出。数据库的收集和整理需要一定专业知识,并进行手动二次校对。 2. 插件方面,扣子平台有多种类型的插件,如看新闻、规划旅行、提高办公效率、理解图片内容等的 API,还可根据需求自制插件。 3. 工作流就像可视化的拼图游戏,由多个节点组成,包括大语言模型、代码块等,能创造复杂稳定的业务流程。 4. 扣子预置了各种场景的 Bot,如旅游大师 Bot。在 Bot 商店可查看精选的预置 Bot,选择后会被引导至编排页面,该页面分为顶部区域(显示所用大型语言模型)、人设与回复逻辑区域、技能区域(展示配置的功能,如查询航班的插件、推荐景点的工作流等)、预览与调试区域(展示交互运行结果)。 基于以上信息,您可以尝试设计热门旅游景点攻略小助手的工作流,根据不同用户需求制定个性化旅行计划,涵盖热门景点、行程安排、交通指南和景点特色介绍。但需要注意的是,工作流的设计和数据库的整理需要精心规划和准确操作。
2024-12-16
我想用coze搭建一个智能体,关于自然语言课程的期末复习指南,要将我的教材导入扣子作为知识库,智能体支持用户提问,搜索知识点,结合知识库和互联网搜索的内容给出问答,需要使用多智能体或工作流,使用卡片功能进行显示,请给出我搭建这个智能体的步骤
以下是使用 Coze 搭建一个关于自然语言课程期末复习指南智能体的步骤: 1. 访问 Coze 官网(https://www.coze.cn),注册并登录。 2. 点击页面左上角的⊕,通过【标准创建】填入智能体的基本信息。 3. 了解 Bot 开发调试界面: 人设与回复逻辑(左侧区域):设定智能体的对话风格、专业领域定位,配置回复的逻辑规则和限制条件,调整回复的语气和专业程度。 功能模块(中间区域): 技能配置: 插件:扩展智能体的专业能力,如计算器、日历等工具。 工作流:设置固定的处理流程和业务逻辑。 图像流:处理和生成图像的相关功能。 触发器:设置自动化响应条件。 知识库管理: 文本:存储文字类知识材料。 表格:结构化数据的存储和调用。 照片:图像素材库。 记忆系统: 变量:存储对话过程中的临时信息。 数据库:管理持久化的结构化数据。 长期记忆:保存重要的历史对话信息。 文件盒子:管理各类文档资料。 交互优化(底部区域): 开场白:设置初次对话的问候语。 用户问题建议:配置智能推荐的后续问题。 快捷指令:设置常用功能的快速访问。 背景图片:自定义对话界面的视觉效果。 预览与调试(右侧区域):实时测试智能体的各项功能,调试响应效果,优化交互体验。 4. 设定智能体的人设与回复逻辑后,为智能体配置对应的技能,以保证其可以按照预期完成目标任务。例如,以获取 AI 新闻的智能体为例,需要为它添加一个搜索新闻的接口来获取相关新闻。具体操作如下: 在智能体编排页面的技能区域,单击插件功能对应的+图标。 在添加插件页面,选择相关功能,然后单击新增。 修改人设与回复逻辑,指示智能体使用相应插件来搜索所需内容。 (可选)为智能体添加开场白,让用户更好地了解智能体的功能。开场白功能目前支持豆包、微信公众号(服务号)。 5. 配置好智能体后,在预览与调试区域中测试智能体是否符合预期。可单击清除图标清除对话记录。 6. 完成测试后,将智能体发布到社交渠道中使用。具体操作如下: 在智能体的编排页面右上角,单击发布。 在发布页面输入发布记录,并勾选发布渠道。 单击发布。 更多内容,请访问 Coze 官方文档: 英文版:https://www.coze.com/docs/welcome.html 中文版:https://www.coze.cn/docs/guides/welcome
2024-12-20
大语言模型与医疗应用
大语言模型在医疗领域有以下应用和相关项目: XrayGLM:首个会看胸部 X 光片的中文多模态医学大模型。 地址:https://github.com/WangRongsheng/XrayGLM 简介:促进中文领域医学多模态大模型的研究发展,在医学影像诊断和多轮交互对话上有潜力。 MeChat:中文心理健康支持对话大模型。 地址:https://github.com/qiuhuachuan/smile 简介:由 ChatGLM6B LoRA 16bit 指令微调得到,通过扩展真实的心理互助 QA 为多轮对话,提高在心理健康支持领域的表现。 MedicalGPT 地址:https://github.com/shibing624/MedicalGPT 简介:训练医疗大模型,实现包括二次预训练、有监督微调、奖励建模、强化学习训练,并发布中文医疗 LoRA 模型。 在商业化应用方面: 彭博发布了金融领域的大模型 BloombergGPT,医联发布了医疗大语言模型 MedGPT,在其所在的垂直领域发挥实际诊疗价值。 OpenAI 对 GPT 模型进行了更新,降低了价格,且正在开发新的技术以降低训练模型的成本。 商汤科技联合创始人杨帆认为大模型能加速商业化落地,缩短产业应用周期。 360 公司创始人周鸿祎表示大模型是工业革命级的生产力工具,能赋能百行千业。 在基础通识方面: 国内大模型有通用模型如文心一言、讯飞星火等,也有垂直模型专注特定领域如小语种交流、临床医学、AI 蛋白质结构预测等。 以特定例子体验了不同大模型的回答和续写能力,大模型基于统计模型预测生成内容。 大语言模型工作原理包括训练数据、算力、模型参数,在训练数据一致情况下,模型参数越大能力越强。 Transformer 是大语言模型训练架构,具备自我注意力机制能理解上下文和文本关联,通过单词预测生成内容。 大模型可能因错误数据导致给出错误答案,优质数据集很重要。 Prompt 分为 system prompt、user prompt 和 assistant prompt,写好 prompt 有清晰说明等法则。 Fine tuning 是基于通用大模型针对特定领域任务提供数据进行学习和调整。
2024-12-17
我想学习python,但我从没有学习过任何编程语言。如果按专业学习类的书去自学,我觉得很无聊,而且也不好理解。最主要的是学习时间太长。你可以帮我制定一个,利用AI快速学习python的方法吗?
以下是为您制定的利用 AI 快速学习 Python 的方法: 首先,您需要了解 Python 基础,包括基本语法(如变量命名、缩进等规则)、数据类型(如字符串、整数、浮点数、列表、元组、字典等)、控制流(如条件语句 if、循环语句 for 和 while 控制程序执行流程)、函数(定义和调用函数、理解参数和返回值、掌握作用域和命名空间)、模块和包(学会导入标准库或第三方库、安装和使用包扩展功能)、面向对象编程(了解类和对象的定义与实例化、属性和方法的定义与调用、继承和多态)、异常处理(理解异常的概念和工作方式、使用 try 和 except 语句处理错误)以及文件操作(学会文件读写、处理文件与路径)。 您可以参考以下课程内容进行学习: 1. “和 Cursor AI 一起学 Python 编程”: 第二节:Python 基础语法与文本处理,45 分钟。教学内容包括 Python 基础语法、数据类型、控制结构、文本处理基础、字符串操作方法、文件读写操作。实践实验包括中文文本的基本处理,如统计字符数、词语数、句子数,讨论中文编码问题及解决方法。教学目标是掌握 Python 基本语法和结构,能够进行简单文本数据处理。 第三节:利用 Python 进行自然语言处理(NLP),45 分钟。教学内容包括自然语言处理的概念和重要性、Python 中的 NLP 库、分词原理举例、介绍结巴分词等工具、用 Jieba 进行课文分词。实践实验包括中文分词与词频分析,统计词频并找出高频词汇,讨论词频分析在语言教学中的应用。教学目标是掌握使用 Python 进行基本的 NLP 操作,理解 NLP 技术在语言研究和教学中的应用。 在学习过程中,您可以借助 AI 工具辅助理解和解决问题,例如通过智能问答获取对概念的解释,或者让 AI 为您生成示例代码帮助理解。祝您学习顺利!
2024-12-16
亚马逊大语言模型全景培训
以下是关于亚马逊大语言模型全景培训的相关内容: Andrej Karpathy 亲授的大语言模型入门讲座提到: 1. 大型语言模型(LLMs):神经网络实际上是下一个词预测网络,通过给它一些单词来预测下一个单词。尽管下一个单词预测任务看似简单,但它迫使神经网络学习大量关于世界的信息,并将其编码在参数中。例如,预测关于露丝·汉德勒的内容时,模型参数需学习相关知识。模型推理是生成接下来的单词,通过采样选择单词并反馈回模型获取下一个单词,从而“梦想”出类似互联网文档的内容,如 Java 代码、亚马逊产品、维基百科文章等。 2. 获取辅助模型的方式:保持优化相同,更换训练数据集。过去对互联网文档训练,现在替换为手动收集的数据集,通过雇用人员按标签说明提问并写下答案。预训练阶段文本量大但质量低,第二阶段更看重质量而非数量,文档少但都是高质量对话。 该讲座的作者是天空之城城主,来源为 https://mp.weixin.qq.com/s/fmb4nvIEA9AC5JpNPWN7Q ,宝玉的另一翻译版本为 https://twitter.com/dotey/status/1728959646138880026 。讲座分为三大部分,包括第一部分的大型语言模型(LLMs)、第二部分的 LLM 的未来、第三部分的 LLM 安全性。Andrej Karpathy 近期进行了一场 30 分钟的入门讲座,虽未录制,但因受欢迎决定重新录制并上传至 YouTube 平台。
2024-12-13
推荐一款可以快速生成多国语言电商海报的AI工具
以下为您推荐几款可以快速生成多国语言电商海报的 AI 工具: 1. Canva(可画):https://www.canva.cn/ 这是一个非常受欢迎的在线设计工具,提供大量模板和设计元素,用户通过简单拖放操作即可创建海报,其 AI 功能可帮助选择合适的颜色搭配和字体样式。 2. 稿定设计:https://www.gaoding.com/ 稿定智能设计工具采用先进的人工智能技术,自动分析和生成设计方案,稍作调整即可完成完美设计。 3. VistaCreate:https://create.vista.com/ 这是一个简单易用的设计平台,提供大量设计模板和元素,用户可使用 AI 工具创建个性化海报,其智能建议功能可帮助快速找到合适的设计元素。 4. Microsoft Designer:https://designer.microsoft.com/ 通过简单的拖放界面,用户可以快速创建演示文稿、社交媒体帖子和其他视觉内容,还集成了丰富的模板库和自动图像编辑功能,如智能布局和文字优化,大大简化了设计流程。 此外,您还可以参考以下关于如何用 AI 快速做一张满意海报的方法: 1. 需求场景:当您想在社交平台发布内容时,为了避免干巴巴的文字、网上图片的质量问题和撞图风险,以及相册照片的尴尬情况,可以考虑使用 AI 制作海报。 2. 大致流程: 主题与文案:确定海报主题后,可借助 ChatGPT 等文本类 AI 工具协助完成文案。 风格与布局:选择想要完成的风格意向,背景不一定是空白的,可根据文案和风格灵活调整画面布局。 生成与筛选:使用无界 AI,输入关键词,生成并挑选一张满意的海报底图。 配文与排版:将上述素材进行合理排版,得到成品。排版同样可以参考 AIGC 海报成果。 内容由 AI 大模型生成,请仔细甄别。
2024-12-12