Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

大神解读大模型底层

Answer

大模型的底层原理主要包括以下几个方面:

  1. 生成式:大模型根据已有的输入为基础,不断计算生成下一个字词(token),逐字完成回答。例如,从给定的提示词“how”开始,通过计算推理依次输出“are”“you”等,直到计算出下一个词是“[end of text]”时结束输出。
  2. 预训练:大模型“脑袋”里存储的知识都是预先学习好的,这个预先学习并把对知识的理解存储记忆在“脑袋”里的过程称为预训练。以 GPT-3 为例,训练它使用了约 4990 亿 token 的数据集,相当于 86 万本《西游记》。预训练需要花费大量时间和算力资源,且在没有外部帮助的情况下,大模型所知道的知识信息是不完备和滞后的。
  3. 转换器模型(Transformer):Transformer 是一种处理文本内容的经典模型架构,虽然其具体细节不清楚不影响使用大模型,但感兴趣的可以通过相关链接进一步了解。
  4. 参数规模:依靠概率计算逐字接龙的方法看似难以生成高质量回答,但随着参数规模的增加,如从 GPT-1 的 1.5 亿到 GPT-3.5 的 1750 亿,实现了量变到质变的突破,“涌现”出惊人的“智能”。这种“涌现”现象在人类的进化和个体学习成长历程中也存在。
Content generated by AI large model, please carefully verify (powered by aily)

References

走入AI的世界

总结一下,以上这段讨论,你要重点记住这句话:模仿人类大脑结构的AI,也自然而然的表现出人的特征,很多我们应对大模型回答不及预期的解决之道,也和人与人交流沟通的技巧如出一辙,息息相关。关于这一点,我们会在后续各种真实案例的分析拆解中再来讨论。GPT的全称是生成式预训练转换器模型(Generative Pre-trained Transformer),他的名字里就蕴含了大量重要的信息,接下来我们来聊聊GPT这三个字母的分别含义:图14 Generative Pre-trained Transformer生成式(Generative):所谓生成式,说的是大模型是根据已有的输入为基础,不断计算生成下一个字词(token),从而逐字完成回答的过程。这一过程,像极了一个单字接龙的游戏,图15中给出了一个简单的例子做为说明:1.一开始我们给了大模型一些提示词Prompt,为了简化,在图中这个提示词只有一个单词:How;2.接下来,大模型会结合自己“大脑中存储的知识”进行计算推理,算出how后面接are这个单词的概率最大,于是输出are接在how后面;3.在已知how are的情况下,大模型再次推理计算,算出how are后面接you这个单词概率最大,于是输出you接在how are后面;4.不断重复上面步骤,每次大模型会多输出一个词(token),新的输出会和过去的输入一并成为新的输入,用来计算下一个词;5.直到计算出下一个词是[end of text]的概率最大,于是结束输出,回答结束([end of text]是一个特殊的token,用来终止对话输出)

走入AI的世界

那么预训练阶段大模型就行学了些什么,又学了多少内容呢?以GPT-3为例,训练他一共用了4990亿token的数据集(约570GB文本),这其中绝大多数都是来源于高质量的网页、书籍数据库、维基百科等的内容,可能你对4990亿token这个数字没有直观的体感,那么我们不妨做个换算,它大概相当于86万本《西游记》,人生不过3万天,也就是说,即使你不吃不喝不睡,以每天读完一本《西游戏》的阅读速度去看这些资料,也大概要28.6辈子才能读完。转换器模型(Transformer):Transformer这个单词你可能很陌生,但它的另一个中文翻译“变形金刚”你一定不陌生,Transformer是一种处理文本内容的经典模型架构,图16中左半部分就是GPT-1所使用的Transformer架构图(右边则是经典的Diffusion模型架构图,用于图像生成)。图16 Transformer和Diffusion关于Transformer的具体细节,即使不清楚,也并不太会影响你用好大模型,因此我们不做更多展开讨论了,感兴趣的朋友可以移步这里:[【官方双语】GPT是什么?直观解释Transformer|深度学习第5章_哔哩哔哩_bilibili](https://www.bilibili.com/video/BV13z421U7cs/?vd_source=951ca0c0cac945e03634d853abc79977)[Transformer Explainer:LLM Transformer Model Visually Explained](https://poloclub.github.io/transformer-explainer/)

走入AI的世界

没错,这就是大语言模型真实工作的样子,平时使用大模型看到他逐字输出的样子,并不是程序员做的酷炫“打字机”效果,而是大模型就是如此这般工作的。按照我们的常识认知,这种依靠概率计算逐字接龙的方法,恐怕连生成一个通顺的句子都难,更别提生成高质量有意义的回答了,为什么这种方法会有效呢?答案就是大,GPT-1的参数规模是1.5亿,GPT-2 Medium的参数规模是3.5亿,到GPT-3.5时,他的参数规模来到了惊人的1750亿,我们常说大力出奇迹,参数规模的增加,使得大模型实现了量变到质变的突破,最终“涌现”出了这种惊人的“智能”。反观人类自身,无论是长周期看物种的进化,还是短周期看一个个体的学习成长历程,都有这样“涌现”的结构,就像当我打下这些文字的时候,我的大脑也在神奇的进行着快速的语言组织,这个边打字边思考边输出的过程,又何尝不是一场接龙游戏呢?图15文字接龙游戏预训练(Pre-trained):正如我们前面五点朴素洞察提到的,人类是不知道自己没见过/学过的知识的,大模型也是如此,大模型“脑袋”里存储的知识,都是预先学习好的,这个预先学习并把对知识理解存储记忆在“脑袋”里的过程,就称为预训练。预训练是需要花费相当多的时间和算力资源的,当你了解并意识到预训练机制的时候,你就会明白,在没有其他外部帮助(例如使用浏览器插件,RAG等)的情况下,大模型所知道的知识信息总是不完备的,滞后的(非实时)。

Others are asking
李继刚大神提出的伪代码prompt 相关文章
李继刚等的 prompt 最佳实践相关内容如下: 方法论: 提出了基于 GPT3 的无代码聊天机器人设计工具 BotDesigner。 创建了 Conversation 视图和 Error Browser 视图。 使用 BotDesigner 观察 10 名非专家提示设计师执行聊天机器人设计任务的行为,以探索他们在提示设计中的直觉方法和困难。 结论: 所有参与者都能进行机会性的提示迭代设计,并能对提示更改进行局部测试。 参与者在生成提示、评估提示有效性和解释提示效果方面的困难主要源自过度概括和人际交往预期。 参与者倾向于从单一数据点过度推广,也倾向于从人类交流的角度过滤他们的提示设计和聊天机器人的响应。 关键信息: 贡献者包括李继刚、Sailor、田彬玏、Kyle😜、小七姐等群友。 李继刚的,最近收录不是很及时,可在李继刚的即刻查看更多。 每个角色都有版本迭代,标注版本号,争取更新到最新版本。 李继刚写了上百个这种 Prompt,有具体场景需求可评论留言,作者可帮忙写定制,也可自己用结构化方式写。 使用方法:开一个 new chat,点代码块右上角的复制,发送到 chat 聊天框,里面的描述可按需求修改。 思路来源:云中江树的框架: 方法论总结: 建议用文心一言/讯飞星火等国内大模型试试,有这些 prompt 的加持效果不错。 此外,还有相关的高阶使用方法,如陈财猫的“如何用 GPT 写长篇科幻?用分治法完成复杂任务”(https://waytoagi.feishu.cn/wiki/GY3sw4LQli5k9ckzrDZcRnVmnQf),刘海的“Prompt 纵向研究的最新成果:伪代码提示词”(https://waytoagi.feishu.cn/wiki/MjUDwTbq9iUtBrkskPXcpfOHnPg),陈财猫的“由 GPT 驱动的人生重开模拟器游戏,体验无穷变化的多重人生”(https://waytoagi.feishu.cn/wiki/WyJSwjvN5iZudhkd8iocrSy3njc)
2024-10-21
AI 小白怎么成为AI大神
以下是为 AI 小白提供的成为 AI 大神的学习路径: 首先,要了解 AI 基本概念。建议阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支如机器学习、深度学习、自然语言处理等以及它们之间的联系。同时,浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 接着,开始 AI 学习之旅。在「」中,能找到为初学者设计的课程,特别推荐李宏毅老师的课程。还可以通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并争取获得证书。 然后,选择感兴趣的模块深入学习。AI 领域广泛,涵盖图像、音乐、视频等,您可以根据自身兴趣选择特定模块进行深入钻研。 此外,还可以通过观看相关视频来辅助学习,比如“”,了解什么是 AI 大模型及其原理,包括生成式 AI 生成的内容叫做 AIGC,以及相关技术名词如机器学习(包括监督学习、无监督学习、强化学习)、深度学习等。 最后,在医疗保健领域应用 AI 时,要像人类学习一样,不能仅仅依靠大量数据和生成模型,而应通过使用彼此堆叠的模型来训练,比如先训练生物学的模型,再添加特定于医疗保健或药物设计的数据点。
2024-07-25
请你以制定清晰的任务列表和优先级的方式,来制作ai绘画相关的课程,帮助小白一步步上手操作成为大神。
以下是一个针对小白用户,从零开始学习AI绘画的清晰任务列表和优先级建议: 阶段一:基础知识学习 1. 了解AI绘画的基本概念 理解AI绘画与传统绘画的区别 了解AI绘画在艺术创作中的应用 2. 选择合适的AI绘画工具 研究不同AI绘画工具的特点和优缺点 选择一个适合自己的AI绘画工具 3. 学习基础绘画技巧 了解基本的绘画术语和技巧 学习如何使用AI绘画工具进行基础操作 阶段二:AI绘画工具使用 1. 熟悉AI绘画工具的基本操作 学习如何创建、编辑和管理画布 学习如何使用工具箱中的工具 2. 掌握AI绘画工具的功能 学习如何使用AI绘画工具的自动生成功能 学习如何调整AI绘画工具的参数和设置 3. 实践AI绘画工具的基本操作 尝试绘制简单的图形和形状 尝试使用AI绘画工具的自动生成功能创作作品 阶段三:AI绘画创作实践 1. 创作个人风格的作品 学习如何利用AI绘画工具创作具有个人风格的作品 尝试创作不同风格和主题的作品 2. 学习AI绘画工具的高级功能 学习如何使用AI绘画工具的高级功能,如AI生成、AI优化等 尝试创作更复杂和高质量的作品 3. 实践AI绘画创作 尝试创作不同风格和主题的作品,提高创作技巧 不断学习和实践,提升自己的AI绘画水平 阶段四:AI绘画作品展示和交流 1. 分享和展示自己的AI绘画作品 选择合适的平台分享和展示自己的AI绘画作品 与其他AI绘画爱好者交流和分享经验 2. 参加AI绘画相关的比赛和活动 了解和参加AI绘画相关的比赛和活动 通过比赛和活动提升自己的AI绘画水平 3. 持续学习和提升 关注AI绘画领域的新技术和趋势 不断学习和提升自己的AI绘画技巧和水平 通过以上任务列表和优先级建议,小白用户可以逐步学习AI绘画,并逐渐提升自己的创作水平。在学习过程中,建议多实践、多交流,不断提升自己的技能和创作能力。
2024-04-16
教我工作流的底层逻辑跟如何入门学习工作流
工作流的底层逻辑及入门学习方法如下: 工作流通常由多个节点构成,节点是其基本单元,本质上是包含输入和输出的函数。常见的节点类型包括: 1. LLM(大语言模型):使用输入参数和提示词生成处理结果。 2. Code(代码):通过 IDE 编写代码处理输入参数,并返回输出值。 3. Knowledage(知识库):根据输入参数从关联知识库中召回数据,并返回。 4. Condition(条件判断):ifelse 逻辑节点,用于设计工作流内的分支流程,根据设置条件运行相应的分支。 5. Variable(获取变量):从 Bot 中获取变量作为参数在工作流中使用。 6. Database(数据库):在工作流中使用提前配置在 Bot 数据库中的数据。 以下是一些入门学习工作流的示例和资源: 1. 对于生成绿幕素材和绿幕素材抠图的工作流,您可以下载工作流文件拖入 ComfyUI 中自动加载,然后对照相关说明进行学习。工作流链接:https://pan.quark.cn/s/01eae57419ce 提取码:KxgB 2. 对于 Glif 图像流制作冰淇淋甜品地标,您可以按照以下步骤学习: 1 分钟交作业:点击网址 https://glif.app/@jianStuart/glifs/cly85fy2i000cqe87zcu72i5l ,选一张主体区分度高且主体为地标的图,上传图片并点击相应按钮,多点几次选一张满意的即可。 5 分钟学习制作:点击顶上的“build”按钮,点击“+”加号,选择“img input”,再点下面的“+”加号,选“image generator”,把提示词放进节点,打开“advanced controls”,修改参数,勾选“Enable input image”并改参数。 3. 对于 Coze 平台的工作流,官方有现成的教程参考: 海外参考文档:https://www.coze.com/docs/zh_cn/use_workflow.html 国内参考文档:https://www.coze.cn/docs/guides/use_workflow 国内版本还提供了一些示例,建议跟着实操一遍,如: 搜索新闻:https://www.coze.cn/docs/guides/workflow_search_news 使用 LLM 处理问题:https://www.coze.cn/docs/guides/workflow_use_llm 生成随机数:https://www.coze.cn/docs/guides/workflow_use_code 搜索并获取第一个链接的内容:https://www.coze.cn/docs/guides/workflow_get_content 识别用户意图:https://www.coze.cn/docs/guides/workflow_user_intent
2025-03-24
我想学习ai视频ai生图的相关技能,并且我不想速成,我想了解其中的底层原理以便可以更好的控制生成的内容,我应该如何学习
以下是关于学习 AI 视频和生图相关技能的一些建议: 一、基础概念 1. 模型 Checkpoint:生图必需的基础模型,任何生图操作必须选定一个才能开始。 Lora:低阶自适应模型,可视为 Checkpoint 的小插件,用于精细控制面部、材质、物品等细节。 VAE:编码器,功能类似于滤镜,可调整生图的饱和度,一般选择 840000 这个。 2. 提示词 Prompt 提示词:想要 AI 生成的内容,需要花费功夫学习,可从照抄别人开始。 负向提示词 Negative Prompt:想要 AI 避免产生的内容,同样需要学习,可从照抄开始。 3. 其他概念 ControlNet:控制图片中特定图像,如人物姿态、特定文字、艺术化二维码等,属于高阶技能,可后续学习。 ADetailer:面部修复插件,用于治愈脸部崩坏,是高阶技能。 二、参数设置 1. 迭代步数:AI 调整图片内容的次数。步数越多,调整越精密,出图效果理论上更好,但耗时越长,且并非越多越好。 2. 尺寸:图片生成的尺寸大小,需适中选择,太小生成内容有限,太大 AI 可能放飞自我。 3. 生成批次和每批数量:决定重复生成图的批次和每批次同时生成的图片数量。 4. 提示词引导系数:指图像与 prompt 的匹配程度,数字增大图像更接近提示,但过高会使图像质量下降。 5. 随机数种子:固定后可对图片进行“控制变量”操作,首次生成图时无需关注。 6. 重绘幅度:图生图时用到,幅度越大,输出图与输入图差别越大。 在学习过程中,您可以先从熟悉基础模型、提示词和常见参数设置入手,通过实践和参考他人的经验不断积累知识,逐步掌握更高级的技能和工具。
2025-03-24
不能用APP思维、传统数字平台思维去做大模型创业和人工智能创业,二者在底层逻辑和商业模式等方面完全不同
大模型创业和人工智能创业与 APP 思维、传统数字平台思维在底层逻辑和商业模式等方面存在显著差异。大模型和人工智能创业更注重数据的深度处理、算法的优化创新以及对复杂问题的解决能力。相比之下,APP 思维通常侧重于用户界面和功能的设计,以满足特定的用户需求;传统数字平台思维则更多关注平台的搭建和用户流量的获取与运营。在大模型和人工智能领域,技术的突破和创新是关键,需要投入大量资源进行研发,并且要面对更高的技术门槛和不确定性。而 APP 和传统数字平台的创业相对更侧重于市场推广和用户体验的优化。总之,不能简单地用 APP 思维和传统数字平台思维来指导大模型和人工智能创业。
2025-03-07
AGI底层逻辑
AGI(通用人工智能)的底层逻辑包含以下方面: 在公众传播层面,相关名词常被混用,但底层是 Transformer 结构。Transformer 底层是 function loss 损失函数,是一个大参数(千亿级别)的回归方程。其通过回归方程的 Function loss 拟合 A 到 B 的 mapping 关系,实现数据集的压缩与还原。在一定 prompt condition 情况下,Transformer 能 repeat 曾经出现过的数据内容,从而实现“生成”能力。大语言模型在两个数据集压缩后,能解释两个数据集之间地带的“连续”能力。部分人觉得 LLM(大语言模型)具有 AGI 潜力,但 LeCun 反对。同时,大语言模型与 Alpha Go 存在差异,Alpha Go 是一个增强学习模型,学习结果会调整模型自身参数,具有推理能力,而大语言模型在这块很弱。Transformer 决定 LLM 是一个生成式模型。
2025-03-07
你的底层大模型用的是哪个?
目前常见的大型语言模型多采用右侧只使用 Decoder 的 Decoderonly 架构,例如我们熟知的 ChatGPT 等。这些架构都是基于谷歌 2017 年发布的论文“attention is all you need”中提出的 Transformer 衍生而来,其中包括 Encoder 和 Decoder 两个结构。 大模型的特点在于: 1. 预训练数据非常大,往往来自互联网上的论文、代码、公开网页等,一般用 TB 级别的数据进行预训练。 2. 参数非常多,如 Open 在 2020 年发布的 GPT3 就已达到 170B 的参数。 大模型之所以能有效生成高质量有意义的回答,关键在于“大”。例如 GPT1 的参数规模是 1.5 亿,GPT2 Medium 的参数规模是 3.5 亿,到 GPT3.5 时,参数规模达到惊人的 1750 亿,参数规模的增加实现了量变到质变的突破,“涌现”出惊人的“智能”。 大模型的预训练机制是指其“脑袋”里存储的知识都是预先学习好的,预训练需要花费相当多的时间和算力资源。在没有其他外部帮助的情况下,大模型所知道的知识信息总是不完备且滞后的。
2025-02-18
不同厂家的AI产品是底层算法不一样吗?比如ChatGPT和豆包
不同厂家的 AI 产品底层算法通常是不一样的。 以常见的 ChatGPT 和豆包为例,ChatGPT 是由 OpenAI 开发的,其底层算法具有独特的特点和优势。而豆包是由字节跳动开发的,也有其自身的算法设计和优化。 在当前的 AI 领域,大多数 AI 应用程序都由大型语言模型(LLMs)驱动,其中只有几个基础模型,由少数几个组织创建。例如 OpenAI 制作了 GPT3.5 和 GPT4,Google 有 Bard 等。 从相关的访问量数据来看,不同的 AI 产品在市场上的表现也有所不同。比如在某些月份,ChatGPT 的访问量较高,而豆包的访问量也在不断变化。但这并不能直接反映其底层算法的差异,只是从侧面反映了它们在用户中的受欢迎程度和使用情况。
2025-01-17
1. 利用AI完成技术论文的学习阅读; 2. 结合相关知识体系解读论文,并制作成学习分享PPT。
以下是关于利用 AI 完成技术论文的学习阅读,并结合相关知识体系解读论文制作学习分享 PPT 的一些建议: 在技术论文学习阅读方面: 可以借助 AI 工具,如 Claude 和 Gamma.app。Claude 能够帮助快速寻找符合条件的论文、提取精炼论文中某部分信息。 对于复杂推理,可以利用思维链,谷歌在 2022 年的论文提到其能显著提升大语言模型在复杂推理的能力,即使不用小样本提示,也可在问题后加“请你分步骤思考”。 检索增强生成(RAG)能将外部知识库切分成段落后转成向量,存在向量数据库。用户提问并查找到向量数据库后,段落信息会和原本的问题一块传给 AI,可搭建企业知识库和个人知识库。 程序辅助语言模型(PAL)在 2022 年的论文中被提出,对于语言模型的计算问题,可借助其他工具如 Python 解释器作为计算工具。 ReAct 框架于 2022 年在《React:在语言模型中协同推理与行动》的论文中提出,即 reason 与 action 结合,让模型动态推理并采取行动与外界环境互动,可借助 LangChain 等框架简化构建流程。 在制作学习分享 PPT 方面: 可以先对论文进行深入理解,提取关键信息,包括摘要描述、研究问题、基本假设、实验方法、实验结论、文章主要结论、研究展望等。 利用 AI 工具获取相关理论的简单介绍。 了解并使用合适的 PPT 制作工具,如 Gamma.app。 需要注意的是,小白直接看技术论文有难度,需要一定的知识储备。同时,Transformer 是仿生算法的阶段性实现,未来 10 年、20 年可能不再被使用。
2025-03-24
ManusAI核心技术解读
Manus AI 的核心技术包括以下几个方面: 1. 代理功能:能够自动完成任务并交付完整结果。最终交付的结果形式多样,如文档、交互网页、播客、视频、图表等,使用户能更直观地获取信息。 2. 充分利用 AI 能力:不仅进行推理和任务规划,还结合代码能力生成最终结果。 3. 云端自动运行:AI 在云端电脑上完成包括数据收集、内容撰写、代码生成等任务。其体验特点是任务运行时间较长,但最终交付的结果超出预期。 您可以通过以下链接获取更多详细信息: 体验报告:
2025-03-22
大模型下文档投喂后,大模型是如何解读文档提取出答案?
大模型在文档投喂后解读文档并提取答案的过程通常包括以下步骤: 1. 问题解析阶段:接收并预处理问题,通过嵌入模型(如 Word2Vec、GloVe、BERT)将问题文本转化为向量,以确保问题向量能有效用于后续检索。 2. 知识库检索阶段:知识库中的文档同样向量化后,比较问题向量与文档向量,选择最相关的信息片段,并抽取相关信息传递给下一步骤。 3. 信息整合阶段:接收检索到的信息,与上下文构建形成融合、全面的信息文本。整合信息准备进入生成阶段。 4. 大模型生成回答:整合后的信息被转化为向量并输入到 LLM(大语言模型),模型逐词构建回答,最终输出给用户。 在这个过程中还包括以下信息处理步骤: 1. 信息筛选与确认:系统会对检索器提供的信息进行评估,筛选出最相关和最可信的内容,同时对信息的来源、时效性和相关性进行验证。 2. 消除冗余:识别和去除多个文档或数据源中可能存在的重复信息,以防在生成回答时出现重复或相互矛盾的信息。 3. 关系映射:分析不同信息片段之间的逻辑和事实关系,如因果、对比、顺序等,构建一个结构化的知识框架,使信息在语义上更加连贯。 4. 上下文构建:将筛选和结构化的信息组织成一个连贯的上下文环境,包括对信息进行排序、归类和整合,形成一个统一的叙述或解答框架。 5. 语义融合:在必要时,合并意义相近但表达不同的信息片段,以减少语义上的重复并增强信息的表达力。 6. 预备生成阶段:整合好的上下文信息被编码成适合生成器处理的格式,如将文本转化为适合输入到生成模型的向量形式。 最终,全新的上下文被一起传递给大语言模型。由于这个上下文包括了检索到的信息,大语言模型相当于同时拿到了问题和参考答案,通过 LLM 的全文理解,最后生成一个准确和连贯的答案。 相关概念: LLM:Large language model 的缩写,即大语言模型。 Prompt:中文译作提示词,是输入给大模型的文本内容,可以理解为和大模型说的话、下达的指令。 Token:大模型语言体系中的最小单元,不同厂商的大模型对中文文本的切分方法不同,通常 1Token≈12 个汉字,大模型的收费计算方法及对输入输出长度的限制通常以 token 为单位计量。 上下文:英文通常翻译为 context,指对话聊天内容前、后的内容信息,上下文长度和上下文窗口都会影响大模型回答的质量。
2025-01-23
数据解读类的AI大模型
以下是关于数据解读类的 AI 大模型的相关知识: 大模型的整体架构可以分为以下几层: 1. 基础层:为大模型提供硬件支撑和数据支持,例如 A100、数据服务器等。 2. 数据层:这里的数据层不是用于基层模型训练的数据基集,而是企业根据自身特性维护的垂域数据,分为静态的知识库和动态的三方数据集。 3. 模型层:包括 LLm(大语言模型,例如 GPT,一般使用 transformer 算法来实现)或多模态模型(如市面上的文生图、图生图等的模型,训练所用的数据与 llm 不同,用的是图文或声音等多模态的数据集)。 4. 平台层:模型与应用间的平台部分,比如大模型的评测体系,或者 langchain 平台等,提供模型与应用间的组成部分。 5. 表现层:也就是应用层,是用户实际看到的地方。 相关技术名词及概念: 1. 生成式 AI 生成的内容叫做 AIGC。 2. AI 即人工智能。 3. 机器学习是电脑找规律学习,包括监督学习、无监督学习、强化学习。 监督学习:有标签的训练数据,算法的目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习:学习的数据没有标签,算法自主发现规律,经典任务包括聚类。 强化学习:从反馈里学习,最大化奖励或最小化损失,类似训小狗。 4. 深度学习是一种参照人脑有神经网络和神经元(因有很多层所以叫深度)的方法,神经网络可以用于监督学习、无监督学习、强化学习。 5. 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 6. LLM 是大语言模型,对于生成式 AI,其中生成图像的扩散模型就不是大语言模型;对于大语言模型,生成只是其中一个处理任务,比如谷歌的 BERT 模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制(SelfAttention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN),Transformer 比 RNN 更适合处理文本的长距离依赖性。
2025-01-09
数据分析和报告解读prompt
以下是关于数据分析和报告解读的相关内容: ChatGPT 助力数据分析: 1. 第一个用户提示:限定 SELECT SQL,要求不要用 SELECT查询全部列,仅回复一条 SELECT SQL 语句,至少查询两列(数据项、数据值),不能直接查询长类型字段(如 mediumtext/longtext),可使用 count/substring 等函数查询这些长类型列。 2. 系统提示是表结构信息,对于难以理解的字段可告知 GPT 字段的意义,若有多个表可分开描述。 3. 需校验 GPT 生成的 SQL,不通过直接返回提示“抱歉,不支持此类请求”,通过再执行 SQL 查询数据。 4. 数据分析的用户提示:提示数据分析,限定返回的 JSON 格式(conclusion、keyMap、title)。keyMap 用于数据 key 的映射,获取结果数据对应的维度、数据项、数据值的 key 值,以映射数据渲染图表。根据结果数据 tableData 的维度,用条件运算符选择对应的 prompt 传递给 GPT。 5. 结果数据 tableData 跟随接口返回到前端,已通过 SQL 查询的数据,不能让 GPT 再次生成,否则非常耗时。 小七姐:PromptAgent 论文精读翻译: 1. 为深入研究 PromptAgent 的学习过程,检查整个树规划过程中专家提示的演变,监控并可视化与树深度相关的性能变化。评估所有节点性能,在每个深度级别聚合训练(奖励)和测试性能。 2. 进行定性分析以检查 PromptAgent 探索的优化轨迹。图 5 显示了与 NCBI 任务相关的最佳奖励路径的初始四个状态和相应的三个动作状态转换,以提取疾病实体。 3. 表格 5 针对 NCBI 任务的提示比较,包括正常人类提示、APE 优化提示以及由 PromptAgent 优化的专家级提示。两个基线大部分描述了任务,而专家提示由更复杂的结构和领域特定的见解组成,实现了更出色的性能。
2024-12-30
用AI快速解读一本书
以下是为您整合的相关内容: 在“AI 占卜”方面,有多种价格不同的体验项目,如 9.9 元的 AI 解读。流程是先想好问题再抽塔罗牌,摊主会先使用 AI 软件解读,然后在其基础上人工补充。例如对于“近期有偏财运吗”的问题,AI 解读提到代表着力量、决断和智慧,预示财运增加和经济状况改善。此外,活动现场还有手搓机器人摊位,这类似 DIY,需要电烙铁、钳子、螺丝刀等工具,适合亲子合作,能培养孩子兴趣和动手能力,增进亲子关系。 在“AI 辅助写小说”方面,南瓜博士让 AI 先写故事概要和角色背景介绍并做修改,然后以表格形式让 AI 输出细节描述,这样有打破叙事习惯、便于局部调整、确保细节具体等好处。之后将生成的表格依次复制粘贴让 AI 写文章,偶尔需要作者给建议。但在修改环节,GPT4 记性不好,Claude 把关键情节改没了。
2024-12-25
搭建私有大模型
搭建私有大模型可以参考以下几种方法: 1. 方法一 搭建,用于汇聚整合多种大模型接口,方便后续更换使用各种大模型,同时会告知如何白嫖大模型接口。 搭建,这是一个知识库问答系统,将知识文件放入,并接入上面的大模型作为分析知识库的大脑,最后回答问题。若不想接入微信,搭建完此系统即可,它也有问答界面。 搭建,其中的cow插件能进行文件总结、MJ绘画。 2. 方法二 部署大语言模型: 下载并安装Ollama,根据电脑系统,从https://ollama.com/download 下载。下载完成后,双击打开,点击“Install”。安装完成后,将下方地址复制进浏览器中,若出现相关字样,表示安装完成:http://127.0.0.1:11434/ 。 下载qwen2:0.5b模型(0.5b是为了方便测试,下载快,设备充足可下载更大模型)。若为windows电脑,点击win+R,输入cmd,点击回车;若为Mac电脑,按下Command(⌘)+Space键打开Spotlight搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。复制相关命令行,粘贴进入,点击回车,等待下载完成。 3. 方法三 企业大模型四步走的第一步是私有化部署通用大模型,一是解决AI科普问题,二是满足一些通用需求。若有能力,可赠送免费的私有化部署通用大模型,其为千亿模型的缩小版、浓缩版,能解决科普问题,让企业员工熟悉大模型,同时满足办公等通用需求。此外,还提供了360AI办公的一套会员服务,围绕办公营销需求做了很多工具,以订阅模式耗费算力,每天几乎一块钱。
2025-03-26
我是一位程序开发小白,不会用代码开发程序。我现在有一台安装Window 11操作系统的笔记本电脑,配置为14代i7CPU、32G内存、1TB硬盘、1张RTX4070显卡。我想部署一套本地的大模型+智能体+知识库。我要怎么样才能实现无代码部署,请列出详细的安装步骤。
以下是为您提供的无代码部署本地大模型、智能体和知识库的详细安装步骤: 1. 硬件评估:您的笔记本电脑配置为 14 代 i7 CPU、32G 内存、1TB 硬盘、1 张 RTX4070 显卡,基本满足部署要求。但需要注意,运行内存最低 32GB,越高越好,最低配可能会经常爆显存。建议将软件和模型部署在 SSD(固态硬盘)上,以提高加载模型的速度。 2. 选择合适的部署工具:ComfyUI 是一个相对配置要求较低、系统资源占用少、出图速度快的工具。它最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。 3. 安装准备:如果您的电脑能顺畅清晰地玩 3A 游戏,那么运行相关部署工具一般也没问题。 4. 预算和需求:根据您的需求和预算来选择合适的配置。例如,如果有做 AIGC 视频、建模渲染和炼丹(lora)的需求,可能需要更高的配置。 请注意,以上步骤仅为参考,实际部署过程可能会因具体情况而有所不同。
2025-03-26
ai大模型和工具组合使用技巧
以下是关于 AI 大模型和工具组合使用的技巧: 1. 在 Obsidian 中的使用: 简单方法:通过命令面板打开创建的页面(默认快捷键 Ctrl+P),在弹出的搜索框中输入插件名称(如 custom frames),选择 OpenKimi 并打开设置好的窗口。 进阶配置:包括笔记仓库嵌入大模型(Copilot)、笔记内容作为 RAG 嵌入大模型(Smart Conections)、笔记内使用大模型编写内容。 2. 利用大模型与工具的典型例子:如使用 Kimi Chat 查询问题时,它会在互联网上检索相关内容并总结分析给出结论,同时还有很多不同领域类型的工具为大模型在获取、处理、呈现信息上做补充。 3. Agentic Workflow 方面: Agent 通过自行规划任务执行的工作流路径,面向简单或线性流程的运行。 多 Agent 协作:吴恩达通过开源项目 ChatDev 举例,让大语言模型扮演不同角色相互协作开发应用或复杂程序。 AI Agent 基本框架:OpenAI 的研究主管 Lilian Weng 提出“Agent=LLM+规划+记忆+工具使用”的基础架构,其中大模型 LLM 扮演“大脑”,规划包括子目标分解、反思与改进。 4. 从提示词优化到底层能力提升: 任务拆解:将复杂任务的提示词拆解成若干步骤的智能体,每个智能体负责特定子任务。 工作流构建:组合多个提示词或 AI 工具搭建高频重复工作的工作流。 创作场景的灵活应用:在创作过程中使用简单提示词和连续追问调整大模型回答。 深度思考辅助:将大模型用于辅助深度思考,从居高临下的指挥变为伙伴式的协作和相互学习,关注利用大模型训练和增强认知能力。
2025-03-26
帮我列举2025年3月1日以来,国内外、闭源开源模型厂商的更新记录。
以下是 2025 年 3 月 1 日以来,国内外、闭源开源模型厂商的部分更新记录: 2025 年 3 月 20 日,OpenAI 推出了一套全新的音频模型,旨在通过 API 为开发者提供更智能、更可定制的语音代理支持,包括改进的语音转文本和文本转语音功能,为语音交互应用带来显著提升。 李开复公开表示 OpenAI 面临生存危机,商业模式不可持续。他强调中国的 DeepSeek 以极低成本提供接近的性能,开源模式将主导未来 AI 发展。他认为企业级 AI 应用将成为投资重点,资源限制反而促进了创新。李开复大胆预测,中国将出现三大 AI 玩家,竞争愈发激烈。 SuperCLUE 发布《中文大模型基准测评 2025 年 3 月报告》,指出 2022 2025 年经历多阶段发展,国内外模型差距缩小。测评显示 o3mini总分领先,国产模型表现亮眼,如 DeepSeekR1 等在部分能力上与国际领先模型相当,且小参数模型潜力大。性价比上,国产模型优势明显。DeepSeek 系列模型深度分析表明,其 R1 在多方面表现出色,蒸馏模型实用性高,不同第三方平台的联网搜索和稳定性有差异。 以上信息来源包括: 《》 《》 《》
2025-03-26
用扣子的时候怎么让大模型严格按照知识库内容进行输出
以下是关于让大模型严格按照知识库内容进行输出的相关信息: 扣子的知识库功能强大,可上传和存储知识内容,提供多种查找方法。在智能体中使用知识库,收集相关内容,当智能体回答用户时会先检索知识库,使回复更准确。 在“掘金 x 扣子 Hackathon 活动 深圳站”的总冠军工作流中,对于用户向小说人物角色的提问,通过一系列节点,包括开始节点接收问题、知识库节点检索、大模型节点生成答案等,本质上是一个根据用户 query 进行检索增强生成(RAG)的任务,每个工作流中都嵌入了知识库节点,维护了如小说合集等知识库。 大模型节点是调用大语言模型,使用变量和提示词生成回复。按需选择基础版或专业版模型,基础版支持扣子预设的一批模型资源,专业版除默认添加的豆包模型外,还支持按需接入火山引擎方舟平台的模型资源。模型选择右下角生成多样性可从多个维度调整不同模型在生成内容时的随机性,有精确模式、平衡模式和创意模式等预置模式。输入方面,开启智能体对话历史后,上下文信息将自动携带进入大模型,参数名可随意设置但建议有规律,变量值可引用前面链接过的节点的输出或进行输入。
2025-03-26
我是一个没有技术背景且对AI感兴趣的互联网产品经理,目标是希望理解AI的实现原理并且能够跟开发算法工程师沟通交流,请给我举出AI模型或者机器学习的分类吧。
以下是 AI 模型和机器学习的分类: 1. AI(人工智能):是一个广泛的概念,旨在使计算机系统能够模拟人类智能。 2. 机器学习:是人工智能的一个子领域,让计算机通过数据学习来提高性能。包括以下几种类型: 监督学习:使用有标签的训练数据,算法学习输入和输出之间的映射关系,包括分类和回归任务。 无监督学习:学习的数据没有标签,算法自主发现规律,经典任务如聚类。 强化学习:从反馈中学习,以最大化奖励或最小化损失,类似训练小狗。 3. 深度学习:是机器学习的一个子领域,模拟人脑创建人工神经网络处理数据,包含多个处理层,在图像识别、语音识别和自然语言处理等任务中表现出色。 4. 大语言模型:是深度学习在自然语言处理领域的应用,目标是理解和生成人类语言,如 ChatGPT、文心一言等。同时具有生成式 AI 的特点,能够生成文本、图像、音频和视频等内容。 2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它基于自注意力机制处理序列数据,不依赖循环神经网络或卷积神经网络。生成式 AI 生成的内容称为 AIGC。
2025-03-26