Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

设计一条大模型学习之路,并给出推荐资料

Answer

以下是为您设计的大模型学习之路及推荐资料:

学习之路

  1. 了解大模型的基本概念:通俗来讲,大模型是输入大量语料,让计算机获得类似人类的“思考”能力,能进行文本生成、推理问答、对话、文档摘要等工作。可以用“上学参加工作”来类比大模型的训练和使用过程,包括找学校(训练所需的大量计算和 GPU 等)、确定教材(大量的数据量)、找老师(算法讲述内容)、就业指导(微调)、搬砖(推导)。
  2. 学习大模型的构建过程:
    • 收集海量数据:如同教孩子成为博学多才的人需要让其阅读大量资料,对于大模型,要收集互联网上的文章、书籍、维基百科条目、社交媒体帖子等各种文本数据。
    • 预处理数据:像为孩子整理适合的资料,AI 研究人员要清理和组织收集到的数据,如删除垃圾信息、纠正拼写错误、分割文本。
    • 设计模型架构:为孩子设计学习计划一样,研究人员要设计大模型的“大脑”结构,如使用 Transformer 架构等特定的神经网络结构。
    • 训练模型:如同孩子开始阅读和学习,大模型开始“阅读”提供的数据,通过反复预测句子中的下一个词来逐渐学会理解和生成人类语言。

推荐资料

  1. 直播共学:
    • 可在飞书知识库中查看以下分享内容和教程:小七姐、刘宇龙、熊猫、MQ、财猫、李继刚、凯翔、AJ、南瓜博士、江树的分享。
    • 参与每晚群里的分享和讨论会,包括 3.4 直播聊天(讲讲大家最初入门学 prompt 的一些入门方法)、3.5 直播分享(小七姐提示词学习路径)、3.5 直播答疑(小七姐、宇龙、AJ 学习路径中的各类问题和 AGI 对应知识推荐)、3.6 直播分享(MQ:文科小白+普通宝妈的 AI 学习之路、熊猫提示词和思维模型)、3.7 直播分享(南瓜博士&财猫文理兼修话 PROMPT)、3.7 直播聊天解答作业等。
  2. 文章学习:

大模型工具请大家自行准备,推荐顺序为:1.chat 2.kimi.ai 3.智谱清言 4

Content generated by AI large model, please carefully verify (powered by aily)

References

直播共学

这个板块还有很多会做一下详细讲解:[1.2入门:Prompts(提示词)](https://waytoagi.feishu.cn/wiki/Q5mXww4rriujFFkFQOzc8uIsnah)[heading2]学习导师W[content]咱们队伍越来越强大了🥹咱们知识库的好朋友们都来支援了之前知识库prompt板块共建的小伙伴们小七姐,刘宇龙,熊猫,MQ,财猫,李继刚,凯翔,南瓜博士,江树都来了,大家排班这几天每天晚上群里发起分享和讨论会3.4直播聊天:聊天加答疑讲讲大家最初入门学prompt的一些入门方法3.5直播分享:小七姐提示词学习路径3.5直播答疑:小七姐、宇龙、AJ(学习路径中的各类问题和AGI对应知识推荐)3.6直播分享:MQ:文科小白+普通宝妈的AI学习之路3.6直播分享:熊猫提示词和思维模型3.7直播分享:南瓜博士&财猫文理兼修话PROMPT3.7直播聊天解答作业等:以上顺序和嘉宾还有话题有可能会有变化,目前参与的好朋友有小七姐,宇龙,熊猫,MQ,财猫,李继刚,凯翔,AJ,南瓜博士,江树,在知识库里都可以找到他们的分享内容和教程飞书群答疑:大家会看到就解答[heading2]课备[content]大模型工具请大家自行准备哈。根据自己条件准备,以下是推荐顺序:1.chat2.kimi.ai3.智谱清言4

大模型入门指南

通俗来讲,大模型就是输入大量语料,来让计算机获得类似人类的“思考”能力,使之能够理解自然语言,能够进行『文本生成』、『推理问答』、『对话』、『文档摘要』等工作。既然是学习,那我们就可以用『上学参加工作』这件事来类比大模型的训练、使用过程:1.找学校::训练LLM需要大量的计算,因此GPU更合适,因此只有购买得起大量GPU的贵族学校才有资本训练自己的大模型2.确定教材::大模型顾名思义就是大,需要的数据量特别多,几千亿序列(Token)的输入基本是标配3.找老师::即用什么样的算法讲述“书本”中的内容,让大模型能够更好理解Token之间的关系4.就业指导::学完书本中的知识后,为了让大模型能够更好胜任某一行业,需要进行微调(fine tuning)指导5.搬砖::就业指导完成后,下面就要正式干活了,比如进行一次翻译、问答等,在大模型里称之为推导(infer)在LLM中,Token([2])被视为模型处理和生成的文本单位。它们可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。Token是原始文本数据与LLM可以使用的数字表示之间的桥梁。在将输入进行分词时,会对其进行数字化,形成一个词汇表(Vocabulary),比如:The cat sat on the mat,会被分割成“The”、“cat”、“sat”等的同时,会生成下面的词汇表:|Token|ID||-|-||The|345||cat|1256||sat|1726||…|…|

胎教级教程:万字长文带你理解 RAG 全流程

旁白当你发现大模型的效果并没有你预期想的那么好时,你打算放弃但是你也听到了另一种声音:如果大模型没有你想的那么好,可能是你没有了解他的能力边界。你不想就这么放弃,为了更好的理解大模型,你首先了解了他的创建过程[heading2]1.收集海量数据[content]想象一下,我们要教一个孩子成为一个博学多才的人。我们会怎么做?我们会让他阅读大量的书籍,观看各种纪录片,与不同背景的人交谈等。对于AI模型来说,这个过程就是收集海量的文本数据。例子:研究人员会收集互联网上的文章、书籍、维基百科条目、社交媒体帖子等各种文本数据。[heading2]2.预处理数据[content]在孩子开始学习之前,我们可能会先整理这些资料,确保内容适合他的年龄和学习能力。同样,AI研究人员也需要清理和组织收集到的数据。例子:删除垃圾信息,纠正拼写错误,将文本分割成易于处理的片段。[heading2]3.设计模型架构[content]就像我们要为孩子设计一个学习计划一样,研究人员需要设计AI模型的"大脑"结构。这通常是一个复杂的神经网络。这里我们就不展开了,我们只需要了解,为了让AI能够很好的学习知识,科学家们设计了一种特定的架构。例子:研究人员可能会使用Transformer架构,这是一种特别擅长处理序列数据(如文本)的神经网络结构。[heading2]4.训练模型[content]就像孩子开始阅读和学习一样,AI模型开始"阅读"我们提供的所有数据。这个过程被称为"训练"。例子:模型会反复阅读数据,尝试预测句子中的下一个词。比如给出"太阳从东方__",模型学会预测"升起"。通过不断重复这个过程,模型逐渐学会理解和生成人类语言。

Others are asking
网站“通往AGI之路”的建设意义是什么?
“通往 AGI 之路”网站具有以下建设意义: 1. 学习平台:是一个致力于人工智能学习的中文知识库和社区平台,为学习者提供系统全面的 AI 学习路径,涵盖从基础概念到实际应用的各个方面,帮助用户有效地获取 AI 知识,提高自身能力。 2. 资源丰富:由开发者、学者和 AI 爱好者共同参与建设,提供丰富的学习资源,包括文章、教程、工具推荐以及最新的 AI 行业资讯等。 3. 实践促进:定期组织活动,如视频挑战赛、模型创作大赛等,鼓励成员在实践中学习,促进交流与合作。 4. 品牌形象:品牌 VI 融合独特设计元素,以彩虹色彰显多元性和创新,以鹿的形象象征智慧与优雅,通过非衬线字体展现现代感和清晰性,共同构建充满活力和前瞻性的品牌形象。 5. 连接作用:不仅是一个知识库,更是连接学习者、实践者和创新者的社区,让大家在这里碰撞思想,相互鼓舞,一同成长。 6. 影响力大:在没有任何推广的情况下,一年时间已有超过 70 万用户和超千万次的访问量,是很多 AI 爱好者知识的源头。社群的口号是让更多的人因 AI 而强大,有很多学社和共学共建的活动。
2025-03-24
大模型学习之路
大模型的学习之路包括以下几个主要方面: 1. 大模型的定义:通俗来讲,大模型是输入大量语料,让计算机获得类似人类的“思考”能力,能进行文本生成、推理问答、对话、文档摘要等工作。 2. 大模型的训练和使用类比: 找学校:训练大模型需要大量计算,GPU更合适,只有购买得起大量GPU的才有资本训练。 确定教材:大模型需要大量数据,几千亿序列(Token)的输入基本是标配。 找老师:用合适算法让大模型更好理解Token之间的关系。 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称之为推导(infer)。 Token:Token被视为模型处理和生成的文本单位,可代表单个字符、单词等,在将输入进行分词时会数字化形成词汇表。 3. 大模型的底层原理:计算机科学家/工程师以大脑神经元细胞结构为灵感,利用概览模型在计算机上实现对人脑结构的模仿,但大模型内部是混沌系统,存在不确定的“不安感”,同时也学习了人类大脑的优点和特质,这些特质在实际应用中表现出“缺陷”和“不足”。 4. 大模型的构建过程: 收集海量数据:如让孩子阅读大量书籍等,对于AI模型就是收集互联网上的各种文本数据。 预处理数据:像为孩子整理资料,AI研究人员也需清理和组织收集的数据,如删除垃圾信息等。 设计模型架构:为孩子设计学习计划,研究人员需设计AI模型的“大脑”结构,如使用Transformer架构。 训练模型:如孩子开始学习,AI模型开始“阅读”数据,通过反复预测句子中的下一个词逐渐学会理解和生成人类语言。
2025-03-23
请详细讲述一下这个网站《通往AGI之路》的学习方法?
《通往 AGI 之路》的学习方法如下: 1. 系统学习:观看李弘毅老师的生成式 AI 导论、吴达的生成式 AI 入门视频等高质量学习内容,并整理成学习笔记,在整理过程中与大家交流互动。 2. 社区共创学习:对于觉得系统学习枯燥的同学,可以等待社区共创内容,通过共创做小项目来反向推动学习。 3. 了解相关原理:学习 A16Z 推荐的包括 GPT 相关知识、Transformer 模型运作原理、大语言模型词语接龙原理等基础知识。 4. 探索应用:例如了解 Stable Diffusion 运作原理与 GPT 训练现状。 5. 针对特定软件:对于 AE 软件,可在 B 站找丰富的入门课程自学,也可从包图网下载工程文件学习。通过拆解视频、留意路边广告特效、按层级逻辑思考画面运动来学习,还可参考模板。 6. 名词解释:理解包括 AGI、AIGC、agent、prompt 等 AI 相关名词,可通过与 AI 对话或李继刚老师的课程来理解。 7. 信息获取:关注赛博蝉星公众号、国外优质博主的 blog 或 Twitter 等,订阅获取最新信息并投稿。 8. 参与活动:参加如 AIPO、CONFIUI 生态大会等社区活动,每月还有切磋大会。 9. 阅读经典:阅读介绍 GPT 运作原理、Transformer 模型、扩散模型等的经典必读文章,以及软件 2.0 时代相关内容。 10. 初学者推荐:对于初学者,推荐看 Open AI 的官方 Cookbook,小琪姐做了中文精读翻译,也可查看 cloud 的相关内容。同时,整理 open AI 的发展时间线和万字长文回顾等历史脉络类资料。
2025-03-23
通往agi之路是一个怎样的团队
“通往 AGI 之路”是一个由开发者、学者和有志人士等参与的学习社区和开源的 AI 知识库。 它具有以下特点: 1. 目标是助力每一个怀揣 AI 梦想的人在探索知识的道路上“无弯路,全速前进”。 2. 这里既是知识的消费者,也是知识的创作者。 3. 拥有 200 多个微信群和 140 多个高校群。 4. 举办了 AIPO 等相关活动,活动遵循先共学再以赛代练的学习路径,邀请了 10 位 AI 界大佬分享经验。 5. 有赛博禅心主理人大聪明等人员的参与和支持,赛博禅心公众号有 5000 个 AI 项目详解,可为活动提供灵感。 6. 中科院翟教授曾开场致辞。 7. 提供了 v two agi.com 网站供注册进入知识库。 同时,“通往 AGI 之路”还有众多友情链接,涉及麦橘、orange、Web3 天空之城、Ragnar 瑞哥那、海辛、三思、云中江树、陈财猫、阿文等在 AI 领域的不同角色,如产品经理、艺术家、工程师等。
2025-03-22
transformer是通往AGI的必经之路吗?什么是世界模型,当前有哪些进展
Transformer 并非通往 AGI 的必经之路。在已知的 token space 中,Transformer 符合一些条件,但在更通用的场景中不太符合。AI 本质包含一堆 scaling law,一个值得被 scale up 的架构是基础,且架构要支持不断加入更多数据。当前在数据方面,如限定问题的数据生成有进展,但通用问题还没有完全的解法。 世界模型方面,目前的研究正在以指数级别的速度增长。对于语言这种有结构、有规则的指令系统,其逻辑受指向描述变化,如早期语言模型建模中用到的 RNN、LSTM 及当前 LLM 的 Transformer 模型结构,都是对语言序列性所体现逻辑结构的适配。同时也在思考是否存在其他形式的符号化表征及相应的建模结构,以及对于非碳基生物语言的使用情况等。未来通往 AGI 的道路并非简单,需要探寻 RL 与 LLM 的本质普遍性。
2025-03-16
生成头像chinali,背景今日家庭联盟开始AGI之路
很抱歉,不太明白您“生成头像 chinali,背景今日家庭联盟开始 AGI 之路”的具体需求。能否请您再详细描述一下,比如头像的风格、色彩偏好、人物特征等方面的要求,以便我为您提供更准确的帮助。
2025-03-12
请给出知识库中关于dify的文章和教学视频
以下是关于 Dify 的相关内容: 如何接入企业微信: 创建聊天助手应用:在 Dify 平台创建基础编排聊天助手应用,获取 API 密钥和 API 服务器地址。 下载 Dify on WeChat 项目:下载并安装依赖。 填写配置文件:在项目根目录创建 config.json 文件,填写 API 密钥和服务器地址。 把基础编排聊天助手接入微信:快速启动测试,扫码登录,进行对话测试,可以选择源码部署或 Docker 部署。 把工作流编排聊天助手接入微信:创建知识库,导入知识库文件,创建工作流编排聊天助手应用,设置知识检索节点和 LLM 节点,发布更新并访问 API。 把 Agent 应用接入微信:创建 Agent 应用,设置对话模型和添加工具,生成 API 密钥,填写配置文件,启动程序并进行测试。 更多内容请访问原文:https://docs.dify.ai/v/zhhans/learnmore/usecases/difyonwechat 小七姐相关的提示词知识库文章索引: RAG 提示工程系列(3)|迈向工程化应用中关于 Dify 的介绍: Dify 是一个开源的大模型应用开发平台,它通过结合后端即服务和 LLMOps 的理念,为用户提供了一个直观的界面来快速构建和部署生产级别的生成式 AI 应用。 该平台具备强大的工作流构建工具,支持广泛的模型集成,提供了一个功能丰富的提示词 IDE,以及一个全面的 RAG Pipeline,用于文档处理和检索。 Dify 还允许用户定义 Agent 智能体,并通过 LLMOps 功能对应用程序的性能进行持续监控和优化。 Dify 提供云服务和本地部署选项,满足不同用户的需求,并且通过其开源特性,确保了对数据的完全控制和快速的产品迭代。 Dify 的设计理念注重简单性、克制和快速迭代,旨在帮助用户将 AI 应用的创意快速转化为现实,无论是创业团队构建 MVP、企业集成 LLM 以增强现有应用的能力,还是技术爱好者探索 LLM 的潜力,Dify 都提供了相应的支持和工具。 Dify 官方手册:https://docs.dify.ai/v/zhhans 一般地,如果是个人研究,推荐单独使用 Dify,如果是企业级落地项目推荐使用多种框架结合,效果更好。
2025-03-21
我想从Nanobrowser里植入DeepSeek的R1模型,来让它帮我做网页搜索之类的工作,我该怎么做,给出详细教程
以下是从 Nanobrowser 里植入 DeepSeek 的 R1 模型来进行网页搜索的详细教程: 1. 阿里云百炼平台相关: 模型广场:百炼平台的模型广场有各种模型,包括音频理解、视频理解等,通义的一些强模型也在其中。 无需部署:百炼平台无需部署,可直接使用 Deepseek R1 模型。 价格与免费额度:Deepseek R1 模型价格与各大平台差不多,有大量免费额度,如 100 万 token,不同版本的模型如 7B、14B、32B 等也送了 100 万 token,LLAVA 限时免费。 授权与实名认证:使用 Deepseek R1 模型需要解锁和授权,没有授权按钮的需要对阿里云进行实名认证,可通过支付宝扫码或在右上角头像处进行,共学群里有相关指引。 模型效果对比:在首页体验模型页面可对比不同模型的效果,如 V3 和 R1,R1 会先思考,速度较快。 多模态能力:多模态可以识别更多输入信息,如读文件、图片等,而 Deepseek R1 本身不是多模态模型。 连接 Chat Box:通过模型广场的 API 调用示例获取链接,截断后粘贴到 Chat Box 的设置中,添加自定义提供方,设置模型名称为 Deepseek R1,并获取 API key。 API key 重置:可删除旧的 API key 并重新创建,方便本地软件连接。 2. 工作流创建: 创建一个对话流,命名为 r1_with_net。 开始节点,直接使用默认的。 大模型分析关键词设置:模型选择豆包通用模型lite,输入直接使用开始节点的 USER_INPUT 作为大模型的输入,系统提示词为“你是关键词提炼专家”,用户提示词为“根据用户输入`{{input}}`提炼出用户问题的关键词用于相关内容的搜索”。 bingWebSearch搜索:插件选择 BingWebSearch,参数使用上一个节点大模型分析输出的关键词作为 query 的参数,结果中 data 下的 webPages 是网页搜索结果,将在下一个节点使用。 大模型R1 参考搜索结果回答:在输入区域开启“对话历史”,模型选择韦恩 AI 专用 DeepSeek(即火山方舟里配置的 DeepSeek R1 模型),输入包括搜索结果(选择搜索节点 data 下的 webPages)和开始节点的 USER_INPUT,开启对话历史,设置 10 轮,默认不开启对话历史,开启后默认是 3 轮,系统提示词不需要输入,用户提示词为空。 结束节点设置:输出变量选择大模型R1 参考搜索结果回答的输出,回答内容里直接输出:{{output}}。测试完成后,直接发布工作流。 3. 网页聊天相关: 安装插件:使用 Chrome 或 Microsoft Edge 浏览器,点击此链接,安装浏览器插件,添加到拓展程序:https://chromewebstore.google.com/detail/pageassist%E6%9C%AC%E5%9C%B0ai%E6%A8%A1%E5%9E%8B%E7%9A%84web/jfgfiigpkhlkbnfnbobbkinehhfdhndo 。 打开聊天页面:点击右上角的插件列表,找到 Page Assist 插件,点击打开。 配置“DeepSeekR1”模型的 API key:基础 URL 为 https://ark.cnbeijing.volces.com/api/v3 ,填好之后,点击保存,关掉提醒弹窗。 添加“DeepSeekR1”模型。 打开联网功能,支持联网搜索使用 R1。
2025-03-20
我想写一篇本科生论文,给出我需要的所有用于ai写论文用的指令
以下是利用 AI 写本科生论文的一些指令和步骤: 1. 确定论文主题:明确您的研究兴趣和目标,选择一个具有研究价值和创新性的主题。 2. 收集背景资料:使用 AI 工具如学术搜索引擎和文献管理软件来搜集相关的研究文献和资料。 3. 分析和总结信息:利用 AI 文本分析工具来分析收集到的资料,提取关键信息和主要观点。 4. 生成大纲:使用 AI 写作助手生成论文的大纲,包括引言、文献综述、方法论、结果和讨论等部分。 5. 撰写文献综述:利用 AI 工具来帮助撰写文献综述部分,确保内容的准确性和完整性。 6. 构建方法论:根据研究需求,利用 AI 建议的方法和技术来设计研究方法。 7. 数据分析(若涉及):如果论文涉及数据收集和分析,可以使用 AI 数据分析工具来处理和解释数据。 8. 撰写和编辑:利用 AI 写作工具来撰写论文的各个部分,并进行语法和风格的检查。 9. 生成参考文献:使用 AI 文献管理工具来生成正确的参考文献格式。 10. 审阅和修改:利用 AI 审阅工具来检查论文的逻辑性和一致性,并根据反馈进行修改。 11. 提交前的检查:最后,使用 AI 抄袭检测工具来确保论文的原创性,并进行最后的格式调整。 需要注意的是,AI 工具可以作为辅助,但不能完全替代您的专业判断和创造性思维。在使用 AI 进行论文写作时,应保持批判性思维,并确保研究的质量和学术诚信。
2025-03-20
一个小白,如何通过咱们这个网站来学习和应用AI,赋能工作,请给出详细的方案,
对于一个小白,通过本网站学习和应用 AI 赋能工作,可以参考以下详细方案: 一、了解 AI 基本概念 首先,建议阅读「」部分,熟悉 AI 的术语和基础概念。了解什么是人工智能,它的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。浏览入门文章,这些文章通常会介绍 AI 的历史、当前的应用和未来的发展趋势。 二、开始 AI 学习之旅 在「」中,您将找到一系列为初学者设计的课程。这些课程将引导您了解生成式 AI 等基础知识,特别推荐李宏毅老师的课程。通过在线教育平台(如 Coursera、edX、Udacity)上的课程,您可以按照自己的节奏学习,并有机会获得证书。 三、选择感兴趣的模块深入学习 AI 领域广泛(比如图像、音乐、视频等),您可以根据自己的兴趣选择特定的模块进行深入学习。建议您一定要掌握提示词的技巧,它上手容易且很有用。 四、实践和尝试 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 五、体验 AI 产品 与现有的 AI 产品进行互动是学习 AI 的另一种有效方式。尝试使用如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。通过与这些 AI 产品的对话,您可以获得对 AI 在实际应用中表现的第一手体验,并激发您对 AI 潜力的认识。 六、在网站中引入 AI 助手 1. 创建大模型问答应用:先通过百炼创建一个大模型应用,并获取调用大模型应用 API 的相关凭证。 2. 搭建示例网站:通过函数计算,来快速搭建一个网站,模拟您的企业官网或者其他站点。 3. 引入 AI 助手:接着通过修改几行代码,实现在网站中引入一个 AI 助手。 4. 增加私有知识:最后可以通过准备一些私有知识,让 AI 助手能回答原本无法准确回答的问题,帮助您更好的应对客户咨询。 七、推荐布鲁姆分类法学习路径 应用:深入 分析:大量阅读,理解各知识之间的关系。
2025-03-16
可以给出国内出名的大语言模型的信息吗,包括其模型名称,版本,发布时间,发布公司,模型参数,性能特点等信息,尽可能覆盖更多的大模型,使用表格输出,并按照发布时间排序
|模型名称|版本|发布时间|发布公司|模型参数|性能特点|适合应用| |||||||| |Baichuan213BChat|Baichuan2192K|10月31日|百川智能|未提及|在逻辑推理、知识百科、生成与创作、上下文对话等基础能力上排名200亿参数量级国内模型第一,在计算和代码能力上有一定优化空间|场景相对广泛且可以私有化部署,重点推荐在小说/广告/公文写作等内容创作场景、智能客服/语音助手以及任务拆解规划等场景,可部署在教育、医疗、金融等垂直行业中应用,同时可部署在低算力终端处理基础智能任务| |文心一言|V4.0|10月17日|百度|未提及|在计算、逻辑推理、生成与创作、传统安全这4大基础能力上排名国内第一,在代码、知识与百科、语言理解与抽取、工具使用能力上排名国内前三,各项能力表现均衡且绝大部分能力有很高的水平|能力栈较为广泛,可应用的场景较多,重点推荐在查询搜索知识应用、任务拆解规划Agent、文案写作以及代码编写及纠错等方面的应用,由于在逻辑推理方面的不俗表现,可以重点关注在科学研究、教育、工业方面的落地能力| |通义千问 2.0|2.0|10月31日|阿里云|千亿级参数|未提及|未提及|
2025-03-15
如何通过与AI的对话获取高质量的信息?有没有相关书籍或者文章推荐,请给出相关链接。
以下是关于如何通过与 AI 的对话获取高质量信息以及相关书籍和文章推荐的内容: 在与 AI 对话获取高质量信息方面: 作为普通用户,语言在大模型中不是关键,核心是向量空间中的游走脉络,输出时的语言翻译是次要的,且训练语料的中英文差异在于 embedding 环节。 通过合适的模型、prompt 和 test 入口表达,用大模型公式调试出好效果以替代垂类模型,但微调垂类模型可能使大模型泛化能力下降,需分场景看待。 写提示词未挖掘出大模型的天花板,还有提升空间。 相关书籍和文章推荐: 从数学、作家、代码、原理角度写大模型的四本书。 介绍 GPT 运作原理、Transformer 模型、扩散模型等的文章。 关于 AI 知识库及学习路径的介绍中提到的经典必读文章,如软件 2.0 时代相关内容。 初学者入门推荐看 open AI 的官方 Cookbook,小琪姐做了中文精读翻译,也可查看 cloud 的相关内容。 获取信息的渠道: 可以关注赛博蝉星公众号、国外优质博主的 blog 或 Twitter 等,订阅获取最新信息并投稿。 可通过“通往 AGI 之路”知识库获取相关内容,该知识库涵盖了 AI 多方面知识及社区共创项目,如人工智能简史、AI 会话简史等,还有 10 篇精选文章助于理解 AI。 您还可以通过参加社区共创项目,如 AIPU、CONFIUI 生态大会,每月的切磋大会等活动,以及新活动 AIPO,与他人交流获取更多信息。同时,鼓励整理学习笔记并分享交流,以促进对知识的吸收和理解。
2025-03-09
如果调教ai助力成为网文作家?选用市面上哪种ai模型好一些
如果想调教 AI 助力成为网文作家,以下是一些建议和可选用的 AI 模型: 借助 AI 分析好的文章: 找出您最喜欢的文章,投喂给 DeepSeek R1(理论上来说适合大多数 AI,尤其是有推理模型)。 分三次询问:第一次从写作角度分析;第二次从读者角度分析;第三次指出文章的缺点、不足及改善和提升的空间。 对作者进行侧写,分析成长背景、个人经历和知识结构对文章的影响。 让 AI 对您写的文章进行点评:使用类似“现在我希望你是一名资深中文写作教师/小学语文老师/中学语文老师/公文写作培训师,拥有 30 年教育经验,是一名传授写作技巧的专家。请先阅读我提供给你的文章,然后对文章进行分析,然后教我如何提升写作水平。请给出详细的优缺点分析,指出问题所在,并且给出具体的指导和建议。为了方便我能理解,请尽量多举例子而非理论陈述”的提示词。 分享一个根据文章内容对作者心理侧写的提示词:“我希望你扮演一个从业 20 多年,临床诊治过两千多例心理分析案例的人性洞察和意识分析方面的专家,精通心理学、人类学、文史、文化比较。先阅读后附文章全文,然后对作者进行人格侧写。要尖锐深刻,不要吹捧包装,不要提出一些只能充当心理安慰的肤浅的见解。包括作者的基本画像、核心性格特质、认知与价值观、潜在心理动机、行为模式推测、矛盾与盲点、文化符号映射。” 在模型选择方面: 目前只推荐 Claude 3.7 Sonnet,Anthropic 对 Claude 在编程和美学方面有深度优化,效果较好。但您也可以使用 DeepSeek 等模型进行尝试。 对于模型的选用,没有强制必须用某个模型的说法。而是根据自己的习惯、实测的响应速度、生成质量、调用费用进行综合选择。比如 Doubao Function Call 模型,对于插件调用、Coze 内 json 格式输出比较擅长;MiniMax 处理文字速度很快;GLM 对于用户提示词的理解比较好。每个模型都有自己擅长的特点,而且每家模型都在不断的迭代。所以模型的选用,需要根据实测情况综合调整。一般可选择豆包·function call 32k,“function call”代表有着更好的 Coze 的工具调用能力,“32k”代表模型的上下文窗口大小,即模型在处理文本时能够考虑的单词或标记的数量。如果输出和输入的类型不是纯文本时,比如是 array、object 结构,请根据实测情况,考虑替换上豆包 function call 版本,其他的 LLM 可能会输出格式比较混乱。
2025-03-25
怎么用大模型赚钱
以下是关于如何用大模型赚钱的一些分析和建议: 1. 面向各国政府做基础大模型本土化预训练:很多 Global 的量化基金在中国会水土不服,大模型也存在类似情况。OpenAI、Google、Meta 的模型在中文能力和对中国国情的优化上存在不足,不符合政策要求。这给了国内大模型公司做本土化预训练的机会,只要做到国内领先,即使和世界领先的模型有代际差,也能有市场。 2. 关注行业应用:大模型在企业中的落地应用是关键。目前大模型是典型的赢家通吃领域,巨头在资金、技术和数据方面有优势。但大模型企业需要将技术与更多场景结合,打造落地应用。例如,Gartner 预测到 2028 年至少有 15%的日常工作决策将由代理型 AI 自主做出。 3. 竞争格局与成绩:国内大模型行业已形成以百度、阿里、字节等科技大厂和创业“AI 六小虎”为主要玩家的竞争格局。2024 年是国内大模型落地元年,中标项目数量和金额大幅增长。如百度在中标数量和金额上排名领先,在金融等细分行业也表现出色。 需要注意的是,大模型领域竞争激烈,只有极少数公司能成功,且需要将大模型商业化,否则企业可能在赛道比拼中失败。同时,大模型的发展与国家政策密切相关,需要受到有效监管才能健康发展。
2025-03-25
Qwen 多模态模型哪一个最顶?
目前阿里发布的 Qwen 多模态模型中,Qwen2.5VL 较为突出。它可处理长达数小时的视频,并在电脑上执行自动化任务。提供 3B、7B、72B 三种规模,旗舰版对标 GPT4o、Claude 3.5 Sonnet。具备全文档解析能力,支持手写、表格、图表、化学公式等多场景识别,还可操作电脑或手机界面,执行自动化任务,如点击按钮、填表等。详情可参考:https://www.xiaohu.ai/c/xiaohuai/qwen25vl285cee 。此外,Qwen2.5Max 也是阿里通义千问的大型专家模型(MoE),基于 SFT 和 RLHF 策略训练,在多项基准如 Arena Hard、LiveBench、LiveCodeBench、GPQADiamond 上超越 DeepSeek V3,引发社区关注。更多体验方式包括支持官方 Chat、API 接口、Hugging Face Demo 等,详情可参考:https://qwenlm.github.io/blog/qwen2.5max/ 、https://chat.qwenlm.ai 、https://alibabacloud.com/help/en/modelstudio/gettingstarted/firstapicalltoqwen?spm=a2c63.p38356.helpmenu2400256.d_0_1_0.1f6574a72ddbKE 、https://huggingface.co/spaces/Qwen/Qwen2.5MaxDemo 。
2025-03-25
我想搭建个人rag知识库,实现本地化部署,可以调用本地大模型去分析知识库的内容进行解答
以下是搭建个人 rag 知识库并实现本地化部署,调用本地大模型分析知识库内容进行解答的详细步骤: 一、通过 Open WebUI 使用大模型 1. 访问相关网址,使用邮箱注册账号。 2. 登陆成功后,Open WebUI 一般有两种使用方式,包括聊天对话和 RAG 能力(让模型根据文档内容回答问题,这是构建知识库的基础之一)。 3. 如果要求不高,此时已搭建本地大模型,并通过 Web UI 实现与大模型对话。ChatGPT 访问速度快且回答效果好的原因在于其服务器配置高、训练参数多、数据更优及训练算法更好。 二、本地知识库进阶 1. 若要更灵活掌控知识库,需使用额外软件 AnythingLLM,其包含 Open WebUI 的所有能力,并额外支持选择文本嵌入模型和向量数据库。 2. 安装地址:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。 3. 在 AnythingLLM 中有 Workspace 的概念,可创建独有 Workspace 与其他项目数据隔离。首先创建工作空间,然后上传文档并在工作空间中进行文本嵌入,选择对话模式(包括 Chat 模式和 Query 模式),最后进行测试对话。 三、RAG 是什么 利用大模型搭建知识库是 RAG 技术的应用。在进行本地知识库搭建实操前,需对 RAG 有大概了解。RAG 应用可抽象为 5 个过程: 1. 文档加载:从多种来源加载文档,LangChain 提供 100 多种不同的文档加载器,包括非结构化、结构化数据及代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或“文档片”。 3. 存储:涉及将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 4. 检索:通过检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示生成更合理的答案。 文本加载器是将用户提供的文本加载到内存中,便于后续处理。
2025-03-25
大神解读大模型底层
大模型的底层原理主要包括以下几个方面: 1. 生成式:大模型根据已有的输入为基础,不断计算生成下一个字词(token),逐字完成回答。例如,从给定的提示词“how”开始,通过计算推理依次输出“are”“you”等,直到计算出下一个词是“”时结束输出。 2. 预训练:大模型“脑袋”里存储的知识都是预先学习好的,这个预先学习并把对知识的理解存储记忆在“脑袋”里的过程称为预训练。以 GPT3 为例,训练它使用了约 4990 亿 token 的数据集,相当于 86 万本《西游记》。预训练需要花费大量时间和算力资源,且在没有外部帮助的情况下,大模型所知道的知识信息是不完备和滞后的。 3. 转换器模型(Transformer):Transformer 是一种处理文本内容的经典模型架构,虽然其具体细节不清楚不影响使用大模型,但感兴趣的可以通过相关链接进一步了解。 4. 参数规模:依靠概率计算逐字接龙的方法看似难以生成高质量回答,但随着参数规模的增加,如从 GPT1 的 1.5 亿到 GPT3.5 的 1750 亿,实现了量变到质变的突破,“涌现”出惊人的“智能”。这种“涌现”现象在人类的进化和个体学习成长历程中也存在。
2025-03-24
模型理解汉字能力很差
目前模型在理解汉字方面存在一些问题,主要表现为: 1. 语义理解较差,例如在某些应用场景中对中文的理解不够准确。 2. 中文汉字的集合较大,纹理结构更复杂,增加了理解难度。 3. 缺少中文文字的图文对数据,影响了模型对汉字的学习和理解。 为了提升模型对中文文字的生成能力,采取了以下措施: 1. 选择 50000 个最常用的汉字,机造生成千万级的中文文字图文对数据集,但机造数据真实性不足。 2. 实用 OCR 和 MLLM 生成海报、场景文字等真实中文文字数据集,约百万量级。通过结合高质量真实数据,提升了中文文字生成能力的真实性,即使是真实数据中不存在的汉字的真实性也有所提高。
2025-03-24
四轮腿机器人资料
以下是关于四轮腿机器人的相关资料: 宇树科技在该领域的情况: 推动了 AI + 机器人技术的标准化、模块化、智能化,实现快速、低成本落地。 基于企业训练数据完善深度学习训练模型及预测代码,通过四足机器人完成救援场景任务执行。 其四足机器人产品能力出众,多场景头部客户落地验证。 发布了 Aliengo 四足机器人,采用全新设计的动力系统,更轻量集成,一体化机身设计。 其 CEO 王兴兴在硕士期间独立开发了低成本外转子无刷电机驱动的高性能四足机器人 Xdog,开创了全球低成本高性能四足机器人方案的技术先河,并于 2016 年创立宇树科技。 2021 年 6 月发布伴随仿生机器人 Go1,以超低价格和优秀的感知运动能力,成为人类科技史上首款真正走入大众生活的移动机器人。2022 年 2 月“泰哥”亮相,2022 年 4 月推出 PUMP 健身泵。2023 年 4 月发布仿生 4D 激光雷达 L1。未来还将推出 Go 1 升级版、行业版、人形机器人等产品。 具身智能方面: 具身智能是将机器学习算法适配至物理实体,从而与物理世界交互的人工智能范式。以 ChatGPT 为代表的“软件智能体”使用大模型通过网页端、手机 APP 与用户进行交互,具身智能体则将大模型嵌入到物理实体上,通过机器配备的传感器与人类交流,强调智能体与物理环境之间的交互。通俗讲就是给人工智能装上“身体”,人形机器人是具身智能的代表产品。 具身智能的三要素包括“本体”(硬件载体)、“智能”(大模型、语音、图像、控制、导航等算法)、“环境”(本体所交互的物理世界),本体、智能、环境的高度耦合是高级智能的基础,不同环境下会有不同形态的硬件本体适应环境,比如室内平地适用轮式机器人,崎岖不平地面适用四足机器人。 具身智能的行动分为“感知 决策 行动 反馈”四个步骤,分别由四个模块完成,并形成一个闭环。
2025-03-25
请推荐一份学习rag的资料
以下是为您推荐的学习 RAG(RetrievalAugmented Generation,检索增强生成)的资料: 1. 《RetrievalAugmented Generation for Large Language Models:A Survey》(https://arxiv.org/pdf/2312.10997.pdf),该资料对 RAG 进行了较为全面的介绍和分析。 2. 关于新知识的学习,您可以参考“胎教级教程:万字长文带你理解 RAG 全流程”。其中提到可以通过 Claude 帮助了解细节概念,然后再通过 Coze 搭建 Demo 来实践学习。还不知道 Coze 是什么的同学可以看公开分享: 。 3. 了解“RAG 是什么?”:RAG 是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型提供额外的、来自外部知识源的信息。通过检索模式为大语言模型的生成提供帮助,使生成的答案更符合要求。同时,还介绍了大模型存在的缺点以及 RAG 的优点,如数据库对数据存储和更新稳定、敏捷、可解释等。 希望这些资料对您学习 RAG 有所帮助。
2025-03-25
大模型学习资料
以下是为您提供的大模型学习资料: 大模型的底层原理: 预训练阶段:以 GPT3 为例,其训练使用了约 4990 亿 token 的数据集(约 570GB 文本),相当于 86 万本《西游记》。即使每天读完一本,也需约 28.6 辈子才能读完。这些数据大多来源于高质量的网页、书籍数据库、维基百科等。 模型架构:Transformer 是处理文本内容的经典模型架构,如 GPT1 所使用。关于其具体细节,不清楚也不太影响使用大模型,感兴趣可参考相关链接: 。 大模型的特点与架构: 架构分类:包括 encoderonly(适用于自然语言理解任务,如分类和情感分析,代表模型是 BERT)、encoderdecoder(同时结合 Transformer 架构的 encoder 和 decoder 来理解和生成内容,代表是 google 的 T5)、decoderonly(更擅长自然语言生成任务,如故事写作和博客生成,众多 AI 助手采用此架构)。 规模特点:预训练数据量大,往往来自互联网,包括论文、代码、公开网页等,一般用 TB 级别的数据进行预训练;参数多,如 Open 在 2020 年发布的 GPT3 就已达到 170B 的参数。 大模型的通俗解释: 大模型是输入大量语料,让计算机获得类似人类的“思考”能力,能进行文本生成、推理问答、对话、文档摘要等工作。可以用“上学参加工作”来类比其训练、使用过程: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有有资本购买大量 GPU 的才有能力训练。 2. 确定教材:需要大量数据,几千亿序列(Token)的输入是基本标配。 3. 找老师:选择合适算法让大模型更好理解 Token 之间的关系。 4. 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称为推导(infer)。在 LLM 中,Token 被视为模型处理和生成的文本单位,会被分割并数字化形成词汇表。
2025-03-23
想转型AI产品经理,推荐学习的资料有?
以下是为您推荐的学习资料,有助于您从产品经理转型为 AI 产品经理: 1. 林粒粒呀的相关视频,如“小白如何理解技术原理与建立框架”,其中介绍了思维链、RAG、PAL、ReAct 等概念,并且提到 Transformer 是仿生算法的阶段性实现。 思维链:谷歌在 2022 年一篇论文提到思维链可以显著提升大语言模型在复杂推理的能力,即使不用小样本提示,也可以在问题后面加一句【请你分步骤思考】。 RAG:检索增强生成(RetrievalAugmented Generation),外部知识库切分成段落后转成向量,存在向量数据库。用户提问并查找到向量数据库后,段落信息会和原本的问题一块传给 AI,可搭建企业知识库和个人知识库。 PAL:程序辅助语言模型(ProgramAided Language Model),2022 年一篇论文中提出,对于语言模型的计算问题,核心在于不让 AI 直接生成计算结果,而是借助其他工具比如 Python 解释器作为计算工具。 ReAct:2022 年一篇《React:在语言模型中协同推理与行动》的论文提出了 ReAct 框架,即 reason 与 action 结合,核心在于让模型动态推理并采取行动与外界环境互动。比如用搜索引擎对关键字进行搜索,观察行动得到的结果。可借助 LangChain 等框架简化构建流程。 2. 余一的相关内容,如《AI 时代个人生存/摸鱼探索指南.Beta》《从 2023 年报,看中国上市公司怎么使用生成式 AI》。 3. 相关网页链接: 创新公司观察: 2022 2024 年融资 2000w 美金以上的公司列表和详细公司分析:https://ameliadev.notion.site/202220242000w08f50fafd81b420fa7f26ecd6c0b3243?pvs=4 AI Grant 公司列表和详细公司分析(三期):https://ameliadev.notion.site/AIGranta52f291e81f34b418c9919497961e831?pvs=4 AIGC 行业与商业观察(2024.1):https://gamma.app/docs/AIGCDev9q1bax2pspnlxqu 【AI 产品/功能构建】: 顶级科技公司产品团队正在构建哪些 AI 功能【总览】:https://gamma.app/docs/AIzawqmb2ff3cv958 顶级科技公司产品团队正在构建哪些 AI 功能【产品分析】:https://gamma.app/docs/AItebxqet8ubz3rje 顶级科技公司产品团队正在构建哪些 AI 功能【思考借鉴】
2025-03-18
AI和教育结合的案例以及资料
以下是一些 AI 和教育结合的案例及相关资料: 张翼然是湖南农业大学教育技术系副教授,国家教学成果奖获得者,也是“人工智能+教育”实践专家。其相关研究包括 AI 从工具到助手赋能教师提升效率与能力、AI 与教育场景融合拓展教学边界与创新场景、AI 与人类智能的共生放大学生思考力塑造深度学习能力、AIGC 教育革命:技术原理与课堂实践、大语言模型的教学潜力:交流技巧与心得、一线教师的 AI 需求与高效工具推荐、AI 赋能课堂的核心逻辑:从理论到应用、解码 AI 教学案例:创新与实践等。 例如,在个性化支持与学习自主性方面,AI 通过数据分析与即时反馈,提供定制化学习路径和资源,帮助学生根据自身兴趣、需求和能力规划学习,同时赋予学生更多学习自主权,支持自定步调学习,实现精准教学,关注每个学生的个体需求,帮助学生在学习过程中培养自主决策能力。 在科技伦理与批判性思维方面,通过 AI 生成的开放性问题与多维数据,帮助学生审视技术的潜在风险,培养批判性思维与负责任的科技使用态度,引导学生辨析技术优劣,理解科技的伦理边界,通过讨论和反思提升学生的审辨能力。如课堂讨论 AI 生成内容的真实性与偏见,并设计项目探索数据隐私的保护方案。 同时也指出了大模型在多数任务中可快速达到及格水平,但在绝大多数领域难以达到优秀水平,以及现阶段 AI 在教育领域应用存在知识适配的层次性问题等局限性。 深圳福田区梅山中学梁玉老师使用百度文库的 AI 有声画本导入故事生成,用即梦 AI 生成数字人。 教研员贺亚使用通义千问根据评分标准改英语作文。 黎加厚提出让每一位教师都掌握教育智能体金钥匙。
2025-03-17
有相关mcp如果配置的相关资料么
以下是关于 MCP 配置的相关资料: MCP 是 Claude 官方推出的一个协议。纯 LLM 无法行动,MCP 工具可以充当其与现实世界交互的“手”,并反馈结果指导下一步行动。 在配置方面: 对于 Windows 系统,找到支持浏览器交互的命令,复制箭头指向的命令并填在 Curosr feather 的 MCP Serve 里,服务名称可随便填,类型选 command。由于国内网络原因,可能会显示工具找不到,此时最好先在终端执行命令安装好后再填入。 在 Windsurf 中进行 MCP 配置,可找到 MCP 工具社区网站如 https://github.com/modelcontextprotocol/servers ,复制某个 MCP 工具如 uvx 安装方式命令,通过小锤子配置,粘贴命令。还有些网站如 https://smithery.ai/ 、https://www.pulsemcp.com/ 可直接安装依赖包,终端执行即可。 MCP 的好处包括: 简化开发:一次整合,多次复用,不再重复开发。 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 实时互动:长连接保证数据实时更新。 安全可靠:内置标准化安全和权限控制。 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 在某些场景下传统 API 更适合,如需要精准且严格受控的交互方式、更偏好紧耦合以提升性能、希望最大化交互的可预测性等。 快速集成 MCP 的步骤包括: 1. 定义能力:明确 MCP 服务器提供的功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 总结来说,MCP 为 AI 模型统一连接数据与工具的标准接口,让 AI 与外部数据、工具的连接变得更加标准化和高效。以下是一些相关文档和介绍的链接: https://modelcontextprotocol.io/ https://docs.cursor.com/context/modelcontextprotocol
2025-03-17