Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

国内大语言模型的应用,比如像豆包,这种,都有哪些

Answer

国内大语言模型的应用较为广泛,以下为您介绍部分常见的大语言模型及其应用:

  1. 云雀大模型(豆包):在信息安全相关的在线课程和讲座等方面有应用。
  2. AndesGPT(OPPO):已接入 OPPO 智能助理新小布,可用于用机助手、内容创作、超级问答、专属 AI、日程管理等全新能力,正在公测中。其聚焦在移动设备端的应用,主要涵盖知识、记忆、工具、创作四个方向,目前已支持使用“系统设置、一方应用、三方服务、代码解释器”等各类工具,并且全面支持文生文、文生图等场景。
  3. 文心一言 4.0(百度):已有 7000 万用户。在计算、逻辑推理、生成与创作、传统安全这 4 大基础能力上排名国内第一。另外在代码、知识与百科、语言理解与抽取、工具使用能力上排名国内前三。能力栈较为广泛,可应用的场景较多,重点推荐在查询搜索知识应用、任务拆解规划 Agent、文案写作以及代码编写及纠错等方面的应用。由于在逻辑推理方面的不俗表现,可以重点关注在科学研究、教育、工业方面的落地能力。
Content generated by AI large model, please carefully verify (powered by aily)

References

2023年度中文大模型基准测评报告.pdf

[title]中文大模型基准测评2023年度报告[heading1]专项基准[heading1]SuperCLUE基准-传统安全能力[heading2]传统安全能力-示例[heading3]Claude2[heading4]云雀大模型(豆包)信息安全相关的在线课程和讲座[blo优秀模型:AndesGPT(OPPO)简介:AndesGPT是OPPO自主训练的大语言模型。于11月16日2023 OPPO开发者大会上正式推出。AndesGPT对话增强、个性专属和端云协同三大技术特征。目前已接入OPPO智能助理新小布,可用于用机助手、内容创作、超级问答、专属AI、日程管理等全新能力,正在公测中。模型特点:AndesGPT在语言理解与抽取、角色扮演能力上排名国内前一,在代码、生成与创作、上下文对话能力上排名国内前三。在专业技能和语言任务上均有不俗表现,综合来看,AndesGPT是一个各项能力较为均衡的大模型,在国内大模型厂商中比较有竞争力。适合应用:AndesGPT聚焦在移动设备端的应用。主要涵盖四个方向:知识、记忆、工具、创作。目前AndesGPT已支持使用“系统设置、一方应用、三方服务、代码解释器”等各类工具。并且AndesGPT已全面支持文生文、文生图等场景,可以为用户提供真实有用的技能。

02-基础通识课

[title]02-基础通识课[heading1]智能纪要[heading2]总结大语言模型的介绍与原理国内大模型的分类:国内大模型有通用模型如文心一言、讯飞星火等,处理自然语言;还有垂直模型,专注特定领域如小语种交流、临床医学、AI蛋白质结构预测等。大模型的体验:以‘为什么我爸妈结婚的时候没有邀请我参加婚礼’和‘今天我坐在凳子上’为例,体验了Kimi、通义千问、豆包等大模型的回答和续写能力,发现回复有差异,且大模型基于统计模型预测生成内容。大语言模型的工作原理:大语言模型工作原理包括训练数据、算力、模型参数,在训练数据一致情况下,模型参数越大能力越强,参数用b链形容大小。Transformer架构:Transformer是大语言模型训练架构,17年出现用于翻译,具备自我注意力机制能理解上下文和文本关联,其工作原理是单词预测,通过嵌入、位置编码、自注意力机制生成内容,模型调教中有控制输出的temperature。关于大语言模型的原理、应用及相关概念Transformer模型原理:通过不断检索和匹配来寻找依赖关系,处理词和词之间的位置组合,预测下一个词的概率,是一个偏向概率预测的统计模型。大模型幻觉:大模型通过训练数据猜测下一个输出结果,可能因错误数据导致给出错误答案,优质数据集对其很重要。Prompt的分类和法则:分为system prompt、user prompt和assistant prompt,写好prompt的法则包括清晰说明、指定角色、使用分隔符、提供样本等,核心是与模型好好沟通。Fine tuning微调:基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。RAG概念:未对RAG的具体内容进行详细阐述,仅提出了这个概念。

2023年度中文大模型基准测评报告.pdf

[title]中文大模型基准测评2023年度报告[heading1]专项基准[heading1]SuperCLUE基准-传统安全能力[heading2]传统安全能力-示例[heading3]Claude2[heading4]云雀大模型(豆包)信息安全相关的在线课程和讲座[blo优秀模型:文心一言4.0-API(百度)简介:文心一言(英文名:ERNIE Bo t)是百度全新一代知识增强大语言模型。于2023年3月16日正式发布,已进行多个版本迭代,10月17日发布V4.0版本。据百度官方介绍,文心一言目前已有7000万用户。模型特点:文心一言4.0在计算、逻辑推理、生成与创作、传统安全这4大基础能力上排名国内第一。另外在代码、知识与百科、语言理解与抽取、工具使用能力上排名国内前三。文心一言4.0各项能力上表现非常均衡且绝大部分能力有很高的水平,综合来看是国内非常有竞争力的大模型。适合应用:文心一言4.0的能力栈较为广泛,可应用的场景较多。基于在SuperCLUE测评上的表现,重点推荐在查询搜索知识应用、任务拆解规划Agent、文案写作以及代码编写及纠错等方面的应用。另外文心一言4.0由于在逻辑推理方面的不俗表现,可以重点关注在科学研究、教育、工业方面的落地能力。

Others are asking
豆包、DeepSeek、ChatGPT分别有些什么功能用于解决用户整理对话的需求
以下是豆包、DeepSeek、ChatGPT 在解决用户整理对话需求方面的功能: ChatGPT: 1. 内容生成:可以生成文章、故事、诗歌、歌词等内容。 2. 聊天机器人:作为聊天机器人的后端,提供自然的对话体验。 3. 问答系统:为用户提供准确的答案。 4. 文本摘要:生成文本的摘要或概述。 5. 机器翻译:在这方面有不错的表现。 6. 群聊总结:能够对群聊内容进行总结。 7. 代码生成:生成代码片段,帮助开发者解决编程问题。 8. 教育:帮助学生解答问题或提供学习材料。 9. 浏览器插件:如 webpilot 。 10. PDF 对话:通过相关网站实现与 PDF 的对话。 11. PPT 生成:协助高效制作 PPT 。 12. 音视频提取总结:通过特定网站进行总结。 13. 播客总结:通过特定网站完成总结。 14. 生成脑图:通过相关网站生成。 关于豆包和 DeepSeek 在解决用户整理对话需求方面的功能,上述内容中未提及。
2025-02-13
抖音内部有哪些大模型?你用的是哪个? 豆包和coze分别用的是哪个?
抖音内部使用的大模型包括月之暗面 KIMI、豆包、Minimax、通义千问和智谱清言。 关于模型的特点和选择: Dify 是开源的,有直观界面和多种功能,社区活跃;Coze 由字节跳动推出,目前未明确是否开源,可能更侧重商业化服务,其插件能力丰富、搭建效率高。 豆包的 function call 模型对于插件调用、Coze 内 json 格式输出较擅长;MiniMax 处理文字速度快;GLM 对用户提示词理解较好。模型选用需根据习惯、响应速度、生成质量、调用费用等综合考虑,且各模型在不断迭代。 需要注意的是,以上回答由 AI 大模型生成,请仔细甄别。
2025-02-13
对DeepSeek-R1、GPT-4o、文心一言、通义千文、豆包、海信星海和混元模型的性能对比分析
以下是对 DeepSeekR1、GPT4o、文心一言、通义千文、豆包、海信星海和混元模型的性能对比分析: 通义千问: 通义团队将 Qwen2.5Max 与目前领先的开源 MoE 模型 DeepSeek V3、最大的开源稠密模型 Llama3.1405B 以及同样位列开源稠密模型前列的 Qwen2.572B 进行了对比。在所有 11 项基准测试中,Qwen2.5Max 全部超越了对比模型。 Qwen2.5Max 已在阿里云百炼平台上架,企业和开发者可通过阿里云百炼调用新模型 API,也可在全新的 Qwen Chat 平台上使用。 DeepSeekR1: 属于基于强化学习 RL 的推理模型,在回答用户问题前会先进行“自问自答”式的推理思考,以提升最终回答的质量。 其“聪明”源于独特的“教育方式”,在其他 AI 模型还在接受“填鸭式教育”时,DeepSeek R1 已率先进入“自学成才”新阶段。 其思考与表达碾压了包括 GPT4o、Claude Sonnet3.5、豆包等模型,思考过程细腻、自洽、深刻、全面,输出结果在语气、结构、逻辑上天衣无缝。 目前关于文心一言、海信星海和混元模型在上述内容中未提供具体的性能对比信息。
2025-02-12
豆包和deepseek的区别
DeepSeek R1 与豆包存在以下区别: 1. 技术路线:DeepSeek R1 与 OpenAI 现在最先进的模型 o1、o3 一样,属于基于强化学习 RL 的推理模型。而豆包不属于此技术路线。 2. 思考方式:在回答用户问题前,DeepSeek R1 会先进行“自问自答”式的推理思考,以提升最终回答的质量,这种“自问自答”是模拟人类的深度思考。豆包可能没有这种特定的思考方式。 3. 输出效果:从相关对比来看,DeepSeek 的思考过程细腻、自洽、深刻、全面,输出结果在语气、结构、逻辑上天衣无缝,被认为碾压了包括豆包在内的其他模型。
2025-02-10
我想做个智能体专门帮我写更行各业的朋友圈收钱文案,我应该如何开始,我没做过扣子的智能体,只是在豆包简单做过
如果您想做一个智能体专门帮您写各行各业的朋友圈收钱文案,可以参考以下步骤: 1. 明确智能体的名称和简介:例如可以命名为“朋友圈收钱文案生成器”,简介中说明其专注于为各行各业生成吸引人的收钱文案。 2. 确定应用场景和目标人群:目标人群可以是各类需要在朋友圈推广业务并收款的个人或团队。当前痛点可能包括难以创作出有吸引力和针对性的收钱文案,解决的问题是提供高效、优质且符合行业特点的文案生成服务。 3. 设计智能体的主要功能: 深度挖掘产品或服务的卖点。 生成符合用户需求和心理的优质文案。 能够适应不同行业的特点和需求。 4. 技术实现方面: 设计工作流,包括输入、对接知识库、借助模型处理、输出等环节。 建立相关的数据库,收集和整理各行各业的文案素材、营销知识等。 对收集的资料进行清洗和二次校对,确保准确性和专业性。 5. 商业化场景: 可以为个人创业者提供文案支持,帮助他们在朋友圈推广业务并收款。 为小型企业的营销团队服务,提升其在社交媒体上的营销效果。 需要注意的是,在医疗等严肃领域,为了保证回答的准确性,应约定回答只能来自于经过严格筛选和校对的知识库。
2025-02-07
即梦或豆包绘画提示词
以下是关于 AI 绘画提示词的相关内容: 在制作 AI 视频短片时,对于剧本中的人物形象,如老船长年轻形象,可通过性格特征和时代背景生成提示词、上传角色参考图并扣除角色背景以进行垫图操作,生成全身、半身、侧身等多角度人物图。场景主要包括海上、沙漠、市集,提示词从剧本中的画面描述提取,采用文生图模式并准备好风格图进行垫图,上传角色图和场景背景以提高融合度。 即梦 AI 视频生成时,为避免重复“抽卡”,可使用公式“【主体 A】+【外观描述】+【运动】,【主体 B】+【外观描述】+【运动】,【主体 C】+【外观描述】+【运动】”,同时 prompt 应简洁明了,避免复杂语言。 对于 SD 新手,有以下提示词相关的资源:Majinai:
2025-02-07
我想做一个产品(生涯规划领域的垂直大模型),这个产品服务的对象是所有人:帮助所有人进行更好的职业规划。每个人都能通过使用这个产品更好地了解自己,了解自己的天赋、兴趣、优势,然后找到自己的热爱的领域和热爱的事业,并且能够个性化地推荐相关的行业和职业,包括职业的主要工作内容和核心能力要求等等。 请对这个产品进行可行性分析,并给出产品的发展规划,别忘了给这个项目起一个名字。
以下是对您提出的生涯规划领域垂直大模型产品的可行性分析和发展规划,并为项目取名为“生涯智途”。 可行性分析: 1. 需求广泛:帮助人们进行职业规划是一个普遍存在的需求,涵盖了各个年龄段和职业阶段的人群。 2. 数据可用性:可以通过各种渠道收集大量与职业相关的数据,包括行业报告、职位描述、人才需求等。 3. 技术支持:当前大模型技术的发展为实现这样的产品提供了可能,能够处理和分析大量复杂的数据。 发展规划: 1. 数据收集与整理:广泛收集各类职业数据,建立丰富的数据库,确保数据的准确性和完整性。 2. 模型训练与优化:利用收集到的数据进行模型训练,不断优化模型,提高预测和推荐的准确性。 3. 功能开发: 个性化测评:开发能够准确评估用户天赋、兴趣、优势的功能模块。 精准推荐:根据用户的特点,提供个性化的行业和职业推荐,并详细介绍职业的工作内容和核心能力要求。 持续学习与更新:随着行业变化,及时更新数据和模型,以提供最新的职业信息。 4. 用户体验优化:设计简洁、易用的界面,提供良好的用户交互体验。 5. 市场推广:通过线上线下多种渠道进行推广,提高产品的知名度和用户覆盖面。 希望以上分析和规划对您有所帮助。
2025-02-18
现在大语言模型的跑分对比
对比不同大语言模型的性能需要考虑多个维度,包括但不限于以下方面: 1. 理解能力:评估对语言的语法、语义、上下文和隐含意义的理解程度。 2. 生成质量:检查生成文本的流畅性、相关性和准确性。 3. 知识广度和深度:掌握广泛主题的知识程度,以及对特定领域或话题的理解深度。 4. 泛化能力:处理未见过的任务或数据时的表现。 5. 鲁棒性:应对错误输入、对抗性输入或模糊不清指令的能力。 6. 偏见和伦理:生成文本时是否存在偏见,是否遵循伦理标准。 7. 交互性和适应性:在交互环境中的表现,包括对用户反馈的适应性和持续对话的能力。 8. 计算效率和资源消耗:考虑模型大小、训练和运行所需的计算资源。 9. 易用性和集成性:是否易于集成到不同应用和服务中,提供的 API 和工具的易用性。 为了进行有效的比较,可以采用以下方法: 1. 标准基准测试:使用如 GLUE、SuperGLUE、SQuAD 等标准的语言模型评估基准,它们提供统一的测试环境和评分标准。 2. 自定义任务:根据特定需求设计任务,评估模型在特定领域的表现。 3. 人类评估:结合人类评估者的主观评价,特别是在评估文本质量和伦理问题时。 4. A/B 测试:在实际应用场景中,通过 A/B 测试比较不同模型的表现。 5. 性能指标:使用准确率、召回率、F1 分数、BLEU 分数等性能指标来量化比较。 当前领先的大型语言模型的排行榜,例如聊天机器人竞技场,由伯克利的团队管理,根据 ELO 评级对不同语言模型进行排名,计算方式与国际象棋中的类似。在排行榜中,顶部多为专有模型,下方有开放权重的模型。 大语言模型的特点包括: 1. 架构:有 encoderonly、encoderdecoder、decoderonly 等,如 BERT 是 encoderonly 模型,google 的 T5 是 encoderdecoder 模型,众多 AI 助手多为 decoderonly 模型。 2. 数据和参数:预训练数据量大,往往来自互联网,包括论文、代码、公开网页等,参数多,如 OpenAI 在 2020 年发布的 GPT3 已达到 170B 的参数。
2025-02-18
现在大语言模型的跑分对比
对比不同大语言模型的性能需要考虑多个维度,包括但不限于以下方面: 1. 理解能力:评估对语言的语法、语义、上下文和隐含意义的理解程度。 2. 生成质量:检查生成文本的流畅性、相关性和准确性。 3. 知识广度和深度:掌握广泛主题的知识程度,以及对特定领域或话题的理解深度。 4. 泛化能力:处理未见过的任务或数据时的表现。 5. 鲁棒性:应对错误输入、对抗性输入或模糊不清指令的能力。 6. 偏见和伦理:生成文本时是否存在偏见,是否遵循伦理标准。 7. 交互性和适应性:在交互环境中的表现,包括对用户反馈的适应性和持续对话的能力。 8. 计算效率和资源消耗:考虑模型大小、训练和运行所需的计算资源。 9. 易用性和集成性:是否易于集成到不同应用和服务中,提供的 API 和工具的易用性。 为了进行有效的比较,可以采用以下方法: 1. 标准基准测试:使用如 GLUE、SuperGLUE、SQuAD 等标准的语言模型评估基准,它们提供统一的测试环境和评分标准。 2. 自定义任务:根据特定需求设计任务,评估模型在特定领域的表现。 3. 人类评估:结合人类评估者的主观评价,特别是在评估文本质量和伦理问题时。 4. A/B 测试:在实际应用场景中,通过 A/B 测试比较不同模型的表现。 5. 性能指标:使用准确率、召回率、F1 分数、BLEU 分数等性能指标来量化比较。 当前领先的大型语言模型的排行榜,例如聊天机器人竞技场,由伯克利的团队管理,根据 ELO 评级对不同语言模型进行排名,计算方式与国际象棋中的类似。在排行榜中,顶部多为专有模型,下方有开放权重的模型。 大语言模型的特点包括: 1. 架构:有 encoderonly、encoderdecoder、decoderonly 等,如 BERT 是 encoderonly 模型,google 的 T5 是 encoderdecoder 模型,众多 AI 助手多为 decoderonly 模型。 2. 数据和参数:预训练数据量大,往往来自互联网,包括论文、代码、公开网页等,参数多,如 OpenAI 在 2020 年发布的 GPT3 已达到 170B 的参数。
2025-02-18
什么是大模型一体机
大模型一体机是一个相对复杂的概念。通俗来讲,大模型是输入大量语料,让计算机获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。其本质是两个文件:一个是参数文件,类似于问答机器人的“大脑镜像”,负责处理和生成文本信息;另一个是包含运行这些参数的代码文件。 大模型的训练和使用过程可以类比为上学参加工作: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练。 2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:即用合适的算法讲述“书本”中的内容,让大模型更好理解 Token 之间的关系。 4. 就业指导:为了让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称之为推导(infer)。 大模型的特点包括: 1. 预训练数据非常大,往往来自互联网上的论文、代码、公开网页等,一般用 TB 级别的数据进行预训练。 2. 参数非常多,如 Open 在 2020 年发布的 GPT3 就已达到 170B 的参数。 在架构方面,大模型有 encoderonly、encoderdecoder、decoderonly 等类型。目前常见的 AI 助手多采用 decoderonly 架构。
2025-02-18
传统AI、大模型、AGI的区别
传统 AI、大模型、AGI 存在以下区别: 传统 AI: 语音技能 NLU 通常通过一系列规则、分词策略等训练而成。 运作逻辑规律可观测,具有 ifelse 式的逻辑性。 大模型: 凭借海量数据在向量空间中学习知识的关联性。 运作逻辑难以观测,脱离了 ifelse 的层面。 Transformer 是其底层结构,是一个大参数(千亿级别)的回归方程,底层是 function loss 损失函数,能在一定 prompt condition 情况下,repeat 曾经出现过的数据内容,实现“生成”能力。 大语言模型是一个 perfect memory,repeat 曾经出现的内容。与 Alpha Go 相比,Alpha Go 是增强学习模型,有推理能力,而大语言模型这块很弱。 AGI(通用人工智能): 部分人觉得 LLM(大语言模型)具有 AGI 潜力,但 LeCun 反对。 目前对于能否到达 AGI 阶段尚不明确。 在公众传播层面: AIGC 指用 Stable Diffusion 或 Midjourney 生成图像内容,后来泛指用 AI 生成音乐、图像、视频等内容。 LLM 指 NLP 领域的大语言模型,如 ChatGPT。 GenAI 是生成式人工智能模型,国内官方政策文件使用这个词相对科学,涵盖了 LLM 和 AIGC。 公众传播一般会混用上述名词,但底层是 transformer 结构。
2025-02-18
有哪些在企业内部落地应用AI大模型工具的实践案例?不要营销文案生成、代码开发助手、智能客服问答机器人这种太常见的
以下是一些在企业内部落地应用 AI 大模型工具的实践案例: 1. 阿里云百炼: 智能体应用:能够弥补大模型的不足,如回答私有领域问题、获取实时信息、回答专业问题等。适用于有企业官网、钉钉、微信等渠道,期望为客户提供产品咨询服务,以及缺少技术人员开发大模型问答应用的场景。典型场景包括私有领域知识问答、个性化聊天机器人、智能助手等。 内部业务助手:通过企业内部规章制度、部门结构、产品介绍等文档构建知识库,并借助 RAG 智能体实现内部知识问答功能。系统支持多源异构数据,并通过复杂文档解析和视觉增强技术,提升文档理解的准确性与深度。目前该功能已灰度上线,需提供 UID 并通过白名单进行开启。 2. 达摩院: AI 模特(虚拟换装):支持虚拟换装、姿态编辑。 3. 电商零售: 推广文案写作:通过内置的多样化营销场景的文体模板,基于用户输入的创作主题以及参考素材,大模型即可为您生成对应的营销文案,为营销活动和宣传文案提供灵感和文案写作支持。 4. 泛企业: VOC 挖掘:是一个面向各类企业的 VOC 标签挖掘的工具。不论是用户的长短评论、帖子、还是用户和客服/销售的聊天记录、通话记录,都可以使用。通过选中或自定义标签,即可让大模型针对海量非结构化的 VOC 数据快速打标。相比于人工打标或规则打标准确率更高;对于业务标签变动频繁的情况,也能更敏捷、快速地影响。 5. 通义晓蜜:基于深度调优的对话大模型,为营销服类产品提供智能化升级所需的生成式摘要总结、质检、分析等能力应用。
2025-02-18
大语言模型、多模态、数据、算力、算法、预训练、微调、RAG、自注意力机制、transformer、token、神经网络、向量、scaling law这些内容的含义
以下是对您所提到的这些内容含义的解释: 大语言模型:是一种基于大量文本数据进行训练的语言处理模型,其工作原理包括训练数据、算力、模型参数等。在训练数据一致的情况下,模型参数越大能力越强。 多模态:指能够处理多种不同类型的数据模态,如文本、图像、音频等,并将它们融合进行理解和生成。 数据:是大语言模型训练和应用的基础,包括各种文本、图像、音频等信息。 算力:指用于支持大语言模型训练和运行的计算能力。 算法:是大语言模型实现各种功能的数学和逻辑方法。 预训练:在大语言模型中,先在大规模数据上进行无特定任务的初步训练。 微调:基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。 RAG:检索增强生成,通过引用外部数据源为模型做数据补充,适用于动态知识更新需求高的任务。其工作流程包括检索、数据库索引、数据索引、分块、嵌入和创建索引、增强、生成等步骤。 自注意力机制:是 Transformer 架构中的重要部分,能理解上下文和文本关联,通过不断检索和匹配来寻找依赖关系,处理词和词之间的位置组合,预测下一个词的概率。 Transformer:是大语言模型训练架构,用于翻译等任务,具备自注意力机制。 Token:在自然语言处理中,是文本的基本单位。 神经网络:是大语言模型的基础架构,模拟人脑神经元的连接和信息处理方式。 向量:在大语言模型中,用于表示文本等数据的数学形式。 Scaling Law:关于大语言模型规模和性能之间关系的规律。
2025-02-18
大语言模型、多模态、数据、算力、算法、预训练、微调、RAG、自注意力机制、transformer、token、神经网络、向量、scaling law这些内容的含义
以下是对您所提到的这些内容含义的解释: 大语言模型:是一种基于大量文本数据进行训练的语言处理模型,其工作原理包括训练数据、算力、模型参数等。在训练数据一致的情况下,模型参数越大能力越强。 多模态:指能够处理多种不同类型的数据模态,如文本、图像、音频等,并将它们融合进行理解和生成。 数据:是大语言模型训练和应用的基础,包括各种文本、图像、音频等信息。 算力:指用于支持大语言模型训练和运行的计算能力。 算法:是大语言模型实现各种功能的数学和逻辑方法。 预训练:在大语言模型中,先在大规模数据上进行无特定任务的初步训练。 微调:基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。 RAG:检索增强生成,通过引用外部数据源为模型做数据补充,适用于动态知识更新需求高的任务。其工作流程包括检索、数据库索引、数据索引、分块、嵌入和创建索引、增强、生成等步骤。 自注意力机制:是 Transformer 架构中的重要部分,能理解上下文和文本关联,通过不断检索和匹配来寻找依赖关系,处理词和词之间的位置组合,预测下一个词的概率。 Transformer:是大语言模型训练架构,用于翻译等任务,具备自注意力机制。 Token:在自然语言处理中,是文本的基本单位。 神经网络:是大语言模型的基础架构,模拟人脑神经元的连接和信息处理方式。 向量:在大语言模型中,用于表示文本等数据的数学形式。 Scaling Law:关于大语言模型规模和性能之间关系的规律。
2025-02-18
我是一个ai小白,请给我推荐一个语言大模型的提示词优化工具
以下为您推荐两个语言大模型的提示词优化工具: 1. 星流一站式 AI 设计工具: 在 prompt 输入框中可输入提示词,使用图生图功能辅助创作。 支持自然语言和单个词组输入,中英文均可。 启用提示词优化后可扩展提示词,更生动描述画面内容。 小白用户可点击提示词上方官方预设词组进行生图。 写好提示词需内容准确,包含人物主体、风格、场景特点、环境光照、画面构图、画质等。 可调整负面提示词,利用“加权重”功能让 AI 明白重点内容,还有翻译、删除所有提示词、会员加速等辅助功能。 2. Prompt Perfect: 能够根据输入的 Prompt 进行优化,并给出优化前后的结果对比。 适合写论文、文章的小伙伴,但使用该能力需要消耗积分(可通过签到、购买获得)。 访问地址:
2025-02-17
大语言模型幻觉的本质是什么
大语言模型幻觉的本质主要包括以下方面: 1. 大语言模型的底层原理是基于数学概率的文字预测,类似于文字接龙,这导致其存在幻觉问题,会在没有答案的情况下提供虚假信息,提供过时或通用的信息,从可信度低非权威来源的资料中提供结果等。 2. 样本存在错误,即如果大语言模型学习的“教材”中有错误,那么它也容易给出错误的回答。 3. 大语言模型技术的本质导致其输出结果具有不可预测性,且静态的训练数据导致其掌握的知识存在截止日期,无法即时掌握最新信息。 4. 大语言模型通过训练数据猜测下一个输出结果,可能因错误数据导致给出错误答案,优质数据集对其很重要。
2025-02-16
扣子AI应用发布到微信小程序中失败
扣子 AI 应用发布到微信小程序中失败可能有以下原因及解决办法: 1. 容器编排不运行: 宝塔面板中设置加速镜像不生效需安,通过命令行手动设置。 新建/etc/docker/daemon.json 文件(如果已经存在可以不用创建)。 在 daemon.json 中添加相应代码。 重启 Docker 服务:systemctl restart docker。若仍无法解决,可继续排查。 2. 本地镜像的方法: 服务下载:服务的百度网盘地址:https://pan.baidu.com/s/1Ueyp6KnOmD18h6wICwJKNg?pwd=85jv 提取码:85jv ;服务的夸克网盘地址:https://pan.quark.cn/s/189b6f3e0d94 。需要把 chatgptonwechat.tar 和 coze2openai.tar 下载到本地。 上传服务:在宝塔操作面板中点击文件,选择上传下载到本地的文件。上传到根目录/www/backup 文件夹下面。 导入镜像:选择 Docker 中选择本地镜像,然后选择导入镜像。导入镜像要选择上传的目录,如根目录/www/backup 。 3. 修改参数不生效:需要删掉“容器编排”和“容器”中的内容,再重新生成一次。 4. 知识库不更新:确认扣子里有点击右上角的发布按钮。 5. 微信机器人无法正常画图,给的图片链接点进去有错误提示:查看/root/chatgptonwechat/run.log 中有相关提示。可能是点链接的时候多了一个小括号。 6. 扫码后,手机登陆后,没有任何机器人的反应:配置有错错误,或者安装不对,根据步骤去逐一检查。或者重装。 7. 机器人回答问题:COW 本身处理不了一次调取多个对话。有代码能力,可以直接调整代码实现。 8. 宝塔之后登录的时候登录不上去:按下图所示重启服务器之后就好了,重启时间可能会久,但一定会重启成功,请耐心等待。 此外,零基础模板化搭建 AI 微信聊天机器人的步骤如下: 1. 直接对接 Coze 平台 Bot 的微信聊天机器人搭建: Coze 相关配置: 创建 Coze API 令牌:进入到,点击左下角的扣子 API 选项,进入到 API 管理页面,点击 API 令牌,按照图示创建第一个 API 令牌,创建成功后保存好,因为这个 API 令牌只会在创建成功后显示一次。 记下 Coze AI Bot 的 Bot ID:去到要绑定的 AI Bot 的设计界面,在所在的链接里面记下 Bot ID,将 Bot 发布到 Bot as API 上。
2025-02-18
我是不懂编码的文科生,我学习扣子Coze的应用,难度大吗?大概需要多长时间?
对于不懂编码的文科生来说,学习扣子 Coze 的应用是具有一定挑战性的,但并非不可逾越。 根据相关资料,扣子 Coze 应用于 11 月底推出,其低代码或零代码的工作流等场景做得较好。在学习过程中,您需要熟悉操作界面、业务逻辑和用户界面,包括布局、搭建工作流、用户界面及调试发布,重点熟悉桌面网页版的用户界面。 课程安排方面,第一天会熟悉扣子应用、认识界面、搭建证件照简单应用,解决表单使用等卡点。 不过,社区中很多不懂代码的设计师和产品经理在搭建时也感到吃力。对于学习所需的时间,难以给出确切的时长,这取决于您的学习能力和投入程度。但如果您能认真参与课程学习,逐步掌握相关知识和技能,相信会在一段时间内取得一定的成果。
2025-02-18
prompt的应用
以下是关于 prompt 应用的全面介绍: 一、什么是 prompt 1. 提示是您给模型(如 Claude)的文本,用于引发相关输出。它通常以问题或指示的形式出现。例如:“为什么天空是蓝色的?” 2. 在 AI 视频生成中,prompt 是直接描述或引导视频生成的文本或指令。类似给 AI 的提示,包含主体、运动、风格等信息,用户借此控制和指导生成内容。它在 AI 视频生成中作用十分重要,是表达需求的方式,影响视频内容和质量。如果上述过于抽象,您可以理解 Prompt 为:将您输入的文字变成对应的画面和运动形式。 3. 简单来说,prompt 是一套您和大模型交互的语言模板。通过这个模板,您可以输出对于大模型响应的指令,用于指定大模型应该具体做什么、完成什么任务、如何处理具体的任务,并最终输出您期望的结果。大模型的本质是一个基于语言的概率模型,若直接问大模型而不提供 prompt,相当于大模型随机给出答案。有了 prompt,相当于给了一个模板,包括对于模型的要求、输入和输出的限制,大模型在这个限制之下,去得到概率最大的答案。 二、prompt 在不同场景的应用 在即梦 AI 视频生成中,要想获得最佳的视频质量,需要写好 prompt。在图片生视频和文本生视频中,都有 prompt 的输入位置。
2025-02-18
适合团队一起应用开发的AI
以下是一些适合团队一起应用开发的 AI 类型及示例场景: 1. 智能体应用(Assistant): 简介:基于上下文对话,自主决策并调用工具来完成复杂任务的对话式 AI 应用。通过简单配置可快速上手实现基本功能。 示例场景:客户服务(了解诉求、解决问题,如查询订单状态、处理退款等)、个人助理(管理日程安排、提醒事项、发送邮件等)、技术支持(了解技术问题,提供解决方案,排除故障)。 参考链接: 2. 工作流应用(Workflow): 简介:将复杂任务拆解为若干子任务,以提高工作流程可控性的流程式 AI 应用。用户可通过拖拽节点创建自定义任务流程。 示例场景:AI 翻译(实现初步翻译、内容审校、再次优化的翻译流程,提升翻译质量)。 参考链接: 3. 智能体编排应用: 简介:支持多智能体协作的流程式 AI 应用,能编排多个智能体的执行逻辑,使多个智能体自动规划和执行任务。 示例场景:综合调研报告(组建报告撰写团队,包括负责写作意图识别、大纲书写、总结摘要、智能绘图、事件研判、段落撰写、文笔润色等任务的智能体)、软件开发团队(组建智能体开发团队,包括负责需求分析、系统设计、编码实现、测试调试、文档编写等任务的智能体)。 参考链接: 此外,还有以下摊位展示的相关 AI 应用: 1. 简单高效地构建 AI+装修,AI+行业应用平台,并进行模型的训练和微调。 2. ai+家庭教育咨询与体验服务。 3. 摄影+AI 效果叠加。 4. ai 模型部署,使用,交流的一站式平台。 5. 自传语伴:帮助普通人轻松撰写自传,用户通过与 AI 聊天讲述人生故事,生成自传。 在 6 月 3 日的参赛 bot 试玩分享中,讨论了多个团队的相关产品,包括: 1. AI 秒学团队的儿童绘本故事生成:将新闻转化为绘本故事,结合李普村的 AI 会话和分镜,使用 ByteDance AI 画图。 2. Lux 珀尔团队的卡通头条:在海外版搜索新闻应用中,根据用户选择生成不同风格的图片。 3. 吴琪的 AI 工具:通过简单提问生成小朋友喜欢的图片。 4. 核心搭子团队的产品:帮助父母辟谣的 AI,可识别三种体裁,根据疑问生成对应回复并保存知识,有热情和冷淡回复两种模式。 5. 学以致用团队的产品:提供日本市场实时信息的工具。 6. 李小白聊天机器人:具备陪聊、诗句生成、新闻展示等功能。 7. 两款智能写作机器人:喵喵日报(从 100 条新闻中挑选 5 条科技咨询定时推送,可根据用户问题自动搜索和重新组稿)、芋头小宝(帮助用户列出文章框架、生成配图以及汇总新闻等)。
2025-02-18
生成式AI教育场景应用 项目式学习 中小学案例
以下是一些中小学在生成式 AI 教育场景应用中采用项目式学习的案例: 北京市新英才学校: 开设“AI 创作家”小学课后服务特色课程,12 个五、六年级的学生在老师的引导和帮助下,主导设计一款实用的桌游。 学生们提出解决学校面积大导致新生和访客迷路的问题,决定制作一款学校地图桌游。 课程中,学生有时听老师讲解人工智能知识和工具使用方法,有时自己写 prompt 与大语言模型对话,还使用文生图 AI 工具生成桌游卡牌背后的图案,手绘第一版学校地图,选择游戏机制并梳理游戏流程。 在教育领域,生成式 AI 带来了诸多改变: 解决了教育科技长期以来在有效性和规模之间的权衡问题,可大规模部署个性化学习计划,为每个用户提供“口袋里的老师”,如实时交流并给予发音或措辞反馈的语言老师。 出现了众多辅助学习的产品,如教授新概念、帮助学习者解决各学科问题、指导数学作业、提升写作水平、协助创建演示文稿等。
2025-02-18