Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

国内能通过对话微调的语言大模型

Answer

以下是国内一些能通过对话微调的语言大模型:

  • 教育领域:桃李(Taoli)
    • 地址:https://github.com/blcuicall/taoli
    • 简介:在国际中文教育领域数据上进行了额外训练的模型,基于国际中文教育教材等构建资源库和问答数据集,并利用数据进行指令微调,让模型习得将知识应用到具体场景中的能力。
  • 数学领域:chatglm-maths
    • 地址:https://github.com/yongzhuo/chatglm-maths
    • 简介:基于 chatglm-6b 微调/LORA/PPO/推理的数学题解题大模型,样本为自动生成的整数/小数加减乘除运算,可 gpu/cpu 部署,开源了训练数据集等。
  • 文化领域:Firefly
    • 地址:https://github.com/yangjianxin1/Firefly
    • 简介:中文对话式大语言模型,构造了许多与中华文化相关的数据,如对联、作诗、文言文翻译、散文、金庸小说等,以提升模型在这方面的表现。
  • 金融领域:
    • Cornucopia(聚宝盆)
      • 地址:https://github.com/jerry1993-tech/Cornucopia-LLaMA-Fin-Chinese
      • 简介:开源了经过中文金融知识指令精调/指令微调(Instruct-tuning)的 LLaMA-7B 模型。通过中文金融公开数据+爬取的金融数据构建指令数据集,并在此基础上对 LLaMA 进行了指令微调,提高了 LLaMA 在金融领域的问答效果。基于相同的数据,后期还会利用 GPT3.5 API 构建高质量的数据集,另在中文知识图谱-金融上进一步扩充高质量的指令数据集。
    • BBT-FinCUGE-Applications
    • XuanYuan(轩辕)
      • 地址:https://github.com/Duxiaoman-DI/XuanYuan
      • 简介:国内首个开源的千亿级中文对话大模型,同时也是首个针对中文金融领域优化的千亿级开源对话大模型。在 BLOOM-176B 的基础上针对中文通用领域和金融领域进行了针对性的预训练与微调,不仅可以应对通用领域的问题,也可以解答金融相关的各类问题,为用户提供准确、全面的金融信息和建议。
Content generated by AI large model, please carefully verify (powered by aily)

References

02-基础通识课

[title]02-基础通识课[heading1]智能纪要[heading2]总结大语言模型的介绍与原理国内大模型的分类:国内大模型有通用模型如文心一言、讯飞星火等,处理自然语言;还有垂直模型,专注特定领域如小语种交流、临床医学、AI蛋白质结构预测等。大模型的体验:以‘为什么我爸妈结婚的时候没有邀请我参加婚礼’和‘今天我坐在凳子上’为例,体验了Kimi、通义千问、豆包等大模型的回答和续写能力,发现回复有差异,且大模型基于统计模型预测生成内容。大语言模型的工作原理:大语言模型工作原理包括训练数据、算力、模型参数,在训练数据一致情况下,模型参数越大能力越强,参数用b链形容大小。Transformer架构:Transformer是大语言模型训练架构,17年出现用于翻译,具备自我注意力机制能理解上下文和文本关联,其工作原理是单词预测,通过嵌入、位置编码、自注意力机制生成内容,模型调教中有控制输出的temperature。关于大语言模型的原理、应用及相关概念Transformer模型原理:通过不断检索和匹配来寻找依赖关系,处理词和词之间的位置组合,预测下一个词的概率,是一个偏向概率预测的统计模型。大模型幻觉:大模型通过训练数据猜测下一个输出结果,可能因错误数据导致给出错误答案,优质数据集对其很重要。Prompt的分类和法则:分为system prompt、user prompt和assistant prompt,写好prompt的法则包括清晰说明、指定角色、使用分隔符、提供样本等,核心是与模型好好沟通。Fine tuning微调:基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。RAG概念:未对RAG的具体内容进行详细阐述,仅提出了这个概念。

LLM开源中文大语言模型及数据集集合

桃李(Taoli):地址:[https://github.com/blcuicall/taoli](https://github.com/blcuicall/taoli)简介:一个在国际中文教育领域数据上进行了额外训练的模型。项目基于目前国际中文教育领域流通的500余册国际中文教育教材与教辅书、汉语水平考试试题以及汉语学习者词典等,构建了国际中文教育资源库,构造了共计88000条的高质量国际中文教育问答数据集,并利用收集到的数据对模型进行指令微调,让模型习得将知识应用到具体场景中的能力。[heading5][heading5]数学[content]chatglm-maths:地址:[https://github.com/yongzhuo/chatglm-maths](https://github.com/yongzhuo/chatglm-maths)简介:基于chatglm-6b微调/LORA/PPO/推理的数学题解题大模型,样本为自动生成的整数/小数加减乘除运算,可gpu/cpu部署,开源了训练数据集等。[heading5][heading5]文化[content]Firefly:地址:[https://github.com/yangjianxin1/Firefly](https://github.com/yangjianxin1/Firefly)简介:中文对话式大语言模型,构造了许多与中华文化相关的数据,以提升模型这方面的表现,如对联、作诗、文言文翻译、散文、金庸小说等。

LLM开源中文大语言模型及数据集集合

Cornucopia(聚宝盆):基于中文金融知识的LLaMA微调模型地址:[https://github.com/jerry1993-tech/Cornucopia-LLaMA-Fin-Chinese](https://github.com/jerry1993-tech/Cornucopia-LLaMA-Fin-Chinese)简介:开源了经过中文金融知识指令精调/指令微调(Instruct-tuning)的LLaMA-7B模型。通过中文金融公开数据+爬取的金融数据构建指令数据集,并在此基础上对LLaMA进行了指令微调,提高了LLaMA在金融领域的问答效果。基于相同的数据,后期还会利用GPT3.5 API构建高质量的数据集,另在中文知识图谱-金融上进一步扩充高质量的指令数据集。BBT-FinCUGE-Applications地址:[https://github.com/ssymmetry/BBT-FinCUGE-Applications](https://github.com/ssymmetry/BBT-FinCUGE-Applications)简介:开源了中文金融领域开源语料库BBT-FinCorpus,中文金融领域知识增强型预训练语言模型BBT-FinT5及中文金融领域自然语言处理评测基准CFLEB。XuanYuan(轩辕):首个千亿级中文金融对话模型地址:[https://github.com/Duxiaoman-DI/XuanYuan](https://github.com/Duxiaoman-DI/XuanYuan)简介:轩辕是国内首个开源的千亿级中文对话大模型,同时也是首个针对中文金融领域优化的千亿级开源对话大模型。轩辕在BLOOM-176B的基础上针对中文通用领域和金融领域进行了针对性的预训练与微调,它不仅可以应对通用领域的问题,也可以解答与金融相关的各类问题,为用户提供准确、全面的金融信息和建议。

Others are asking
Deepseek微调
DeepSeek 微调相关信息如下: DeepSeek 有更聪明的 R1zero 实验版本,它采用完全从零开始的强化学习,无需人类监督训练,学会了用更多思考步骤解决推理任务和反思推理步骤,但存在输出内容可读性差、语言混合、风险不可控等问题,所以常见的是经过冷启动与微调的 R1 版本,以确保生成内容稳定、安全、道德、无害。 在模型蒸馏微调方面,会带着大家复现模型的蒸馏和微调,并讲解相关知识。用 Deepseek RE Zero 蒸馏出带思考的数据,基于 Deepseek V3 微调,进行冷启动,再做强化学习,还从非公布模型提取微调数据,加上人类偏好,最终形成 R1。R1 是原生通过强化学习训练出的模型,蒸馏模型是基于数据微调出来的,基础模型能力强,蒸馏微调模型能力也会强。Deepseek R1 反过来蒸馏数据微调 V3,形成互相帮助的局面,使两个模型都更强。 DeepSeek 在 2024 年 4 月推出的 DeepSeekMath 模型中首次采用了 GRPO(Group Relative Policy Optimization)算法,之后的 V3 和 R1 也应用了该算法提升模型的推理能力。
2025-03-06
我想完全本地化部署deepseek,然后,将我的文档,文本,图片等内容丢给它训练,微调。我要完全本地化,因为我的文档设计隐私。我要免费开源流程。如何实现,
要完全本地化部署 DeepSeek 并使用您的文档、文本、图片等内容进行训练和微调,以下是一些相关的信息和步骤: 1. 模型训练与平台服务: 模型复现与微调:1:1 复现通常没问题,但理解细节并自行制作需要基础知识。有手把手教程、数据集等可帮助 1:1 复现,微调在特定领域可降低幻觉,参数量不变但权重变化。 训练模型的学习方法:先会用再学会训,从训的过程中倒推学习参数调整,这是以用导学的学习方法。 模型回答效果对比:微调后的模型在回答排列组合等问题时,思考前几乎无反馈,答案多为英文且格式稳定,但仍可能答错。 2. 平台服务介绍: 阿里云提供多种解决方案。 百炼是提供多种模型服务的 Maas 平台。 派平台是提供云服务的 PaaS 平台,二者在定位、服务内容和核心差异上有所不同。 3. 关于模型训练与数据集相关问题: 数据资源情况:默认提供公共数据训练集,百派平台能匹配模型和数据,通义开源了不少数据集。 多模态训练:多模态有自身标注方式,如视频拉框标注。 参数量变化:通常训练模型参数量固定,若想改变需改模型层,但可能要从头调。 本地微调框架:可使用 llama factory 等框架,需搭建并部署。 开源数据下载:可在 GitHub、hugging face、Mo Model Scope 等平台获取。 数据集转化:将文档资料转成数据集可先手动形成 SOP,再逐步自动化,初期需大量人力。 4. 本地部署介绍:讲解了如果拥有云服务器如何进行本地部署,以及满血版本地部署的实际情况。 5. 免费额度说明:在 freely.aliyun.com 可领取 500 元免费额度,但有使用限制,不能部署满血版和较大的增流模型。 6. 平台服务差异:介绍了 DLC、DSW 和 EAS 等模型部署平台服务的差别。 7. 模型蒸馏微调:会带着大家复现模型的蒸馏和微调,并讲解相关知识。 R1 模型的强化学习:通过强化学习,在训练过程中给予模型反馈,如路线规划是否成功到达终点、输出格式是否符合期望等,对正确路线增强权重,使做对的概率变高,导致思考逻辑变长。 R1 模型的蒸馏与微调:用 Deepseek RE Zero 蒸馏出带思考的数据,基于 Deepseek V3 微调,进行冷启动,再做强化学习,还从非公布模型提取微调数据,加上人类偏好,最终形成 R1。 R1 与其他模型的差别:R1 是原生通过强化学习训练出的模型,蒸馏模型是基于数据微调出来的,基础模型能力强,蒸馏微调模型能力也会强。 模型的相互帮助:Deepseek R1 反过来蒸馏数据微调 V3,形成互相帮助的局面,使两个模型都更强。 请注意,在进行本地化部署和训练微调时,需要具备一定的技术知识和经验,并且要遵循相关的法律法规和道德规范。
2025-03-04
哪里可以找到了解AI模型微调和RAG知识库的外包开发团队?
以下是一些可能找到了解 AI 模型微调和 RAG 知识库的外包开发团队的途径: 1. 相关技术社区和论坛:例如一些专注于 AI 开发的社区,开发者可能会在其中分享经验和提供服务。 2. 专业的自由职业者平台:如 Upwork、Freelancer 等,您可以在这些平台上发布需求,寻找合适的团队或个人。 3. 参考行业报告和研究:部分报告中可能会提及相关的优秀开发团队或公司。 4. 联系 AI 领域的知名机构或公司:他们可能会推荐或提供相关的外包服务。 5. 社交媒体和专业群组:在如 LinkedIn 等社交媒体上的 AI 相关群组中发布需求,可能会得到相关团队的回应。 另外,从提供的资料中,以下信息可能对您有所帮助: 红杉的相关分析提到,迁移学习技术如 RLHF 和微调正变得更加可用,开发者可以从 Hugging Face 下载开源模型并微调以实现优质性能,检索增强生成(RAG)正在引入关于业务或用户的上下文,像 Pinecone 这样的公司的向量数据库已成为 RAG 的基础设施支柱。彬子的经历中,有出海垂直领域 Agent 平台的项目经理咨询 RAG 策略优化。2024 人工智能报告中提到对增强生成检索(RAG)的兴趣增长促使了嵌入模型质量的提高,传统 RAG 解决方案中的问题得到解决。
2025-03-04
如何微调deepseek
微调 DeepSeek 可以通过以下步骤和方法: 1. 应用 KL 散度约束更新策略来调整策略的概率分布。例如,已知 ABC 策略初始概率分布为,根据相对优势调整后的权重可以通过指数函数来转换,以确保权重为正数且总和为 1。计算未归一化的权重,如 A: e^1≈2.178,B:e^0=1,C: e^1≈0.368,然后归一化权重,总和=2.718+1+0.368=4.086,新权重分别为 A: 2.718/4.086≈0.665,B: 1/4.086≈0.245,C: 0.368/4.086≈0.09。通过这样的步骤,策略 A 的总体优势最高,其权重增加,策略 B 表现中等,权重基本保持不变,策略 C 表现较差,权重减少。在不同场景(不同组)的计算中,每个策略的权重会相应调整以获得更高的分数。在文本生成阶段,可以用来评估和调整不同生成策略(比如贪婪搜索,随机采样,束搜索)的有效性,从而提高生成文本(尤其是复杂文本)的连贯性和多样性。 2. 模型蒸馏微调方面,用 Deepseek RE Zero 蒸馏出带思考的数据,基于 Deepseek V3 微调,进行冷启动,再做强化学习,还从非公布模型提取微调数据,加上人类偏好,最终形成 R1。同时,Deepseek R1 反过来蒸馏数据微调 V3,形成互相帮助的局面,使两个模型都更强。 3. 在训练过程中给予模型反馈,如路线规划是否成功到达终点、输出格式是否符合期望等,对正确路线增强权重,使做对的概率变高,导致思考逻辑变长。 4. 关于部署方面,讲解了如果拥有云服务器如何进行本地部署,以及满血版本地部署的实际情况。在 freely.aliyun.com 可领取 500 元免费额度,但有使用限制,不能部署满血版和较大的增流模型。同时介绍了 DLC、DSW 和 EAS 等模型部署平台服务的差别。 更加完善的训练说明,可直接阅读官方论文:DeepSeekAI《DeepSeekR1:Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》https://arxiv.org/html/2501.12948
2025-03-02
蒸馏和微调分别是什么意思,他们有关联吗
蒸馏和微调是在人工智能领域中常见的概念,它们有一定的区别和联系。 蒸馏是一种模型压缩技术,通过将复杂的大模型的知识和能力“提炼”到较小的模型中,以减少模型的参数和计算量,同时保持一定的性能。 微调则是在已有的预训练模型基础上,使用特定任务的数据对模型进行进一步的训练,以使其在特定任务上表现得更好。 它们的关联在于:都是为了优化模型在特定场景下的性能。不同之处在于,蒸馏侧重于模型压缩,而微调侧重于针对特定任务的适应性训练。 提示词和微调都是提高模型表现的方法,但方式不同。提示词是在使用模型时直接提供特定的指令或上下文,引导模型生成合适的回答,灵活方便,无需重新训练模型。微调则需要对模型进行额外训练,使用特定任务的数据调整模型参数,使其在该任务上表现更佳,但需要时间和计算资源。 微调具有一些优点,如能提高特定任务的性能和效率,适用于强调现有知识、自定义结构或语气、教授复杂指令等,但不适用于添加新知识和快速迭代。成功案例如 Canva 通过微调显著提高了性能。最佳实践包括从提示工程和小样本学习开始、建立基线、从小处着手并注重质量,还可以将微调和 RAG 相结合以获得最佳性能。
2025-02-26
微调
微调(Finetuning)是一种迁移学习技术,常用于深度学习中。其基本思路是先有一个在大量数据上预训练过的模型,该模型已学会一些基本模式和结构,然后在特定任务数据上继续训练,使其适应新任务。 例如在情感分类中,可先使用大量语料库预训练模型,再用标注过的电影评论继续训练以判断情感;在图像分类中,先使用大量图片预训练模型,再用标注过的猫和狗的图片继续训练以区分二者。 微调的超参数选择很重要,默认超参数适用于一系列用例,唯一需要的参数是训练文件。调整超参数通常能产生更高质量输出的模型,可能需要配置的内容包括: 模型:可选择“ada”“babbage”“curie”或“davinci”之一。 n_epochs:默认为 4,指训练模型的时期数。 batch_size:默认为训练集中示例数量的 0.2%,上限为 256。 learning_rate_multiplier:默认为 0.05、0.1 或 0.2,取决于 final batch_size。 compute_classification_metrics:默认为假,若为真,在每个 epoch 结束时在验证集上计算特定于分类的指标。 微调能为应用程序定制模型带来更多收益,如比即时设计更高质量的结果、能训练更多例子、节省 Token、降低延迟请求。微调通过训练更多示例改进小样本学习,在大量任务中取得更好结果。微调涉及准备和上传训练数据、训练新的微调模型、使用微调模型等步骤。 目前微调仅适用于 davinci、curie、babbage 和 ada 等基础模型,还可继续微调微调模型以添加其他数据。建议使用 OpenAI 命令行界面,安装时需注意相关要求。
2025-02-26
有哪些资源可以通过excel表格或者对话生成思维导图
以下是关于通过 Excel 表格或对话生成思维导图的资源介绍: 过去,ChatGPT 无法直接生成思维导图,面对复杂代码或长篇文章,需利用 AI 提炼后再用思维导图软件转换,较为繁琐。 如今有了 GPTs,可通过 Actions 调取第三方平台(如 Gapier)提供的 API 直接获取内容对应的思维导图。 具体案例包括: 1. 在 Action 中引入 Gapier 生成代码的思维导图。 2. 在 Action 中引入 Gapier 和 Webpilot 生成在线文档的思维导图。
2025-03-06
产品经理想进入AI行业,成为AI产品经理,应该怎么准备,能够快速应付面试拿到offer?我的背景是过去3年集中在用户功能产品,有过1份AI多轮对话解决用户求职问题的AI项目经历
如果产品经理想进入 AI 行业成为 AI 产品经理并快速应付面试拿到 offer,可以从以下几个方面准备: 1. 了解 AI 市场: 鱼龙混杂,求职者要做好信息甄别。即使面试通过拿到 offer,除了看 boss 直聘的招聘评价,一定要提前收集其他信息,如在脉脉上搜一下这家公司靠不靠谱。 一些公司实际上没搞懂用 AI 能为自己企业带来什么价值,只是处于焦虑或跟风心态要做 AI,这部分企业可以聊,但要求求职者要有咨询和商业化的思维,能帮公司厘清业务增长机会。 不同公司对 AI 产品经理的定位不同,所以招聘市场上对 AI 产品经理的岗位职责和任职要求也不同,慢慢会统一标准,这也是产品经理转型的机会。 有行业沉淀和认知的产品经理转型会更有机会,类似之前的“互联网+”,目前应用层的机会在“AI+行业”,只懂 AI 或只懂行业是不够的。还有就是业务创新,找到细分的场景痛点并完成 PMF 验证,海外有很多优秀案例。 2. 掌握岗位技能: 本科及以上学历,计算机科学、人工智能、机器学习相关专业背景。 熟悉 ChatGPT、Llama、Claude 等 AI 工具的使用及原理,并具有实际应用经验。 熟练掌握 ChatGPT、Midjourney 等 AI 工具的使用及原理。 负责制定和执行 AI 项目,如 Prompt 设计平台化方法和模板化方法。 了解并熟悉 Prompt Engineering,包括常见的 Prompt 优化策略(例如 CoT、Fewshot 等)。 对数据驱动的决策有深入的理解,能够基于数据分析做出决策。 具有创新思维,能够基于业务需求提出并实践 AI first 的解决方案。 对 AI 技术与算法领域抱有强烈的好奇心,并能付诸实践。 对 AIGC 领域有深入的理解与实际工作经验,保持对 AI 技术前沿的关注。 具备一定的编程和算法研究能力,能应用新的 AI 技术和算法于对话模型生成。 具有一定的编程基础,熟练使用 Python、Git 等工具。 需要注意的是,观察上面的岗位需求,其实公司并不是需要一个 prompt 工程师,而是一个 AI 互联网产品经理。
2025-02-25
对话ai平台有哪些,各有什么特色
以下是一些常见的对话 AI 平台及其特色: 1. Replika:是最早和最著名的全栈伴侣应用程序之一,于 2017 年推出。用户可以设计理想的伴侣,关系会随时间发展,其代表能存储记忆用于未来对话,甚至发送照片。Replika 的 Subreddit 展示了其热情的用户群,用户会分享各种与代表的互动。但今年早些时候该应用程序移除了“情色角色扮演”功能,引起用户不满。 2. Character AI:基于角色的平台,可与数百个由 AI 驱动的角色对话,包括名人和受欢迎的动漫角色,还能创建自己的角色并赋予各种属性和功能,用户可训练角色、评价回答并生成新回答。 3. Chai:专门用于与机器人聊天的应用程序。 4. Janitor AI:专门用于与机器人聊天的应用程序。 5. Chub AI:专门用于与机器人聊天的应用程序。 6. Charstar:专门用于与机器人聊天的应用程序。 7. SpicyChat:专门用于与机器人聊天的应用程序。 8. Character.ai:行业扛把子,创建角色功能简洁,支持上传声音片段实现语言克隆。用户通过一问一答的多轮对话方式与角色交互,支持回复重新生成、回滚至指定位置。 9. 筑梦岛:背靠阅文,内容 IP 资源相对丰富。具有单人聊天和多人聊天模式,多人聊天为伪群聊。角色设定是核心人设属性,有梦境、小剧场等功能,创建角色需要提供各类信息。
2025-02-23
COZE对话流
以下是关于 Coze 的相关内容: 多 Agent 模式的实现机制: 图 12 中,用户输入“完成”触发执行流程,跳转到【AI 玩家发言】,调用该 Agent 的对话模型,获取所有 AI 玩家的发言。此节点跳转判断时机是“模型回复后”,在执行完工作流之后触发第三次 LLM 调用。 第三次 LLM 调用输入给跳转模型的提示词,由于对话记录变长,需用 GPT4o 这样的强力模型。模型输出“1”,选择【人类玩家投票】节点,然后调用【人类玩家投票】的对话模型,即第四次 LLM 调用。第四次调用的对话模型回复消息引导人类玩家进行投票。 用 Coze 搓乞丐版的秘塔搜索: 工作流是核心,需先梳理清楚。秘塔搜索的主要能力包括使用搜索引擎进行搜索、对搜索内容整理成答案、给出答案中的引用。 Coze 海外版多 discord 账号配置方法: 1. 在 discord 中已配置好的 cozebot 服务器上右键选“邀请其他人”,复制邀请链接备用。 2. 注册新谷歌账号或使用多余的谷歌账号。 3. 用新谷歌账号在未登录过 discord 的浏览器或谷歌无痕浏览器中注册新 discord 账号。 4. 复制邀请链接到新浏览器中,将新账号拉入 cozebot 服务器,如需多个账号则重复以上步骤,注意不要解除前边账号的登陆状态。 5. 按 F12,新账号在对话框中发言,复制新账号的“USER_AUTHORIZATION”值,多个账号依次操作。 6. 在宝塔的/data/cozediscordproxy/dockercompose.yml 文档中,粘贴多个“USER_AUTHORIZATION”值,以逗号分开,然后 dockercompose up d 重启 cdp。 7. 重新扫码后 coze 对话轮次增多。 8. 验证成功的方法:手机下载 discord 登录后打开通知,每条消息发送账号不同则成功;每轮对话会在 discord 以临时聊天框形式存在,也能看到不同账号参与。 Q&A:要保证之前账号的登陆状态,因为账号登出后“USER_AUTHORIZATION”值会变,需重新取用,很多人发现突然登不上去就是因为登出后值变化了。
2025-02-23
如何把视频的内容,包括对话的文字提取并总结成文字?
要把视频的内容包括对话文字提取并总结成文字,可以按照以下步骤进行: 1. 对于有字幕的 B 站视频,如果视频栏下面有字幕按钮,说明视频作者已上传字幕或后台适配了 AI 字幕。 2. 安装油猴脚本: 。 3. 安装之后刷新浏览器,点击字幕会出现“下载”按钮。 4. 点击下载按钮,选择多种字幕格式,如带时间或不带时间的。 5. 将下载的字幕文字内容全选复制发送给 GPTs 进行总结。 此外,还有一个集成的视频理解系统 MMVid,它由 Microsoft Azure AI 开发,结合了 GPT4V 的能力和其他视觉、音频和语音处理工具,能处理和理解长视频和复杂任务,能够自动识别和解释视频中的元素,如人物行为、情感表达、场景变化和对话内容,从而实现对视频故事线的理解,其核心功能是将视频中的多模态信息转录成详细的文本脚本,方便大语言模型理解视频内容。
2025-02-20
怎么让AI识别对话,并生成结构化数据存储到我的软件系统里
要让 AI 识别对话并生成结构化数据存储到软件系统里,可以参考以下方法: 1. 基于结构化数据来 RAG:如果原始数据本身就是结构化、标签化的,不必将这部分数据做向量化。结构化数据的特点是特征和属性明确,可用有限标签集描述,能用标准查询语言检索。以餐饮生活助手为例,流程包括用户提问、LLM 提取核心信息并形成标准查询、查询结构化数据、LLM 整合回复。 2. 利用 Coze 平台设计 AI 机器人:创建好 Bot 后,从“个人空间”入口找到机器人,进行“编排”设计。Coze 平台常用的概念和功能包括提示词(设定 Bot 身份和目标)、插件(通过 API 连接集成服务)、工作流(设计多步骤任务)、触发器(创建定时任务)、记忆库(保留对话细节,支持外部知识库)、变量(保存用户个人信息)、数据库(存储和管理结构化数据)、长期记忆(总结聊天对话内容)。设计 Bot 时要先确定目的,比如“AI 前线”Bot 的目的是作为 AI 学习助手,帮助职场专业人士提升在人工智能领域的知识和技能,并提供高效站内信息检索服务。 注:Coze 官方使用指南见链接:https://www.coze.cn/docs/guides/welcome ,遇到疑问也可查阅该指南。
2025-02-18
Manus的基础大模型是什么?
Manus 是一款由中国团队研发的全球首款通用型 AI 代理工具,于 2025 年 3 月 5 日正式发布。它区别于传统聊天机器人(如 ChatGPT),具备自主规划、执行复杂任务并直接交付完整成果的能力,被称为“首个真干活的 AI”。 Manus AI 代理工具的具体技术架构主要基于多智能体(Multiple Agent)架构,运行在独立的虚拟机中。这种架构通过规划、执行和验证三个子模块的分工协作,实现了对复杂任务的高效处理。具体来说,Manus AI 的核心功能由多个独立模型共同完成,这些模型分别专注于不同的任务或领域,如自然语言处理、数据分析、推理等。这种多模型驱动的设计不仅提高了系统的鲁棒性和准确性,还增强了其处理复杂任务的能力。 Manus AI 的技术架构还包括以下几个关键组件: 1. 虚拟机:Manus AI 运行在云端虚拟机中,用户可以随时查看任务进度,适合处理耗时任务。 2. 计算资源:Manus AI 利用计算资源生成算法,用于筛选简历等具体任务。 3. 生成物:Manus AI 能够生成各种类型的输出,如文本、表格、报告等。 4. 内置多个 agents:Manus AI 通过内置多个智能体,实现了任务的分解和协同工作。 此外,Manus AI 还采用了“少结构,多智能体”的设计哲学,强调在数据质量高、模型强大、架构灵活的情况下,自然涌现 AI 的能力。这种设计使得 Manus AI 在处理复杂任务时更加高效和准确。Manus AI 的技术架构通过多智能体协同工作、虚拟机运行和生成物输出等机制,实现了对复杂任务的高效处理和高质量输出。
2025-03-06
最新AI大模型
以下是关于最新 AI 大模型的相关知识: 1. 概念:生成式 AI 生成的内容称为 AIGC。 2. 概念与关系: AI 即人工智能。 机器学习是电脑找规律学习,包括监督学习、无监督学习、强化学习。 监督学习是利用有标签的训练数据,学习输入和输出之间的映射关系,包括分类和回归。 无监督学习是在学习的数据没有标签的情况下,算法自主发现规律,经典任务如聚类。 强化学习是从反馈中学习,以最大化奖励或最小化损失,类似训小狗。 深度学习是一种参照人脑有神经网络和神经元(因层数多而称为深度)的方法,神经网络可用于监督学习、无监督学习、强化学习。 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 LLM 是大语言模型,对于生成式 AI,生成图像的扩散模型不是大语言模型;对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。 3. 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制(SelfAttention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN)。
2025-03-06
我是经济学研究者,经常写作学术论文,投稿SSCI期刊,大模型幻觉太严重,在辅助文献综述写作方面,基本没有用处。你有好的用于文献综述写作的AI辅助工具吗?
以下是一些可能有助于您在文献综述写作中应对大模型幻觉问题的方法和工具: 1. 对于 ChatGPT ,您可以使用 temporary chat 功能,保证其在没有任何记忆的情况下生成最新鲜的回答。 2. 当发现模型回答不理想时,可以采取以下技巧: 告诉模型忘掉之前的所有内容,重新提问或新建会话窗口。 让模型退一步,重新审视整个结构,从零开始设计。 对于像 Claude 这种会自己猜测的模型,如果不确定,可以给它看日志,让其依据日志判断问题所在。 3. 您可以参考 Hallucination Leaderboard (大语言模型幻觉排行榜),了解不同模型的幻觉情况,该排行榜使用 Vectara 的 Hughes 幻觉评估模型计算各大模型在总结文档时引入幻觉的频率,用于评估 LLM 的事实一致性,并为 RAG 系统提供参考。完整榜单可通过查看。 4. Claude APP 即将添加网页搜索和推理功能,这或许意味着新模型即将发布,预计发布时间在一两周内。
2025-03-06
你用的大模型是?
我所使用的大模型相关信息未明确告知。但为您介绍一下大模型的相关知识: 大模型指的是用于表达 token 之间关系的参数多,主要是指模型中的权重(weight)与偏置(bias),例如 GPT3 拥有 1750 亿参数,其中权重数量达到了这一量级,而词汇表 token 数只有 5 万左右。以 Transform 为代表的大模型采用自注意力(Selfattention)机制来学习不同 token 之间的依赖关系,生成高质量 embedding。 通俗来讲,大模型就是输入大量语料,来让计算机获得类似人类的“思考”能力,使之能够理解自然语言,能够进行“文本生成”“推理问答”“对话”“文档摘要”等工作。 大模型的训练和使用过程可以类比为“上学参加工作”: 1. 找学校:训练 LLM 需要大量的计算,因此 GPU 更合适,只有购买得起大量 GPU 的才有资本训练自己的大模型。 2. 确定教材:大模型顾名思义就是大,需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:即用什么样的算法讲述“书本”中的内容,让大模型能够更好理解 Token 之间的关系。 4. 就业指导:学完书本中的知识后,为了让大模型能够更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,下面就要正式干活了,比如进行一次翻译、问答等,在大模型里称之为推导(infer)。 在 LLM 中,Token 被视为模型处理和生成的文本单位。它们可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。Token 是原始文本数据与 LLM 可以使用的数字表示之间的桥梁。在将输入进行分词时,会对其进行数字化,形成一个词汇表。比如:The cat sat on the mat,会被分割成“The”“cat”“sat”等的同时,会生成相应的词汇表。
2025-03-06
yolov 和resnet咋做成大模型?
要将 YOLOv 和 ResNet 做成大模型,需要考虑以下几个方面: 1. 数据准备:收集大量的相关数据,并进行清洗、预处理和标注,以满足模型训练的需求。 2. 模型架构调整:根据具体任务和数据特点,对 YOLOv 和 ResNet 的架构进行适当的修改和优化,例如增加层数、调整通道数等。 3. 训练策略:选择合适的优化算法、学习率调整策略等,以提高训练效果和收敛速度。 4. 计算资源:大模型的训练需要强大的计算资源,包括硬件设施和云计算平台等。 此外,从相关的研究和趋势来看,大模型架构呈现出日益明显的混合趋势,多种有代表性的技术路径在不同程度保留 Transformer 架构优势的基础上,结合 RNN、CNN 等思想做出创新发展。例如类循环神经网络模型(以 RWKV 为代表)、状态空间模型(以 Mamba 为代表)、层次化卷积模型(以 UniRepLKNet 为代表)、多尺度保持机制模型(以 RetNet 为代表)、液体神经网络模型(以 LFM 为代表)等。但需要注意的是,将 YOLOv 和 ResNet 做成大模型是一个复杂的过程,需要深入的研究和实践。
2025-03-06
大模型调优
大模型调优的方法主要包括以下几个方面: 1. 更换大模型:例如从 ChatGLM26B 替换成 baichuan213b,针对特定场景,后者性能可能提升一倍左右。 2. 更换 embedding 模型:将默认的 embedding 模型如 LangChain Chatchat 的 m3ebase 替换为 bgelargezh,后者可能更优。 3. 测试不同 Top k 的值:比较 Top 5、Top 10、Top 15 的结果,发现 Top 10 时效果最优。 4. 对文档名称进行处理:人工对文件重命名,上传相同文件构建知识库,同时在构建时勾选【开启中文标题加强】选项,重命名文件对结果提升不明显,但勾选该选项后回答的无关信息减少,效果有所提升。 从产品视角考虑大模型调优,主要从以下两个维度分析问题: 1. Context optimization(上下文优化):所创建的 LLM 应用若需要特定数据、系统和流程等预训练 LLM 中缺失的知识和信息,需进行上下文优化,如企业内部智能问答机器人,应将相关知识提供给大模型,RAG 是解决该问题的技术。 2. LLM optimization(大模型优化):在进行足够的 prompt 工程后,若 LLM 应用在垂直领域表现仍不足或希望输出特定格式风格等稳定性不及预期,可考虑微调,且需与良好的 prompt 工程结合。 大模型的安全保障可通过对齐,也叫指令调优实现,包括监督微调、获取 reward model 与进行强化学习调整输出分布。但即使如 GPT4 和 Claude 等模型已几乎不回复危险问题,Alignment 仍不足以防护所有安全问题,存在越狱现象。LLAMA2 专门使用安全有监督微调确保语言模型安全。强化学习能让模型根据人类反馈调整分布,面对训练分布外数据也可能学会拒绝不当回答。
2025-03-06
有什么语言学习类的工具
以下是一些语言学习类的工具: 1. 语言学习平台: FluentU:使用真实世界的视频,通过 AI 生成个性化的词汇和听力练习。选择学习语言,观看视频并完成相关练习,积累词汇和提升听力理解能力。 Memrise:结合 AI 技术,根据学习者的记忆曲线提供复习和练习,增强记忆效果。选择学习语言,使用应用提供的词汇卡和练习进行学习。 2. 发音和语法检查: Speechling:提供口语练习和发音反馈,帮助学习者改进口音和发音准确性。录制语音,提交给 AI 系统或人类教练,获取反馈和改进建议。 Grammarly:可以帮助提高写作的语法和词汇准确性,支持多种语言。将写作内容粘贴到 Grammarly 编辑器中,获取语法和词汇改进建议。 3. 实时翻译和词典工具: Google Translate:提供实时翻译、语音输入和图像翻译功能,适合快速查找和学习新词汇。输入或语音输入需要翻译的内容,查看翻译结果和示例句子。 Reverso Context:提供单词和短语的翻译及上下文例句,帮助理解和学习用法。输入单词或短语,查看翻译和例句,学习实际使用场景。 4. 语言学习应用: Duolingo:使用 AI 来个性化学习体验,根据进度和错误调整练习内容。通过游戏化的方式提供词汇、语法、听力和口语练习。下载应用,选择要学习的语言,并按照课程指引进行学习。 Babbel:结合 AI 技术,提供个性化的课程和练习,重点在于实际交流所需的语言技能。注册账户,选择语言课程,按照学习计划进行学习。 Rosetta Stone:使用动态沉浸法,通过 AI 分析学习进度,提供适合的练习和反馈。注册并选择学习语言,使用多种练习模式(听力、口语、阅读和写作)进行学习。 5. AI 对话助手: ChatGPT:可以用来模拟对话练习,帮助提高语言交流能力。在聊天界面选择目标语言,与 AI 进行对话练习。可以询问语法、词汇等问题,甚至模拟实际交流场景。 Google Assistant:支持多种语言,可以用来进行日常对话练习和词汇学习。设置目标语言,通过语音命令或文本输入与助手进行互动,练习日常用语。 对于 4 岁儿童练习英语口语的 AI 工具,有以下选择: LingoDeer:使用游戏和互动活动来教孩子英语,提供各种课程,涵盖从字母和数字到更高级的语法和词汇。具有家长仪表板,可跟踪孩子进度并设置学习目标。 Busuu:提供英语和其他多种语言的课程,使用各种教学方法,包括音频课程、视频课程和互动练习。具有社区功能,可让孩子与来自世界各地的其他孩子练习英语口语。 Memrise:使用抽认卡和游戏来教孩子英语,提供各种课程,涵盖从基本词汇到更高级的会话技巧。具有社交功能,可让孩子与朋友和家人一起学习。 Rosetta Stone:使用沉浸式方法来教孩子英语,让孩子在自然环境中使用英语,具有语音识别功能,帮助孩子练习发音。 Duolingo:免费的语言学习应用程序,提供英语和其他多种语言的课程,使用游戏化方法让学习变得有趣,提供各种课程帮助孩子保持参与度。 在为孩子选择 AI 工具时,要考虑他们的年龄、兴趣和学习风格,还需考虑应用程序的功能和成本。
2025-03-06
c语言指针怎么学
学习 C 语言指针可以按照以下步骤进行: 1. 理解指针的概念:指针是一个变量,它存储的是另一个变量的内存地址。 2. 掌握指针的声明和初始化:例如 `int ptr;` 声明一个指向整数的指针,`ptr = &var;` 进行初始化,其中 `&var` 是变量 `var` 的地址。 3. 了解指针的运算:包括指针的加减运算、比较运算等,但要注意运算的合法性和意义。 4. 学会通过指针访问和修改值:使用 `ptr` 来访问指针所指向的变量的值,并可以通过 `ptr = value;` 来修改其值。 5. 结合数组和指针:理解数组名实际上是一个指针常量,以及如何使用指针遍历数组。 6. 研究指针与函数的关系:包括指针作为函数参数传递地址,实现函数对外部变量的修改。 7. 多做练习题和实践项目:通过实际编写代码来加深对指针的理解和运用。 在学习过程中,要多思考、多实践,遇到问题及时查阅相关资料和请教他人。
2025-03-06
批量语言转文字
以下是关于批量语言转文字的相关信息: 支持的语言:南非荷兰语、阿拉伯语、亚美尼亚语、阿塞拜疆语、白俄罗斯语、波斯尼亚文、保加利亚文、加泰罗尼亚文、中文、克罗地亚文、捷克文、丹麦文、荷兰文、英国英语、爱沙尼亚文、芬兰文、法国法式英语、加利西亞語、德國語、希臘語、希伯來語、印地語、匈牙利語、冰岛语、印度尼西亚语、意大利语、日本语、卡纳达语、哈萨克语、韩语、拉脱维亚语、立陶宛语、马其顿语、马来语、马拉地语、毛里求斯语、尼泊尔语、挪威语、波斯语、波苏尼语、塔加洛语、泰米尔语、泰语、土耳其语、乌克兰语、乌尔都语。 更长输入:默认情况下,Whisper API 仅支持小于 25MB 的文件。若音频文件大于此,需将其分成每个小于 25MB 的块或使用压缩后格式。为达最佳性能,避免在句子中间断开声音以防丢失上下文字信息。可使用 PyDub 开源 Python 软件包来拆分声频文件,但 OpenAI 对其可用性或安全性不作保证。 提示:可使用提示提高 Whisper API 生成的转录质量。模型会尝试匹配提示风格,如提示使用大写和标点符号,生成结果更可能使用它们。当前提示系统较其他语言模型受限,仅提供有限控制。示例如下: 对于模型常错识的特定单词或缩略语,提示很有帮助,如改善 DALL·E 和 GPT3 等单词的转录。 为保留分段文件上下文,可用先前片段的转录引导模型,模型仅考虑最后 224 个标记并忽略之前内容。 转录可能会跳过标点符号,可用包含标点符号的简单提示避免。 模型可能省略常见填充词汇,若想保留,可用包含它们的指示。 某些语言有不同书写方式,如简体或繁体中文,默认模型处理可能不按所需风格,添加指示可改进。
2025-03-05
大语言模型学习
学习大型语言模型(LLM)的开发是一个系统性的过程,涵盖多个方面的知识和技能,以下是详细的学习路径和相关建议: 1. 深度学习和自然语言处理基础 掌握机器学习、深度学习、神经网络等基础理论。 熟悉自然语言处理基础,如词向量、序列模型、注意力机制等。 相关课程:吴恩达的深度学习课程、斯坦福 cs224n 等。 2. 理解 Transformer 和 BERT 等模型原理 深入了解 Transformer 模型架构及自注意力机制原理。 掌握 BERT 的预训练和微调方法。 研读相关论文,如 Attention is All You Need、BERT 论文等。 3. 学习 LLM 模型训练和微调 进行大规模文本语料预处理。 运用 LLM 预训练框架,如 PyTorch、TensorFlow 等。 对 LLM 模型进行微调以实现特定任务迁移。 相关资源:HuggingFace 课程、论文及开源仓库等。 4. LLM 模型优化和部署 掌握模型压缩、蒸馏、并行等优化技术。 进行模型评估和可解释性研究。 实现模型服务化、在线推理、多语言支持等。 相关资源:ONNX、TVM、BentoML 等开源工具。 5. LLM 工程实践和案例学习 结合行业场景,开展个性化的 LLM 训练。 分析和优化具体 LLM 工程案例。 研究 LLM 新模型、新方法的最新进展。 6. 持续跟踪前沿发展动态 关注顶会最新论文、技术博客等资源。 此外,关于大语言模型介绍,您可以通过以下视频课程学习: 视频课程学习地址:https://youtu.be/zizonToFXDs 宝玉 XP 的翻译版本:https://www.youtube.com/watch?v=zfFA1tb3q8Y Google 的教学视频《Introduction to Large Language Models|大语言模型介绍》,介绍了大型语言模型(Large Language Models,LLMs)的概念、使用场景、提示调整以及 Google 的 Gen AI 开发工具。大型语言模型是深度学习的一个子集,可以预训练并进行特定目的的微调。这些模型经过训练,可以解决诸如文本分类、问题回答、文档摘要、跨行业的文本生成等常见语言问题。然后,可以利用相对较小的领域数据集对这些模型进行定制,以解决零售、金融、娱乐等不同领域的特定问题。大型语言模型的三个主要特征是:大型、通用性和预训练微调。“大型”既指训练数据集的巨大规模,也指参数的数量。“通用性”意味着这些模型足够解决常见问题。“预训练和微调”是指用大型数据集对大型语言模型进行一般性的预训练,然后用较小的数据集对其进行特定目的的微调。使用大型语言模型的好处包括:一种模型可用于不同的任务;微调大型语言模型需要的领域训练数据较少;随着数据和参数的增加,大型语言模型的性能也在持续增长。此外,视频还解释了传统编程、神经网络和生成模型的不同,以及预训练模型的 LLM 开发与传统的 ML 开发的区别。在自然语言处理中,提示设计和提示工程是两个密切相关的概念,这两者都涉及创建清晰、简洁、富有信息的提示。视频中还提到了三种类型的大型语言模型:通用语言模型、指令调整模型和对话调整模型。每种模型都需要以不同的方式进行提示。 AI 教父 Hinton 最新万字精彩访谈中提到: 随着模型规模的扩大,其推理能力会得到提升。这种推理能力的提升类似于 AlphaGo 或 AlphaZero 的工作方式,它们通过蒙特卡罗推演来修改评估函数,从而提高推理精度。大型语言模型也应该开始通过推理来训练,而不仅仅是模仿人类的行为。 在多模态学习方面,引入图像、视频和声音等多种模式将极大地改变模型的理解和推理能力,特别是在空间理解方面。多模态模型可以通过更多的数据和更少的语言来进行学习,这将使其在未来占据主导地位。 在语言与认知的关系上,Hinton 提出了三种观点:符号观点、向量观点和嵌入观点。他认为,最合理的模型是将符号转换成大向量,但保留符号的表面结构,这样可以更好地理解和预测下一个符号。 Hinton 回顾了他在 2009 年提出使用 GPU 进行神经网络训练的早期直觉。他发现,使用 GPU 可以将运算速度提高 30 倍,这对于机器学习研究人员来说至关重要。他在 NIPS 会议上公开推荐了 NVIDIA 的 GPU,并向 NVIDIA 请求赞助,最终得到黄仁勋的支持。 Hinton 提出,模拟计算可以在较低的功率下运行大型语言模型,但每个硬件的特性都会有所不同,因此学习过程需要利用硬件的特定属性。然而,这种方法的局限性在于,当一个人去世后,他的大脑中的权重对其他人没有用处。相比之下,数字系统可以通过共享权重来提高效率,因为一旦有了权重,就可以在不同的计算机上复制相同的计算过程。这种方式使得数字系统在知识共享方面远胜于人类。 Hinton 还讨论了神经科学的时间尺度问题,指出在大脑中,权重改变的时间尺度很多,这是我们的神经模型尚未实现的。大脑使用快速权重进行临时记忆,而我们的模型由于需要处理大量不同的情况,所以无法实现这一点。
2025-03-04
deepseek 的提示词应该怎么写?和以往的大语言模型的提示词有什么不同?
DeepSeek 的提示词具有以下特点: 1. 语气上还原帝王语气,不过分用力,使用相对古典但兼顾可读性的文字,避免傻气的表达。 2. 对历史细节熟悉,这可能与支持“深度探索”和“联网搜索”同时开启有关,能准确还原如“太极宫”“甘露殿”“掖庭局”“观音婢”“宫门鱼符”等唐初的历史称谓。 3. 输出极其具体且充满惊人细节,行文的隐喻拿捏到位,如“狼毫蘸墨时发现指尖残留着未洗净的血痂”“史官们此刻定在掖庭局争吵。该用‘诛’还是‘戮’,‘迫’还是‘承’。‘只是这次,他不敢触碰我甲胄上元吉的掌印’”等句子,虽未直接写“愧疚与野心,挣扎与抱负”,但句句体现。 与以往大语言模型的提示词的不同在于:以往模型可能在语气、历史细节和具体细节的处理上不如 DeepSeek 出色。
2025-02-28
在汉语言文学师范领域中是否存在具有商业价值的问题,利用 AI 技术进行市场调研和分析,探索可能的创业方向
在汉语言文学师范领域,利用 AI 技术进行市场调研和分析是有可能发现具有商业价值的问题和创业方向的。 首先,通过对教育市场的大数据分析,AI 可以帮助了解汉语言文学师范专业的就业趋势和需求变化,例如特定地区对该专业教师的需求增长情况,或者新兴教育模式对该专业人才培养的新要求。 其次,利用自然语言处理技术,分析学生和家长对汉语言文学师范教育的反馈和期望,从而发现潜在的教育服务需求,比如个性化的辅导课程、线上教学平台的优化等。 再者,借助 AI 预测模型,可以评估汉语言文学师范相关教材和教育资源的市场需求,为开发创新的教育产品提供依据。 总之,结合 AI 技术,在汉语言文学师范领域进行深入的市场调研和分析,有机会挖掘出具有商业潜力的问题和创业方向。
2025-02-27