直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

国内能通过对话微调的语言大模型

回答

以下是国内一些能通过对话微调的语言大模型:

  • 教育领域:桃李(Taoli)
    • 地址:https://github.com/blcuicall/taoli
    • 简介:在国际中文教育领域数据上进行了额外训练的模型,基于国际中文教育教材等构建资源库和问答数据集,并利用数据进行指令微调,让模型习得将知识应用到具体场景中的能力。
  • 数学领域:chatglm-maths
    • 地址:https://github.com/yongzhuo/chatglm-maths
    • 简介:基于 chatglm-6b 微调/LORA/PPO/推理的数学题解题大模型,样本为自动生成的整数/小数加减乘除运算,可 gpu/cpu 部署,开源了训练数据集等。
  • 文化领域:Firefly
    • 地址:https://github.com/yangjianxin1/Firefly
    • 简介:中文对话式大语言模型,构造了许多与中华文化相关的数据,如对联、作诗、文言文翻译、散文、金庸小说等,以提升模型在这方面的表现。
  • 金融领域:
    • Cornucopia(聚宝盆)
      • 地址:https://github.com/jerry1993-tech/Cornucopia-LLaMA-Fin-Chinese
      • 简介:开源了经过中文金融知识指令精调/指令微调(Instruct-tuning)的 LLaMA-7B 模型。通过中文金融公开数据+爬取的金融数据构建指令数据集,并在此基础上对 LLaMA 进行了指令微调,提高了 LLaMA 在金融领域的问答效果。基于相同的数据,后期还会利用 GPT3.5 API 构建高质量的数据集,另在中文知识图谱-金融上进一步扩充高质量的指令数据集。
    • BBT-FinCUGE-Applications
    • XuanYuan(轩辕)
      • 地址:https://github.com/Duxiaoman-DI/XuanYuan
      • 简介:国内首个开源的千亿级中文对话大模型,同时也是首个针对中文金融领域优化的千亿级开源对话大模型。在 BLOOM-176B 的基础上针对中文通用领域和金融领域进行了针对性的预训练与微调,不仅可以应对通用领域的问题,也可以解答金融相关的各类问题,为用户提供准确、全面的金融信息和建议。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

02-基础通识课

[title]02-基础通识课[heading1]智能纪要[heading2]总结大语言模型的介绍与原理国内大模型的分类:国内大模型有通用模型如文心一言、讯飞星火等,处理自然语言;还有垂直模型,专注特定领域如小语种交流、临床医学、AI蛋白质结构预测等。大模型的体验:以‘为什么我爸妈结婚的时候没有邀请我参加婚礼’和‘今天我坐在凳子上’为例,体验了Kimi、通义千问、豆包等大模型的回答和续写能力,发现回复有差异,且大模型基于统计模型预测生成内容。大语言模型的工作原理:大语言模型工作原理包括训练数据、算力、模型参数,在训练数据一致情况下,模型参数越大能力越强,参数用b链形容大小。Transformer架构:Transformer是大语言模型训练架构,17年出现用于翻译,具备自我注意力机制能理解上下文和文本关联,其工作原理是单词预测,通过嵌入、位置编码、自注意力机制生成内容,模型调教中有控制输出的temperature。关于大语言模型的原理、应用及相关概念Transformer模型原理:通过不断检索和匹配来寻找依赖关系,处理词和词之间的位置组合,预测下一个词的概率,是一个偏向概率预测的统计模型。大模型幻觉:大模型通过训练数据猜测下一个输出结果,可能因错误数据导致给出错误答案,优质数据集对其很重要。Prompt的分类和法则:分为system prompt、user prompt和assistant prompt,写好prompt的法则包括清晰说明、指定角色、使用分隔符、提供样本等,核心是与模型好好沟通。Fine tuning微调:基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。RAG概念:未对RAG的具体内容进行详细阐述,仅提出了这个概念。

LLM开源中文大语言模型及数据集集合

桃李(Taoli):地址:[https://github.com/blcuicall/taoli](https://github.com/blcuicall/taoli)简介:一个在国际中文教育领域数据上进行了额外训练的模型。项目基于目前国际中文教育领域流通的500余册国际中文教育教材与教辅书、汉语水平考试试题以及汉语学习者词典等,构建了国际中文教育资源库,构造了共计88000条的高质量国际中文教育问答数据集,并利用收集到的数据对模型进行指令微调,让模型习得将知识应用到具体场景中的能力。[heading5][heading5]数学[content]chatglm-maths:地址:[https://github.com/yongzhuo/chatglm-maths](https://github.com/yongzhuo/chatglm-maths)简介:基于chatglm-6b微调/LORA/PPO/推理的数学题解题大模型,样本为自动生成的整数/小数加减乘除运算,可gpu/cpu部署,开源了训练数据集等。[heading5][heading5]文化[content]Firefly:地址:[https://github.com/yangjianxin1/Firefly](https://github.com/yangjianxin1/Firefly)简介:中文对话式大语言模型,构造了许多与中华文化相关的数据,以提升模型这方面的表现,如对联、作诗、文言文翻译、散文、金庸小说等。

LLM开源中文大语言模型及数据集集合

Cornucopia(聚宝盆):基于中文金融知识的LLaMA微调模型地址:[https://github.com/jerry1993-tech/Cornucopia-LLaMA-Fin-Chinese](https://github.com/jerry1993-tech/Cornucopia-LLaMA-Fin-Chinese)简介:开源了经过中文金融知识指令精调/指令微调(Instruct-tuning)的LLaMA-7B模型。通过中文金融公开数据+爬取的金融数据构建指令数据集,并在此基础上对LLaMA进行了指令微调,提高了LLaMA在金融领域的问答效果。基于相同的数据,后期还会利用GPT3.5 API构建高质量的数据集,另在中文知识图谱-金融上进一步扩充高质量的指令数据集。BBT-FinCUGE-Applications地址:[https://github.com/ssymmetry/BBT-FinCUGE-Applications](https://github.com/ssymmetry/BBT-FinCUGE-Applications)简介:开源了中文金融领域开源语料库BBT-FinCorpus,中文金融领域知识增强型预训练语言模型BBT-FinT5及中文金融领域自然语言处理评测基准CFLEB。XuanYuan(轩辕):首个千亿级中文金融对话模型地址:[https://github.com/Duxiaoman-DI/XuanYuan](https://github.com/Duxiaoman-DI/XuanYuan)简介:轩辕是国内首个开源的千亿级中文对话大模型,同时也是首个针对中文金融领域优化的千亿级开源对话大模型。轩辕在BLOOM-176B的基础上针对中文通用领域和金融领域进行了针对性的预训练与微调,它不仅可以应对通用领域的问题,也可以解答与金融相关的各类问题,为用户提供准确、全面的金融信息和建议。

其他人在问
大模型微调
大模型微调是在较小的、特定领域的数据集上继续大模型的训练过程,具有重要意义和多种方式: 意义: 提高模型在特定任务中的性能:可以输入更多示例,经过微调的模型在特定任务中表现更好,但可能会失去一些通用性。 提高模型效率:实现更低的延迟和成本,可通过专门化模型使用更小的模型,以及舍弃示例或指令来改善。 方式: 从参数规模的角度,分为全量微调 FFT(Full Fine Tuning)和 PEFT(ParameterEfficient Fine Tuning)。全量微调是对全量的模型参数进行全量的训练,而 PEFT 只对部分模型参数进行训练。从成本和效果综合考虑,PEFT 是目前业界较流行的微调方案。 对于 Llama3 的微调,需要下载数据集,如可参考文档: 。有了数据集后,将其上传到服务器,编写并执行微调代码,大概 15 分钟左右可完成微调。 此外,通俗来讲,大模型是输入大量语料,让计算机获得类似人类的“思考”能力,能进行文本生成、推理问答、对话、文档摘要等工作。大模型的训练、使用过程可类比上学参加工作:找学校(需要大量 GPU 进行训练)、确定教材(需要大量数据)、找老师(选择合适算法)、就业指导(即微调)、搬砖(推导)。在 LLM 中,Token 被视为模型处理和生成的文本单位,会对输入进行分词并数字化形成词汇表。 OpenAI 官方微调教程:
2024-11-16
我想了解一下关于模型微调的知识
以下是关于模型微调的知识: 介绍:微调可让您从 API 提供的模型中获得更多收益,比如比即时设计更高质量的结果、能够训练比提示中更多的例子、由于更短的提示而节省了 Token、更低的延迟请求。GPT3 已在大量文本上预训练,微调通过训练更多示例改进小样本学习,让您在大量任务中取得更好结果。对模型微调后,无需在提示中提供示例,可节省成本并降低延迟。在高层次上,微调涉及准备和上传训练数据、训练新的微调模型、使用微调模型。 哪些模型可以微调:微调目前仅适用于以下基础模型:davinci、curie、babbage 和 ada。还可以继续微调微调模型以添加其他数据,无需从头开始。 微调的概念和意义:在人工智能领域,通常根据应用领域将大模型分为通用大模型和领域特定模型。通用大模型如 GPT4.0、GPT3.5 等具有广泛的自然语言理解能力,但在特定领域表现可能不理想。对大模型针对特定领域进行的训练过程称为微调,通过在特定领域数据上训练,优化所有层参数,提高在该领域的专业性。微调可节省成本、加快模型部署和应用速度。 相关应用开发:除了调用 ChatGPT 之外,还需学会模型微调、设计 Prompt、优化用户交互的解决方案等。在开发中,程序读取结构化数据,如 JSON 格式。通过稳定的提示词设计及一些模型参数(如温度 Temperature 等)来让 ChatGPT 保持稳定输出。
2024-11-12
如何做大模型的云端部署与微调
做大模型的云端部署与微调,主要包括以下步骤: 1. 选择合适的部署方式: 本地环境部署。 云计算平台部署。 分布式部署。 模型压缩和量化。 公共云服务商部署。需根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源: 确保有足够的训练数据覆盖目标应用场景。 准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础: 可以使用开源的预训练模型如 BERT、GPT 等。 也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练: 根据具体应用场景对预训练模型进行微调训练。 优化模型结构和训练过程以提高性能。 5. 部署和调试模型: 将训练好的模型部署到生产环境。 对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护: 大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 例如,对于 SDXL 的大模型,本地部署时要注意模型分为 base+refiner 以及配套的 VAE 模型,需将其放入对应文件夹,并在秋叶启动器中将 webUI 的版本升级到 1.5 以上。而对于 Llama3 的部署和微调,实操分两部分,包括本地部署并通过 webdemo 对话,以及使用特定数据集进行微调,具体流程为购买服务器、安装代码环境、下载通用模型和数据集、挑选微调框架、编写微调程序和验证结果。 总的来说,部署和微调大模型需要综合考虑多方面因素,根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。
2024-10-26
使用主模型及微调模型进行图像生成的过程是什么?
使用主模型及微调模型进行图像生成的过程通常包括以下步骤: 1. 对于像 Video LDM 这样的模型,首先训练一个 LDM(隐扩散模型)图像生成器。 2. 以 OpenAI 的文本到图像模型为例,在大量由图像和描述图像的文本组成的数据集上进行训练。训练时,先将字符串用分词器分解为离散的 token,通过最大化似然函数构建文本语言模型,然后对图像进行调整将其转换为描述生成器。 3. 为改进在图像生成数据集上的描述效果,对描述生成器进行微调。例如,OpenAI 构建小规模描述数据集来描述图像主对象,诱导模型偏向于描述主对象,此为“短合成描述”;或者创建更长、更丰富的文本数据集来描述图像内容。 4. 对于视频生成,如 Video LDM 向解码器添加额外的时间层,并使用用 3D 卷积构建的逐块时间判别器在视频数据上进行微调,同时编码器保持不变,以实现时间上一致的重建。类似于 Video LDM,Stable Video Diffusion(SVD)也是基于 LDM,在每一个空间卷积和注意力层之后插入时间层,并在整个模型层面上执行微调。 5. 在视频生成的微调过程中,长度为 T 的输入序列会被解释成用于基础图像模型的一批图像,然后再调整为用于时间层的视频格式。其中有 skip 连接通过学习到的融合参数导向时间层输出和空间输出的组合。在实践中,实现的时间混合层有时间注意力和基于 3D 卷积的残差模块等。但 LDM 的预训练自动编码器存在只能看见图像、永远看不见视频的问题,直接用于生成视频会产生闪动伪影和时间一致性差的情况,所以需要进行上述微调操作。
2024-10-19
推荐一下国内可以通过对话微调的预训练模型
以下是为您推荐的国内可以通过对话微调的预训练模型相关信息: 为优化 Llama2 的中文能力,可使用以下数据: 网络数据:互联网上公开的网络数据,包括百科、书籍、博客、新闻、公告、小说等高质量长文本数据。 :中文 Wikipedia 的数据。 :中文悟道开源的 200G 数据。 :Clue 开放的中文预训练数据,经过清洗后的高质量中文长文本数据。 竞赛数据集:近年来中文自然语言处理多任务竞赛数据集,约 150 个。 :MNBVC 中清洗出来的部分数据集。 社区提供预训练版本 Atom7B 和基于 Atom7B 进行对话微调的模型参数供开放下载,关于模型的进展详见社区官网 https://llama.family。 另外,关于会话补全(Chat completions): gpt3.5turbo 和 textdavinci003 两个模型能力相似,但前者价格只是后者的十分之一,在大部分情况下更推荐使用 gpt3.5turbo。 gpt3.5turbo 模型不支持微调。从 2023 年 3 月 1 日起,只能对基于 GPT3.5 的模型进行微调。有关如何使用微调模型的更多细节,请参阅微调指南。 从 2023 年 3 月 1 日起,OpenAI 会将您通过 API 发送的数据保留 30 天但不会使用这些数据来提升模型。 关于安仔:Coze 全方位入门剖析 免费打造自己的 AI Agent(国内版): 目前国内版暂时只支持使用“云雀大模型”作为对话引擎,其携带上下文轮数默认为 3 轮,可修改区间是 0 到 30,具体轮数可根据业务需求决定。 在 Bot 编排页面的“技能”区域,可为 Bot 配置所需技能。不懂插件时,可选择区域右上角的“优化”按钮让 AI Bot 根据提示词自动选择插件。也可自定义添加所需插件,点击插件区域的“+”号选择加入具体插件。 在 Bot 编排页面的“预览与调试”区域,可测试 Bot 是否按预期工作,可清除对话记录以开始新的测试,确保 Bot 能理解用户输入并给出正确回应。
2024-10-18
推荐一下个人可以使用的通过对话微调的模型
以下是一些个人可以使用的通过对话微调的模型相关信息: 会话补全(Chat completions): GPT3.5 系列中,gpt3.5turbo 和 textdavinci003 有相似能力,但 gpt3.5turbo 价格仅为 textdavinci003 的十分之一,在多数情况下更推荐使用 gpt3.5turbo。不过,gpt3.5turbo 不支持微调,从 2023 年 3 月 1 日起,只能对基于 GPT3.5 的模型进行微调。 微调(Finetuning): 案例研究: 客户支持聊天机器人:通常包含相关上下文、对话摘要及最近消息,可能需要几千个示例处理不同请求和客户问题,建议审查对话样本确保代理消息质量,可使用单独文本转换微调模型生成摘要。 基于技术属性列表的产品描述:将输入数据转换为自然语言很重要,确保完成基于所提供描述,若常查阅外部内容,自动添加此类内容可提高性能,若描述基于图像,提取图像文本描述可能有帮助。 模型(Models): GPT3.5 模型可理解和生成自然语言或代码,其中功能最强大、最具成本效益且针对聊天优化的型号是 gpt3.5turbo,建议使用它而非其他 GPT3.5 模型,因其成本更低。 gpt3.5turbo:功能强大,针对聊天优化,成本低,会使用最新模型迭代更新,最大 Token 数 4096,训练数据截至 2021 年 9 月。 gpt3.5turbo0301:2023 年 3 月 1 日的快照,不会更新,仅在 2023 年 6 月 1 日结束的三个月内提供支持,最大 Token 数 4096,训练数据截至 2021 年 9 月。 textdavinci003:能完成任何语言任务,支持文本中插入补全,最大 Token 数 4097,训练数据截至 2021 年 6 月。 textdavinci002:与 textdavinci003 类似,使用监督微调而非强化学习训练,最大 Token 数 4097,训练数据截至 2021 年 6 月。 codedavinci002:针对代码完成任务优化,最大 Token 数 8001,训练数据截至 2021 年 6 月。 请注意,OpenAI 模型具有不确定性,相同输入可能产生不同输出,将温度设置为 0 可使输出大部分具有确定性,但可能仍有少量可变性。
2024-10-18
与PDF对话
以下是关于与 PDF 对话的相关内容: AIGC 落地应用中,有 ChatWithPDF 官方 Pulgin 可解决 Chat GPT 无法阅读、解析 PDF 的问题,推荐指数为🌟🌟🌟🌟。还有 Voice control for ChatGPT Chrome 插件用于和 ChatGPT 语音对话,支持多种语言,可当英语口语/听力老师,但 TTS 效果生硬,期待改善,推荐指数🌟🌟🌟,下载地址: 增强的 PDF 结构识别框架(pdflux.com)应用于 ChatDOC(海外官网:chatdoc.com),它是 AI 文档阅读助手,能在数秒内总结长文档、解释复杂概念和查找关键信息,在可靠性和准确性方面居所有 ChatPDF 类产品之首。其优势包括精通表格理解、多文档对话、每个回答均可溯源至原文、支持多种文档类型。 阅读书籍、论文的互动式问答场景对应的关键词库有 15 个,如书籍、报告、文件等。ChatGPT 知识库截止于 2021 年 9 月,对于新数据或最新出版的内容无法提供答案,如有现成 PDF,建议通过 CHATDOC 网站进行互动式问答,并提供了输入信息和提出问题的步骤及模板,还有相关案例。
2024-11-13
多轮对话训练中你如何训练模型掌握情感需求
在多轮对话训练中,让模型掌握情感需求可以通过以下几种方式: 1. 利用相关数据集进行训练,例如: Guanaco:地址为,是一个使用 SelfInstruct 的主要包含中日英德的多语言指令微调数据集。 chatgptcorpus:地址为,开源了由 ChatGPT3.5 生成的 300 万自问自答数据,包括多个领域,可用于训练大模型。 SmileConv:地址为,数据集通过 ChatGPT 改写真实的心理互助 QA 为多轮的心理健康支持多轮对话,含有 56k 个多轮对话,其对话主题、词汇和篇章语义更加丰富多样,更符合长程多轮对话的应用场景。 2. 在创建提示时采用结构化模式,为模型提供一些情感需求的示例,如: |输入|输出| ||| |一部制作精良且有趣的电影|积极的| |10 分钟后我睡着了|消极的| |电影还行|中性的| 然后单击页面右侧的提交按钮。该模型现在可为输入文本提供情绪。还可以保存新设计的提示。 3. 在多轮次对话中,定期总结关键信息,重申对话的目标和指令,有助于模型刷新记忆,确保准确把握对话的进展和要点。 4. 进行意图识别和分类,特别关注在单一模型或情境中处理多个小逻辑分支的情况。例如在客户服务场景中,快速确定用户提出咨询、投诉、建议等多种类型请求的意图,并分类到相应处理流程中。
2024-11-11
在车载语音多轮对话训练中你如何训练模型掌握情感需求
目前知识库中暂时没有关于在车载语音多轮对话训练中如何训练模型掌握情感需求的相关内容。但一般来说,要训练模型掌握情感需求,可以从以下几个方面考虑: 1. 数据收集:收集包含丰富情感表达的车载语音对话数据,包括不同情感状态下的语音样本和对应的文本描述。 2. 特征提取:从语音和文本数据中提取能够反映情感的特征,如语音的语调、语速、音量,文本中的词汇、句式、语义等。 3. 模型选择:选择适合处理情感分析任务的模型架构,如基于深度学习的循环神经网络(RNN)、长短时记忆网络(LSTM)或门控循环单元(GRU)等。 4. 情感标注:对收集的数据进行准确的情感标注,以便模型学习不同情感的模式。 5. 多模态融合:结合语音和文本等多模态信息,提高情感识别的准确性。 6. 优化算法:采用合适的优化算法来训练模型,调整模型的参数,以提高模型的性能。 7. 模型评估:使用合适的评估指标来评估模型在情感需求掌握方面的性能,并根据评估结果进行调整和改进。
2024-11-11
提供“与知识库对话”的产品服务
以下是关于“与知识库对话”的产品服务相关内容: 如果想要对知识库进行更加灵活的掌控,可以使用额外的软件 AnythingLLM。其安装地址为:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。 AnythingLLM 中有 Workspace 的概念,可创建独有的 Workspace 与其他项目数据隔离。构建本地知识库时,首先创建工作空间,然后上传文档并在工作空间中进行文本嵌入,接着选择对话模式,包括 Chat 模式(大模型根据训练数据和上传的文档数据综合给出答案)和 Query 模式(大模型仅依靠文档中的数据给出答案),最后进行测试对话。 在商业化问答场景中,以一个问答机器人界面为例,其配置包括 AI 模型、提示词和知识库。模型好比是学习过无数知识的人,提示词是告诉模型扮演的角色和专注的技能,知识库则是给模型的工作手册。例如设定 AI 模型为阿里千问模型,提示词设定角色为“美嘉”,知识库放置《爱情公寓》全季剧情。 看十遍不如实操一遍,实操十遍不如分享一遍。如果对 AI Agent 技术感兴趣,可以联系相关人员或者加入免费知识星球(备注 AGI 知识库)。
2024-11-08
提供“与知识库对话”的产品服务
以下是关于“与知识库对话”的产品服务相关内容: 如果想要对知识库进行更加灵活的掌控,需要使用额外的软件 AnythingLLM。其安装地址为:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。 AnythingLLM 中有 Workspace 的概念,可以创建独有的 Workspace 与其他项目数据隔离。构建本地知识库时,首先创建工作空间,然后上传文档并进行文本嵌入,接着选择对话模式,包括 Chat 模式(大模型根据训练数据和上传的文档数据综合给出答案)和 Query 模式(大模型仅依靠文档中的数据给出答案),最后进行测试对话。 在商业化问答场景中,以一个问答机器人界面为例,其左侧有三处配置:AI 模型、提示词、知识库。模型可以想象成学习过无数知识的人;提示词是告诉模型扮演的角色和专注的技能;知识库则相当于给模型发放的工作手册。例如设定 AI 模型为阿里千问模型,提示词设定角色为“美嘉”,知识库为《爱情公寓》全季剧情。
2024-11-08
图片对话模型有哪些
以下是一些常见的图片对话模型: ChatGLM: 地址: 简介:中文领域效果最好的开源底座模型之一,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持。 VisualGLM6B: 地址: 简介:一个开源的,支持图像、中文和英文的多模态对话语言模型,语言模型基于 ChatGLM6B,具有 62 亿参数;图像部分通过训练 BLIP2Qformer 构建起视觉模型与语言模型的桥梁,整体模型共 78 亿参数。依靠来自于 CogView 数据集的 30M 高质量中文图文对,与 300M 经过筛选的英文图文对进行预训练。 ChineseLLaMAAlpaca: 地址: 简介:中文 LLaMA&Alpaca 大语言模型+本地 CPU/GPU 部署,在原版 LLaMA 的基础上扩充了中文词表并使用了中文数据进行二次预训练。 智谱·AI 开源的图片对话模型有: CogAgent18B:基于 CogVLM17B 改进的开源视觉语言模型。拥有 110 亿视觉参数和 70 亿语言参数,支持 11201120 分辨率的图像理解,在 CogVLM 功能的基础上,具备 GUI 图像的 Agent 能力。 代码链接: 模型下载:、始智社区 CogVLM17B:强大的开源视觉语言模型(VLM)。基于对视觉和语言信息之间融合的理解,CogVLM 可以在不牺牲任何 NLP 任务性能的情况下,实现视觉语言特征的深度融合。是目前多模态权威学术榜单上综合成绩第一的模型,在 14 个数据集上取得了 stateoftheart 或者第二名的成绩。 代码链接: 模型下载: Visualglm6B:一个开源的,支持图像、中文和英文的多模态对话语言模型,语言模型基于 ChatGLM6B,具有 62 亿参数;图像部分通过训练 BLIP2Qformer 构建起视觉模型与语言模型的桥梁,整体模型共 78 亿参数。 代码链接: 模型下载: 智谱·AI 开源的 Chat 模型有: ChatGLM6Bint4:ChatGLM6B 的 Int4 版本。最低只需 6GB 显存即可部署,最低只需 7GB 显存即可启动微调() 上下文 token 数:2K 代码链接: 模型权重下载链接:魔搭社区、始智社区、启智社区 ChatGLM6Bint8:ChatGLM6B 的 Int8 版本 上下文 token 数:2K 代码链接: 模型权重下载链接:魔搭社区、始智社区、启智社区 AgentLM7B: 简介:1. 提出了一种 AgentTuning 的方法;2. 开源了包含 1866 个高质量交互、6 个多样化的真实场景任务的 Agent 数据集 AgentInstruct;3. 基于上述方法和数据集,利用 Llama2 微调了具备超强 Agent 能力的 AgentLM7B、AgentLM13B、AgentLM70B。 上下文 token 数:4K 代码链接: 模型权重下载链接: AgentLM13B: 上下文 token 数:4K 模型权重下载链接: AgentLM70B: 上下文 token 数:8K 模型权重下载链接:
2024-11-08
如何可以使用到chatgpto1大模型
目前 ChatGPT 没有 ChatGPT1 这个大模型。ChatGPT 有多个版本,如 ChatGPT3、ChatGPT3.5、ChatGPT4 等。您可以通过以下方式使用 ChatGPT 相关模型: 1. 访问 OpenAI 的官方网站,按照其指引进行注册和使用。 2. 部分应用和平台可能集成了 ChatGPT 的接口,您可以在这些应用中体验其功能。 需要注意的是,使用 ChatGPT 时应遵循相关的使用规则和法律法规。
2024-11-16
什么工具/模型/API 可以根据宠物照片生成数字宠物 可以有简单的活动。
以下是一个可以根据宠物照片生成数字宠物并具有简单活动的工具/模型/API: 出门问问 Mobvoi 的照片数字人工作流及语音合成(TTS)API。 出门问问是一家以生成式 AI 和语音交互为核心的人工智能公司,为全球多个国家提供面向创作者的 AIGC 工具、AI 政企服务,以及 AI 智能硬件。致力于打造国际领先的通用大模型,通过 AI 技术、产品及商业化三位一体发展,致力成为全球 AI CoPilot 的引领者。 在 ComfyUI 全球领导力峰会上,特意搭建了数字人 workflow(照片数字人驱动),仅需上传一张照片,输入一段文字或者上传一段音频,就可以生成短视频让“照片开口说话”。本次活动特意提供了免费 api 额度及操作指南给大家进行体验。以下是一些不同风格的照片驱动效果展示:
2024-11-16
什么是大模型
大模型通俗来讲,是输入大量语料,让计算机获得类似人类的“思考”能力,从而能够理解自然语言,并进行文本生成、推理问答、对话、文档摘要等工作。 大模型的训练和使用过程可以用“上学参加工作”来类比: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练。 2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:用合适的算法讲述“书本”中的内容,让大模型更好理解 Token 之间的关系。 4. 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称之为推导(infer)。 在大模型中,Token 被视为模型处理和生成的文本单位,会被数字化形成词汇表,便于计算机处理。为让计算机理解 Token 之间的联系,还需把 Token 表示成稠密矩阵向量,这个过程称为 embedding,常见算法有基于统计的 Word2Vec、GloVe,基于深度网络的 CNN、RNN/LSTM,基于神经网络的 BERT、Doc2Vec 等。以 Transform 为代表的大模型采用自注意力(Selfattention)机制来学习不同 token 之间的依赖关系,生成高质量 embedding。 大模型的“大”指用于表达 token 之间关系的参数多,主要是模型中的权重(weight)与偏置(bias),例如 GPT3 拥有 1750 亿参数。 所谓的大模型,简而言之就是拥有庞大参数数量的模型,通过处理和理解海量数据,能够胜任一系列复杂的任务。大模型强大的原因在于庞大的参数数量和大量的数据,参数帮助模型更深入地理解和生成数据,大量数据是学习的基础,使其能掌握丰富的知识和技能。
2024-11-16
混元大模型
腾讯混元大模型(HunyuanLarge)是全球最大的 MoE 开源模型,具有以下特点: 拥有 3890 亿参数,其中活跃参数为 520 亿。 具备强大的长文本处理和常识推理能力,支持 256K 上下文窗口。 通过数据增强,使用合成数据提升对未见内容的理解。 详细介绍: 模型下载: 技术报告:
2024-11-15
整合多家大预言模型的工具
以下为整合多家大语言模型的工具介绍: 1. Poe: 由 Quora 开发,有 APP 版本,支持跨端使用。 集成了 Chat GPT、GPT4、Claude+、Claude、Dragonfly 等模型,同时支持用户自建 Chatbot。 不同语言模型回复效果有差异,适合需要调用多种大语言模型的用户。 Dragonfly 擅长给出较短的回答,并擅长在输入中给出示例时遵循指示。 Claude 更擅长创造性回复,配合 Poe 中的提问引导,非常适合在查阅资料时使用,有时能够给出超越直接使用 Chat GPT 时的体验,但和 Chat GPT 一样,Claude 也时常会给出一些错误回复,一些问题可在两个模型中都问一遍提升信息准确性。 支持分享用户和模型的对话内容,但 GPT4、Claude+产品需要付费订阅使用。 访问地址: Poe 中的提问引导能够启发用户,支持 Explore Chatbot,但丰富度不如后续要介绍的 Character,midjourney prompt 扩写 Chatbot 能力很惊人。 2. Ollama: 支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 cpu 和 gpu。 提供模型库,用户可从中下载不同模型,这些模型有不同参数和大小,以满足不同需求和硬件条件。模型库可通过 https://ollama.com/library 查找。 用户可通过简单步骤自定义模型,例如修改模型的温度参数来调整创造性和连贯性,或者设置特定的系统消息。 提供 REST API,用于运行和管理模型,以及与其他应用程序的集成选项。 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 下载安装地址:https://ollama.com/download/ ,安装完后,在 mac 上启动 ollama 应用程序,在 linux 上通过 ollama serve 启动,可通过 ollama list 确认,未下载模型时正常显示空,可通过 ollama 命令下载模型。 3. 未来还会不断丰富大模型的外延能力,例如知识库检索、计算工具、WolframAlpha、操作软件等。首先集成了 LangChain 框架,可更方便地基于 Llama2 开发文档检索、问答机器人和智能体应用等。针对 LangChain 框架封装的 Llama2 LLM 类见,简单的调用代码示例如下。
2024-11-15
免费的语言ai学习工具
以下为您推荐一些免费的语言 AI 学习工具: LingoDeer:https://www.lingodeer.com/ 这是一款使用游戏和互动活动来教孩子英语的应用程序。它提供各种课程,涵盖从字母和数字到更高级的语法和词汇。还具有家长仪表板,方便跟踪孩子的进度并设置学习目标。 Busuu:https://www.busuu.com/ 是另一个流行的语言学习应用程序,提供英语和其他多种语言的课程。使用各种教学方法,包括音频课程、视频课程和互动练习,还有社区功能,可让孩子与来自世界各地的其他孩子练习英语口语。 Memrise:https://www.memrise.com/ 一款使用抽认卡和游戏来教孩子英语的应用程序。提供各种课程,涵盖从基本词汇到更高级的会话技巧,具有社交功能,可与朋友和家人一起学习。 Rosetta Stone:https://www.rosettastone.com/ 语言学习程序,使用沉浸式方法教孩子英语,让孩子在自然环境中使用英语,具有语音识别功能,帮助练习发音。 Duolingo:https://www.duolingo.com/ 免费的语言学习应用程序,提供英语和其他多种语言的课程,使用游戏化方法让学习有趣。 在为孩子选择 AI 工具时,要考虑他们的年龄、兴趣和学习风格,还需考虑应用程序的功能和成本。 另外,使用 AI 学习一门外语还可以通过以下方式和工具: 语言学习平台: FluentU:使用真实世界的视频,通过 AI 生成个性化的词汇和听力练习。选择学习语言,观看视频并完成相关练习,积累词汇和提升听力理解能力。 Memrise:结合 AI 技术,根据学习者的记忆曲线提供复习和练习,增强记忆效果。选择学习语言,使用应用提供的词汇卡和练习进行学习。 发音和语法检查: Speechling:提供口语练习和发音反馈,帮助学习者改进口音和发音准确性。录制语音,提交给 AI 系统或人类教练,获取反馈和改进建议。 Grammarly:可以帮助提高写作的语法和词汇准确性,支持多种语言。将写作内容粘贴到 Grammarly 编辑器中,获取语法和词汇改进建议。 实时翻译和词典工具: Google Translate:提供实时翻译、语音输入和图像翻译功能,适合快速查找和学习新词汇。输入或语音输入需要翻译的内容,查看翻译结果和示例句子。 Reverso Context:提供单词和短语的翻译及上下文例句,帮助理解和学习用法。输入单词或短语,查看翻译和例句,学习实际使用场景。 语言学习应用: Duolingo:使用 AI 个性化学习体验,根据进度和错误调整练习内容。通过游戏化方式提供词汇、语法、听力和口语练习。下载应用,选择要学习的语言,按课程指引学习。 Babbel:结合 AI 技术,提供个性化课程和练习,重点在于实际交流所需的语言技能。注册账户,选择语言课程,按学习计划学习。 Rosetta Stone:使用动态沉浸法,通过 AI 分析学习进度,提供适合的练习和反馈。注册并选择学习语言,使用多种练习模式(听力、口语、阅读和写作)学习。 AI 对话助手: ChatGPT:可用来模拟对话练习,提高语言交流能力。在聊天界面选择目标语言,与 AI 进行对话练习。可询问语法、词汇等问题,甚至模拟实际交流场景。 Google Assistant:支持多种语言,可用来进行日常对话练习和词汇学习。设置目标语言,通过语音命令或文本输入与助手进行互动,练习日常用语。
2024-11-16
语言学习
以下是关于使用 AI 学习语言的相关内容: Claude3 在语言学习方面的表现: Claude3 在语言学习方面展现出了出色的能力。对于复杂的语言任务,如翻译和分析不寻常的句子、处理复杂的文学段落、新闻文章以及不同语法和书写系统的文本,Claude3 都表现出了对语言结构的深刻理解,能够智能推断未知词汇、恰当使用借词、给出可信的词源分析,并保持原文风格进行翻译。在与 GPT4 的对比测试中,Claude3 表现出色,而 GPT4 则完全失败。 使用 AI 学习一门外语的方法和工具: 1. 语言学习平台: FluentU:使用真实世界的视频,通过 AI 生成个性化的词汇和听力练习。选择学习语言,观看视频并完成相关练习,积累词汇和提升听力理解能力。 Memrise:结合 AI 技术,根据学习者的记忆曲线提供复习和练习,增强记忆效果。选择学习语言,使用应用提供的词汇卡和练习进行学习。 2. 发音和语法检查: Speechling:提供口语练习和发音反馈,帮助学习者改进口音和发音准确性。录制语音,提交给 AI 系统或人类教练,获取反馈和改进建议。 Grammarly:可以帮助提高写作的语法和词汇准确性,支持多种语言。将写作内容粘贴到 Grammarly 编辑器中,获取语法和词汇改进建议。 3. 实时翻译和词典工具: Google Translate:提供实时翻译、语音输入和图像翻译功能,适合快速查找和学习新词汇。输入或语音输入需要翻译的内容,查看翻译结果和示例句子。 Reverso Context:提供单词和短语的翻译及上下文例句,帮助理解和学习用法。输入单词或短语,查看翻译和例句,学习实际使用场景。 4. 语言学习应用: Duolingo:使用 AI 个性化学习体验,根据进度和错误调整练习内容,通过游戏化方式提供词汇、语法、听力和口语练习。下载应用,选择要学习的语言,并按照课程指引进行学习。 Babbel:结合 AI 技术,提供个性化的课程和练习,重点在于实际交流所需的语言技能。注册账户,选择语言课程,按照学习计划进行学习。 Rosetta Stone:使用动态沉浸法,通过 AI 分析学习进度,提供适合的练习和反馈。注册并选择学习语言,使用多种练习模式(听力、口语、阅读和写作)进行学习。 5. AI 对话助手: ChatGPT:可用来模拟对话练习,帮助提高语言交流能力。在聊天界面选择目标语言,与 AI 进行对话练习。可以询问语法、词汇等问题,甚至模拟实际交流场景。 Google Assistant:支持多种语言,可用来进行日常对话练习和词汇学习。设置目标语言,通过语音命令或文本输入与助手进行互动,练习日常用语。
2024-11-16
我是一名资讯人员,早会分享脑机接口,时间只有10分钟,希望使用通俗易懂的语言分享,重点说说脑机的应用实例。
以下是为您整理的关于脑机接口的分享内容: 脑机接口的应用实例: 1. 斯坦福大学开发的 NOIR 脑机接口系统,能够通过脑电波操作机器人执行任务,并在 20 项家务活动中成功应用。这一项目意义重大,未来有望帮助残疾人提升生活质量。 脑机接口的工作原理: 1. 分为输入端和输出端。输入端是填充和消费不同模态的内容,如音频、文本、视频,AI 能加速消化过程,提高学习主动性,且双向可提问。 2. 输出端是利用知识解决手头工作或完成目标,极端情况下自己借助知识干活,或者让 AI 助理基于收藏或保存的知识点完成任务,如写文章、输出代码。 关于脑机接口适合的应用场景,目前如对长视频进行快速获取信息的总结等。
2024-11-16
什么是知识库,以及他的运作原理是什么,请用小白也能理解的语言进行说明
知识库可以用比较通俗的方式来理解: 想象一个大语言模型就像一个非常聪明、读过无数书的人,但对于一些特定的工作场景中的细节,比如见到老板娘过来吃饭要打三折,张梦飞过去吃饭要打骨折,它可能并不清楚。这时候,知识库就像是给这个聪明的人发的一本工作手册。 从更专业的角度来说,知识库的运作原理通常包括以下几个步骤: 1. 文档加载:从各种不同的来源,比如 PDF、SQL 数据、代码等加载相关的文档。 2. 文本分割:把加载的文档分割成指定大小的块,称为“文档块”或“文档片”。 3. 存储:这包括两个环节,一是将分割好的文档块进行嵌入,转换成向量的形式;二是将这些向量数据存储到向量数据库中。 4. 检索:当需要使用数据时,通过某种检索算法从向量数据库中找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给大语言模型,大语言模型会根据问题和检索出来的提示一起生成更合理的答案。 以车型数据为例,每个知识库的分段中保存了一种车型的基础数据。当用户问宝马 X3 的售价是多少时,就能匹配到对应车型的分段,然后从其中获取到售价信息。 海外官方文档:https://www.coze.com/docs/zh_cn/knowledge.html 国内官方文档:https://www.coze.cn/docs/guides/use_knowledge
2024-11-13
现在国内语言生成式AI有多少个在做的,比如说百度的文心一言和阿里的通义
目前国内在做语言生成式 AI 的有不少,例如百度的文心一言、阿里的通义千问、讯飞的讯飞星火、智谱华章的智谱清言、字节跳动的豆包、腾讯的元宝、昆仑万维的天工 AI 等。 此外,还有一些在特定时间上线的大模型,如 8 月正式上线的包括北京的百度(文心一言)、抖音(云雀大模型)、智谱 AI(GLM 大模型)、中科院(紫东太初大模型)、百川智能(百川大模型),上海的商汤(日日新大模型)、MiniMax(ABAB 大模型)、上海人工智能实验室(书生通用大模型)。 需要注意的是,不同的大模型具有各自的特点和功能,在使用和应用场景上可能存在差异。
2024-11-06
大语言模型综述论文有哪些
以下是一些大语言模型的综述论文: 参考文献: B.Wang, W.Chen, H.Pei, C.Xie, M.Kang, C.Zhang, C.Xu, Z.Xiong, R.Dutta, R.Schaeffer 等,“Decodingtrust:GPT 模型中信任度的全面评估”,arXiv 预印本 arXiv:2306.11698,2023。 Z.Zhang, L.Lei, L.Wu, R.Sun, Y.Huang, C.Long, X.Liu, X.Lei, J.Tang, 和 M.Huang, “Safetybench:使用多项选择题评估大型语言模型的安全性”,2023。 X.Shen, Z.Chen, M.Backes, Y.Shen, 和 Y.Zhang, “现在就做任何事:在大型语言模型上表征和评估野外越狱提示”,arXiv 预印本 arXiv:2308.03825,2023。 X.Liu, N.Xu, M.Chen, 和 C.Xiao, “Autodan:在对齐的大型语言模型上生成隐蔽的越狱提示”,arXiv 预印本 arXiv:2310.04451,2023。 S.Zhu, R.Zhang, B.An, G.Wu, J.Barrow, Z.Wang, F.Huang, A.Nenkova, 和 T.Sun, “Autodan:对大型语言模型的可解释梯度基对抗攻击”,2023。 A.Zhou, B.Li, 和 H.Wang, “针对越狱攻击保护语言模型的强健提示优化”,arXiv 预印本 arXiv:2401.17263,2024。 X.Guo, F.Yu, H.Zhang, L.Qin, 和 B.Hu, “Coldattack:用隐蔽性和可控性越狱 LLMs”,2024。 T.Shen, R.Jin, Y.Huang, C.Liu, W.Dong, Z.Guo, X.Wu, Y.Liu, 和 D.Xiong, “大型语言模型对齐:一项调查”,arXiv 预印本 arXiv:2309.15025,2023 年。 X.Liu, X.Lei, S.Wang, Y.Huang, Z.Feng, B.Wen, J.Cheng, P.Ke, Y.Xu, W.L.Tam, X.Zhang, L.Sun, H.Wang, J.Zhang, M.Huang, Y.Dong, 和 J.Tang, “Alignbench:大型语言模型中文对齐的基准测试”,2023 年。 P.Christiano, J.Leike, T.B.Brown, M.Martic, S.Legg, 和 D.Amodei, “基于人类偏好的深度强化学习”,2023 年。 T.Yu, Y.Yao, H.Zhang, T.He, Y.Han, G.Cui, J.Hu, Z.Liu, H.T.Zheng, M.Sun, 和 T.S.Chua, “RLHFV:通过细粒度校正人类反馈实现可信赖的 MLLMs 行为对齐”,2023 年。 M.S.Jahan 和 M.Oussalah, “使用自然语言处理进行仇恨言论自动检测的系统综述。”,《神经计算》,第 126232 页,2023 年。 OpenAI, “Sora 安全。”https://openai.com/sorasafety,2024 年。 Z.Fei, X.Shen, D.Zhu, F.Zhou, Z.Han, S.Zhang, K.Chen, Z.Shen, 和 J.Ge, “Lawbench:大型语言模型的法律知识基准测试”,arXiv 预印本 arXiv:2309.16289,2023 年。 市场分析 其他观点 相关论文: :斯坦福大学对基础模型的概述论文。 :年度回顾,涵盖 AI 领域的所有事物。 :对大型语言模型(LLMs)在劳动力市场潜在影响的早期研究。 :Eric Topol 医生揭示了人工智能如何有可能将医生从耗费大量时间的任务中解放出来,从而不会干扰到人与人之间的连接。
2024-11-02