Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

国内能通过对话微调的语言大模型

Answer

以下是国内一些能通过对话微调的语言大模型:

  • 教育领域:桃李(Taoli)
    • 地址:https://github.com/blcuicall/taoli
    • 简介:在国际中文教育领域数据上进行了额外训练的模型,基于国际中文教育教材等构建资源库和问答数据集,并利用数据进行指令微调,让模型习得将知识应用到具体场景中的能力。
  • 数学领域:chatglm-maths
    • 地址:https://github.com/yongzhuo/chatglm-maths
    • 简介:基于 chatglm-6b 微调/LORA/PPO/推理的数学题解题大模型,样本为自动生成的整数/小数加减乘除运算,可 gpu/cpu 部署,开源了训练数据集等。
  • 文化领域:Firefly
    • 地址:https://github.com/yangjianxin1/Firefly
    • 简介:中文对话式大语言模型,构造了许多与中华文化相关的数据,如对联、作诗、文言文翻译、散文、金庸小说等,以提升模型在这方面的表现。
  • 金融领域:
    • Cornucopia(聚宝盆)
      • 地址:https://github.com/jerry1993-tech/Cornucopia-LLaMA-Fin-Chinese
      • 简介:开源了经过中文金融知识指令精调/指令微调(Instruct-tuning)的 LLaMA-7B 模型。通过中文金融公开数据+爬取的金融数据构建指令数据集,并在此基础上对 LLaMA 进行了指令微调,提高了 LLaMA 在金融领域的问答效果。基于相同的数据,后期还会利用 GPT3.5 API 构建高质量的数据集,另在中文知识图谱-金融上进一步扩充高质量的指令数据集。
    • BBT-FinCUGE-Applications
    • XuanYuan(轩辕)
      • 地址:https://github.com/Duxiaoman-DI/XuanYuan
      • 简介:国内首个开源的千亿级中文对话大模型,同时也是首个针对中文金融领域优化的千亿级开源对话大模型。在 BLOOM-176B 的基础上针对中文通用领域和金融领域进行了针对性的预训练与微调,不仅可以应对通用领域的问题,也可以解答金融相关的各类问题,为用户提供准确、全面的金融信息和建议。
Content generated by AI large model, please carefully verify (powered by aily)

References

02-基础通识课

[title]02-基础通识课[heading1]智能纪要[heading2]总结大语言模型的介绍与原理国内大模型的分类:国内大模型有通用模型如文心一言、讯飞星火等,处理自然语言;还有垂直模型,专注特定领域如小语种交流、临床医学、AI蛋白质结构预测等。大模型的体验:以‘为什么我爸妈结婚的时候没有邀请我参加婚礼’和‘今天我坐在凳子上’为例,体验了Kimi、通义千问、豆包等大模型的回答和续写能力,发现回复有差异,且大模型基于统计模型预测生成内容。大语言模型的工作原理:大语言模型工作原理包括训练数据、算力、模型参数,在训练数据一致情况下,模型参数越大能力越强,参数用b链形容大小。Transformer架构:Transformer是大语言模型训练架构,17年出现用于翻译,具备自我注意力机制能理解上下文和文本关联,其工作原理是单词预测,通过嵌入、位置编码、自注意力机制生成内容,模型调教中有控制输出的temperature。关于大语言模型的原理、应用及相关概念Transformer模型原理:通过不断检索和匹配来寻找依赖关系,处理词和词之间的位置组合,预测下一个词的概率,是一个偏向概率预测的统计模型。大模型幻觉:大模型通过训练数据猜测下一个输出结果,可能因错误数据导致给出错误答案,优质数据集对其很重要。Prompt的分类和法则:分为system prompt、user prompt和assistant prompt,写好prompt的法则包括清晰说明、指定角色、使用分隔符、提供样本等,核心是与模型好好沟通。Fine tuning微调:基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。RAG概念:未对RAG的具体内容进行详细阐述,仅提出了这个概念。

LLM开源中文大语言模型及数据集集合

桃李(Taoli):地址:[https://github.com/blcuicall/taoli](https://github.com/blcuicall/taoli)简介:一个在国际中文教育领域数据上进行了额外训练的模型。项目基于目前国际中文教育领域流通的500余册国际中文教育教材与教辅书、汉语水平考试试题以及汉语学习者词典等,构建了国际中文教育资源库,构造了共计88000条的高质量国际中文教育问答数据集,并利用收集到的数据对模型进行指令微调,让模型习得将知识应用到具体场景中的能力。[heading5][heading5]数学[content]chatglm-maths:地址:[https://github.com/yongzhuo/chatglm-maths](https://github.com/yongzhuo/chatglm-maths)简介:基于chatglm-6b微调/LORA/PPO/推理的数学题解题大模型,样本为自动生成的整数/小数加减乘除运算,可gpu/cpu部署,开源了训练数据集等。[heading5][heading5]文化[content]Firefly:地址:[https://github.com/yangjianxin1/Firefly](https://github.com/yangjianxin1/Firefly)简介:中文对话式大语言模型,构造了许多与中华文化相关的数据,以提升模型这方面的表现,如对联、作诗、文言文翻译、散文、金庸小说等。

LLM开源中文大语言模型及数据集集合

Cornucopia(聚宝盆):基于中文金融知识的LLaMA微调模型地址:[https://github.com/jerry1993-tech/Cornucopia-LLaMA-Fin-Chinese](https://github.com/jerry1993-tech/Cornucopia-LLaMA-Fin-Chinese)简介:开源了经过中文金融知识指令精调/指令微调(Instruct-tuning)的LLaMA-7B模型。通过中文金融公开数据+爬取的金融数据构建指令数据集,并在此基础上对LLaMA进行了指令微调,提高了LLaMA在金融领域的问答效果。基于相同的数据,后期还会利用GPT3.5 API构建高质量的数据集,另在中文知识图谱-金融上进一步扩充高质量的指令数据集。BBT-FinCUGE-Applications地址:[https://github.com/ssymmetry/BBT-FinCUGE-Applications](https://github.com/ssymmetry/BBT-FinCUGE-Applications)简介:开源了中文金融领域开源语料库BBT-FinCorpus,中文金融领域知识增强型预训练语言模型BBT-FinT5及中文金融领域自然语言处理评测基准CFLEB。XuanYuan(轩辕):首个千亿级中文金融对话模型地址:[https://github.com/Duxiaoman-DI/XuanYuan](https://github.com/Duxiaoman-DI/XuanYuan)简介:轩辕是国内首个开源的千亿级中文对话大模型,同时也是首个针对中文金融领域优化的千亿级开源对话大模型。轩辕在BLOOM-176B的基础上针对中文通用领域和金融领域进行了针对性的预训练与微调,它不仅可以应对通用领域的问题,也可以解答与金融相关的各类问题,为用户提供准确、全面的金融信息和建议。

Others are asking
如何做 deepseek 微调
要进行 DeepSeek 微调,以下是一些相关的知识和步骤: 1. 模型蒸馏微调:会带着大家复现模型的蒸馏和微调,并讲解相关知识。用 Deepseek RE Zero 蒸馏出带思考的数据,基于 Deepseek V3 微调,进行冷启动,再做强化学习,还从非公布模型提取微调数据,加上人类偏好,最终形成 R1。 2. 本地部署介绍:如果拥有云服务器,可以进行本地部署,了解满血版本地部署的实际情况。 3. 免费额度说明:在 freely.aliyun.com 可领取 500 元免费额度,但有使用限制,不能部署满血版和较大的增流模型。 4. 平台服务差异:了解 DLC、DSW 和 EAS 等模型部署平台服务的差别。 5. 对于微调的全过程,建议阅读 Unsloth 笔记本和 HuggingFace 的《如何微调开放式 LLMs》,也可以使用《如何在一小时内阅读论文》作为指南。 6. 更加完善的训练说明,可直接阅读官方论文:DeepSeekAI《DeepSeekR1:Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》https://arxiv.org/html/2501.12948
2025-04-08
怎么本地部署ai模型,并进行微调
以下是本地部署 AI 模型并进行微调的主要步骤: 1. 选择合适的部署方式:包括本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源:确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础:可以使用开源的预训练模型如 BERT、GPT 等,也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练:根据具体应用场景对预训练模型进行微调训练,优化模型结构和训练过程以提高性能。 5. 部署和调试模型:将训练好的模型部署到生产环境,对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护:大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 此外,关于本地部署还有以下相关内容: 如果拥有云服务器如何进行本地部署,以及满血版本地部署的实际情况。 在 freely.aliyun.com 可领取 500 元免费额度,但有使用限制,不能部署满血版和较大的增流模型。 介绍了 DLC、DSW 和 EAS 等模型部署平台服务的差别。 会带着大家复现模型的蒸馏和微调,并讲解相关知识。 PaaS 平台支持多机分布式部署,满足推理性能要求,使用独占资源和专有网络,能一站式完成模型蒸馏。 登录 Pad 控制台,通过 model gallery 进行部署,如 Deepseek R1 模型,可选择 SG 浪或 Vim 推理框架,根据资源出价,部署后可在模型在线服务 EAS 查看状态。 介绍了模型 API 的调用方法,包括查找位置、获取 token 等,强调使用后要及时停止或删除服务以避免持续付费。 总的来说,部署和训练自己的 AI 模型需要综合考虑多方面因素,包括部署方式、数据准备、模型训练、部署调试以及安全性等。需要根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。
2025-03-27
微调大模型的优势与运用的功能场景是什么?微调具体步骤是?
微调大模型具有以下优势和运用的功能场景: 优势: 提高模型在特定任务中的性能:可以输入更多示例,经过微调的模型在特定任务中表现更好,虽然可能会失去一些通用性。 提高模型效率:实现更低的延迟和更低的成本,可通过专门化模型使用更小的模型,且只对输入输出对进行训练,舍弃示例或指令进一步改善延迟和成本。 功能场景:适用于需要在特定领域(如法律、医学等)获得更优表现的情况。 微调大模型的具体步骤如下: 从参数规模的角度,大模型的微调分成两条技术路线:全量微调(FFT)和参数高效微调(PEFT)。全量微调是对全量的模型参数进行全量的训练,PEFT 则只对部分模型参数进行训练。从成本和效果综合考虑,PEFT 是目前业界较流行的微调方案。 微调是在较小的、特定领域的数据集上继续大模型的训练过程,通过调整模型本身的参数来提高性能。 您可以参考 OpenAI 官方微调教程:https://github.com/openai/openaicookbook/blob/main/examples/How_to_finetune_chat_models.ipynb
2025-03-23
lora微调
LoRA 微调相关内容如下: 微调脚本: LoRA 微调脚本见:,单机多卡的微调可通过修改脚本中的include localhost:0 来实现。 全量参数微调脚本见:。 加载微调模型: 基于 LoRA 微调的模型参数见:基于 Llama2 的中文微调模型,LoRA 参数需要和基础模型参数结合使用。通过加载预训练模型参数和微调模型参数,示例代码中,base_model_name_or_path 为预训练模型参数保存路径,finetune_model_path 为微调模型参数保存路径。 对于全量参数微调的模型,调用方式同模型调用代码示例,只需要修改其中的模型名称或者保存路径即可。 此外,在 Comfyui AnimateDiff 项目中,有一个关键的 lora 对图像模型进行了微调,lora 地址为 https://huggingface.co/guoyww/animatediff/blob/main/v3_sd15_adapter.ckpt,lora 的强度越高,画面越稳定,但需在合理范围。 在 100 基础训练大模型的 Lora 生图中,模型上的数字代表模型强度,可在 0.61.0 之间调节,默认为 0.8。您也可以自己添加 lora 文件。正向提示词输入您写的提示词,可选择基于提示词一次性生成几张图,选择生成图片的尺寸(横板、竖版、正方形)。采样器和调度器新手小白可默认,迭代步数可在 2030 之间调整,CFG 可在 3.57.5 之间调整,随机种子1 代表随机生成图。所有设置完成后,点击开始生成,生成的图会显示在右侧。若某次生成结果不错,想要微调或高分辨率修复,可点开图,下滑复制随机种子,粘贴到随机种子处,下次生成的图会与此次结果近似。若确认合适的种子和参数,想要高清放大,点开高清修复,选择放大倍数,新手小白可默认算法,迭代步数建议在 2030 之间,重回幅度在 0.30.7 之间调整。
2025-03-22
lora微调
LoRA 微调相关内容如下: 微调脚本: LoRA 微调脚本见:,单机多卡的微调可通过修改脚本中的include localhost:0 来实现。 全量参数微调脚本见:。 加载微调模型: 基于 LoRA 微调的模型参数见:基于 Llama2 的中文微调模型,LoRA 参数需要和基础模型参数结合使用。通过加载预训练模型参数和微调模型参数,示例代码中,base_model_name_or_path 为预训练模型参数保存路径,finetune_model_path 为微调模型参数保存路径。 对于全量参数微调的模型,调用方式同模型调用代码示例,只需要修改其中的模型名称或者保存路径即可。 此外,在 Comfyui AnimateDiff 项目中,有一个关键的 lora 对图像模型进行了微调,lora 地址为 https://huggingface.co/guoyww/animatediff/blob/main/v3_sd15_adapter.ckpt,lora 的强度越高,画面越稳定,但需在合理范围。 在 100 基础训练大模型的 Lora 生图中,模型上的数字代表模型强度,可在 0.61.0 之间调节,默认为 0.8。您也可以自己添加 lora 文件。正向提示词输入您写的提示词,可选择基于提示词一次性生成几张图,选择生成图片的尺寸(横板、竖版、正方形)。采样器和调度器新手小白可默认,迭代步数可在 2030 之间调整,CFG 可在 3.57.5 之间调整,随机种子1 代表随机生成图。所有设置完成后,点击开始生成,生成的图会显示在右侧。若某次生成结果不错,想要微调或高分辨率修复,可点开图,下滑复制随机种子,粘贴到随机种子处,下次生成的图会与此次结果近似。若确认合适的种子和参数,想要高清放大,点开高清修复,选择放大倍数,新手小白可默认算法,迭代步数建议在 2030 之间,重回幅度在 0.30.7 之间调整。
2025-03-22
lora微调
LoRA 微调相关内容如下: 微调脚本: LoRA 微调脚本见:,单机多卡的微调可通过修改脚本中的include localhost:0 来实现。 全量参数微调脚本见:。 加载微调模型: 基于 LoRA 微调的模型参数见:基于 Llama2 的中文微调模型,LoRA 参数需要和基础模型参数结合使用。通过加载预训练模型参数和微调模型参数,示例代码中,base_model_name_or_path 为预训练模型参数保存路径,finetune_model_path 为微调模型参数保存路径。 对于全量参数微调的模型,调用方式同模型调用代码示例,只需要修改其中的模型名称或者保存路径即可。 此外,在 Comfyui AnimateDiff 项目中,有一个关键的 lora 对图像模型进行了微调,lora 地址为 https://huggingface.co/guoyww/animatediff/blob/main/v3_sd15_adapter.ckpt,lora 的强度越高,画面越稳定,但需在合理范围。 在 100 基础训练大模型的 Lora 生图中,模型上的数字代表模型强度,可在 0.61.0 之间调节,默认为 0.8。您也可以自己添加 lora 文件。正向提示词输入您写的提示词,可选择基于提示词一次性生成几张图,选择生成图片的尺寸(横板、竖版、正方形)。采样器和调度器新手小白可默认,迭代步数可在 2030 之间调整,CFG 可在 3.57.5 之间调整,随机种子1 代表随机生成图。所有设置完成后,点击开始生成,生成的图会显示在右侧。若某次生成结果不错,想要微调或高分辨率修复,可点开图,下滑复制随机种子,粘贴到随机种子处,下次生成的图会与此次结果近似。若确认合适的种子和参数,想要高清放大,点开高清修复,选择放大倍数,新手小白可默认算法,迭代步数建议在 2030 之间,重回幅度在 0.30.7 之间调整。
2025-03-22
有没有可以实现多段对话的AI,用于中医问诊模型
以下是一些可以用于中医问诊模型且能实现多段对话的 AI 相关信息: Polaris:医疗护理保健模型,能和患者进行多轮语音对话,媲美人类护士。详细信息:http://xiaohu.ai/p/5407 ,https://x.com/imxiaohu/status/1774644903546618298?s=20 在 LLM 开源中文大语言模型及数据集集合中,有以下针对医疗领域的模型: DoctorGLM:地址:https://github.com/xionghonglin/DoctorGLM 。基于 ChatGLM6B 的中文问诊模型,通过中文医疗对话数据集进行微调,实现了包括 lora、ptuningv2 等微调及部署。 BenTsao:地址:https://github.com/SCIRHI/HuatuoLlamaMedChinese 。开源了经过中文医学指令精调/指令微调的 LLaMA7B 模型。通过医学知识图谱和 GPT3.5 API 构建了中文医学指令数据集,并在此基础上对 LLaMA 进行了指令微调,提高了 LLaMA 在医疗领域的问答效果。 BianQue:地址:https://github.com/scutcyr/BianQue 。一个经过指令与多轮问询对话联合微调的医疗对话大模型,基于 ClueAI/ChatYuanlargev2 作为底座,使用中文医疗问答指令与多轮问询对话混合数据集进行微调。 HuatuoGPT:地址:https://github.com/FreedomIntelligence/HuatuoGPT 。开源了经过中文医学指令精调/指令微调的一个 GPTlike 模型。
2025-04-08
excel表格导出的用户的对话记录,来进行自定义标签并打标,有哪些好用的现成方案或者工具
目前在 Excel 表格导出的用户对话记录进行自定义标签并打标方面,以下是一些常见且好用的工具和方案: 1. Microsoft Excel 本身:可以利用其数据筛选、排序和函数功能来辅助标签和打标。 2. Google Sheets:具有类似 Excel 的功能,且在线协作方便。 3. R 语言:通过编程实现复杂的数据分析和标签处理。 4. Python 及相关库,如 Pandas:能够灵活处理数据和进行标签操作。 但具体选择哪种方案或工具,取决于您的具体需求、技术水平和使用习惯。
2025-04-07
有哪些节点式AI对话工具
以下是一些节点式 AI 对话工具: 1. Coze 中的问答节点: 是 Coze 工作流中的重要组件,能让机器人主动收集用户信息,实现更自然的对话交互。 可收集用户具体需求和信息,引导用户选择特定功能或服务,确保获取完整必要信息。 有两种问答方式:直接回答模式,用户用自然语言自由回答,bot 提取关键信息;选项回答模式,提供预设选项供用户选择,适用于功能选择菜单、分步骤引导、服务类型分类等。 配置说明包括选择执行此节点的模型、设置输入参数、提问内容、回答类型和输出等。 2. Coze 中的图像流节点: 专门用于图像处理,可通过可视化操作添加图像处理节点构建流程生成图像。 图像流发布后可在智能体或工作流中使用。 3. Coze 中的大模型节点: 调用大语言模型,使用变量和提示词生成回复。 模型方面,基础版和专业版按需使用,专业版支持接入更多模型资源。 模型选择右下角有生成多样性设置,包括精确模式、平衡模式和创意模式。 输入包括智能体对话历史、参数名与变量值,变量值可引用前面链接过的节点的输出或进行输入。
2025-03-28
你好,我想做一个英语入场情景对话的Ai图文视频小红书账号,请给我写个机场值机的对话
以下是为您生成的一个机场值机的英语情景对话,您可以根据这个对话来制作相关的 Ai 图文视频小红书内容: A: Good morning. Can I help you? B: Yes, I'd like to check in for my flight. A: May I see your passport and ticket, please? B: Here you are. A: Thank you. Are you checking any luggage? B: Yes, I have two suitcases. A: OK. Please put them on the scale. B: All right. A: Your luggage is within the weight limit. Here's your boarding pass. Your seat is 15A. B: Thank you. What time does boarding start? A: Boarding will begin at 10:30. B: Great. Thank you very much. A: Have a nice flight!
2025-03-27
ai每次使用都要打开一个新对话吗,日常怎么管理ai的对话,让内容不凌乱
在使用 AI 时,开启新对话在大部分情况下几乎是必然的。为了让新对话中的内容尽量准确还原之前的风格,您可以采取以下方式来管理对话,避免内容凌乱: 1. 让 AI 总结当前的美学风格,并记录下来。这可以是一段文字,也可以同时生成一个 CSS 样式并保存。例如记录颜色、布局、字体等方面的信息。 2. 在多次会话中完成一个项目时,保持代码风格和架构的一致性是一个挑战。这可能需要定期回顾和总结已完成的部分,为 AI 提供清晰的编码指南,并在每次新会话开始时重申项目的整体结构。 3. 与 AI 沟通时,要像管理员工一样,前期投入精力清晰简洁地描述具体要求。例如在生成 PPT 样式时,尽量在 5 次对话内得到理想模板,若超过 5 次效果仍差很远,可考虑清除上下文或重新开启新对话。 4. 对于生成的 PPT 模板风格,您可以选择让 AI 记住直接进入下一阶段,或者让其抽象成一种它能理解的风格。前者速度快,适用于临时出几页 PPT;后者能在一定程度上保证风格的精确性,但在单次对话下多次生成对 token 的消耗较大。
2025-03-26
能使用对话生成 figma 设计稿的网站有哪些
以下是一些能使用对话生成 Figma 设计稿的网站: 1. Figma to HTML:这是 Figma 用于生成 html 文件的小插件,适用于 Figma 设计稿,使用方法为在设计好的界面中,右击 Plugins Figma to HTML,选取设计稿并设置转换目标为 html 文件,点击 Convert 后开始下载,得到 html 文件。 2. Literally Anything:优点是极其方便,可用于获得复杂网页的部分小组件的代码;缺点是功能单一,很难实现精美网页。使用方法是描述想要生成的网页,点击 Edit Code 显示 html 代码。 3. Stunning:优点是便捷,制作的网页较为精美;缺点是灵活性不高。使用方法为点击 New Website 新建,根据需求选择对应的模版,和 Stunning AI 交流设计需求。 4. GPTs Instant Website :使用方法暂未提及。 5. Texttofigma:可以对话生成 Figma 设计稿,目前来看还比较初级。 6. Master GO:国内模仿 Figma 的软件之一,公布了自己的 AI 能力,即对话生成设计稿。 7. 即时 AI:推出了 AI 能力的预告,但目前还是期货。
2025-03-23
我想要系统学习ai大模型应用开发,能帮我制定一个系统学习路线吗?
以下是一个系统学习 AI 大模型应用开发的学习路线: 1. 掌握深度学习和自然语言处理基础: 学习机器学习、深度学习、神经网络等基础理论。 掌握自然语言处理基础,如词向量、序列模型、注意力机制等。 相关课程:吴恩达的深度学习课程、斯坦福 cs224n 等。 2. 理解 Transformer 和 BERT 等模型原理: 熟悉 Transformer 模型架构及自注意力机制原理。 掌握 BERT 的预训练和微调方法。 研读相关论文,如 Attention is All You Need、BERT 论文等。 3. 学习 LLM 模型训练和微调: 进行大规模文本语料预处理。 熟悉 LLM 预训练框架,如 PyTorch、TensorFlow 等。 微调 LLM 模型进行特定任务迁移。 相关资源:HuggingFace 课程、论文及开源仓库等。 4. LLM 模型优化和部署: 掌握模型压缩、蒸馏、并行等优化技术。 进行模型评估和可解释性研究。 实现模型服务化、在线推理、多语言支持等。 相关资源:ONNX、TVM、BentoML 等开源工具。 5. LLM 工程实践和案例学习: 结合行业场景,进行个性化的 LLM 训练。 分析和优化具体 LLM 工程案例。 研究 LLM 新模型、新方法的最新进展。 6. 持续跟踪前沿发展动态: 关注顶会最新论文、技术博客等资源。 7. 参与相关社区交流和项目实践: 总的来说,AI 大模型应用开发是一个多学科、系统性的领域,需要深入的理论学习和工程实践经验相结合。除了学习基础知识,熟练使用开源框架工具也很关键。保持对前沿动态的跟踪,并实际参与相关项目是获得真知灼见的最佳途径。 此外,以下是一个利用 AI+SMART 安排学习计划的案例: 学习目标与个人或职业发展目标的关系:平时工作中需要经常阅读英文文档。另外,有朋友和客户是英文母语者,想要和他们沟通更加顺畅。其次,希望未来有机会进入大型外企工作。 具体学习内容:首先是词汇需要提高,其次听力、口语、阅读和写作这些方面都进行全面提高。 量化学习进度和成功:以考取雅思 8.0,且可以和朋友或客户流利的交谈为目标。 时间框架:半年内。 现实可行性:目前雅思 6.5,每天可以投入 2 小时。周末可以更多。有访问网络课程的条件,也可以购买书籍或其他学习材料。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-04-08
有哪些支持超长上下文的大模型
以下是一些支持超长上下文的大模型: Scout:支持 1000 万上下文,适合处理超长文本和复杂推理任务。 Maverick:具有 100 万上下文,长记忆优势适配多场景替代 RAG。 Behemoth:2 万亿参数级别的大模型在训,已超越 GPT4.5 在 STEM 表现。 Claude2100k 模型的上下文上限是 100k Tokens,即 100000 个 token。 ChatGPT16k 模型的上下文上限是 16k Tokens,即 16000 个 token。 ChatGPT432k 模型的上下文上限是 32k Tokens,即 32000 个 token。 需要注意的是,token 限制同时对一次性输入和一次对话的总体上下文长度生效。例如,一次性输入不能超过规定的 token 数量,而且随着对话的进行,当达到上限时,会遗忘最前面的对话内容。
2025-04-08
你都融合了哪些大语言模型?
以下是一些融合的大语言模型: 1. LuotuoChineseLLM: 地址: 简介:囊括一系列中文大语言模型开源项目,包含基于已有开源模型(ChatGLM、MOSS、LLaMA)进行二次微调的语言模型、指令微调数据集等。 2. Linly: 地址: 简介:提供中文对话模型 LinlyChatFlow、中文基础模型 LinlyChineseLLaMA 及其训练数据。中文基础模型以 LLaMA 为底座,利用中文和中英平行增量预训练。项目汇总了目前公开的多语言指令数据,对中文模型进行了大规模指令跟随训练,实现了 LinlyChatFlow 对话模型。 3. ChatYuan: 地址: 简介:元语智能发布的一系列支持中英双语的功能型对话语言大模型,在微调数据、人类反馈强化学习、思维链等方面进行了优化。 4. ChatRWKV: 地址: 简介:开源了一系列基于 RWKV 架构的 Chat 模型(包括英文和中文),发布了包括 Raven,NovelChnEng,NovelCh 与 NovelChnEngChnPro 等模型,可以直接闲聊及进行诗歌、小说等创作,包括 7B 和 14B 等规模的模型。 此外,还有以下相关信息: 1. 本地部署资讯问答机器人: Ollama 支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,可用于不同应用场景。 Ollama 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 cpu 和 gpu。 Ollama 提供模型库,用户可从中下载不同模型,有不同参数和大小以满足需求和硬件条件,可通过 https://ollama.com/library 查找。 用户可通过简单步骤自定义模型,如修改温度参数调整创造性和连贯性,或设置特定系统消息。 Ollama 提供 REST API 用于运行和管理模型,以及与其他应用程序的集成选项。 Ollama 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 2. AIGC 落地应用大全中的案例: Poe(强烈推荐): 推荐指数:🌟🌟🌟🌟🌟 由 Quora 开发,有 APP 版本,支持跨端使用。 集成了 Chat GPT、GPT4、Claude+、Claude、Dragonfly 等模型,同时支持用户自建 Chatbot。 不同语言模型回复效果有差异,适合需要调用多种大语言模型的用户。 Dragonfly 擅长给出较短回答,并擅长在输入中给出示例时遵循指示。 Claude 更擅长创造性回复,配合 Poe 中的提问引导,非常适合在查阅资料时使用,有时能够给出超越直接使用 Chat GPT 时的体验(但和 Chat GPT 一样,Claude 也时常会给出一些错误回复,一些问题可在两个模型中都问一遍提升信息准确性)。 此外支持分享用户和模型的对话内容。但 GPT4、Claude+产品需要付费订阅使用。 访问地址: Poe 中的提问引导真的能够启发到用户。 支持 Explore Chatbot,但丰富度不如后续要介绍的 Character。 midjourney prompt 扩写 Chatbot 能力很惊人。
2025-04-08
你好,你是基于哪个大语言模型的人工智能?
我并非基于某个特定的大语言模型。AI 领域中的语言模型众多,例如 GPT3 等。大语言模型通常是使用深度学习和神经网络创建的,基于人类训练数据来理解单词、代码语法等。像生成式 AI 可以生成文本、图片、音频、视频等内容形式,其中包括大语言模型。2017 年 6 月,谷歌团队发表的论文《Attention is All You Need》首次提出了 Transformer 模型,它基于自注意力机制处理序列数据,不依赖于循环神经网络或卷积神经网络。
2025-04-08
开源flux模型如何快速使用
以下是关于开源 Flux 模型快速使用的方法: 1. 模型的下载: 如果因为环境问题,可以在网盘中下载。 siglipso400mpatch14384(视觉模型):siglip 由 Google 开发的视觉特征提取模型,负责理解和编码图像内容。工作流程包括接收输入图像、分析图像的视觉内容并将这些视觉信息编码成一组特征向量。打开 ComfyUI\models\clip,在地址栏输入 CMD 回车,打开命令行,输入下面的命令拉取模型(也可以在网盘里下载)。 image_adapter.pt(适配器):连接视觉模型和语言模型,优化数据转换。工作流程包括接收来自视觉模型的特征向量、转换和调整这些特征,使其适合语言模型处理。通过 https://huggingface.co/spaces/fancyfeast/joycaptionprealpha/tree/main/wpkklhc6 下载,放到 models 的 Joy_caption 文件夹里,如果该文件夹不存在,就新建一个。 MetaLlama3.18Bbnb4bit(语言模型):大型语言模型,负责生成文本描述。工作流程包括接收经过适配器处理的特征、基于这些特征生成相应的文本描述、应用语言知识来确保描述的连贯性和准确性。打开 ComfyUI\models\LLM,地址栏输入 CMD 回车,在命令行里面输入下面命令。 2. 下载地址: ae.safetensors 和 flux1dev.safetensors 下载地址:https://huggingface.co/blackforestlabs/FLUX.1dev/tree/main 。 准备了夸克和百度的网盘链接,方便部分同学下载: flux 相关模型(体积较大)的夸克网盘链接:https://pan.quark.cn/s/b5e01255608b 。 flux 相关模型(体积较大)的百度网盘链接:https://pan.baidu.com/s/1mCucHrsfRo5SttW03ei0g?pwd=ub9h 提取码:ub9h 。 如果 GPU 性能不足、显存不够,底模可以使用 fp8 的量化版模型,速度会快很多,下载地址:https://huggingface.co/Kijai/fluxfp8/tree/main 。 3. 工作流下载: 最后我们再下载 dev 的工作流: 。或者下面官方原版的图片链接,图片导入 comfyUI 就是工作流:https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png 。我们打开 ComfyUI,把工作流或图片拖拽到 ComfyUI 里。
2025-04-08
大模型应用开发岗位需要掌握什么
大模型应用开发岗位通常需要掌握以下内容: 1. 编程思维和 Python 基础。 2. 认识大模型 Embedding 技术,包括理论知识和代码实战。 3. 在构建模型应用方面: 根据项目需求选择合适的开发框架。 了解业务背后的深层次需求,设定流程环节以确保模型能解决实际问题。 在每个环节精心设计提示词,引导模型提供准确有用的回复。 确保应用在提供服务时遵守安全和伦理标准。 通过不断测试和迭代优化模型性能和用户体验。 成功部署应用后持续维护和更新以适应需求变化。 4. 提示词的精细设计和调试,因为其直接影响模型的输出质量和应用效果。 5. 对于智能体构建,了解动态推理智能体情感设定,以制作更有情商的智能体。
2025-04-08
大语言模型能力排行榜
以下是一些大语言模型能力排行榜的相关信息: Open LLM Leaderboard: 地址: 简介:由HuggingFace组织的一个LLM评测榜单,目前已评估了较多主流的开源LLM模型。评估主要包括AI2 Reasoning Challenge、HellaSwag、MMLU、TruthfulQA四个数据集上的表现,主要以英文为主。 chinesellmbenchmark: 地址: 简介:中文大模型能力评测榜单,覆盖百度文心一言、chatgpt、阿里通义千问、讯飞星火、belle/chatglm6b等开源大模型,多维度能力评测。不仅提供能力评分排行榜,也提供所有模型的原始输出结果。 聊天机器人竞技场:由伯克利的一个团队管理,根据ELO评级对不同的语言模型进行排名,计算ELO的方式与国际象棋中的计算方式非常相似。 智源评测:豆包模型在其中表现出色,荣获大语言模型第一,视觉理解第二、文生图第二、文生视频第二,在匿名投票竞技场中排名第二,仅次于OpenAI。 地址:
2025-03-31
自然语言转换为sql
以下是关于自然语言转换为 SQL 的相关信息: DuckDBNSQL7B 模型能够将自然语言转换成 SQL 代码,使非专业用户能轻松与数据库交互,它基于大量真实和合成的 DuckDB SQL 查询训练。相关链接:https://github.com/NumbersStationAI/DuckDBNSQL 、https://x.com/xiaohuggg/status/1751081213459415164?s=20 Claude 官方提示词中有将日常语言变成 SQL 查询语句的相关内容。 以下是一些推荐的 text2sql 相关的 AI 工具及其链接: Text2SQL:将英文转换为 SQL 查询。链接:https://toolske.com/text2sql/?ref=theresanaiforthat ai2sql:高效且无错误的 SQL 构建器。链接:https://www.ai2sql.io/ EverSQL:从 SQL 查询翻译英文文本。链接:https://www.eversql.com/sqltotext/ SupaSQL:从 NLP 生成 SQL 查询。链接:https://supasql.com/ SQLgenius:使用自然语言的 SQL 查询生成器。链接:https://sqlgenius.app/ SQL Chat:与数据库进行自然语言聊天的 SQL 客户端。链接:https://www.sqlchat.ai/ SQL Ease:从自然语言输入生成 SQL 查询。链接:https://sqlease.buildnship.in/ Talktotables:翻译和查询数据库。链接:https://talktotables.com/ 此外,还有几个知名的 text2sql 项目,如 SQLNet(使用深度学习方法解决 text2sql 任务的项目)、Seq2SQL(将自然语言转换为 SQL 查询的序列到序列模型)、Spider(一个大规模的 text2sql 数据集及其相关的挑战)
2025-03-31
flowith根据自然语言构建一个直接使用的工作流吗,如何向flowith提出要求
Flowith 可以根据自然语言构建工作流。即使没有专业编程技能,只要能用清晰的自然语言描述出想要的各个 Agents 具备的行为和功能,就可以快速制作多 Agents 应用或创建代理式工作流。 使用工作流的步骤如下: 1. 配置工作流: 在 Code 节点内使用 IDE 工具,通过 AI 自动生成代码或编写自定义代码逻辑,来处理输入参数并返回响应结果。 该节点支持 JavaScript、Python 运行时,需注意不同运行时的特定事项。 可在 IDE 底部单击尝试 AI,并输入自然语言设定代码逻辑,也可选中代码片段通过快捷键唤起 AI 并输入自然语言让其修改代码。 2. 通过工作流数据库节点操作数据表: 在工作流中添加数据库节点对数据表进行操作,可通过 NL2SQL 方式和代码方式进行调用,支持完整读写模式。 参考以下操作添加并配置工作流节点: 单击页面顶部的工作流页签,然后单击创建工作流。 输入工作流名称和使用描述,然后单击确认。 在基础节点页签下,将数据库节点拖入到工作流配置画布区域。 根据相关信息配置数据库节点,包括输入添加 SQL 执行中需要的参数,输入要执行的 SQL 语句,可单击自动生成使用大模型生成 SQL。 需注意不支持 Select语法、多表 Join 操作,最多返回 100 行数据。在配置数据库节点前,要确保已经搭建了一个 Bot,并在这个 Bot 中创建好了数据表。
2025-03-26
好用的大语言模型
目前好用的大语言模型有以下几种: 1. OpenAI 的 GPT4:是最先进和广泛使用的大型语言模型之一,在多种任务上表现卓越,包括文本生成、理解、翻译以及各种专业和创意写作任务。 2. Anthropic 公司的 Claude 3:在特定领域和任务上表现出色。 3. 谷歌的 Gemini。 4. 百度的文心一言。 5. 阿里巴巴的通义大模型:通义千问 2.0 在代码、上下文对话基础能力上排名国内第一,各项能力较为均衡,位于国内大模型第一梯队。适用于金融、医疗、汽车等垂直专业场景,以及代码生成与纠错、实时搜索信息、通用工具调用、办公等场景。 6. OPPO 的 AndesGPT:具有对话增强、个性专属和端云协同三大技术特征,已接入 OPPO 智能助理新小布,可用于用机助手、内容创作、超级问答、专属 AI、日程管理等全新能力,聚焦在移动设备端的应用。 7. 百川智能的 Baichuan213BChat:在逻辑推理、知识百科、生成与创作、上下文对话等基础能力上排名 200 亿参数量级国内模型第一,可应用场景广泛且可以私有化部署。 如果想了解国内的大模型效果,可以参考第三方基准评测报告: 。请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-03-26