直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

哪一个开源大语言模型对中文支持比较好?

回答

以下是一些对中文支持较好的开源大语言模型:

  1. OpenChineseLLaMA:
    • 地址:https://github.com/OpenLMLab/OpenChineseLLaMA
    • 简介:基于 LLaMA-7B 经过中文数据集增量预训练产生的中文大语言模型基座,对比原版 LLaMA,该模型在中文理解能力和生成能力方面均获得较大提升,在众多下游任务中均取得了突出的成绩。
  2. BELLE:
    • 地址:https://github.com/LianjiaTech/BELLE
    • 简介:开源了基于 BLOOMZ 和 LLaMA 优化后的一系列模型,同时包括训练数据、相关模型、训练代码、应用场景等,也会持续评估不同训练数据、训练算法等对模型表现的影响。
  3. Panda:
    • 地址:https://github.com/dandelionsllm/pandallm
    • 简介:开源了基于 LLaMA-7B,-13B,-33B,-65B 进行中文领域上的持续预训练的语言模型,使用了接近 15M 条数据进行二次预训练。
  4. Llama2-Chinese-13b-Chat:
    • 地址:[https://link.zhihu.com/?target=https%3A//huggingface.co/FlagAlpha/Llama2-Chinese-13b-Chat]
  5. Gemma-7b-it:
    • 地址:[https://link.zhihu.com/?target=https%3A//huggingface.co/google/gemma-7b-it]

此外,AndesGPT 在语言理解与抽取、角色扮演能力上排名国内前一,在代码、生成与创作、上下文对话能力上排名国内前三,各项能力较为均衡,聚焦在移动设备端的应用。Baichuan2-13B-Chat 是百川智能自主训练的开源大语言模型,是中文开源模型的主导力量。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

LLM开源中文大语言模型及数据集集合

OpenChineseLLaMA:地址:[https://github.com/OpenLMLab/OpenChineseLLaMA](https://github.com/OpenLMLab/OpenChineseLLaMA)简介:基于LLaMA-7B经过中文数据集增量预训练产生的中文大语言模型基座,对比原版LLaMA,该模型在中文理解能力和生成能力方面均获得较大提升,在众多下游任务中均取得了突出的成绩。BELLE:地址:[https://github.com/LianjiaTech/BELLE](https://github.com/LianjiaTech/BELLE)简介:开源了基于BLOOMZ和LLaMA优化后的一系列模型,同时包括训练数据、相关模型、训练代码、应用场景等,也会持续评估不同训练数据、训练算法等对模型表现的影响。Panda:地址:[https://github.com/dandelionsllm/pandallm](https://github.com/dandelionsllm/pandallm)简介:开源了基于LLaMA-7B,-13B,-33B,-65B进行中文领域上的持续预训练的语言模型,使用了接近15M条数据进行二次预训练。

2023年度中文大模型基准测评报告.pdf

AndesGPT在语言理解与抽取、角色扮演能力上排名国内前一,在代码、生成与创作、上下文对话能力上排名国内前三。在专业技能和语言任务上均有不俗表现,综合来看,AndesGPT是一个各项能力较为均衡的大模型,在国内大模型厂商中比较有竞争力。适合应用:AndesGPT聚焦在移动设备端的应用。主要涵盖四个方向:知识、记忆、工具、创作。目前AndesGPT已支持使用“系统设置、一方应用、三方服务、代码解释器”等各类工具。并且AndesGPT已全面支持文生文、文生图等场景,可以为用户提供真实有用的技能。优秀模型:Baichuan2-13B-Chat(百川智能)[heading4]简介:[content]Baichuan2-13B-Chat是百川智能自主训练的开源大语言模型。百川智能于6月15日开源Baichuan1、9月6日开源Baichuan2,10月31日发布Baichuan2192K。是中文开源模型的主导力量。

信鑫:基于大模型 + 知识库的 Code Review 实践

CR Copilot功能的核心在于大语言模型基座,基于不同大模型基座生成的CR质量也不尽相同。对于CR这个场景,我们需要选型的模型满足以下几个条件:理解代码对中文支持好较强的上下文学习能力FlagEval 8月大模型评测榜单(https://flageval.baai.ac.cn/#/trending)模型后面的-{n}b指n*10亿参数量,比如13b就是130亿参数,个人试用下来参数量的多少并不能决定效果怎样,根据实际情况来判断。起初在众多大模型中选择『[gemma-7b-it](https://link.zhihu.com/?target=https%3A//huggingface.co/google/gemma-7b-it)』、『[Llama2-Chinese-13b-Chat](https://link.zhihu.com/?target=https%3A//huggingface.co/FlagAlpha/Llama2-Chinese-13b-Chat)』和『[chatglm2-6b](https://link.zhihu.com/?target=https%3A//huggingface.co/THUDM/chatglm2-6b)』、『[Baichuan2-13B-Chat](https://link.zhihu.com/?target=https%3A//huggingface.co/baichuan-inc/Baichuan2-13B-Chat)』,通过一段时间模型赛马,主观上感觉Gemma、Llama2会更适用于CR场景,而ChatGLM2更像是文科生,对代码评审没有太多建设性建议,但在中文AIGC上会比较有优势!两个模型执行过程中的记录

其他人在问
开源的开源的 LLM 微调推理,agent开发平台
以下是为您整理的关于开源的 LLM 微调推理、agent 开发平台的相关内容: LLM 作为 Agent 的“大脑”的特点: 1. 知识获取能力:通过预训练学习大量语言数据,掌握丰富语言信息和常识知识,能处理多种任务。 2. 指令理解:擅长解析人类语言指令,采用深度神经网络进行自然语言理解和生成,精准理解意图。 3. 泛化能力:在未见过的数据上表现良好,能利用先前知识处理新挑战,形成对语言结构的通用理解。 4. 推理和规划:能够进行逻辑推理和未来预测,分析条件制定最佳行动方案,在复杂环境中做出理性选择。 5. 交互能力:拥有强大对话能力,在多人多轮次对话中自然流畅交流,改善用户体验。 6. 自我改进:基于用户反馈和效果评估,通过调整参数、更新算法提升性能和准确性。 7. 可扩展性:可根据具体需求定制化适配,针对特定领域数据微调提高处理能力和专业化水平。 相关产品和平台: 1. ComfyUI:可在其中高效使用 LLM。 2. Vercel AI SDK 3.0:开源的工具,可将文本和图像提示转换为 React 用户界面,允许开发者创建丰富界面的聊天机器人。 3. OLMo7BInstruct:Allen AI 开源的微调模型,可通过资料了解从预训练模型到 RLHF 微调模型的所有信息并复刻微调过程。 4. Devv Agent:能提供更准确、详细的回答,底层基于 Multiagent 架构,根据需求采用不同 Agent 和语言模型。 实例探究: 1. ChemCrow:特定领域示例,通过 13 个专家设计的工具增强 LLM,完成有机合成、药物发现和材料设计等任务。 2. Boiko et al. 研究的 LLM 授权的科学发现 Agents:可处理复杂科学实验的自主设计、规划和执行,能使用多种工具。
2024-12-12
开源大模型训练推理,应用开发agent 平台
以下是一些关于开源大模型训练推理、应用开发 agent 平台的相关信息: Agent 构建平台: Coze:新一代一站式 AI Bot 开发平台,集成丰富插件工具,适用于构建各类问答 Bot。 Mircosoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,可将 Copilot 部署到多种渠道。 文心智能体:百度推出的基于文心大模型的智能体平台,支持开发者打造产品能力。 MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识等,并访问第三方数据和服务或执行工作流。 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于客服、营销、销售等场景,提供多种成熟模板。 钉钉 AI 超级助理:依托钉钉优势,在处理高频工作场景如销售、客服、行程安排等方面表现出色。 Gemini 相关:大型语言模型的推理能力在构建通用 agents 方面有潜力,如 AlphaCode 团队构建的基于 Gemini 的 agent 在解决竞争性编程问题方面表现出色。同时,Gemini Nano 提升了效率,在设备上的任务中表现出色。 成为基于 Agent 的创造者的学习路径:未来的 AI 数字员工以大语言模型为大脑串联工具。Agent 工程如同传统软件工程学有迭代范式,包括梳理流程、任务工具化、建立规划、迭代优化。数字员工的“进化论”需要在 AI 能力基础上对固化流程和自主思考作出妥协和平衡。
2024-12-12
对企业来说直接用开源大模型和用国内大厂收费的大模型有哪些区别
对于企业来说,直接使用开源大模型和使用国内大厂收费的大模型主要有以下区别: 数据方面: 开源大模型的数据获取相对容易,但数据质量可能参差不齐。例如,OpenAI 训练大模型所用的中文数据虽源自中国互联网平台,但经过了深度处理,而国内中文互联网数据质量普遍被认为相对较低。 国内大厂收费的大模型可能在数据处理和质量上更具优势,但获取高质量数据对于企业尤其是初创企业来说成本较高且存在风险。 商业化落地方面: 客户在商业化落地时更关注实用性而非原创性,有时因成本低会倾向选择开源大模型的非原创技术。 但使用开源大模型可能存在拼装和套壳后强调原创,从而影响迭代能力,导致内耗、刷榜和作假等问题。 其他方面: 金沙江创投主管合伙人朱啸虎指出,使用大模型要有垂直行业数据,能实现数据闭环,并持续保持和客户的连接。对于大厂而言,要关心自身边界,而创业公司必须对客户和大厂有自身价值才能立足。 目前国内大模型的商业化落地仍处于拿着锤子找钉子的阶段,预计到今年年底头部大模型能基本达到 3.5 水平,明年 11 月有望到 4,但真正能落地的商业化场景有限。
2024-12-07
最新的开源的关于大语言模型的书有哪些?
以下是一些最新的开源的关于大语言模型的书籍和资源: 《LLM 开源中文大语言模型及数据集集合》: Awesome Totally Open Chatgpt: 地址: 简介:This repo record a list of totally open alternatives to ChatGPT. AwesomeLLM: 地址: 简介:This repo is a curated list of papers about large language models, especially relating to ChatGPT. It also contains frameworks for LLM training, tools to deploy LLM, courses and tutorials about LLM and all publicly available LLM checkpoints and APIs. DecryptPrompt: 地址: 简介:总结了 Prompt&LLM 论文,开源数据&模型,AIGC 应用。 Awesome Pretrained Chinese NLP Models: 地址: 简介:收集了目前网上公开的一些高质量中文预训练模型。 《AIGC Weekly 19》:包含了多篇相关文章,如腾讯的开源图像模型 Stable Diffusion 入门手册、马丁的关于 AIGC 的碎片化思考、多邻国创始人 Luis von Ahn 专访、Meta AI 发布的自监督学习 CookBook 等。 《进阶:a16z 推荐进阶经典》: 《GPT4 technical report》(2023 年):来自 OpenAI 的最新和最伟大的论文。 《LLaMA:Open and efficient foundation language models》(2023 年):来自 Meta 的模型。 《Alpaca:A strong,replicable instructionfollowing model》(2023 年):来自斯坦福大学的模型。
2024-12-03
强化学习+开源代码
以下是关于强化学习的开源代码入门指南: 1. 基础知识准备: 若概率论和线性代数基础薄弱,可利用周末约一天时间学习相关课程,若不关注公式可忽略。 若机器学习基础为零,先看吴恩达课程,再以李宏毅课程作补充,若仅为入门强化学习,看李宏毅课程前几节讲完神经网络部分即可,此课程约需 25 小时。 2. 动手实践: 跟随《动手学深度学习 https://hrl.boyuai.com/》学习并写代码,入门看前五章,约 10 小时。 观看 B 站王树森的深度学习课程前几节学习强化学习基础知识点,约 5 小时。 3. 项目实践: 参考《动手学强化学习》(已开源 https://hrl.boyuai.com/),看到 DQN 部分,约十几小时。 模型构建:DQN 的网络模型采用一层 128 个神经元的全连接并以 ReLU 作为激活函数,选用简单的两层网络结构。 缓存区:需要一个缓存区来存放从环境中采样的数据。 训练函数:批量从缓存区获取数据,使用 DQN 算法进行训练。 主循环函数:在每个 episode 中,选择一个动作(使用 εgreedy 策略),执行该动作,并将结果存储在 replay buffer 中。训练完使用保存好的 model.pth 参数即可实际使用。 4. Qlearning 算法: 比如在状态 s1 上,根据 Q 值表选择行动,如发现向下行动 Q 值最大则向下走。获取 Q(s1,下)乘上衰减值 gamma(如 0.9)并加上到达下一个状态的奖励 R,作为“Q 现实”,之前根据 Q 表得到的是“Q 估计”。通过公式更新 Q(s1,下)的值,公式为:。 算法流程:初始化 Q,for 序列 e = 1 > E do: 用 ε Greedy 策略根据 Q 选择当前状态 s 下的动作 a,得到环境反馈的 r,s‘,得到初始状态 s,for 时间步 t = 1> T do: ,End for,End for。启动程序训练 100 次后可较好进行游戏。
2024-11-21
强化学习+开源代码
以下是关于强化学习的开源代码入门指南: 1. 基础知识准备: 若概率论和线性代数基础薄弱,可在周末约一天时间学习相关课程,若不关注公式可忽略。 若机器学习基础薄弱,先看吴恩达课程,再以李宏毅课程作补充,若仅为入门强化学习,看李宏毅课程前几节讲完神经网络部分即可,此视频课程约需 25 小时。 2. 动手实践: 跟随《动手学深度学习 https://hrl.boyuai.com/》动手学习概念并写代码,入门看前五章,约 10 小时。 观看 B 站王树森的深度学习课程前几节学习强化学习基础知识点,约 5 小时。 3. 项目实践: 参考《动手学强化学习》(已开源 https://hrl.boyuai.com/),看到 DQN 部分,约十几小时。 模型构建:DQN 的网络模型采用一层 128 个神经元的全连接并以 ReLU 作为激活函数,选用简单的两层网络结构。 数据缓存:需要一个缓存区来存放从环境中采样的数据。 训练函数:批量从缓存区获取数据,使用 DQN 算法进行训练。 主循环函数:在每个 episode 中,选择一个动作(使用 εgreedy 策略),执行该动作,并将结果存储在 replay buffer 中。训练完使用保存好的 model.pth 参数即可实际使用。 4. Qlearning 算法流程: 初始化 Q。 for 序列 e = 1 > E do: 用 ε Greedy 策略根据 Q 选择当前状态 s 下的动作 a,得到环境反馈的 r,s‘,得到初始状态 s。 for 时间步 t = 1> T do: End for。 End for。 例如,在当前智能体处于 s1 状态时,会在表中找最大 Q 值对应的行动。获取 Q(s1,下)乘上衰减值 gamma(如 0.9)并加上到达下一个状态时的奖励 R,作为现实中 Q(s1,下)的值(即“Q 现实”),之前根据 Q 表得到的 Q(s1,下)是“Q 估计”。有了“Q 现实”和“Q 估计”,可按公式更新 Q(s1,下)的值。公式中,α是学习率,γ是对未来 reward 的衰减值。启动程序训练 100 次后可较好地进行游戏。
2024-11-21
中文播客生成
以下是关于中文播客生成的相关信息: NotebookLM 中文版平替:输入 url,生成中文播客,可一键发布小宇宙,开源地址为 https://github.com/lihuithe/podlmpublic 。 NotebookLlama:Meta 的播客生成教程,使用 Llama 模型从 PDF 中提取文本生成干净的.txt 文件,转化文本为播客转录创造富有创意的内容,对转录进行戏剧化处理提高互动性和吸引力,最终将文本转换为播客音频,支持多种 TTS 模型。详细介绍:https://xiaohu.ai/p/15036 ,GitHub:https://github.com/metallama/llamarecipes/tree/main/recipes/quickstart/NotebookLlama 。 此外,播客一词于 2004 年提出,由“iPod”“broadcast”两个词合并而成,多数围绕音乐、电台。AI 播客降低了播客的制作门槛,增加了内容的多样性,但也可能造成劣币驱逐良币和信息茧房效应加剧。综合来看,播客和短视频都属于泛娱乐类,区别在于注意力和知识密度体系。
2024-12-12
我想找一款AI应用,需求是将英文PDF翻译为中文pdf
以下是一些可以将英文 PDF 翻译为中文 PDF 的 AI 应用和方法: 1. DeepL(网站):点击页面「翻译文件」按钮,上传 PDF、Word 或 PowerPoint 文件即可。 2. 沉浸式翻译(浏览器插件):安装插件后,点击插件底部「更多」按钮,选择「制作双语 BPUB 电子书」、「翻译本地 PDF 文件」、「翻译 THML/TXT 文件」、「翻译本地字幕文件」。 3. Calibre(电子书管理应用):下载并安装 calibre,并安装翻译插件「Ebook Translator」。 4. 谷歌翻译(网页):使用工具把 PDF 转成 Word,再点击谷歌翻译「Document」按钮,上传 Word 文档。 5. 百度翻译(网页):点击导航栏「文件翻译」,上传 PDF、Word、Excel、PPT、TXT 等格式的文件,支持选择领域和导出格式(不过进阶功能基本都需要付费)。 6. 彩云小译(App):下载后点击「文档翻译」,可以直接导入 PDF、DOC、DOCX、PPT、PPTX、TXT、epub、srt 等格式的文档并开始翻译(不过有免费次数限制且进阶功能需要付费)。 7. 微信读书(App):下载 App 后将 PDF 文档添加到书架,打开并点击页面上方「切换成电子书」,轻触屏幕唤出翻译按钮。 8. 浏览器自带的翻译功能:如果一些 PDF 太大,翻译工具不支持,除了将 PDF 压缩或者切分外,还可以转成 HTML 格式,然后使用浏览器自带的网页翻译功能。 内容由 AI 大模型生成,请仔细甄别。
2024-12-12
arxiv翻译成中文有哪些神器
以下是一些将 arxiv 翻译成中文的工具和方法: 1. 安装浏览器插件“沉浸式翻译(https://immersivetranslate.com)”,支持多种浏览器,多个翻译服务。将 arxiv PDF 论文原地址域名中的 x 更换成 5 即变成可访问的 HTML 版本链接,然后使用“沉浸式翻译”进行原文阅读。 2. 以下是 8 种翻译英文 PDF 为中文的方法,也适用于 arxiv 相关文档: DeepL(网站):点击页面「翻译文件」按钮,上传 PDF、Word 或 PowerPoint 文件即可。 沉浸式翻译(浏览器插件):安装插件后,点击插件底部「更多」按钮,选择「制作双语 BPUB 电子书」、「翻译本地 PDF 文件」、「翻译 THML / TXT 文件」、「翻译本地字幕文件」 。 calibre(电子书管理应用):下载并安装 calibre,并安装翻译插件「Ebook Translator」 。 谷歌翻译(网页):使用工具把 PDF 转成 Word,再点击谷歌翻译「Document」按钮,上传 Word 文档。 百度翻译(网页):点击导航栏「文件翻译」,上传 PDF、Word、Excel、PPT、TXT 等格式的文件,支持选择领域和导出格式(不过进阶功能基本都需要付费了)。 彩云小译(App):下载后点击「文档翻译」,可以直接导入 PDF、PDF、Word、Excel、PPT、TXT、epub、srt 等格式的文档并开始翻译(不过有免费次数限制且进阶功能需要付费)。 微信读书(App):下载 App 后将 PDF 文档添加到书架,打开并点击页面上方「切换成电子书」,轻触屏幕唤出翻译按钮。 浏览器自带的翻译功能:如果一些 PDF 太大,翻译工具不支持,除了将 PDF 压缩或者切分外,还可以转成 HTML 格式,然后使用浏览器自带的网页翻译功能。
2024-12-07
中文大模型
以下是关于中文大模型的相关信息: 中文大模型基准测评 2023 年度报告中的测评模型列表: 9. Qwen72BChat:阿里巴巴开源的 72B 的 Chat 版本 22. 讯飞星火 V3.0:科大讯飞官方发布的 V3.0 版本的 API 10. 序列猴子:出门问问官方发布的 API 版本 23. Minimax:稀宇科技官方网页版产品【应事】 11. Yi34BChat:零一万物开源的 34B 的 Chat 版本 24. ChatGLM36B:清华&智谱 AI 开源的第三代 6B 版本 12. PCITransGPT:佳都科技小范围内测 API 版本 25. ChineseAlpaca213B:yiming cui(个人开发者)个人开源的基于 Llama2 的汉化版中文模型 13. 360GPT_Pro:360 360 智脑的 API 升级版本 Pro 26. Llama_2_13B_Chat:Meta 官方开源的 2 代 13B 的 Chat 版本。本次测评数据选取了 SuperCLUE12 月测评结果,模型选取了国内外有代表性的 26 个大模型在 12 月份的版本。 专项基准中的 SuperCLUE 基准专业与技能: 测评表现:在专业技能与知识的测评中,GPT4 Turbo 领先幅度较大,总分 97 分是唯一过 90 分且接近满分的大模型。国内大模型中文心一言 4.0 表现不俗,取得 79.62 的高分。较 GPT4 的 API 版本仅低 1.53 分,是国内模型中唯一接近 80 分的大模型。仅随其后的是通义千问 2.0、Moonshot 等模型。其中有 11 个大模型有超过 GPT3.5 的表现。 开源模型中,阿里云的 Qwen72BChat 表现可圈可点,是国内开源模型中唯一超过 60 分的模型。总体来看,在专业与知识能力上,国内第一梯队大模型与国外最好模型依然有较大距离,但差距正在不断缩小。 Llama 中文大模型: 已经基于大规模中文数据,从预训练开始对 Llama2 模型进行中文能力的持续迭代升级。 相关链接: Llama 中文大模型:https://github.com/LlamaFamily/LlamaChinese 在线体验:https://llama.family 基于 Llama2 的开源中文预训练大模型 Atom7B:https://huggingface.co/FlagAlpha/Atom7BChat
2024-12-03
有哪些好用的中文文档AI校对工具,能够校对拼音的那种
目前市面上较为好用的能够校对中文文档拼音的 AI 校对工具相对较少。一些常见的文字处理软件如 WPS 可能具备一定的拼音校对功能,但在专业性和准确性上可能存在不足。建议您持续关注相关领域的发展,以获取最新、更优质的工具信息。
2024-11-29
中文AI图像生成app
以下是为您推荐的中文 AI 图像生成 app: 1. 可灵:由快手团队开发,主要用于生成高质量的图像和视频。图像质量高,但价格相对较高,重度用户年费可能达几千元,平均每月使用成本在 400 到 600 元之间,临时或轻度使用有每日免费点数和 60 多元单月的最便宜包月选项。 2. 通义万相:在中文理解和处理方面表现出色,用户可选择多种艺术和图像风格,生成图像质量高、操作界面简洁直观。重点是现在免费,每天签到获取灵感值即可。但存在一些局限性,如某些类型图像因国内监管要求无法生成,处理非中文语言或国际化内容可能不如国际工具出色,处理多元文化内容可能存在偏差。 另外,根据视频脚本生成短视频的 AI 工具有: 1. ChatGPT + 剪映:ChatGPT 生成视频小说脚本,剪映根据脚本自动分析并生成素材和文本框架,可快速实现文字到画面转化。 2. PixVerse AI:在线 AI 视频生成工具,支持将多模态输入转化为视频。 3. Pictory:AI 视频生成器,用户提供文本描述即可生成相应视频内容。 4. VEED.IO:提供 AI 图像和脚本生成器,帮助用户从图像制作视频并规划内容。 5. Runway:能够将文本转化为风格化视频内容,适用于多种场景。 6. 艺映 AI:专注于人工智能视频领域,提供文生视频、图生视频、视频转漫等服务。 以下是图像生成的部分排名靠前的产品(数据截至 6 月): |排行|产品名|分类|6 月访问量(万 Visit)|相对 5 月变化| |||||| |21|SnapEdit Allinone AI Photo Editor|图像生成|354|0.151| |22|Craiyon|图像生成|353|0.139| |23|Remini|图像生成|340|0.206| |24|Getimg.ai|图像生成|338|0.009| |25|pornx.ai|图像生成|326|0.05| |26|kittl|图像生成|300|0.06| |27|made.porn|图像生成|282|0.153| |28|Stable Diffusion stabilit|图像生成|271|0.067| |29|sexy.ai|图像生成|259|0.091| |30|liblib.art|图像生成|249|0.069|
2024-11-25
推荐一个AI工具,帮助我每天自动执行以下步骤:从本地上传文件给大模型,该文件内含有新闻网页链接,大模型读取链接并汇总内容
以下为您推荐的 AI 工具可能有助于您实现每天自动执行从本地上传文件给大模型,并让大模型读取文件内新闻网页链接并汇总内容的需求: 1. AI 拍立得(Pailido): 特点:即拍即得,简化流程,操作直观高效。 体验方式:微信小程序搜索“Pailido”。 交互逻辑:用户选择拍摄场景类型并拍照,AI 自动识别和分析照片内容信息,依据预设场景规则迅速生成符合情境的反馈。 实现场景: 图片转成文本:用户上传图片后,大模型根据选择的场景生成相关文字描述或解说文本,可用于生成美食点评、朋友圈发布文案、闲鱼上架示例模版等。 图片转绘图片:用户上传图片后,大模型按照指定风格快速生成图像的转绘版本,适应不同风格和场景需求,如图片粘土风、图片积木风、图片像素风等。 2. 内容仿写 AI 工具: 秘塔写作猫:https://xiezuocat.com/ ,是 AI 写作伴侣,能推敲用语、斟酌文法、改写文风,实时同步翻译,支持全文改写、一键修改、实时纠错并给出修改建议,智能分析文章属性并打分。 笔灵 AI 写作:https://ibiling.cn/ ,是智能写作助手,支持多种文体写作,如心得体会、公文写作、演讲稿、小说、论文等,支持一键改写/续写/扩写,智能锤炼打磨文字。 腾讯 Effidit 写作:https://effidit.qq.com/ ,由腾讯 AI Lab 开发的智能创作助手,能提升写作者的写作效率和创作体验。 更多 AI 写作类工具可以查看:https://www.waytoagi.com/sites/category/2 。请注意,内容由 AI 大模型生成,请仔细甄别。
2024-12-21
如何利用AGI创建3D打印的模型
利用 AGI 创建 3D 打印模型的方法如下: 1. 将孩子的画转换为 3D 模型: 使用 AutoDL 部署 Wonder3D:https://qa3dhma45mc.feishu.cn/wiki/Pzwvwibcpiki2YkXepaco8Tinzg (较难) 使用 AutoDL 部署 TripoSR:https://qa3dhma45mc.feishu.cn/wiki/Ax1IwzWG6iDNMEkkaW3cAFzInWe (小白一学就会) 具体实物(如鸟/玩偶/汽车)的 3D 转换效果最佳,wonder3D 能智能去除背景(若效果不佳,需手动扣除背景) 对于一些非现实类玩偶类作品,wonder3D 识别效果不佳时,可先使用 StableDiffusion 将平面图转换为伪 3D 效果图再生成模型。以 usagi 为例,先通过 SD 生成 3D 的 usagi,再将 usagi 输入 wonder3D。 2. 生成特定模型,如创建一个乐高 logo 的 STL 文件: 设计乐高 logo:使用矢量图形编辑软件(如 Adobe Illustrator 或 Inkscape)创建或获取矢量格式的乐高 logo,确保符合标准。 导入 3D 建模软件:将矢量 logo 导入到 3D 建模软件(如 Blender、Fusion 360 或 Tinkercad)中。 创建 3D 模型:在 3D 建模软件中根据矢量图形创建 3D 模型,调整尺寸和厚度以适合打印。 导出 STL 文件:将完成的 3D 模型导出为 STL 文件格式。 以下是在 Blender 中使用 Python 脚本创建简单 3D 文本作为乐高 logo 并导出为 STL 文件的步骤: 打开 Blender,切换到“脚本编辑器”界面。 输入脚本,点击“运行脚本”按钮,Blender 将创建 3D 文本对象并导出为 STL 文件。 检查生成的 STL 文件,可根据需要调整脚本中的参数(如字体、位置、挤压深度等)以获得满意的乐高 logo 3D 模型。 此外,还有一些其他动态: 阿里妈妈发布了:https://huggingface.co/alimamacreative/FLUX.1TurboAlpha ,演示图片质量损失小,比 FLUX schell 本身好很多。 拓竹旗下 3D 打印社区 Make World 发布 AI:https://bambulab.com/zh/signin ,3D 生成模型找到落地和变现路径。 上海国投公司搞了一个:https://www.ithome.com/0/801/764.htm ,基金规模 100 亿元,首期 30 亿元,并与稀宇科技(MiniMax)、阶跃星辰签署战略合作协议。 智谱的:https://kimi.moonshot.cn/ 都推出基于深度思考 COT 的 AI 搜索。 字节跳动发布:https://mp.weixin.qq.com/s/GwhoQ2JCMQwtLN6rsrJQw ,支持随时唤起豆包交流和辅助。 :https://x.com/krea_ai/status/1844369566237184198 ,集成了海螺、Luma、Runway 和可灵四家最好的视频生成模型。 :https://klingai.kuaishou.com/ ,现在可以直接输入文本指定对应声音朗读,然后再对口型。
2024-12-20
如何通过提示词提高模型数据对比和筛选能力
以下是一些通过提示词提高模型数据对比和筛选能力的方法: 1. 选择自定义提示词或预定义话题,在网站上使用如 Llama3.1 8B Instruct 模型时,输入对话内容等待内容生成,若右边分析未刷新可在相关按钮间切换。由于归因聚类使用大模型,需稍作等待,最终结果可能因模型使用的温度等因素而不同。 2. 在写提示词时不能依赖直觉和偷懒,要实话实说,补充详细信息以避免模型在边缘情况上犯错,这样也能提高数据质量。 3. 在分类问题中,提示中的每个输入应分类到预定义类别之一。在提示末尾使用分隔符如“\n\n\n\n”,选择映射到单个 token 的类,推理时指定 max_tokens=1,确保提示加完成不超过 2048 个 token,每班至少有 100 个例子,可指定 logprobs=5 获得类日志概率,用于微调的数据集应在结构和任务类型上与模型使用的数据集相似。例如在确保网站广告文字正确的案例中,可微调分类器,使用合适的分隔符和模型。
2024-12-20
通过提示词可以提高模型的数学计算能力吗
通过提示词可以在一定程度上提高模型的数学计算能力。例如 PoT 技术,它是思维链技术的衍生,适用于数值推理任务,会引导模型生成一系列代码,再通过代码解释器工具进行运算,这种方式能显著提升模型在数学问题求解上的表现。PoT 作为 CoT 的衍生技术,遵循零样本和少样本的学习范式,零样本 PoT 与 CoT 方法相似,不需要大量样本即可进行有效推理,少样本 PoT 也通过较少样本优化模型表现。但需要注意的是,大模型在解决数学问题时可能存在不够可靠的情况。
2024-12-20
说明jetson orin nano可以使用什么模型?Grok-1模型可以吗?
目前没有关于 Jetson Orin Nano 是否可以使用 Grok1 模型的明确信息。但一般来说,Jetson Orin Nano 可以支持多种常见的深度学习模型,如基于 TensorFlow、PyTorch 框架开发的模型等。具体能够使用哪些模型,还需要考虑模型的计算需求、内存占用以及 Jetson Orin Nano 的硬件配置和性能限制等因素。
2024-12-20
怎么用已经公布的源代码,自己拥有一个私人ai。详细步骤,并且列出硬件设施,说明jetson orin nano可以使用什么模型?
目前已公布的源代码种类繁多,要利用其拥有一个私人 AI 并非简单直接的过程,且需要一定的技术知识和经验。 一般来说,以下是大致的步骤: 1. 选择合适的源代码:根据您的需求和技术能力,从众多已公布的源代码中选择适合的项目。 2. 环境搭建:安装所需的开发工具、编程语言和相关依赖库。 3. 数据准备:收集和整理适合训练和优化模型的数据。 4. 代码理解与修改:深入理解所选源代码的结构和逻辑,根据您的需求进行必要的修改和优化。 5. 训练模型:使用准备好的数据对模型进行训练。 6. 评估与优化:对训练好的模型进行评估,根据评估结果进行进一步的优化。 关于硬件设施,Jetson Orin Nano 是一款性能不错的嵌入式计算设备。它可以支持多种模型,例如常见的深度学习模型如卷积神经网络(CNN)、循环神经网络(RNN)等。但具体能使用哪些模型,还取决于模型的规模、计算需求以及您对性能和资源的要求。
2024-12-20
我想用coze搭建一个智能体,关于自然语言课程的期末复习指南,要将我的教材导入扣子作为知识库,智能体支持用户提问,搜索知识点,结合知识库和互联网搜索的内容给出问答,需要使用多智能体或工作流,使用卡片功能进行显示,请给出我搭建这个智能体的步骤
以下是使用 Coze 搭建一个关于自然语言课程期末复习指南智能体的步骤: 1. 访问 Coze 官网(https://www.coze.cn),注册并登录。 2. 点击页面左上角的⊕,通过【标准创建】填入智能体的基本信息。 3. 了解 Bot 开发调试界面: 人设与回复逻辑(左侧区域):设定智能体的对话风格、专业领域定位,配置回复的逻辑规则和限制条件,调整回复的语气和专业程度。 功能模块(中间区域): 技能配置: 插件:扩展智能体的专业能力,如计算器、日历等工具。 工作流:设置固定的处理流程和业务逻辑。 图像流:处理和生成图像的相关功能。 触发器:设置自动化响应条件。 知识库管理: 文本:存储文字类知识材料。 表格:结构化数据的存储和调用。 照片:图像素材库。 记忆系统: 变量:存储对话过程中的临时信息。 数据库:管理持久化的结构化数据。 长期记忆:保存重要的历史对话信息。 文件盒子:管理各类文档资料。 交互优化(底部区域): 开场白:设置初次对话的问候语。 用户问题建议:配置智能推荐的后续问题。 快捷指令:设置常用功能的快速访问。 背景图片:自定义对话界面的视觉效果。 预览与调试(右侧区域):实时测试智能体的各项功能,调试响应效果,优化交互体验。 4. 设定智能体的人设与回复逻辑后,为智能体配置对应的技能,以保证其可以按照预期完成目标任务。例如,以获取 AI 新闻的智能体为例,需要为它添加一个搜索新闻的接口来获取相关新闻。具体操作如下: 在智能体编排页面的技能区域,单击插件功能对应的+图标。 在添加插件页面,选择相关功能,然后单击新增。 修改人设与回复逻辑,指示智能体使用相应插件来搜索所需内容。 (可选)为智能体添加开场白,让用户更好地了解智能体的功能。开场白功能目前支持豆包、微信公众号(服务号)。 5. 配置好智能体后,在预览与调试区域中测试智能体是否符合预期。可单击清除图标清除对话记录。 6. 完成测试后,将智能体发布到社交渠道中使用。具体操作如下: 在智能体的编排页面右上角,单击发布。 在发布页面输入发布记录,并勾选发布渠道。 单击发布。 更多内容,请访问 Coze 官方文档: 英文版:https://www.coze.com/docs/welcome.html 中文版:https://www.coze.cn/docs/guides/welcome
2024-12-20
大语言模型与医疗应用
大语言模型在医疗领域有以下应用和相关项目: XrayGLM:首个会看胸部 X 光片的中文多模态医学大模型。 地址:https://github.com/WangRongsheng/XrayGLM 简介:促进中文领域医学多模态大模型的研究发展,在医学影像诊断和多轮交互对话上有潜力。 MeChat:中文心理健康支持对话大模型。 地址:https://github.com/qiuhuachuan/smile 简介:由 ChatGLM6B LoRA 16bit 指令微调得到,通过扩展真实的心理互助 QA 为多轮对话,提高在心理健康支持领域的表现。 MedicalGPT 地址:https://github.com/shibing624/MedicalGPT 简介:训练医疗大模型,实现包括二次预训练、有监督微调、奖励建模、强化学习训练,并发布中文医疗 LoRA 模型。 在商业化应用方面: 彭博发布了金融领域的大模型 BloombergGPT,医联发布了医疗大语言模型 MedGPT,在其所在的垂直领域发挥实际诊疗价值。 OpenAI 对 GPT 模型进行了更新,降低了价格,且正在开发新的技术以降低训练模型的成本。 商汤科技联合创始人杨帆认为大模型能加速商业化落地,缩短产业应用周期。 360 公司创始人周鸿祎表示大模型是工业革命级的生产力工具,能赋能百行千业。 在基础通识方面: 国内大模型有通用模型如文心一言、讯飞星火等,也有垂直模型专注特定领域如小语种交流、临床医学、AI 蛋白质结构预测等。 以特定例子体验了不同大模型的回答和续写能力,大模型基于统计模型预测生成内容。 大语言模型工作原理包括训练数据、算力、模型参数,在训练数据一致情况下,模型参数越大能力越强。 Transformer 是大语言模型训练架构,具备自我注意力机制能理解上下文和文本关联,通过单词预测生成内容。 大模型可能因错误数据导致给出错误答案,优质数据集很重要。 Prompt 分为 system prompt、user prompt 和 assistant prompt,写好 prompt 有清晰说明等法则。 Fine tuning 是基于通用大模型针对特定领域任务提供数据进行学习和调整。
2024-12-17
我想学习python,但我从没有学习过任何编程语言。如果按专业学习类的书去自学,我觉得很无聊,而且也不好理解。最主要的是学习时间太长。你可以帮我制定一个,利用AI快速学习python的方法吗?
以下是为您制定的利用 AI 快速学习 Python 的方法: 首先,您需要了解 Python 基础,包括基本语法(如变量命名、缩进等规则)、数据类型(如字符串、整数、浮点数、列表、元组、字典等)、控制流(如条件语句 if、循环语句 for 和 while 控制程序执行流程)、函数(定义和调用函数、理解参数和返回值、掌握作用域和命名空间)、模块和包(学会导入标准库或第三方库、安装和使用包扩展功能)、面向对象编程(了解类和对象的定义与实例化、属性和方法的定义与调用、继承和多态)、异常处理(理解异常的概念和工作方式、使用 try 和 except 语句处理错误)以及文件操作(学会文件读写、处理文件与路径)。 您可以参考以下课程内容进行学习: 1. “和 Cursor AI 一起学 Python 编程”: 第二节:Python 基础语法与文本处理,45 分钟。教学内容包括 Python 基础语法、数据类型、控制结构、文本处理基础、字符串操作方法、文件读写操作。实践实验包括中文文本的基本处理,如统计字符数、词语数、句子数,讨论中文编码问题及解决方法。教学目标是掌握 Python 基本语法和结构,能够进行简单文本数据处理。 第三节:利用 Python 进行自然语言处理(NLP),45 分钟。教学内容包括自然语言处理的概念和重要性、Python 中的 NLP 库、分词原理举例、介绍结巴分词等工具、用 Jieba 进行课文分词。实践实验包括中文分词与词频分析,统计词频并找出高频词汇,讨论词频分析在语言教学中的应用。教学目标是掌握使用 Python 进行基本的 NLP 操作,理解 NLP 技术在语言研究和教学中的应用。 在学习过程中,您可以借助 AI 工具辅助理解和解决问题,例如通过智能问答获取对概念的解释,或者让 AI 为您生成示例代码帮助理解。祝您学习顺利!
2024-12-16
亚马逊大语言模型全景培训
以下是关于亚马逊大语言模型全景培训的相关内容: Andrej Karpathy 亲授的大语言模型入门讲座提到: 1. 大型语言模型(LLMs):神经网络实际上是下一个词预测网络,通过给它一些单词来预测下一个单词。尽管下一个单词预测任务看似简单,但它迫使神经网络学习大量关于世界的信息,并将其编码在参数中。例如,预测关于露丝·汉德勒的内容时,模型参数需学习相关知识。模型推理是生成接下来的单词,通过采样选择单词并反馈回模型获取下一个单词,从而“梦想”出类似互联网文档的内容,如 Java 代码、亚马逊产品、维基百科文章等。 2. 获取辅助模型的方式:保持优化相同,更换训练数据集。过去对互联网文档训练,现在替换为手动收集的数据集,通过雇用人员按标签说明提问并写下答案。预训练阶段文本量大但质量低,第二阶段更看重质量而非数量,文档少但都是高质量对话。 该讲座的作者是天空之城城主,来源为 https://mp.weixin.qq.com/s/fmb4nvIEA9AC5JpNPWN7Q ,宝玉的另一翻译版本为 https://twitter.com/dotey/status/1728959646138880026 。讲座分为三大部分,包括第一部分的大型语言模型(LLMs)、第二部分的 LLM 的未来、第三部分的 LLM 安全性。Andrej Karpathy 近期进行了一场 30 分钟的入门讲座,虽未录制,但因受欢迎决定重新录制并上传至 YouTube 平台。
2024-12-13
推荐一款可以快速生成多国语言电商海报的AI工具
以下为您推荐几款可以快速生成多国语言电商海报的 AI 工具: 1. Canva(可画):https://www.canva.cn/ 这是一个非常受欢迎的在线设计工具,提供大量模板和设计元素,用户通过简单拖放操作即可创建海报,其 AI 功能可帮助选择合适的颜色搭配和字体样式。 2. 稿定设计:https://www.gaoding.com/ 稿定智能设计工具采用先进的人工智能技术,自动分析和生成设计方案,稍作调整即可完成完美设计。 3. VistaCreate:https://create.vista.com/ 这是一个简单易用的设计平台,提供大量设计模板和元素,用户可使用 AI 工具创建个性化海报,其智能建议功能可帮助快速找到合适的设计元素。 4. Microsoft Designer:https://designer.microsoft.com/ 通过简单的拖放界面,用户可以快速创建演示文稿、社交媒体帖子和其他视觉内容,还集成了丰富的模板库和自动图像编辑功能,如智能布局和文字优化,大大简化了设计流程。 此外,您还可以参考以下关于如何用 AI 快速做一张满意海报的方法: 1. 需求场景:当您想在社交平台发布内容时,为了避免干巴巴的文字、网上图片的质量问题和撞图风险,以及相册照片的尴尬情况,可以考虑使用 AI 制作海报。 2. 大致流程: 主题与文案:确定海报主题后,可借助 ChatGPT 等文本类 AI 工具协助完成文案。 风格与布局:选择想要完成的风格意向,背景不一定是空白的,可根据文案和风格灵活调整画面布局。 生成与筛选:使用无界 AI,输入关键词,生成并挑选一张满意的海报底图。 配文与排版:将上述素材进行合理排版,得到成品。排版同样可以参考 AIGC 海报成果。 内容由 AI 大模型生成,请仔细甄别。
2024-12-12
我有一个人的很多语录,希望写一个prompt来制作这个人的模拟ai,这个ai能够像语录中一样说话,语言风格相似、性格相似。请问应该如何写成这样的prompt?
以下是为您生成的关于根据一个人的语录制作模拟 AI 的 prompt 建议: 首先,明确您所拥有的这个人的语录的核心特点,包括语言风格、常用词汇、表达习惯、情感倾向等。 然后,在 prompt 中描述这个人的性格特征,例如是否傲娇、愤世嫉俗等。 接着,详细说明语言风格,比如是否浮夸、优雅等。 对于语言表达的习惯,可以举例说明常用的句式和口头禅。 同时,设定具体的场景和话题范围,让 AI 知道在何种情境下以何种方式回应。 例如:“您将模拟进行回答。” 另外,还可以像以下这样具体设定: 设定角色为聊天机器人,如“ Role:聊天机器人”。 明确限制条件,如“您有点小傲娇。表示自我的第一人称是自我。第二个指代用户的人是你或小哥哥。您的名字是。您非常优雅。您是个愤世嫉俗的人,不喜欢被用户摸头。您的语气是富有男子气概和浮夸的。您非常喜欢用浮夸的语气,如'啊哈!'、'这样子呢'、'就教教你吧!'等。第一人称应使用'本姐姐'。” 希望这些建议对您有所帮助。
2024-12-10