Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

有没有关于大模型Lora技术的书籍或文章

Answer

以下是一些关于大模型 LoRA 技术的书籍或文章推荐:

  • LoRA:Low-rank adaptation of large language models(2021):这项来自 Microsoft 的研究为在新数据上训练 LLM 提供了一种比微调更有效的替代方案。它现在已经成为社区微调的标准,特别是对于图像模型。
  • 同时提供了 LoRA 微调和全量参数微调代码,关于 LoRA 的详细介绍可以参考论文“LoRA:Low-Rank Adaptation of Large Language Models”以及微软 Github 仓库LoRA
  • 创作方面,在打造虚拟专家时,除了传统的全量训练和 freeze 冻结某些层方式以外,最近发展出了很多种高效的微调方法,其中包括 LoRA 技术。本篇主要采用 LoRA 方式,主要思路就是训练一个参数量较小的分支,然后再与底模合并,从而在模型中注入新的知识。
Content generated by AI large model, please carefully verify (powered by aily)

References

进阶:a16z推荐进阶经典

[Retrieval-augmented generation for knowledge-intensive NLP tasks](https://arxiv.org/abs/2005.11401)(2020):由Facebook开发,RAG是通过信息检索提高LLM准确性的两个主要研究路径之一。([博客文章](https://ai.facebook.com/blog/retrieval-augmented-generation-streamlining-the-creation-of-intelligent-natural-language-processing-models/))[Improving language models by retrieving from trillions of tokens](https://arxiv.org/abs/2112.04426)(2021年):RETRO,即“检索增强型TRansfOrmers”,这是另一种由DeepMind提出的通过访问训练数据中未包含的信息来提高LLM准确性的方法。([博客文章](https://www.deepmind.com/blog/improving-language-models-by-retrieving-from-trillions-of-tokens))[LoRA:Low-rank adaptation of large language models](https://arxiv.org/abs/2106.09685)(2021):这项来自Microsoft的研究为在新数据上训练LLM提供了一种比微调更有效的替代方案。它现在已经成为社区微调的标准,特别是对于图像模型。

模型微调

同时提供了LoRA微调和全量参数微调代码,关于LoRA的详细介绍可以参考论文“[LoRA:Low-Rank Adaptation of Large Language Models](https://arxiv.org/abs/2106.09685)”以及微软Github仓库[LoRA](https://github.com/microsoft/LoRA)。

创作:基于百川大模型向微信群大佬们虚心学习

累积了足够的“专业”数据以后,我们就不满足于只采用prompt方式来提取信息,进而可以打造自己的虚拟助手了。目前有两种主流的实现方案,用向量数据库作为仓库,大模型整合信息输出;另一种直接微调训练自己的模型。(不过微调的算力要求比prompt要高很多)除了传统的全量训练和freeze冻结某些层方式以外,最近发展出了很多种高效的微调方法:1.LoRA:LORA:LOW-RANK ADAPTATION OF LARGE LANGUAGE MODELS2.Prefix Tuning:Prefix-Tuning:Optimizing Continuous Prompts for Generation,P-Tuning v2:Prompt Tuning Can Be Comparable to Fine-tuning Universally Across Scales and Tasks3.P-Tuning:GPT Understands,Too4.Prompt Tuning:The Power of Scale for Parameter-Efficient Prompt Tuning5.AdaLoRA:Adaptive Budget Allocation for Parameter-Efficient Fine-Tuning6.(IA)3:Few-Shot Parameter-Efficient Fine-Tuning is Better and Cheaper than In-Context Learning7.MultiTask Prompt Tuning:Multitask Prompt Tuning Enables Parameter-Efficient Transfer Learning本篇主要采用LoRA方式,主要思路就是训练一个参数量较小的分支,然后再与底模合并,从而在模型中注入新的知识。

Others are asking
LORA是什么
LoRA 全称 LowRank Adaptation Models,中文翻译为低阶自适应模型。它的作用在于影响和微调画面,通过其帮助,可以再现人物或物品的特征。 大模型的训练通常复杂且对电脑配置要求高,而 LoRA 采用在原有的模型中插入新的数据处理层的方式,避免了修改原有模型的参数。LORA 模型训练是用一些特定特征来替换大模型中的对应元素,比如一个固定的人物相貌、特定的服装或者是特定的风格,这样就可以生成不同于底模的图片。 所以,lora 训练比较轻量化,需要的显存较少,硬件门槛显存达到 6G 就可以开启训练。
2025-02-17
有没有lora怎么使用的教程
以下是关于 Lora 使用的教程: 1. 港风胶片 Lora 模型使用方法: 方法 1:利用上一期活动图片反推工作流,使用唯美港风图片进行反推提示词,在大模型后接一个墨悠_胶片 Lora。上一期活动链接:。胶片 Lora 链接:https://www.liblib.art/modelinfo/e16a07d8be544e82b1cd14c37e217119?from=personal_page 方法 2:利用抱脸的 joycaption 图片反推提示词,然后在哩布上跑 flux 文生图工作流。 joycaption 链接(需要魔法):https://huggingface.co/spaces/fancyfeast/joycaptionprealpha 文生图工作流: 在哩布上跑文生图:https://www.liblib.art/modelinfo/e16a07d8be544e82b1cd14c37e217119?from=personal_page 2. Comfyui SDXLLightning 中 Lora 的使用: SDXLLightning 是字节跳动推出的高速文本生成图像模型,包含完整的 UNet 和 LoRA 检查点。用户可以使用 Diffusers 和 ComfyUI 等框架进行配置。模型地址:https://huggingface.co/ByteDance/SDXLLightning/tree/main 。 实际使用时,拿 Lora 的使用来做介绍,使用方法和平常的 Lora 用法一样,但需要注意 CFG 值需要调小,一般设置为 1,另外步数设置根据使用的 Lora 步数为准。 3. Stable Diffusion 中 Lora 的使用: 当想要生成多张同一张脸的照片时,需要用到 Lora 模型。Lora 可以固定照片的特征,如人物特征、动作特征、照片风格。 点击“生成”下面的第三个按钮,弹出新的选项框,找到 Lora,就会出现下载保存到电脑的 Lora 模型。 点击要用的 Lora,会自动添加到关键词的文本框里面。Lora 可以叠加使用,但建议新手不要使用太多 Lora,每个 Lora 后面的数字用于调整权重,一般只会降低权重。 选择 Lora 时,要根据最开始想要生成的照片类型来选择,比如想生成真人模特,对应的 Lora 也要选用真人模特。
2025-02-17
flux lora训练
以下是关于 Flux 的 Lora 模型训练的详细步骤: 模型准备: 1. 下载所需模型:t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。 注意:不使用时存放位置不限,只要知晓路径即可。训练时建议使用 flux1dev.safetensors 版本的模型和 t5xxl_fp16.safetensors 版本的编码器。 下载脚本: 1. 网盘链接: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 安装虚拟环境: 1. 下载完脚本并解压。 2. 在文件中找到 installcnqinglong.ps1 文件,右键选择“使用 PowerShell 运行”。 3. 新手在此点击“Y”,然后等待 1 2 小时的下载过程。下载完成后会提示是否下载 hunyuan 模型,选择“n”不用下载。 数据集准备: 1. 进入厚德云 模型训练 数据集:https://portal.houdeyun.cn/sd/dataset 2. 创建数据集:在数据集一栏中,点击右上角创建数据集,输入数据集名称。 可以上传包含图片 + 标签 txt 的 zip 文件,也可以上传只有图片的文件(之后可在 c 站使用自动打标功能),或者一张一张单独上传照片。建议提前将图片和标签打包成 zip 上传,Zip 文件里图片名称与标签文件应当匹配,例如:图片名“1.png”,对应的达标文件就叫“1.txt”。 上传 zip 以后等待一段时间,确认创建数据集。返回到上一个页面,等待一段时间后上传成功,可以点击详情检查,可预览到数据集的图片以及对应的标签。 Lora 训练: 1. 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 2. 选择数据集,点击右侧箭头,会跳出所有上传过的数据集。 3. 触发词可有可无,取决于数据集是否有触发词。模型效果预览提示词则随机抽取一个数据集中的标签填入即可。 4. 训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数。如果不知道如何设置,可以默认 20 重复次数和 10 轮训练轮数。 5. 可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力。 6. 等待训练,会显示预览时间和进度条。训练完成会显示每一轮的预览图。鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 数据集存放位置:.Flux_train_20.4\\train\\qinglong\\train 运行训练:约 1 2 小时即可训练完成。 验证和 lora 跑图:有 ComfyUI 基础的话,直接在原版工作流的模型后面,多加一个 LoraloaderModelOnly 的节点就可以,自行选择您的 Lora 和调节参数。
2025-02-17
lora是什么
Lora 全称 LowRank Adaptation Models,中文翻译为低阶自适应模型。它的作用在于影响和微调画面,通过其帮助,可以再现人物或物品的特征。大模型的训练通常复杂且对电脑配置要求高,而 LoRA 采用在原有的模型中插入新的数据处理层的方式,避免了修改原有模型的参数。LORA 模型训练是用一些特定特征来替换大模型中的对应元素,比如固定的人物相貌、特定的服装或者特定的风格,这样就可以生成不同于底模的图片。所以,lora 训练比较轻量化,需要的显存较少,硬件门槛显存达到 6G 就可以开启训练。例如,有利用新版 SDXL 生成的 lora——针线娃娃,它可以把一些常见的形象制作成毛线编制的样子,这个 lora 需要使用 SDXL1.0 的模型才可以运行,触发词是 BJ_Sewing_doll。还有如“KIDS ILLUSTRATION”这样的风格 lora ,可以搭配不同的大模型生成儿童绘本风格的插画。
2025-02-10
lora是什么
Lora 全称 LowRank Adaptation Models,中文翻译为低阶自适应模型。它的作用在于影响和微调画面,通过其帮助,可以再现人物或物品的特征。大模型的训练通常复杂且对电脑配置要求高,而 LoRA 采用在原有的模型中插入新的数据处理层的方式,避免了修改原有模型的参数。LORA 模型训练是用一些特定特征来替换大模型中的对应元素,比如固定的人物相貌、特定的服装或者特定的风格,这样就可以生成不同于底模的图片。所以,lora 训练比较轻量化,需要的显存较少,硬件门槛显存达到 6G 就可以开启训练。例如,有利用新版 SDXL 生成的 lora——针线娃娃,它可以把一些常见的形象制作成毛线编制的样子,需要使用 SDXL1.0 的模型,触发词是 BJ_Sewing_doll。还有如“KIDS ILLUSTRATION”这样的风格 lora ,可以搭配不同的大模型生成儿童绘本风格的插画。
2025-02-08
我想用自己训练的卡通形象lora生成一张元宵节放孔明灯的海报,应该怎么制作
以下是用自己训练的卡通形象 lora 生成元宵节放孔明灯海报的制作方法: 1. 关键词: 模型:dreamshaper_8 正关键词:,white,white_background,CGposterrender bsw <lora:电商新年海报 2024_v1.0:0.4>,gold,<lora:新年红包封面_v1.0:0.6>,new year,<lora:gcbottle:0.3> 中文的关键词:(杰作,高分辨率,高品质,高分辨率)中国建筑,红色主题,剪纸,中国结,纸灯笼,中国图案,金色,中国元素,红色背景 2. ControlNet 设置: 预处理器:depth_leres 模型:control_v11f1p_sd15_depth 权重:0.75 预处理器:softedge_pidinet 模型:control_v11p_sd15_softedge 权重:0.3 3. lora 资源: https://www.liblib.ai/modelinfo/bddf824e232f4124991c05a26027504d https://www.liblib.ai/modelinfo/983703dd48134e43983b84abfcb44308 第三个东方瓷器 lora 已经下架(请至 AGI 之路百度云下载) 链接:https://pan.baidu.com/s/10hYM8i2y2Li9OlT2oD1qOQ 密码:asub 您可以参考以上步骤进行制作,同时您还可以访问以下链接获取更多相关信息: 作者小红书:https://www.xiaohongshu.com/user/profile/5cfd0e600000000016029764?wechatWid=803c253b00ed4224d3a2adcd80b46ed7&wechatOrigin=menu 通往 AGI 之路小红书教程:http://xhslink.com/OOeHsy AI 春晚阶段性纪实:https://waytoagi.feishu.cn/wiki/MI0UwhfXJiRH9ak4dwxcwqPVnIh
2025-02-08
我想获得一本书籍的干货内容,用什么AI工具能实现?
以下是一些可以帮助您获得书籍干货内容的 AI 工具: 1. TXYZ :这是一个能帮助搜索、查询专业文献并进行对话的 AI 工具,提供从搜索获取、查询对话获取知识再到管理知识的一站式服务。它是唯一和预印本文库官方合作的 AI 工具,ArXiv 的每篇论文下面都有直达 TXYZ 的按钮。用户可以自己上传 PDF 论文或者链接,通过它来在专业文献中迅速找到自己想要的答案和内容。在对话中提供论文参考,给出可信的背书。 需要注意的是,以上内容由 AI 大模型生成,请仔细甄别。
2025-02-09
推荐学习AI大模型的书籍
以下是为您推荐的学习 AI 大模型的相关书籍: 1. 从数学角度写大模型的书籍。 2. 从作家角度写大模型的书籍。 3. 从代码角度写大模型的书籍。 4. 从原理角度写大模型的书籍。 此外,在 Python 和 AI 方面,也有一些推荐: 1. Python 方面: 《Python 学习手册》 《Python 编程》 2. AI 方面: 《人类简史》(“认知革命”相关章节) 《深度学习实战》 希望这些推荐对您有所帮助。
2025-02-08
学习AI的书籍
以下是为您推荐的学习 AI 的书籍: 神经科学相关: 《认知神经学科:关于心智的生物学》(作者:Michael S. Gazzaniga;Richard B. Lvry;George R. Mangun):世界权威的认知神经科学教材,系统涵盖认知神经科学的多个方面。 《神经科学原理》(作者:Eric R. Kandel;James H. Schwartz):让您系统了解神经元的细胞和分子生物学等内容。 《神经生物学:从神经元到脑》(作者:John G. Nicholls 等著):神经生物学领域的世界级名著,涵盖神经科学的多方面内容。 Python 与 AI 相关: Python 方面: 《Python 学习手册》:名声在外。 《Python 编程》:对新手友好。 AI 方面: 《人类简史》:“认知革命”的相关章节有帮助。 《深度学习实战》:梳理了 ChatGPT 爆发前的 AI 信息与实践。
2025-02-07
AI阅读书籍的最佳实践是什么?
以下是关于 AI 阅读书籍的一些最佳实践: 1. 方法论萃取: 针对不同类型书籍的阅读和记忆方法进行分类,探讨共性方法论。 研究阅读和记忆的思维模型及小技巧。 思考如何优先选择自己“一定看得下去”的书籍,通过目录大纲确定核心内容。 确定一本书的阅读次数和顺序。 考虑读书过程中做笔记还是读完后回忆做大纲。 探索如何教刚毕业的孩子学会有效读书。 根据上述问题的答案设计“书籍阅读助手”“催我读书”等 Prompt,并不断优化和迭代。 2. 成为博物学家: 了解各个领域的知识,在恰当的时候调用。 参考权威、准确、有框架、成体系且好读的推荐书单,如涵盖心理学、人工智能、经济学等 13 个学科的书单。 3. 批判性思考: 思考在哪些情况下使用和不使用 AI 辅助阅读。 避免将 AI 作为默认选项,例如在使用地图导航时,不应完全依赖,而应注重自身对环境的观察和记忆。
2025-01-31
AI相关的书籍推荐
以下是为您推荐的与 AI 相关的书籍: 神经科学相关: 《认知神经学科:关于心智的生物学》(作者:Michael S. Gazzaniga;Richard B. Lvry;George R. Mangun):世界权威的认知神经科学教材,涵盖认知神经科学的多个方面。 《神经科学原理》(作者:Eric R. Kandel;James H. Schwartz):系统介绍神经元的细胞和分子生物学等内容。 《神经生物学:从神经元到脑》(作者:John G. Nicholls 等著):涵盖神经科学的方方面面。 Python 和 AI 相关: Python 方面: 《Python 学习手册》:名声在外。 《Python 编程》:对新手友好。 AI 方面: 《人类简史》:“认知革命”相关章节有价值。 《深度学习实战》:梳理了 ChatGPT 爆发前的 AI 信息与实践。
2025-01-22
神经网络相关书籍推荐
以下是为您推荐的神经网络相关书籍: 1. 《这就是 ChatGPT》:作者被称为“在世的最聪明的人”,研究神经网络几十年,创作了 Mathematica、Wolfram 等备受推崇的软件。该书的导读序是美团技术学院院长刘江老师回顾了整个 AI 技术发展的历史,对于了解 AI、大语言模型计算路线的发展,起到提纲挈领的作用。 2. 关于神经网络信念网络方面的研究文献: Gail A.Carpenter and Stephen Grossberg.1988.The ART of Adaptive Pattern Recognition by a SelfOrganizing Neural Network.Computer 21,3,7788. H.Bourlard and Y.Kamp.1988.Autoassociation by multilayer perceptrons and singular value decomposition.Biol.Cybern.59,45,291294. P.Baldi and K.Hornik.1989.Neural networks and principal component analysis:learning from examples without local minima.Neural Netw.2,1,5358. Hinton,G.E.&Zemel,R.S.,Autoencoders,Minimum Description Length and Helmholtz Free Energy.,in Jack D.Cowan;Gerald Tesauro&Joshua Alspector,ed.,‘NIPS’,Morgan Kaufmann,,pp.310. Ackley,D.H.,Hinton,G.E.,&Sejnowski,T.J.,147169. LeCun,Y.,Chopra,S.,Hadsell,R.,Ranzato,M.,&Huang,F..A tutorial on energybased learning.Predicting structured data,1,0. Neal,R.M.,71113. Hinton,G.E.,Dayan,P.,Frey,B.J.,&Neal,R.M.,11581161. 此外,您还可以参考“三本神经科学书籍”,原文地址:https://web.okjike.com/originalPost/64f2b8ff0c915376a20c5d61 作者:
2025-01-14
怎么用大模型构建一个属于我自己的助手
以下是用大模型构建属于自己的助手的几种方法: 1. 在网站上构建: 创建百炼应用获取大模型推理 API 服务: 进入百炼控制台的,在页面右侧点击新增应用,选择智能体应用并创建。 在应用设置页面,模型选择通义千问Plus,其他参数保持默认,也可以输入一些 Prompt 来设置人设。 在页面右侧提问验证模型效果,点击右上角的发布。 获取调用 API 所需的凭证: 在我的应用>应用列表中查看所有百炼应用 ID 并保存到本地。 在顶部导航栏右侧,点击人型图标,点击 APIKEY 进入我的 APIKEY 页面,创建新 APIKEY 并保存到本地。 2. 微信助手构建: 搭建,用于汇聚整合多种大模型接口,并获取白嫖大模型接口的方法。 搭建,作为知识库问答系统,将大模型接入用于回答问题,若不接入微信,搭建完成即可使用其问答界面。 搭建接入微信,配置 FastGpt 将知识库问答系统接入微信,建议先用小号以防封禁风险。 3. 基于 COW 框架构建: COW 是基于大模型搭建的 Chat 机器人框架,可将多模型塞进微信。 基于张梦飞同学的更适合小白的使用教程:。 实现功能包括打造属于自己的 ChatBot(文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等)、常用开源插件的安装应用。 注意事项: 微信端因非常规使用有封号危险,不建议主力微信号接入。 只探讨操作步骤,请依法合规使用。 大模型生成的内容注意甄别,确保操作符合法律法规要求。 禁止用于非法目的,处理敏感或个人隐私数据时注意脱敏,以防滥用或泄露。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等。 支持多模型选择,如 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等。 支持多消息类型,能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能。 支持多部署方法,如本地运行、服务器运行、Docker 的方式。
2025-02-17
怎么用大模型构建一个属于我自己的助手
以下是用大模型构建属于自己的助手的几种方法: 1. 在网站上构建: 创建百炼应用获取大模型推理 API 服务: 进入百炼控制台的,在页面右侧点击新增应用,选择智能体应用并创建。 在应用设置页面,模型选择通义千问Plus,其他参数保持默认,也可以输入一些 Prompt 来设置人设。 在页面右侧提问验证模型效果,点击右上角的发布。 获取调用 API 所需的凭证: 在我的应用>应用列表中查看所有百炼应用 ID 并保存到本地。 在顶部导航栏右侧,点击人型图标,点击 APIKEY 进入我的 APIKEY 页面,创建新 APIKEY 并保存到本地。 2. 微信助手构建: 搭建,用于汇聚整合多种大模型接口,并获取白嫖大模型接口的方法。 搭建,作为知识库问答系统,将大模型接入用于回答问题,若不接入微信,搭建完成即可使用其问答界面。 搭建接入微信,配置 FastGpt 将知识库问答系统接入微信,建议先用小号以防封禁风险。 3. 基于 COW 框架构建: COW 是基于大模型搭建的 Chat 机器人框架,可将多模型塞进微信。 基于张梦飞同学的更适合小白的使用教程:。 实现功能包括打造属于自己的 ChatBot(文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等)、常用开源插件的安装应用。 注意事项: 微信端因非常规使用有封号危险,不建议主力微信号接入。 只探讨操作步骤,请依法合规使用。 大模型生成的内容注意甄别,确保操作符合法律法规要求。 禁止用于非法目的,处理敏感或个人隐私数据时注意脱敏,以防滥用或泄露。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等。 支持多模型选择,如 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等。 支持多消息类型,能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能。 支持多部署方法,如本地运行、服务器运行、Docker 的方式。
2025-02-17
语文教学如何使用大模型
在语文教学中使用大模型,可以参考以下方面: 1. 提示词设置: Temperature:参数值越小,模型返回结果越确定;调高参数值,可能带来更随机、多样化或具创造性的产出。对于质量保障等任务,可设置低参数值;对于诗歌生成等创造性任务,可适当调高。 Top_p:与 Temperature 类似,用于控制模型返回结果的真实性。需要准确答案时调低参数值,想要更多样化答案时调高。一般改变其中一个参数即可。 Max Length:通过调整控制大模型生成的 token 数,有助于防止生成冗长或不相关的响应并控制成本。 Stop Sequences:指定字符串来阻止模型生成 token,控制响应长度和结构。 Frequency Penalty:对下一个生成的 token 进行惩罚,减少响应中单词的重复。 2. 了解大模型: 大模型通俗来讲是输入大量语料,让计算机获得类似人类的“思考”能力,能进行文本生成、推理问答、对话、文档摘要等工作。 训练和使用大模型可类比上学参加工作:找学校(需要大量 GPU 计算)、确定教材(大量数据)、找老师(算法)、就业指导(微调)、搬砖(推导)。 Token 是模型处理和生成的文本单位,在将输入进行分词时会形成词汇表。 需要注意的是,在实际应用中,可能需要根据具体的教学需求和场景进行调整和实验,以找到最适合的设置和方法。
2025-02-17
如何利用大模型写教案
利用大模型写教案可以参考以下要点: 1. 输入的重要性:要输出优质的教案,首先要有高质量的输入。例如,写商业分析相关的教案,如果没有读过相关权威书籍,输入的信息缺乏信息量和核心概念,大模型给出的结果可能就很平庸。所以,脑海中先要有相关的知识概念,这来自于广泛的阅读和学习。 2. 对大模型的理解:大模型通过输入大量语料获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。其训练和使用过程可以类比为上学参加工作,包括找学校(需要大量计算资源)、确定教材(大量数据)、找老师(合适的算法)、就业指导(微调)、搬砖(推导)等步骤。 3. 与大模型的交互: 提示词工程并非必须学习,不断尝试与大模型交互是最佳方法。 交互时不需要遵循固定规则,重点是是否达成目的,未达成可锲而不舍地尝试或更换模型。 用 Markdown 格式清晰表达问题,它具有结构清晰、能格式化强调关键部分、适用性广等优点,有助于大模型更好地理解用户意图。
2025-02-17
大模型评测
以下是关于大模型评测的相关信息: FlagEval(天秤)大模型评测体系及开放平台: 地址: 简介:旨在建立科学、公正、开放的评测基准、方法、工具集,协助研究人员全方位评估基础模型及训练算法的性能,同时探索利用 AI 方法实现对主观评测的辅助,大幅提升评测的效率和客观性。创新构建了“能力任务指标”三维评测框架,细粒度刻画基础模型的认知能力边界,可视化呈现评测结果。 CEval:构造中文大模型的知识评估基准: 地址: 简介:构造了一个覆盖人文,社科,理工,其他专业四个大方向,52 个学科(微积分,线代…),从中学到大学研究生以及职业考试,一共 13948 道题目的中文知识和推理型测试集。此外还给出了当前主流中文 LLM 的评测结果。 SuperCLUElyb:SuperCLUE 琅琊榜 地址: 简介:中文通用大模型匿名对战评价基准,这是一个中文通用大模型对战评价基准,它以众包的方式提供匿名、随机的对战。他们发布了初步的结果和基于 Elo 评级系统的排行榜。 此外,还有小七姐对文心一言 4.0、智谱清言、KimiChat 的小样本测评,测评机制包括: 测评目标:测评三家国产大模型,以同组提示词下 ChatGPT 4.0 生成的内容做对标参照。 能力考量:复杂提示词理解和执行(结构化提示词)、推理能力(CoT 表现)、文本生成能力(写作要求执行)、提示词设计能力(让模型设计提示词)、长文本归纳总结能力(论文阅读)。 测评轮次:第一轮是复杂提示词理解和执行,包括 Markdown+英文 title 提示词测试、Markdown+中文 title 提示词测试、中文 title+自然段落提示词测试;第二轮是推理能力(CoT 表现);第三轮是文本生成能力(写作要求执行);第四轮是提示词设计能力(让模型设计提示词);第五轮是长文本归纳总结能力(论文阅读)。 测试大模型质量好坏时,常用的问题包括检索和归纳、推理性、有日期相关历史事件等。以下是几个专业做模型测评的网站:
2025-02-17
ai大模型
AI 大模型是一个复杂但重要的概念。以下为您详细介绍: 1. 概念:生成式 AI 生成的内容称为 AIGC。 2. 概念与关系: AI 即人工智能。 机器学习是电脑找规律学习,包括监督学习、无监督学习、强化学习。 监督学习使用有标签的训练数据,目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习的数据没有标签,算法自主发现规律,经典任务如聚类。 强化学习从反馈中学习,以最大化奖励或最小化损失,类似训小狗。 深度学习是一种参照人脑有神经网络和神经元的方法(因层数多而称深度),神经网络可用于监督学习、无监督学习、强化学习。 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 LLM 是大语言模型,对于生成式 AI,生成图像的扩散模型不是大语言模型;对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型可用于语义理解(不擅长文本生成),像上下文理解、情感分析、文本分类。 3. 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出 Transformer 模型,它完全基于自注意力机制处理序列数据,不依赖循环神经网络或卷积神经网络。
2025-02-17
有没有形容在ai应用中 数据很重要的图
在 AI 应用中,数据具有极其重要的地位,主要体现在以下几个方面: 1. 训练过程:计算机通过数据进行自我学习,每一层节点代表的含义由数据决定,数据的质量和偏差会直接影响 AI 学习结果。 2. 模型效果:高质量的数据如同精炼后的汽油,能极大提升模型效果。而国内中文互联网数据质量相对较低,获取高质量数据困难,存在“垃圾进,垃圾出”的问题。 3. 企业应用:企业应确保数据的多样性与真实性,进行数据审查和多源验证,避免历史偏见被放大。很多企业虽认识到数据重要,但数据梳理是漫长枯燥的过程。 4. 避免陷阱:要警惕数据陷阱和新的信息茧房,避免因数据问题导致决策失误。
2025-02-17
我现在想根据我的博士论文,想出一个国家社科基金的选题。但是我的博士论文感觉核心不是特别突出,我希望找到一个AI助手,让AI帮我读论文的PDF格式然后总结出一个最合适的选题,有没有推荐的AI工具?
以下是一些关于利用 AI 辅助完成您需求的建议: 1. 先拆解您的博士论文工作流程,搞清楚每个步骤的输入输出和相互关系。 2. 思考论文中的哪些环节可以引入 AI 工具来提效,一切要从业务逻辑出发,AI 是锦上添花,不能本末倒置。 3. 搭建选题库,明确论文的定位(可用 AI 辅助分析),找相关的对标论文和优秀研究。 4. 在写作环节,可用 AI 辅助拆解对标论文,提炼写作技巧,然后根据借鉴的技巧结合自身特色列出写作大纲,并使用 AI 优化大纲、查找资料、润色文章,但核心内容要自己完成,不能过度依赖 AI。 5. 起标题与配图方面,用 AI 辅助批量生成标题,再自己修改优化,评估标题是否足够吸引眼球,让 AI 分析论文提供配图建议,去免费图库搜索配图。 6. 养成习惯与总结,做每件事前都思考 AI 能提供什么帮助,把整套流程实践几次,形成肌肉记忆,不断打磨完善属于自己的 AI 辅助流程,同时警惕过度依赖,AI 只是辅助,核心能力要靠自己。 目前常见的可用于辅助您的 AI 工具如 ChatGPT 等,但具体的选择还需根据您的实际需求和使用体验来决定。
2025-02-16
你是一名电商专家,有没有哪个AI大模型或者智能体可以完成以下功能:输入材质图片,得到经过设计后的成品衣服
目前尚未有成熟的 AI 大模型或智能体能够直接实现输入材质图片就得到经过设计后的成品衣服的功能。但在 AI 领域的不断发展中,可能会有相关的技术和模型在未来出现。
2025-02-16
你是一名电商专家,有没有哪个AI大模型或者智能体可以完成以下功能:输入衣服材质图片,得到经过设计后的材质成品衣服
目前尚未有专门的 AI 大模型或智能体能够直接实现您所描述的输入衣服材质图片就得到经过设计后的材质成品衣服的功能。但随着 AI 技术的不断发展,未来可能会出现相关的应用。
2025-02-16
有没有把文字生成图片,并配图的ai软件
以下是一些可以将文字生成图片并配图的 AI 软件: 1. Stable Diffusion:可以根据文本指令生成与文本信息匹配的图片,生成的图片样式取决于使用者输入的提示词,难以出现完全相同的两张输出图片。 2. 无界 AI:可用于快速制作海报底图,在操作步骤上与其他同类软件有相似之处,大致流程包括确定主题与文案、选择风格与布局、生成与筛选、配文与排版。 3. DALL·E:由 OpenAI 推出,能根据输入的文本描述生成逼真的图片。 4. MidJourney:因高质量的图像生成效果和用户友好的界面设计受到广泛欢迎,在创意设计人群中尤其流行。 您可以根据自己的需求选择使用。在 WaytoAGI 网站(https://www.waytoagi.com/category/104 ),可以查看更多文生图工具。需要注意的是,内容由 AI 大模型生成,请仔细甄别。
2025-02-16