直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

lora文件后缀

回答

LORA 文件的后缀通常有.pt、.safetensors、.ckpt 等。LORA 是一种除主模型外常用的微调模型,常用于控制画风、人物、姿势等,其文件体量通常有几十上百兆,一般在 4M - 300M 之间。下载的 LORA 放在根目录的【……\models\Lora】文件夹下,使用时点击红色小书,找到 LORA 的选项卡加载,可能还需要加入特定触发词。此外,safetensors 是一种由 huggingface 研发的开源模型格式,具有安全、加载迅速、支持懒加载、通用性强等优势,现在大部分开源模型都会提供这种格式。LoRA 和 LyCORIS 的后缀均为.safetensors。Textual Inversion 后缀为.pt 或者.safetensors,体积很小,一般只有几 kb,所在目录在 WebUI 中的 embeddings 目录下。当无法通过后缀名区分文件类型时,可以去到秋叶大佬整理的网站 https://spell.novelai.dev/,把文件拖进去查看类型。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

【SD】软件原理傻瓜级理解

总结一下,LORA的强大,无论是画风,还是人物、物品,或者是动作姿态,都是可以固定下来,它所做的就是提炼图片特征。LORA和Embedding的区别一是在于体量上,Embedding的文件只有几十kb,而LORA的文件通常有几十上百兆,所以LORA的文件所承载的信息量是要远大于Embedding,尤其是在还原真人物品时,LORA的细节精度是Embedding无法比拟的。下载的LORA放在根目录的这个文件夹下【……\models\Lora】,使用的时候点击这个红色的小书,找到LORA的选项卡,任意点击一个想要的LORA就可以加载进去了。使用LORA的时候要注意看作者使用的大模型,一般情况下只有配套使用才能达到LORA最好的效果,当然也不排除有一些LORA和其他的大模型会产生一些奇妙的碰撞。除了加载lora以外,还需要加入一些特定的触发词,才能保证lora的正常使用。比如这个盲盒的lora,作者提示需要加入full body,chibi这些提示词才行。Hypernetworks主要是针对画风训练的一种模型,可以像lora一样加载进来。比如这种卡通Q版头像蒸汽波风格油画风格下载的文件放在根目录的这个文件夹下【…\models\hypernetworks】,使用的时候点击这个红色的小书,找到Hypernetworks的选项卡,任意点击一个想要的Hypernetworks就可以加载进去了。当我们下载了很多的模型、Embedding、Hypernetworks和LORA之后,我们会发现这些文件的后缀名几乎是一样,包括.pt/.safetensors/.ckpt等等,所以这些文件是无法通过后缀名进行区分的,那我们怎么判断这个文件到底是什么?该放到什么文件夹里呢?这里我们可以去到秋叶大佬整理的这个网站里面https://spell.novelai.dev/,把文件拖进去就可以看到是什么类型的文件。

【Lora炼丹术】从零开始,炼制你的第一个LoRA(1)

DIM为64时,输出的文件一般为70MB+;DIM为128时,输出的文件一般为140MB+;|场景|DIM|备注||-|-|-||二次元<br>|32|画风越复杂,dim越高<br>||人物<br>|32-128<br>|常见主流lora大部分使用128<br>||实物、风景|≥128<br>|根据训练对象复杂度提升dim<br>|4样图设置主要是用来控制在训练过程中的样图显示,这样我们能实时观测到训练过程中的效果。sample every n steps为50,就代表着每50步生成一张样图。prompts提示词可以预设一些效果,让样图进行显示,也可以自定义。#素材处理设置好参数之后,我们来训练集当中,正常情况下,我们要炼制lora的话,大概需要20-30张质量比较高的图片。这边虽然只有5张,不过我们可以先用起来。先设置分辨率,常见的就是512*512,或者512*768。这里有一些裁剪模式,可以帮我们自动处理图片。设置好之后,我们点击预处理。等待预处理完成,就可以看到图片被处理成了脸部和上半身的聚焦图片。进入TAG编辑当中,可以看到每张图片都被自动加上了标签,可以说是非常方便了。纯英文的tag看起来还是有点费劲的,我们可以打开这个翻译设置来开启双语tag。我们进入百度翻译开放平台,注册一个账号,点击“通用文本翻译”、点击“免费体验通用文本翻译API”。

guahunyo:SD入门讲解PPT.pptx

safetensors支持各种AI模型,而在safetensors出现前,各种AI模型都有着自己独特的后缀。这就导致每种模型既可以使用safetensors又可以使用自己原有的后缀,所以入门的时候就会让人有点分不清。其实safetensors是由huggingface研发的一种开源的模型格式,它有几种优势:足够安全,可以防止DOS攻击加载迅速支持懒加载通用性强所以现在大部分的开源模型都会提供safetensors格式。开源地址:https://github.com/huggingface/safetensorsLoRA和LyCORIS LoRA是除了主模型外最常用的模型。LoRA和LyCORIS都属于微调模型,一般用于控制画风、控制生成的角色、控制角色的姿势等等。LoRA和LyCORIS的后缀均为.safetensors,体积较主模型要小得多,一般在4M-300M之间。一般使用LoRA模型较多,而LyCORIS与LoRA相比可调节范围更大,以前需要额外的扩展才可使用,现在sd已经内置了。需要管理模型时我们可以进入WebUI目录下的models/LoRA目录下。在WebUl中使用时,可在LoRA菜单中点击使用。也可以直接使用Prompt调用。[heading2]YOUR LOGO[content]Textual Inversion Textual Inversion是文本编码器模型,用于改变文字向量。可以将其理解为一组Prompt。Textual Inversion后缀为.pt或者.safetensors,体积非常小,一般只有几kb。模型所在的目录不在models下,而是在WebUI中的embeddings目录下。在使用时同样可以在Textual Inversion菜单中点击使用,也可以使用Prompt调用。

其他人在问
flux和lora分别是什么意思
Flux 是一种在图像转换和处理方面具有特定功能的工具。它具有多种功能,如使用 FLUX.1 Canny / Depth 进行结构调节,通过边缘或深度检测来在图像转换过程中保持精确控制;使用 FLUX.1 Redux 进行图像变化和重新设计,给定输入图像可以重现具有轻微变化的图像。 Lora 是一种低阶自适应模型,可以理解为基础模型(如 Checkpoint)的小插件。在生图时可有可无,但对于控制面部、材质、物品等细节有明显价值,旁边的数值是其权重。
2024-11-25
flux lora 训练
以下是关于 Flux 的 Lora 模型训练的详细步骤: 准备工作: 下载所需模型:t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。 注意:不使用时模型放置位置不限,只要知道“路径”,后续会引用到“路径”。 训练建议使用 flux1dev.safetensors 版本的模型和 t5xxl_fp16.safetensors 版本的编码器。 下载训练脚本: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 数据集准备: 进入厚德云模型训练数据集:https://portal.houdeyun.cn/sd/dataset 步骤一:创建数据集 在数据集一栏中,点击右上角创建数据集。 输入数据集名称。 可以上传包含图片+标签 txt 的 zip 文件,也可以上传只有图片的文件(之后可在 c 站使用自动打标功能),或者一张一张单独上传照片,但建议提前将图片和标签打包成 zip 上传。 Zip 文件里图片名称与标签文件应当匹配,例如:图片名“1.png”,对应的达标文件就叫“1.txt”。 上传 zip 以后等待一段时间,确认创建数据集,返回到上一个页面,等待一段时间后上传成功,可点击详情检查,预览数据集的图片以及对应的标签。 步骤二:Lora 训练 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 选择数据集,点击右侧箭头,会跳出所有上传过的数据集。 触发词可有可无,取决于数据集是否有触发词。 模型效果预览提示词则随机抽取一个数据集中的标签填入即可。 训练参数可以调节重复次数与训练轮数,厚德云会自动计算训练步数。如果不知道如何设置,可以默认 20 重复次数和 10 轮训练轮数。 可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力。 等待训练,会显示预览时间和进度条,训练完成会显示每一轮的预览图。 鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 数据集放置位置:.Flux_train_20.4\\train\\qinglong\\train 运行训练:约 1 2 小时即可训练完成。 验证和 lora 跑图:有 ComfyUI 基础的话,直接原版工作流的模型后面,多加一个 LoraloaderModelOnly 的节点就可以,自行选择您的 Lora 和调节参数。
2024-11-20
lora是什么
Lora 全称 LowRank Adaptation Models,即低阶自适应模型。它的作用在于影响和微调画面,能够再现人物或物品的特征。大模型的训练通常复杂且对电脑配置要求高,而 LoRA 采用在原模型中插入新的数据处理层的方式,避免了修改原有模型参数。LORA 模型训练是用特定特征替换大模型中的对应元素,从而生成不同于底模的图片。Lora 训练较为轻量化,所需显存较少,硬件门槛显存达到 6G 即可开启训练。例如,有利用新版 SDXL 生成的如针线娃娃的 lora,还有如“KIDS ILLUSTRATION”这样用于生成儿童绘本风格插画的 lora 等。
2024-11-01
Lora模型训练数据集
以下是关于 Lora 模型训练数据集的相关内容: 创建数据集: 1. 进入厚德云模型训练数据集(https://portal.houdeyun.cn/sd/dataset)。 2. 在数据集一栏中,点击右上角创建数据集,输入数据集名称。 3. 可以上传包含图片+标签 txt 的 zip 文件,也可以只有图片(之后可在 c 站使用自动打标功能),还可以一张一张单独上传照片,但建议提前把图片和标签打包成 zip 上传。 4. Zip 文件里图片名称与标签文件应当匹配,例如:图片名“1.png”,对应的达标文件就叫“1.txt”。 5. 上传 zip 以后等待一段时间,确认创建数据集。返回到上一个页面,等待一段时间后上传成功,可以点击详情检查,能预览到数据集的图片以及对应的标签。 Lora 训练: 1. 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 2. 选择数据集,点击右侧箭头,会跳出所有上传过的数据集。 3. 触发词可有可无,取决于数据集是否有触发词。模型效果预览提示词则随机抽取一个数据集中的标签填入即可。 4. 训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数。如果不知道如何设置,可以默认 20 重复次数和 10 轮训练轮数。 5. 可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力。然后等待训练,会显示预览时间和进度条。训练完成会显示每一轮的预览图。鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 用 SD 训练一套贴纸 LoRA 模型的工作流: 1. 原始形象:MJ 初步产出符合设计想法的贴纸原始形象。 2. 二次加工:完成贴纸的白色边线等细节加工。 3. 处理素材:给训练集图片打 tag,修改 tag。 4. 训练模型:将上述处理好的数据集做成训练集,进行训练。 用 SD 训练一套贴纸 LoRA 模型的原始形象:MJ 关键词: A drawing for a rabbit stickers,in the style of hallyu,screenshot,mori kei,duckcore plush doll art exaggerated poses,cry/happy/sad/...ar 3:4 niji 5 style cute s 180 。会得到不同风格的贴图,我们可以先看看自己喜欢哪一种。出图过程可以有意识地总结这一类贴图的特征,比如都是可爱的兔子,有不同的衣服和头饰,都有一双大大的卡通眼睛,会有不同的面部表情。 注意事项: 1. 关键词中限制了颜色,因此 MJ 生成的图片会一种情绪对应一种颜色,所以同一种情绪最好多生成几张不同色系的,可以减少后续训练中模型把情绪和颜色做挂钩(如果需要这样的话,也可以反其道而行之)。 2. 数据集中正面情绪与负面情绪最好比例差不多,如果都是正面积极的,在出一些负面情时(sad,cry)的时候,可能会出现奇怪的问题(如我们训练的是兔子形象,但 ai 认知的 sad 可能是人的形象,可能会出现人物特征)。 3. 如果训练 256266 大小的表情包,这样的素材就已经够用了。如果要训练更高像素的图片,则需要进一步使用 MJ 垫图和高清扩展功能。 高清化: 左(256)→右(1024),输入左图,加入内容描述,加入风格描述,挑选合适的,选出新 30 张图片(卡通二次元类型的 lora 训练集 30 张差不多,真人 60100 张)。
2024-10-22
Lora模型训练
以下是关于 Lora 模型训练的相关内容: 一、用 SD 训练一套贴纸 LoRA 模型的要点 1. 训练数据集准备:包括训练素材处理、图像预处理、打标优化。 2. 训练环境参数配置:选择本地或云端训练环境,进行训练环境配置和训练参数配置。 3. 模型训练:基于 kohyass 训练模型。 4. 模型测试:通过 XYZ plot 测试模型。 二、郑敏轩:Flux 的 Lora 模型训练 1. 所需模型下载:t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。 注意事项: 不使用时,模型放置位置不限,只要知道路径即可。 训练时,建议使用 flux1dev.safetensors 版本的模型和 t5xxl_fp16.safetensors 版本的编码器。 2. 下载脚本: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 三、100 基础训练大模型 1. 步骤一·创建数据集 进入厚德云模型训练数据集:https://portal.houdeyun.cn/sd/dataset 在数据集一栏中,点击右上角创建数据集,输入数据集名称。 可以上传包含图片+标签 txt 的 zip 文件,也可以只有图片(之后可在 c 站使用自动打标功能),或者一张一张单独上传照片。 Zip 文件里图片名称与标签文件应当匹配,例如:图片名"1.png",对应的达标文件就叫"1.txt"。 上传 zip 以后等待一段时间,确认创建数据集,返回到上一个页面,等待一段时间后上传成功,可点击详情检查,预览数据集的图片以及对应的标签。 2. 步骤二·Lora 训练 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 选择数据集,点击右侧箭头,选择上传过的数据集。 触发词可有可无,取决于数据集是否有触发词。 模型效果预览提示词则随机抽取一个数据集中的标签填入即可。 训练参数可调节重复次数与训练轮数,厚德云会自动计算训练步数,若不知如何设置,可默认 20 重复次数和 10 轮训练轮数。 可按需求选择是否加速,点击开始训练,会显示所需要消耗的算力,然后等待训练,会显示预览时间和进度条。 训练完成后会显示每一轮的预览图,鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。
2024-10-22
文生图lora微调
以下是关于文生图 lora 微调的详细内容: 定主题:明确您需要生成的图片的主题、风格和要表达的信息。 选择基础模型 Checkpoint:根据主题选择内容贴近的 checkpoint,如麦橘、墨幽的系列模型,如麦橘写实、麦橘男团、墨幽人造人等。 选择 lora:基于生成内容寻找重叠的 lora,以控制图片效果和质量,可参考广场上优秀帖子中使用的 lora。 ControlNet:可控制图片中特定图像,如人物姿态、生成特定文字或艺术化二维码等,属于高阶技能。 局部重绘:下篇再教。 设置 VAE:无脑选择 840000 即可。 Prompt 提示词:用英文写需求,使用单词和短语组合,不用管语法,单词、短语间用英文半角逗号隔开。 负向提示词 Negative Prompt:同样用英文写要避免的内容,单词和短语组合,用英文半角逗号隔开。 采样算法:一般选 DPM++ 2M Karras 较多,也可参考 checkpoint 详情页上模型作者推荐的采样器。 采样次数:选 DPM++ 2M Karras 时,采样次数通常在 30 40 之间。 尺寸:根据个人喜好和需求选择。 以下是一个简笔水彩风格插画的示例: 使用大模型“Flat 2D Animerge”,适合生成卡通动漫图片,官方建议 CFG 值在 5 或 6(使用动态阈值修复可拉到 11)。搭配两个 lora,“Chinese painting style”可增加中国画水彩风格效果,权重设为 0.4;“Crayon drawing”可添加简单线条和小孩子笔触,权重设为 0.8。将图片丢到标签器中反推关键词,发送到“文生图”。在正向提示词末尾添加这两个 lora,尺寸按参考图设置,重绘幅度开 0.5 让 AI 更自由发挥,若想更接近原图可降低数值。将图放入 ControlNet 中,选择 tile 模型,权重为 0.5,控制模式选择“更注重提示词”。
2024-10-05
有没有带有文件夹功能的ai
目前,带有文件夹功能的 AI 仅在 Cursor Chat 中受支持。您还可以将 Cursor 中的整个文件夹作为上下文引用,@Folders 对于希望为 AI 提供大量上下文的长上下文聊天特别有用,相关链接为:https://docs.cursor.com/chat/overviewlongcontextchat 。 此外,能联网检索的 AI 也是存在的。例如,ChatGPT Plus 用户现在可以开启 web browsing 功能实现联网;Perplexity 结合了 ChatGPT 式的问答和普通搜索引擎的功能,允许用户指定希望聊天机器人在制定响应时搜索的源类型;Bing Copilot 作为 AI 助手,旨在简化在线查询和浏览活动;还有如 You.com 和 Neeva AI 等搜索引擎,它们提供了基于人工智能的定制搜索体验,并保持用户数据的私密性。 在 Excel 方面,有以下几种增强数据处理和分析能力的 AI 工具和插件: 1. Excel Labs:是 Excel 插件,新增生成式 AI 功能,基于 OpenAI 技术,可在 Excel 中利用 AI 进行数据分析和决策支持。 2. Microsoft 365 Copilot:微软推出,整合了 Word、Excel、PowerPoint、Outlook、Teams 等办公软件,通过聊天形式,用户告知需求,Copilot 自动完成任务。 3. Formula Bot:提供数据分析聊天机器人和公式生成器两大功能,用户可通过自然语言交互式地进行数据分析和生成 Excel 公式。 4. Numerous AI:支持 Excel 和 Google Sheets 的 AI 插件,除公式生成外,还可根据提示生成相关文本内容、执行情感分析、语言翻译等任务。 以上内容由 AI 大模型生成,请仔细甄别。
2024-12-21
推荐一个AI工具,帮助我每天自动执行以下步骤:从本地上传文件给大模型,该文件内含有新闻网页链接,大模型读取链接并汇总内容
以下为您推荐的 AI 工具可能有助于您实现每天自动执行从本地上传文件给大模型,并让大模型读取文件内新闻网页链接并汇总内容的需求: 1. AI 拍立得(Pailido): 特点:即拍即得,简化流程,操作直观高效。 体验方式:微信小程序搜索“Pailido”。 交互逻辑:用户选择拍摄场景类型并拍照,AI 自动识别和分析照片内容信息,依据预设场景规则迅速生成符合情境的反馈。 实现场景: 图片转成文本:用户上传图片后,大模型根据选择的场景生成相关文字描述或解说文本,可用于生成美食点评、朋友圈发布文案、闲鱼上架示例模版等。 图片转绘图片:用户上传图片后,大模型按照指定风格快速生成图像的转绘版本,适应不同风格和场景需求,如图片粘土风、图片积木风、图片像素风等。 2. 内容仿写 AI 工具: 秘塔写作猫:https://xiezuocat.com/ ,是 AI 写作伴侣,能推敲用语、斟酌文法、改写文风,实时同步翻译,支持全文改写、一键修改、实时纠错并给出修改建议,智能分析文章属性并打分。 笔灵 AI 写作:https://ibiling.cn/ ,是智能写作助手,支持多种文体写作,如心得体会、公文写作、演讲稿、小说、论文等,支持一键改写/续写/扩写,智能锤炼打磨文字。 腾讯 Effidit 写作:https://effidit.qq.com/ ,由腾讯 AI Lab 开发的智能创作助手,能提升写作者的写作效率和创作体验。 更多 AI 写作类工具可以查看:https://www.waytoagi.com/sites/category/2 。请注意,内容由 AI 大模型生成,请仔细甄别。
2024-12-21
我是一个投资人,我想针对每个项目建立知识库,类似一个个对话的形式,我把关于某个项目的材料全部丢进一个对话中,然后可以针对每个项目进行提问,或者要求AI帮我产出某种类型的文件。哪个App可以最好的满足我的需求?
以下是一些可能满足您需求的 App 选项: 1. WaytoAGI 网站: 提供和 AI 知识库对话的功能,您可以在此询问任何关于 AI 的问题。 集合了精选的 AI 网站,方便您按需求找到适合的工具。 有精选的 AI 提示词,可复制到 AI 对话网站使用。 会将每天知识库的精华内容呈现给大家。 2. 阿里千问模型:可以作为 AI 模型用于问答机器人的配置。 在配置问答机器人时,需要注意模型、提示词和知识库的协同作用。模型就像拥有无穷智慧的人,提示词能设定其角色和专注技能,知识库则如同工作手册,为其提供特定项目的详细信息。
2024-12-17
AI 可以分析文件吗
AI 可以分析文件。在金融服务领域,生成式 AI 模型能够迅速汇总个体关键信息,预测洗钱者,进行更快的文档分析,用于培训和教育等,使合规工作更高效。 在专利审查方面,AI 也得到了广泛应用,例如: 1. 专利检索与分类:通过自然语言处理和机器学习算法,自动识别和分类专利文献。如 Google Patents、IBM Watson for IP 等平台。 2. 专利分析和评估:分析专利文本,评估新颖性和创造性,预测授权可能性。如 TurboPatent、PatentBot 等平台。 3. 自动化专利申请:帮助自动生成专利申请文件,减少人工编写和审查时间。如 Specifio、PatentPal 等平台。 4. 专利图像和图表分析:分析专利申请中的图像和图表,帮助识别和分类技术内容。如 Aulive、AIpowered image recognition tools 等平台。 在处理文档和数据方面,对于数据可以使用代码解释器,对于文档,Claude 2 适用于大型文档或同时处理多个文档,Bing 侧边栏适用于较小的文档和网页。代码解释器是一种 GPT4 模式,允许上传文件、编写和运行代码、下载结果等,可用于执行程序、数据分析等,尽管使用它进行未经培训的分析存在风险,但仍给许多专家留下深刻印象。
2024-12-15
如何将word文件中的内容和图表,自动生成PPT
以下是将 word 文件中的内容和图表自动生成 PPT 的一些方法: 1. 可以使用 Gamma app 进行转换。先将 Claude 的答案放到 Google Docs 中,再导入 Gamma app,初始版只有文字没有图片。但可给 Gamma app 发送指令进行美化。 2. 对于需要的关键图表,如果无法直接获取,可采取以下措施: 检查论文在线版本。有些期刊会发布论文的数字版本,包含原文、数据、图表和附录等内容。可在论文首页或期刊网站上检查相关链接,下载论文的在线全文 PDF 并查找所需图表资料。 联系论文作者。若论文的在线全文资料不可获得,可通过网络查找论文作者的联系方式,说明对论文的高度兴趣,希望获取论文原文以查阅相关图表和数据信息。作者同意后有可能会发送电子版论文全文。 咨询研究数据库。大学和公共图书馆通常订阅包括各类期刊在内的研究文献数据库。可联系相关馆员,说明论文题目和作者,请求他们在数据库中查阅和获取该研究文章。这可能需要前往图书馆亲自查阅,或支付少许费用获取电子资料。 3. 对于生成教案和 PPT,可访问地址 https://www.coze.cn/s/iDsBwYLF/ ,按照以下步骤操作: 进入设计教案页面,等待执行完成后即可看到教案。 进入趣味课堂,设计课堂问答卡和针对性的教学活动,采用寓教于乐的方式激发孩子学习兴趣。 基于教学大纲和课本重点内容设计课后作业,包括生字词运用、阅读理解、写作等。 生成的 PPT 内容基于前面生成的教学大纲,可能需要手动进行少许内容修正。若对大纲内容不满意,可重新生成大纲和 PPT。复制大纲内容,打开 kimi,选择 PPT,复制教案,在对话框粘贴,KIMI 会优化大纲,点击进去后选择喜欢的模版生成。 4. 在给 PPT 配图方面,稍微高级一点的薅法如下: 首先复制图片的网址,然后打开 discord,在聊天栏输入/imagine prompt。 之后再回到官网,把图像的提示词也复制下来,再回 discord 粘贴到刚才拷贝的网址后面,注意空个格。 都搞好以后输入命令,稍等一会儿就会得到一个内容和画风都和原图比较接近的图。效果不理想可多反复生成几次。 之后放大觉得还不错的一张,点 Custom Zoom,改变拉伸镜头后的画面比例,如屏显 PPT 一般用 16:9,zoom 参数设置为 1.5 至 1.7 比较靠谱。 选一张比较好的放大一下,就可以放进 PPT 调整构图。若构图不太好,可在当前这张图的基础上再用一次 Zoom Out 1.5x。
2024-12-14
编写一个python代码其中附件是一个名为data.csv的CSV格式文件,提取表格中数据,行列保持一致进行如下格式转换:‪‬‪‬‪‬‪‬‪‬‮‬‪‬‫‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‭‬‪‬‪‬‪‬‪‬‪‬‮‬‪‬‮‬‪‬‪‬‪‬‪‬‪‬‮‬‪‬‫‬‪‬‪‬‪‬‪‬‪‬‮‬‪‬‮‬‪‬‪‬‪‬‪‬‪‬‮‬‭‬‪‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‭‬ (1)按行进行倒序排列;‪‬‪‬‪‬‪‬‪‬‮‬‪‬‫‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‭‬‪‬‪‬‪‬‪‬‪‬‮‬‪‬‮‬‪‬‪‬‪‬‪‬‪‬‮‬‪‬‫
以下是一个使用 Python 实现读取 CSV 文件并按行倒序排列的代码示例: ```python import pandas as pd 读取 CSV 文件 data = pd.read_csv 按行倒序排列 reversed_data = data.iloc 打印结果 print ``` 在上述代码中,首先使用 `pandas` 库的 `read_csv` 函数读取 `data.csv` 文件,然后使用 `iloc` 索引和切片操作 `` 实现按行倒序排列。
2024-12-12