Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

生图之后怎么保持原图改尺寸扩展

Answer

以下是关于生图后保持原图改尺寸扩展的方法:

对于 SD :

  1. 将原图导入到图生图界面。
  2. 根据情况选择大模型,卡通类一般选“revAnimated”,真实类选“Realistic Vision”,效果不好可尝试其他模型。
  3. 图生图中重要参数设置:“缩放模式”选择“缩放后填充空白”;根据扩展方向增加宽度或高度;单批数量按需填写;“重绘幅度”加大到“0.8”以上。
  4. 升级到最新的 controlnet 版本,将图片导入。
  5. 启用插件,“控制类型”选择“局部重绘”,预处理器选择“inpaint_only+lama”,控制模式选择“更倾向 Controlnet”,缩放模式选择“缩放后填充空白”。
  6. 为了出图更统一,可增加一个 reference_only 的通道巩固扩图风格。
  7. 设置好后点击生成,选择满意的结果。

对于 Midjourney :

  1. 放大(Upscale):包括精细放大(Subtle)尽量保持原样,创意放大(Creative)会调整或改变某些细节。
  2. 重混(Remix):微妙(Subtle)为较小微调,较强(Strong)有较大差异。若没看到 Remix 按钮,点击右上方 More options 文字把常用的打上对勾。
  3. 扩展(Pan):根据选定方向自动扩展图像边界。若没看到此按钮,可能是图像已在 Discord 中生成最满意的一张不可再扩展,或 More options 文字里没打上 Pan 对勾。
  4. 缩放(Zoom):实际为“缩小视图”,会在图像周围添加额外空间展示更多内容。
  5. 更多(More):包括重新运行提示词,或打开图像的编辑模式。重新生成(Rerun)再次运行相同提示,编辑器(Editor)编辑图像特定部分。

对于星流一站式 AI 设计工具:

  1. 应用图生图:在 prompt 输入框下点击“图生图”上传本地文件,或在无限画布中图片功能区进行选择。
  2. 调整“图生图”功能区参数:参考程度分为更像原图(小幅度修改基底图像,有限增加元素)、更创意(大幅度修改基底图像,可搭配增强模型加入更多元素)、自定义(可自定义修改重绘幅度)。
  3. 增加参考纬度:点击添加按钮,会自动应用并打开“生成器”的图片参考功能。
  4. 替换图像:鼠标滑动到图像,点击“选择参考图”即可重新选择图片。
  5. 转换提示词:反推参考图信息填入进提示词框中。
  6. 同步生图尺寸:同步参考图尺寸到“生成器”的生图尺寸中。

需要注意的是,新生成的部分和原图可能会存在色差,需要通过调整各项参数来修正,且不是每一次效果都能非常好。只要记住这个工作流,扩图还是很快的,只要替换图片改尺寸就可以了。

Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】最强控制插件ControlNet(8)创成式填充

我们用这张图作为例子来讲解一下,首先将它导入到图生图界面。根据情况选择大模型,一般卡通类的选择“revAnimated”,真实类的选择“Realistic Vision”,但是也不一定,如果效果不好,可以尝试一下其他的模型。图生图中比较重要的参数,一个是“缩放模式”,选择“缩放后填充空白”;然后是尺寸,如果是横向扩充就增加宽度,如果是纵向扩充就增加高度;单批数量可以根据需求填写,增加抽卡概率;最后尽量将“重绘幅度”加大到“0.8”以上,让AI充分发挥想象。接下来是controlnet的设置,升级到最新的controlnet版本,将图片导入进来。启用插件,“控制类型”选择“局部重绘”,也就是我们之前讲到过的inpaint预处理器,然后在预处理器的下拉菜单中选择“inpaint_only+lama”,这是一个新增的预处理器,专门用于扩图。另外,控制模式选择“更倾向Controlnet”,缩放模式选择“缩放后填充空白”。为了让出图更加统一,甚至还可以再增加一个reference_only的通道,来进一步巩固扩图的风格。设置好之后,点击生成,等待结果,选择一张满意的即可。我们再试验一张图,将这张图放进图生图中。有时为了更好地控制出图,我们还可以通过反推提示词的方式,增加一些文本进行控制。这样生成的图也会受到提示词的影响,可以看出图形部分的衔接还是很自然的,但是不是每一次效果都能非常好,新生成的部分和原图可能会存在色差,需要通过调整各项参数来修正。从网上找一张建筑图,使用真实系模型来扩展一下,其他参数不变,仅需要调整尺寸,并将图片分别放入“图生图”和“controlnet”中。点击生成图片就扩展好了,只要记住这个工作流,扩图还是很快的,只要替换图片改尺寸就可以了。

Midjourney 官方用户端 · 基础介绍

同时在没点击进来前就可以操作,很方便。---·放大(Upscale)将图像尺寸加倍:精细放大(Subtle):放大图像同时尽量保持原样。创意放大(Creative):在放大的同时会调整或改变图像中的某些细节。---·重混(Remix)类似于“变化”,但允许你修改提示词中的元素并替换部分文本,生成更个性化的版本。微妙(Subtle):较小的微调图像较强(Strong):较大的差异,用于向新的方向移动注意:如果没看到Remix按钮,点击右上方More options文字把常用的打上对勾即可。---·扩展(Pan)根据选定方向(箭头所指)自动扩展图像的边界。注意:如果没看到此按钮,有两个原因:1.该图像已经在Discord中生成最满意的一张,不可再扩展。2.More options文字里没打上Pan对勾。---·缩放(Zoom)实际为“缩小视图”,会在图像周围添加额外的空间,展示更多内容。1.5倍图和2倍图---·更多(More)重新运行提示词,或打开图像的编辑模式。重新生成(Rerun):再次运行相同提示编辑器(Editor):编辑图像特定部分,不论是否有提示更改---·使用(Use)将该图像用作提示的参考,可以选择:这些功能让你可以进一步微调、调整或增强生成的图像,以更符合你的创作需求。

星流一站式 AI 设计工具

1.图生图的作用?图生图功能允许用户上传一张图像,并基于该图像生成新的视觉内容1.如何使用图生图?1.1.应用图生图1.1.1.prompt输入框下,点击“图生图”上传本地文件1.1.1.无限画布中下,图片功能区进行选择1.2.调整“图生图”功能区参数参考程度更像原图:小幅度修改基底图像,有限的增加元素更创意:大幅度修改基底图像,可搭配增强模型加入更多的元素自定义:可自定义修改重绘幅度增加参考纬度:点击添加按钮,会自动的应用并打开“生成器”的图片参考功能替换图像:鼠标滑动到图像,点击“选择参考图”即可重新选择图片转换提示词:反推参考图信息填入进提示词框中同步生图尺寸:同步参考图尺寸到“生成器”的生图尺寸中

Others are asking
请推荐一下你知道的人物头像转卡通图的平台,要求效果好,和原图相似度高,最好是免费的
以下为一些人物头像转卡通图效果好、与原图相似度高且可能免费的平台及相关操作技巧: 1. Stable Diffusion: 可以使用【X/Y/Z plot】脚本来做参数对比,将 X 轴设置为提示词相关性(取值范围 1 30,每次增加 5),Y 轴设置为重绘幅度(取值范围 0 1,每次增加 0.2)。 提示词相关性在 6 11 中间为最佳,重绘幅度 0.4 时和原图比较接近。 可使用绘图功能,如增加红色眼镜、去掉衣服图案等,局部重绘可只改变涂抹部分。 2. 复杂提示词: 如 Disney boy,Low saturation Pixar Super details,clay,anime waifu,looking at viewer,nighly detailedreflections transparent iridescent colors.lonctransparent iridescent RGB hair,art by Serafleurfrom artstation,white background,divine cinematic edgelighting,soft focus.bokeh,chiaroscuro 8K,bestquality.ultradetailultradetail.3d,c4d.blender,OCrenderer.cinematic lighting,ultra HD3D renderinoiw 1.5s 500v 5 。 可根据需求调整提示词,如将 Disney 换成 Pixar,boy 换成 girl 等。 3. 通用人物模版: 用真人照片+照片描述+方法 1 的关键词来处理。 需要注意的是,不同平台的效果可能因图片和操作而有所差异,您可以自行尝试。
2025-02-06
有什么软件可以基于原图扩图?除了adobe
以下为您介绍两款除 Adobe 外可以基于原图扩图的软件: 1. 【SD】超清无损放大器 StableSR: 作者:白马少年。 之前讲过在 Stable Diffusion 中绘制高清大图的方式,包括“脚本”和“后期处理”。脚本以“Ultimate SD upscale”为主,会改变原图细节;“后期处理”是 Stable Diffusion 自带的扩图功能,适用于所有图片包括野图,但无法还原原图不清晰的地方。 今天介绍的 StableSR 可以算作“后期处理”的上位替代品,能在尽可能保留原图的情况下更精致地还原原图。安装方式是在扩展面板中搜索 StableSR 直接安装,或者将下载好的插件放在“……\\sdwebuiakiv4\\extensions”路径文件夹下,安装完成后重启 webUI 即可在脚本中找到。 2. 【SD】脸部修复插件 After Detailer: 图片扩充好后,PS 的这个功能又快又好。将 PS 中调整好的图再次导入到 Stable Diffusion 的“图生图”中,使用 controlnet 的 tile 模型进行细化,再使用“Ultimate SD upscale”放大脚本将原图扩充到 2 倍大小。 如果想要这个插件,可以添加公众号【白马与少年】,回复【SD】获取。
2024-12-30
如何优化原图,加入妆容,不修改五官
以下是关于优化原图并加入妆容、不修改五官的一些方法和步骤: 1. 在放大算法方面,Latent 在许多情况下效果不错,但重绘幅度小于 0.5 后不甚理想。ESRGAN_4x、SwinR 4x 对 0.5 以下的重绘幅度有较好支持。 2. Hires step 表示进行这一步时计算的步数。 3. Denoising strength 字面翻译是降噪强度,表现为最后生成图片对原始输入图像内容的变化程度。一般阈值是 0.7 左右,超过 0.7 和原图基本上无关,0.3 以下是稍微改一些。实际执行中,具体步骤为 Denoising strength Sampling Steps。 4. 面部修复可修复画面中人物的面部,但非写实风格人物开启面部修复可能导致面部崩坏。 5. 将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。可参考文章——。但此步骤无法将照片中头发、衣服等元素变清晰。 6. 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的。可参考文章——。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免对原图产生干扰。 7. 在星流一站式 AI 设计工具中,点击生成器下方的切换按钮可切换到高级模式。基础模型允许使用更多微调大模型,图片参考允许使用更多图像控制功能。星流基础大模型下,增加了 tile 分块与 softedge 线稿。切换不同系列的基础模型可使用与之配套的图像控制功能,包括基础模型 F.1、基础模型 XL、基础模型 1.5。高清分辨率修复利用算法对初步生成的图像进行简单的图生图高清放大(目前仅支持基础模型 xl 和 1.5 模型)。放大算法影响图像放大后的质量,建议默认。重绘幅度与初步生成的图像的相似度有关。采样器方面,有些在细节处理上表现更佳如 DPM++ 2M,有些生成速度更快如 Euler。采样步数一般越多,模型对图像的生成和优化越充分,但会增加生成时间。随机种子是文生图的随机数种子,通过设置相同的随机数种子,在相同参数配置下可生成相同图像。CFG Scale 控制生成图像与提示词一致性。脸部/手部修复利用算法对人像的脸部或者手部进行修复。
2024-12-02
如何搭建利用产品原图和模特模板生成商业图的工作流 或者有没有这类ai 应用
以下是关于利用产品原图和模特模板生成商业图的工作流及相关 AI 应用的信息: 美国独立站搭建工作流中,有给模特戴上珠宝饰品的应用。 大淘宝设计部在主题活动页面、超级品类日传播拍摄创意、产品营销视觉、定制模特生成、产品场景生成等方面应用了 AI。例如,七夕主题活动页面通过 AI 生成不受外部拍摄条件限制的素材;在 UI 设计场景中,利用 SD 中 controlnet 生成指定范围内的 ICON、界面皮肤等;通过对 AI 大模型的训练和应用,提升合成模特的真实性和美感,提供定制化线上真人模特体验,如 AI 试衣间、AI 写真等;还能根据商品图和用户自定义输入生成多张场景效果,无需 3D 模型、显卡渲染和线下拍摄。
2024-11-22
有什么工具,可以将上传图片上的文字全部翻译成另一种语言,并且生成将原图文字变成翻译结果的新图片
以下为您推荐一些能够将上传图片上的文字翻译成另一种语言,并生成新图片的工具: 1. OpenAI 的 DALL·E :通过图像生成端点可以创建原始图像,编辑端点可以编辑和扩展图像。但主要侧重于图像的生成和编辑,对于图片文字翻译和生成新图片的针对性功能可能不太突出。 2. Reccloud :免费的在线 AI 字幕生成工具,可直接上传视频进行精准识别,能对识别的字幕进行翻译,自动生成双语字幕。 3. 绘影字幕 :一站式专业视频自动字幕编辑器,提供字幕制作和翻译服务,支持多种语言,准确率高,还能自定义字幕样式。 4. Arctime :对视频语音自动识别并转换为字幕,支持自动打轴,支持主流平台和多种字幕功能。 5. 网易见外 :国内知名语音平台,支持视频智能字幕功能,转换正确率较高,支持音频转写。 需要注意的是,以上内容由 AI 大模型生成,请仔细甄别。
2024-10-04
免费生图的软件
以下是一些免费生图的软件: 1. Stable Diffusion:相比较于 DALLE 等大模型,它让用户使用消费级的显卡便能够迅速实现文生图。Stable Diffusion 完全免费开源,所有代码均在 GitHub 上公开,大家可以拷贝使用。其模型第一个版本训练耗资 60 万美元,资金支持来自 Stability AI 公司,该公司成立于 2020 年,创始人兼 CEO 是 Emad Mostaque。 2. Tusiart:点击,可进入免费在线生图。 3. Liblibai:点击,可进入免费在线生图。
2025-03-30
用文生图来画插画风格的系统流程图、概念图有哪些快速上手的prompt、平台和教程
以下是关于用文生图来画插画风格的系统流程图、概念图的快速上手的 prompt、平台和教程: 平台:Tusiart Prompt 提示词: 用英文写您想要 AI 生成的内容,不用管语法,仅使用单词和短语的组合去表达需求,单词、短语之间用英文半角逗号隔开。 描述逻辑通常包括人物及主体特征(服饰、发型发色、五官、表情、动作),场景特征(室内室外、大场景、小细节),环境光照(白天黑夜、特定时段、光、天空),画幅视角(距离、人物比例、观察视角、镜头类型),画质(高画质、高分辨率),画风(插画、二次元、写实)。 教程: 1. 定主题:确定您需要生成的图的主题、风格和要表达的信息。 2. 选择基础模型 Checkpoint:按照主题找内容贴近的 checkpoint,如麦橘、墨幽的系列模型。 3. 选择 lora:在生成内容基础上,寻找内容重叠的 lora 以控制图片效果及质量。 4. ControlNet:可控制图片中特定图像,如人物姿态、特定文字等,高阶技能可后续学习。 5. 局部重绘:下篇再教。 6. 设置 VAE:无脑选择 840000 这个即可。 7. 负向提示词 Negative Prompt:用英文写您想要 AI 避免产生的内容,单词和短语组合,中间用英文半角逗号隔开。 8. 采样算法:一般选 DPM++2M Karras,也可留意 checkpoint 详情页上模型作者推荐的采样器。 9. 采样次数:选 DPM++2M Karras 时,采样次数在 30 40 之间。 10. 尺寸:根据喜好和需求选择。 辅助网站: 1. http://www.atoolbox.net/ :通过选项卡方式快速填写关键词信息。 2. https://ai.dawnmark.cn/ :每种参数有缩略图参考,更直观选择提示词。 3. https://civitai.com/ :可抄作业,复制图片的详细参数用于生成。 下次作图时,可先选择模板,点击倒数第二个按钮快速输入标准提示词。
2025-03-28
文生图片哪个好
以下是对一些文生图模型的介绍及相关提示词和操作的说明: 文生图模型排序(从高到低): 1. Imagen 3:真实感满分,指令遵从强。 2. Recraft:真实感强,风格泛化很好,指令遵从较好(会受风格影响)。 3. Midjourney:风格化强,艺术感在线,但会失真,指令遵从较差。 4. 快手可图:影视场景能用,风格化较差。 5. Flux.1.1:真实感强,需要搭配 Lora 使用。 6. 文生图大模型 V2.1L(美感版):影视感强,但会有点油腻,细节不够,容易糊脸。 7. Luma:影视感强,但风格单一,糊。 8. 美图奇想 5.0:AI 油腻感重。 9. 腾讯混元:AI 油腻感重,影视感弱,空间结构不准。 10. SD 3.5 Large:崩。 【SD】文生图提示词: 英文为:, (toomany finger。 Tusiart 简易上手教程: 提示词相关性:指图像与用户输入 prompt 的匹配程度。数字越大,图像就越接近你的提示。但数字过高会让图像质量下降。在 5 15 之间为好,一般用 7、9、12。 随机种子:生成的每张图都有随机种子,在固定好种子以后,可以对图片进行“控制变量”效果的操作,比如说修改提示词、修改 clip 跳过层等等。 ADetailer:面部修复插件,预防或解决脸部崩坏的超强小工具,高阶操作后面再学,没事勾上也 OK。 CLIP skip:设成 2 就行。
2025-03-28
我想学习ai视频ai生图的相关技能,并且我不想速成,我想了解其中的底层原理以便可以更好的控制生成的内容,我应该如何学习
以下是关于学习 AI 视频和生图相关技能的一些建议: 一、基础概念 1. 模型 Checkpoint:生图必需的基础模型,任何生图操作必须选定一个才能开始。 Lora:低阶自适应模型,可视为 Checkpoint 的小插件,用于精细控制面部、材质、物品等细节。 VAE:编码器,功能类似于滤镜,可调整生图的饱和度,一般选择 840000 这个。 2. 提示词 Prompt 提示词:想要 AI 生成的内容,需要花费功夫学习,可从照抄别人开始。 负向提示词 Negative Prompt:想要 AI 避免产生的内容,同样需要学习,可从照抄开始。 3. 其他概念 ControlNet:控制图片中特定图像,如人物姿态、特定文字、艺术化二维码等,属于高阶技能,可后续学习。 ADetailer:面部修复插件,用于治愈脸部崩坏,是高阶技能。 二、参数设置 1. 迭代步数:AI 调整图片内容的次数。步数越多,调整越精密,出图效果理论上更好,但耗时越长,且并非越多越好。 2. 尺寸:图片生成的尺寸大小,需适中选择,太小生成内容有限,太大 AI 可能放飞自我。 3. 生成批次和每批数量:决定重复生成图的批次和每批次同时生成的图片数量。 4. 提示词引导系数:指图像与 prompt 的匹配程度,数字增大图像更接近提示,但过高会使图像质量下降。 5. 随机数种子:固定后可对图片进行“控制变量”操作,首次生成图时无需关注。 6. 重绘幅度:图生图时用到,幅度越大,输出图与输入图差别越大。 在学习过程中,您可以先从熟悉基础模型、提示词和常见参数设置入手,通过实践和参考他人的经验不断积累知识,逐步掌握更高级的技能和工具。
2025-03-24
ai生图的核心
AI 生图的核心要素包括以下几个方面: 1. 交互设计与辅助功能:如 Midjourney 具备重绘、放大、风格化等功能,Imagen3 有独特的提示词解构设计,能提供相关提示词建议,但作为 AI 生图工具,控制力、表现力、风格多样性仍是核心。 2. 创作方法与实操演示:包括趣味性与美感的结合,如通过反差、反逻辑、超现实方式带来视觉冲击,在美术基础不出错前提下将形式与内容结合;纹身图创作强调人机交互,对输出图片进行二次和多次微调,确定情绪、风格等锚点再发散联想;提示词编写要用自然语言详细描述画面内容,避免废话词。 3. 技术参数设置:例如图生图中的重绘幅度、图片尺寸、采样算法、采样次数、提示词相关性、随机种子、Clip Skip、ENSD 等参数的设置和调整,都会影响生图效果。
2025-03-19
在哪里可以了解更多有关stable diffusion ai 生图的使用方法?
以下是了解更多有关 stable diffusion ai 生图使用方法的途径: 1. 点击链接进入官方 DISCORD 服务器:https://discord.com/invite/stablediffusion ,进入 ARTISAN 频道,任意选择一个频道。输入/dream 会提示没有权限,点击链接,注册登录,填写信用卡信息以及地址,点击提交,可免费试用三天,三天后开始收费。输入/dream 提示词,这部分和 MJ 类似。可选参数有五类,包括 prompt(提示词,正常文字输入,必填项)、negative_prompt(负面提示词,填写负面提示词,选填项)、seed(种子值,可以自己填,选填项)、aspect(长宽比,选填项)、model(模型选择,SD3,Core 两种可选,选填项)、Images(张数,14 张,选填项)。完成后选择其中一张。 2. 下次作图时,先选择模板,点击倒数第二个按钮,就能将标准提示词快速输入。描述逻辑通常包括人物及主体特征(服饰、发型发色、五官、表情、动作),场景特征(室内室外、大场景、小细节),环境光照(白天黑夜、特定时段、光、天空),画幅视角(距离、人物比例、观察视角、镜头类型),画质(高画质、高分辨率),画风(插画、二次元、写实)。对于新手,可通过功能型辅助网站来写提示词,如:http://www.atoolbox.net/ ,它可以通过选项卡的方式快速填写关键词信息;https://ai.dawnmark.cn/ ,其每种参数都有缩略图可参考,方便更直观选择提示词。还可以去 C 站(https://civitai.com/)抄作业,每一张图都有详细参数,点击下面的复制数据按钮,然后直接粘贴到正向提示词栏里,点击生成按钮下的第一个按键,Stable Diffusion 就可以将所有参数自动匹配。但要注意图像作者使用的大模型和 LORA,不然即使参数一样,生成的图也会不同。也可以只取其中较好的描述词使用,比如人物描写、背景描述、一些小元素或者画面质感之类的。 3. 将照片放入到后期处理中,使用 GFPGAN 算法将人脸变清晰,可参考文章—— 。将图片再发送到图生图当中,打开 stableSR 脚本,放大两倍。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以什么都不写,以免对原图产生干扰。
2025-03-18
我希望通过ai做好我企业内部的智能巡检。巡检内容主要是针对企业的门店的招牌门头是否合规给出意见。主要合规性检查包括:Logo是否符合公司的设计标准;门头的颜色搭配、尺寸是否符合标准(还要提醒褪色),请问大体应该是各什么思路?
很抱歉,飞书知识库中没有与您关于通过 AI 做好企业内部门店招牌门头智能巡检思路的直接相关内容。但一般来说,您可以考虑以下思路: 1. 数据采集:使用图像采集设备获取门店招牌门头的图像数据。 2. 图像识别技术:运用 AI 的图像识别能力,对采集到的图像进行分析,识别 Logo、颜色、尺寸等元素。 3. 建立标准模型:根据公司设计的标准,建立合规性的模型,以便与采集到的图像进行对比。 4. 智能判断:通过算法判断门头的各项元素是否符合标准,包括 Logo 是否与标准一致,颜色搭配、尺寸是否在规定范围内,以及是否存在褪色等问题。 5. 生成报告和提醒:根据判断结果生成详细的报告,并及时提醒相关人员进行整改。
2025-02-25
有什么AI工具 可以转换视频的尺寸
以下是一些可以转换视频尺寸的 AI 工具: 1. Topaz Video AI:可通过以下链接获取:https://www.topazlabs.com/topazvideoai 。超级会员 V6 可通过百度网盘分享获取相关文件,链接:https://pan.baidu.com/s/1bL4tGfl2nD6leugFh4jg9Q?pwd=16d1 ,提取码:16d1 ,复制这段内容打开「百度网盘 APP 即可获取」。 2. Kraken.io:主要用于图像压缩,但也提供了免费的图像放大功能,能保证图像的细节清晰度。 3. Deep Art Effects:强大的艺术效果编辑器,通过 AI 技术能够将图像放大并赋予艺术效果,支持多种滤镜和风格。 4. RealESRGAN:https://replicate.com/nightmareai/realesrgan ,这是一个基于 RealESRGAN 的图像超分辨率增强模型,具有可选的人脸修复和可调节的放大倍数,但使用几次后要收费。 5. Stability AI 推出的基于 Discord 的媒体生成和编辑工具:包括搜索和替换(无需蒙版,通过搜索提示识别对象并替换)、创意放大(将低分辨率或低质量图像放大至 4K 分辨率,同时可以附加提示)、外扩(在图像中添加内容以扩展空间)、控制草图(将手绘草图转换为高质量图像)、删除背景(准确分割前景并删除背景)、基于初始图像使用 Stable Video Diffusion 生成短视频等功能。
2024-10-22
ai能生成多大尺寸的图?大型线下营销活动海报需要打印,ai出的图精度够吗?
AI 可以生成多种尺寸的图片,具体尺寸取决于你的需求和 AI 工具的能力。无界 AI 已将尺寸与用途标注在选项中,使用时根据需要选择即可。 对于大型线下营销活动海报的打印,AI 生成的图片精度可能不够。虽然 AI 可以生成高分辨率的图片,但它们可能无法满足大型海报所需的打印质量。在这种情况下,建议你使用专业的设计软件或请设计师制作高质量的海报。
2024-05-23
图片扩展
以下是关于图片扩展的相关内容: 使用 SD 进行图片扩展: 1. 将图片导入到图生图界面。 2. 根据情况选择大模型,卡通类一般选“revAnimated”,真实类一般选“Realistic Vision”,效果不好可尝试其他模型。 3. 图生图中重要的参数:“缩放模式”选择“缩放后填充空白”;根据扩展方向调整尺寸;单批数量按需填写;加大“重绘幅度”到“0.8”以上。 4. 升级到最新的 ControlNet 版本,将图片导入,启用插件,“控制类型”选择“局部重绘”,预处理器选择“inpaint_only+lama”,控制模式选择“更倾向 ControlNet”,缩放模式选择“缩放后填充空白”。 5. 为使风格统一,可增加“reference_only”通道。 6. 设置好后点击生成,选择满意的结果。 7. 试验时可通过反推提示词增加文本控制,但效果不一定每次都好,可能存在色差,需调整参数修正。 8. 以建筑图为例,调整尺寸,分别放入“图生图”和“ControlNet”中点击生成即可。记住工作流,替换图片改尺寸就能快速扩图。 悠船中的图片调整: 1. 常用内容包括变化(细微或强烈改变)、高清(“直接”或“创意”放大)、风格变化(基于垫图再创作)、拓展(上下左右扩展图片)、缩放(镜头调整)、局部重绘(选择区域建议大些)。 2. 使用图片即垫图,使用风格即参考风格,使用提示词即复制提示词。 3. 在悠船中可利用垫图和提示词配合生成符合要求的建筑、风景、文物等,将图片复制到提示词框并填写提示词描述。 悠船的其他操作: 1. 基础页面操作包括想象历史(创作记录、创建文件夹、筛选器、预览形式)和套餐选择(年费模式、月费模式,价格越高对应做图数量、同时出图数量越多、生成速度越快,初次使用者可先从免费版开始,同时出图 3 指三列图,每列 4 张)。
2025-01-20
图片扩展
以下是关于图片扩展的详细介绍: 使用 SD 进行图片扩展: 1. 将图片导入到图生图界面。 2. 根据情况选择大模型,卡通类一般选“revAnimated”,真实类一般选“Realistic Vision”,效果不好可尝试其他模型。 3. 图生图中重要的参数设置: 缩放模式选择“缩放后填充空白”。 按需求增加宽度或高度来调整尺寸。 单批数量可按需填写以增加抽卡概率。 将“重绘幅度”加大到“0.8”以上。 4. ControlNet 的设置: 升级到最新版本,导入图片。 启用插件,“控制类型”选择“局部重绘”,预处理器选择“inpaint_only+lama”,控制模式选择“更倾向 ControlNet”,缩放模式选择“缩放后填充空白”。 还可增加一个 reference_only 的通道巩固扩图风格。 5. 点击生成,等待结果并选择满意的图片。 使用悠船进行图片扩展: 1. 点击进入对应的图片,常用的操作有变化、高清、重塑、扩图等。 变化:细微改变幅度小,强烈改变幅度大。 高清:“直接”表示直接出高清,“创意”表示在原图基础上进行微小优化调整。 风格变化:基于上传图片(垫图)再创作。 拓展:可上下左右扩展图片。 缩放:指镜头,如 2x 表示镜头拉远 2 倍。 局部重绘:选择区域建议大一些,太小无法修改。 2. 操作时,使用图片即垫图,使用风格即参考图片风格,使用提示词即复制图片的提示词。 在进行图片扩展时,可能不是每次效果都非常好,新生成部分和原图可能存在色差,需要通过调整各项参数来修正。记住工作流,替换图片改尺寸即可快速扩图。
2025-01-20
如何把已经写好的内容放入ai做ppt,并且ai不会自动扩展。
要将已写好的内容放入 AI 做 PPT 且不让 AI 自动扩展,可以参考以下方法: 1. 使用 Kimi.ai 等工具将思维导图图片转成 PPT。 2. 对于 AI 辅助生成 PPT,其原理和作用包括: 减轻排版工作的压力。 生成打底的内容,减轻人写内容的工作。 文章生成 PPT 时,让 AI 帮忙摘要内容,生成大纲列表;主题生成 PPT 时,让 AI 根据主题扩充成大纲列表,乃至具体内容。 在特定场景下可直接使用,如学生快速为小组展示配 PPT。 3. 具体流程为:用户输入内容,AI 输出,然后通过排版网站处理。网站把 AI 输出的文本丢给 LLM,让其根据内容在已有的 UI 组件中选择更适合的组件,按时间线为每页 PPT 的文字选出整个 PPT 中每一页的 UI 组件。有的网站如 tome、gamma,配图也是由 GenAI 根据页面内容生成的。 4. 另外,还可以参考以下案例中的方法,如在办公场景中,用 ChatGPT 生成 Markdown 语法的内容,再借用 MindShow 工具把 Markdown 内容转换为精美的 PPT。
2025-01-14
有没有什么能够把手绘扩展成插画的 AI?
以下是一些能够把手绘扩展成插画的 AI 工具或方法: 1. Stable Diffusion:在有参考图的情况下,可以对原图进行风格化转变。若要创作原创卡通插画,可不使用 ControlNet。通过调整提示词,如“一个女孩坐在沙发上,吃西瓜,看电视,夏天”,能生成插画。完成后可能存在小瑕疵,可在 PS 里后期修复。 2. 公众号【白马与少年】:如果想要相关模型和 Lora,可以添加该公众号,回复【SD】获取。 需要注意的是,在使用这些工具时,可能需要一定的操作技巧和相关知识。
2025-01-13
通过ollama和通义千问大模型,如果要实现一个智能机器人,支持模型微调,扩展知识库,问答记忆功能的实现步骤
要通过 Ollama 和通义千问大模型实现一个支持模型微调、扩展知识库和问答记忆功能的智能机器人,可参考以下步骤: 1. 安装和启动 Ollama 服务: 在 Mac 上启动 Ollama 应用程序,在 Linux 上通过 ollama serve 启动。 通过 ollama list 确认服务是否已启动。 2. 下载模型: 可下载如 Gemma(7B 模型)、Mistral(7B 模型)、Mixtral(87B 的 MoE 模型)、Qwen(通义千问,7B 模型)等。 3. 了解 Ollama 的特点和优势: 支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 易于在 macOS、Windows 和 Linux 系统使用,支持 CPU 和 GPU。 提供模型库,可通过 https://ollama.com/library 查找和下载不同模型,满足不同需求和硬件条件。 支持自定义模型,如修改温度参数调整创造性和连贯性,或设置特定系统消息。 提供 REST API 用于运行和管理模型,以及与其他应用程序的集成选项。 社区贡献丰富,有多种集成插件和界面。 4. 安装相关模型:访问 https://ollama.com/download/ 进行下载安装。 5. 选择文本向量模型:使用文本向量模型 bgem3,可从 https://huggingface.co/BAAI/bgem3 下载。 6. 利用 FAISS 创建向量存储:从 hf 下载好模型放置在指定路径,通过相关函数创建高效的向量存储。 7. 实现 RAG:基于用户问题从向量数据库中检索相关段落,根据设定阈值过滤,让模型参考上下文信息回答问题。 8. 创建网页 UI:通过 gradio 创建网页 UI 并进行评测。获取完整代码可关注公众号发送 fin 获取 github 仓库代码链接。 9. 进行问答测试:对同样的问题和上下文,基于 Qwen7b、Gemma、Mistral、Mixtral 和 GPT4 分别进行多次测试。
2024-08-16
扩展以下内容到500字:数智中医是中医药融入“一带一路”的抓手当前,充分融合互联网、大数据、物联网、云计算、人工智能AI、区块链等数智技术对传统中医药服务进行全方位、全链条优化,提高全要素生产率,构建一批示范中医医疗机构、中医馆、中医健管中心,创新数智中医“检测、诊断、治疗、评价、管理”的新中医服务闭环,促进数智中医“产学研用”的国际合作及产业发展,助推重庆成为数智中医发展新高地。
数智中医作为中医药融入“一带一路”的重要抓手,在当今时代具有极其重要的意义。 如今,互联网、大数据、物联网、云计算、人工智能 AI、区块链等数智技术蓬勃发展,为传统中医药服务带来了全新的机遇。通过充分融合这些先进技术,能够对传统中医药服务进行全方位、全链条的优化。这种优化涵盖了从检测到管理的各个环节,全面提升了服务的质量和效率。 在检测方面,借助先进的技术手段,可以更精准地获取患者的身体状况信息,为后续的诊断提供更可靠的数据支持。诊断环节则因数智技术的融入而更加准确和高效,能够快速识别病症的根源。治疗过程中,数智技术能够辅助医生制定更个性化、更科学的治疗方案,提高治疗效果。 评价环节也得以创新,能够更全面、客观地评估治疗效果和患者的康复情况。而在管理方面,数智技术有助于实现对医疗资源的合理调配和高效管理,提高整个医疗服务体系的运行效率。 构建一批示范中医医疗机构、中医馆、中医健管中心,是推动数智中医发展的重要举措。这些示范机构将成为展示数智中医成果的窗口,吸引更多的关注和投入。同时,创新数智中医“检测、诊断、治疗、评价、管理”的新中医服务闭环,能够形成一个良性循环,不断提升服务水平和质量。 促进数智中医“产学研用”的国际合作及产业发展,对于推动中医药走向世界具有关键作用。通过国际合作,可以吸收借鉴其他国家的先进经验和技术,进一步完善数智中医体系。这将有助于提升我国中医药在国际上的影响力,为全球健康事业贡献中国智慧和力量。 重庆作为一个具有发展潜力的地区,有望借助数智中医的发展,成为这一领域的新高地,引领行业的发展潮流,为当地乃至全国的中医药事业注入新的活力。
2024-08-12