Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

为本地部署的stable diffusion增加中文提示词支持

Answer

要为本地部署的 Stable Diffusion 增加中文提示词支持,可以采取以下方法:

  1. 如果使用的秋叶整合包,里面包含提示词联想插件。输入简单字符如“1”,能看到下方联想热门提示词,适合英文不好、记不住单词的朋友。
  2. 一般情况可使用翻译软件,如 DeepL 翻译(网址:https://www.deepl.com/translator ,可下载客户端)或网易有道翻译(可通过 ctrl+alt+d 快速截图翻译),但复制粘贴来回切换较麻烦。
  3. 介绍自动翻译插件 prompt-all-in-one,安装方式:在扩展面板中搜索 prompt-all-in-one 直接安装,或把下载好的插件放在“……\sd-webui-aki-v4\extensions”路径文件夹下。安装完成后重启 webUI,可看到提示词区域变化。
    • 一排小图标中,第一个用来设置插件语言,直接设为简体中文。
    • 第二个图标是设置,点开后点击第一个云朵图标可设置翻译接口,点击第一行下拉菜单能选择翻译软件,有一些免费软件可任意选择并试验哪款翻译准确。

关于 Stable Diffusion 文生图写提示词:

  1. 下次作图时,先选模板,点击倒数第二个按钮可快速输入标准提示词。
  2. 描述逻辑通常包括人物及主体特征(服饰、发型发色、五官、表情、动作),场景特征(室内室外、大场景、小细节),环境光照(白天黑夜、特定时段、光、天空),画幅视角(距离、人物比例、观察视角、镜头类型),画质(高画质、高分辨率),画风(插画、二次元、写实)等,通过这些详细提示词能更精确控制绘图。
  3. 新手可借助功能型辅助网站写提示词,如:
    • http://www.atoolbox.net/ ,通过选项卡方式快速填写关键词信息。
    • https://ai.dawnmark.cn/ ,每种参数有缩略图参考,更直观选择提示词。
    • 还可去 C 站(https://civitai.com/)抄作业,每张图有详细参数,点击复制数据按钮,粘贴到正向提示词栏,点击生成按钮下第一个按键,Stable Diffusion 可自动匹配所有参数,但要注意图像作者使用的大模型和 LORA,也可取其中较好的描述词使用。
Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】提示词自动翻译插件prompt-all-in-one

作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-05-29 20:00原文网址:https://mp.weixin.qq.com/s/q-IshiSRZiTiKGqDFGjD0g在Stable Diffusion中,我们输入的提示词只能识别英文的。如果使用的秋叶整合包的话,里面是已经包含了一个提示词联想插件的。比如我们输一个“1”,就能看到下方联想了一些热门的提示词,特别适合一些英文不好,记不住单词的朋友。而一般情况下,我们使用的都是翻译软件,将中文提示词翻译成英文。我用得比较多的是DeepL翻译,网址是https://www.deepl.com/translator,可以下载客户端使用。还有一个是“网易有道翻译”,因为它可以ctrl+alt+d快速截图翻译,所以用起来还蛮方便,可以快速查看别人关键词写的是什么。但不管是什么样的翻译软件,总归是要复制、粘贴来回切换,还是很麻烦的。所以,我就要来介绍一下今天的主角——自动翻译插件prompt-all-in-one。安装方式就是在扩展面板中搜索prompt-all-in-one,可以直接安装。或者是将下载好的插件,放在这个路径文件夹下“……\sd-webui-aki-v4\extensions”。安装完成后,重启webUI,就可以看到提示词区域变成了这个样子。我们一起来看一下这一排小图标。第一个是用来设置插件语言的,直接设置为简体中文就好了。第二个图标是设置,点开之后,点击第一个云朵图标就可以设置翻译接口。点击第一行下拉菜单,可以设置用哪个翻译软件。里面有这么一些免费的软件,可以任意选择,自己试验一下,哪一款翻译得比较准确就选哪个。

【SD】文生图怎么写提示词

下次作图的时候,只需要先选择你的模板,然后点击倒数第二个按钮,就能将这些标准提示词快速输入了。我们来看一下加入标准提示词后的效果,是不是好了很多。我们通常的描述逻辑是这样的:人物及主体特征(服饰、发型发色、五官、表情、动作),场景特征(室内室外、大场景、小细节),环境光照(白天黑夜、特定时段、光、天空),画幅视角(距离、人物比例、观察视角、镜头类型),画质(高画质、高分辨率),画风(插画、二次元、写实)。通过这些详细的提示词,我们就能更精确的控制Stable Diffusion的绘图了。对于新手而言,我们还有一些功能型辅助网站来帮我们书写提示词。比如:http://www.atoolbox.net/。它可以通过选项卡的方式快速地填写关键词信息。还有:https://ai.dawnmark.cn/。它的每种参数都有缩略图可以参考,可以方便我们更加直观的选择提示词。还有一个方法就是去C站(https://civitai.com/)里面抄作业,每一张图都有详细的参数,我们可以点击下面的复制数据按钮。然后直接粘贴到正向提示词栏里,然后点击生成按钮下的第一个按键,Stable Diffusion就可以将所有的参数自动匹配了。不过,还要注意图像作者使用的大模型和LORA,不然即使参数一样,生成的图也会截然不同。我们也可以只取其中比较好的一些描述词使用,比如人物描写、背景描述、一些小元素或者是画面质感之类的。好了,我们讲到这里,大家应该已经基本了解了文生图的使用方法和逻辑了,采用正确的语法规则和思路能让我们得到更好效果的AI绘图,快练习起来吧。-END-白马与少年Stable Diffusion、Blender等学习心得分享139篇原创内容(持续更新中)公众号

Prompts(提示词)

|标题|作者|分类|说明|prompt|链接地址|封面|SourceID||-|-|-|-|-|-|-|-||Stable Diffusion prompt助理||图像|充当一位有艺术气息的Stable Diffusion prompt助理|#Role:Stable Diffusion prompt助理<br>你来充当一位有艺术气息的Stable Diffusion prompt助理。<br><br>##任务<br>我用自然语言告诉你要生成的prompt的主题,你的任务是根据这个主题想象一幅完整的画面,然后转化成一份详细的、高质量的prompt,让Stable Diffusion可以生成高质量的图像。<br><br>##背景介绍<br>Stable Diffusion是一款利用深度学习的文生图模型,支持通过使用prompt来产生新的图像,描述要包含或省略的元素。<br><br>##prompt概念<br>-完整的prompt包含“**Prompt:**”和"**Negative Prompt:**"两部分。<br>-prompt用来描述图像,由普通常见的单词构成,使用英文半角","做为分|[李继刚等的prompt最佳实践](https://waytoagi.feishu.cn/wiki/JTjPweIUWiXjppkKGBwcu6QsnGd#JSbvdcDM7oKmLAxmEdscJXEDnug)||NzMyODM4MDQ2MjgyNzY4Mzg2ODpyZWNiQWJSN0VlOmRlNDYxMTM3ZDE4Y2I4MzU1ZGZiZmNiYjMwMTUwYWM5OjE6SDRzSUFBQUpib2dBL3dBQ0FQMy9lMzBEQUVPL3BxTUNBQUFB|

Others are asking
forge diffusion的layer diffuse插件不管用是什么原因
Forge Diffusion 的 layer diffuse 插件不管用可能有以下原因: 1. 未正确安装 SD WebUI 的 Forge 版本:在安装 layer diffuse 插件之前,需要确保已安装正确的 。 2. 插件安装步骤有误:应在 Forge 界面点击“Extensions”,选中“layerdiffusion”插件,然后点击安装,并等待安装完成。 3. 部分功能未完成:透明 img2img 功能尚未完成(大约一周内完成)。 4. 代码处于动态变化阶段:插件的代码非常动态,可能在接下来的一个月内发生大幅变化。 此信息来自标记狮社区,原文链接:https://mmmnote.com/article/7e8/03/articlee395010da7c846a3.shtml
2025-01-29
stablediffusion学习
以下是关于系统学习 Stable Diffusion(SD)的相关内容: 学习 SD 的提示词: 学习 Stable Diffusion 的提示词是一个系统性的过程,需要理论知识和实践经验相结合。具体步骤如下: 1. 学习基本概念:了解 Stable Diffusion 的工作原理和模型架构,理解提示词如何影响生成结果,掌握提示词的组成部分(主题词、修饰词、反面词等)。 2. 研究官方文档和教程:通读 Stable Diffusion 官方文档,了解提示词相关指南,研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例:熟悉 UI、艺术、摄影等相关领域的专业术语和概念,研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧:学习如何组合多个词条来精确描述想要的效果,掌握使用“()”、“”等符号来控制生成权重的技巧,了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈:使用不同的提示词尝试生成各种风格和主题的图像,对比提示词和实际结果,分析原因,总结经验教训,在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库:根据主题、风格等维度,建立自己的高质量提示词库,将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿:关注 Stable Diffusion 的最新更新和社区分享,及时掌握提示词的新技术、新范式、新趋势。 学习 SD 的 Web UI: 学习 Stable Diffusion Web UI 可以按照以下步骤进行: 1. 安装必要的软件环境:安装 Git 用于克隆源代码,安装 Python 3.10.6 版本,确保勾选“Add Python 3.10 to PATH”选项,安装 Miniconda 或 Anaconda 创建 Python 虚拟环境。 2. 克隆 Stable Diffusion Web UI 源代码:打开命令行工具,输入命令 git clone https://github.com/AUTOMATIC1111/stablediffusionwebui.git,将源代码克隆到本地目录。 3. 运行安装脚本:进入 stablediffusionwebui 目录,运行 webuiuser.bat 或 webui.sh 脚本,它会自动安装依赖项并配置环境,等待安装完成,命令行会显示 Web UI 的访问地址。 4. 访问 Web UI 界面:复制命令行显示的本地 Web 地址,在浏览器中打开,即可进入 Stable Diffusion Web UI 的图形化界面。 5. 学习 Web UI 的基本操作:了解 Web UI 的各种设置选项,如模型、采样器、采样步数等,尝试生成图像,观察不同参数对结果的影响,学习使用提示词(prompt)来控制生成效果。 6. 探索 Web UI 的扩展功能:了解 Web UI 支持的各种插件和扩展,如 Lora、Hypernetwork 等,学习如何导入自定义模型、VAE、embedding 等文件,掌握图像管理、任务管理等技巧,提高工作效率。 通过这些步骤,相信您可以快速上手 Stable Diffusion Web UI,开始探索 AI 绘画的乐趣。后续还可以深入学习 Stable Diffusion 的原理,以及在不同场景中的应用。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-01-16
有什么AI模型可以制作瞬息宇宙?比如Stable Diffusion,还有别的吗?
以下是一些可以用于制作类似效果的 AI 模型: 1. Adobe Firefly:内置在各种 Adobe 产品中,不过在质量方面稍逊于 DALLE 和 Midjourney,但它只使用有权使用的图像进行训练。 2. Stable Diffusion:开源模型,可以在任何高端计算机运行。开始时需要学会正确制作提示,一旦掌握能产生很好的结果,尤其适合将 AI 与其他源的图像结合。 3. DALLE:来自 OpenAI,已纳入 Bing(需使用创意模式)和 Bing 图像创建器,系统可靠但效果比 Midjourney 稍差。 4. Midjourney:2023 年中期最好的系统,学习曲线最低,只需键入特定指令就能得到很好的结果,需要 Discord。 此外,在游戏制作领域,已经出现了用于游戏中几乎所有资产的生成式人工智能模型,从 3D 模型到角色动画,再到对话和音乐。但文中未提及具体的模型名称。
2025-01-10
stable diffusion和国内的这些AI绘画的模型有什么区别
Stable Diffusion 和国内的 AI 绘画模型主要有以下区别: 1. 数据集和学习方式: 在线的国内模型可以访问庞大且不断更新扩展的数据集,还能实时从用户的弱监督学习中获得反馈,从而不断调整和优化绘画策略。而 Stable Diffusion 通常受限于本地设备的计算能力,其数据集和学习反馈相对有限。 2. 计算能力: 在线的国内模型能利用云计算资源进行大规模并行计算,加速模型的训练和推理过程。Stable Diffusion 受本地设备计算能力限制,性能可能不如在线模型。 3. 模型更新: 在线的国内模型可以随时获得最新的版本和功能更新,更好地适应不断变化的绘画风格和技巧。Stable Diffusion 的模型更新相对较慢。 4. 协同学习: 在线的国内模型可以从全球范围内的用户中学习,更好地理解各种绘画风格和技巧。Stable Diffusion 则只能依赖于有限的本地模型,对绘画可能性的了解可能不够全面。 例如,Niji·journey 5 在二次元角色设计领域就展现出比 Stable Diffusion 更强大的性能和实用性。同时,国内还有 DeepSeek、阿里巴巴的 Qwen2 系列、清华大学的 OpenBMB 项目等在不同方面表现出色的模型。
2025-01-08
Stable Diffusion 学习教程
以下是关于 Stable Diffusion 学习的教程: 学习提示词: 1. 学习基本概念:了解 Stable Diffusion 的工作原理和模型架构,理解提示词如何影响生成结果,掌握提示词的组成部分(主题词、修饰词、反面词等)。 2. 研究官方文档和教程:通读 Stable Diffusion 官方文档,研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例:熟悉 UI、艺术、摄影等相关领域的专业术语和概念,研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧:学习如何组合多个词条来精确描述想要的效果,掌握使用“()”、“”等符号来控制生成权重的技巧,了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈:使用不同的提示词尝试生成各种风格和主题的图像,对比提示词和实际结果,分析原因,总结经验教训,在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库:根据主题、风格等维度,建立自己的高质量提示词库,将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿:关注 Stable Diffusion 的最新更新和社区分享,及时掌握提示词的新技术、新范式、新趋势。 核心基础知识: 1. Stable Diffusion 系列资源。 2. 零基础深入浅出理解 Stable Diffusion 核心基础原理,包括通俗讲解模型工作流程(包含详细图解)、从 0 到 1 读懂模型核心基础原理(包含详细图解)、零基础读懂训练全过程(包含详细图解)、其他主流生成式模型介绍。 3. Stable Diffusion 核心网络结构解析(全网最详细),包括 SD 模型整体架构初识、VAE 模型、UNet 模型、CLIP Text Encoder 模型、SD 官方训练细节解析。 4. 从 0 到 1 搭建使用 Stable Diffusion 模型进行 AI 绘画(全网最详细讲解),包括零基础使用 ComfyUI 搭建推理流程、零基础使用 SD.Next 搭建推理流程、零基础使用 Stable Diffusion WebUI 搭建推理流程、零基础使用 diffusers 搭建推理流程、生成示例。 5. Stable Diffusion 经典应用场景,包括文本生成图像、图片生成图片、图像 inpainting、使用 controlnet 辅助生成图片、超分辨率重建。 6. 从 0 到 1 上手使用 Stable Diffusion 训练自己的 AI 绘画模型(全网最详细讲解),包括训练资源分享、模型训练初识、配置训练环境与训练文件。 其他资源: 1. 了解 Stable diffusion 是什么: 。 2. 入门教程: 。 3. 模型网站:C 站 。 4. 推荐模型:人像摄影模型介绍:https://www.bilibili.com/video/BV1DP41167bZ 。
2025-01-06
Stable Diffusion、comfyui
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,您可以将其想象成集成了 stable diffusion 功能的 substance designer。它具有以下特点: 优势: 对显存要求相对较低,启动和出图速度快。 生成自由度更高。 可以和 webui 共享环境和模型。 能搭建自己的工作流程,可导出流程并分享,报错时能清晰发现错误所在。 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势: 操作门槛高,需要有清晰的逻辑。 生态没有 webui 丰富(但常用的都有),也有一些针对 Comfyui 开发的有趣插件。 其生图原理如下: 基础模型:ComfyUI 使用预训练的扩散模型作为核心,通常是 Stable Diffusion 模型,包括 SD1.5、SD2.0、SDXL、SD3、FLUX 等。 文本编码:当用户输入文本提示时,ComfyUI 首先使用 CLIP 文本编码器将文本转换为向量表示,以捕捉文本的语义信息。 Pixel Space 和 Latent Space: Pixel Space(像素空间):图的左边表示输入图像的像素空间,在 ComfyUI 中,对应于“图像输入”模块或直接从文本提示生成的随机噪声图像,生成过程结束时会将处理后的潜在表示转换回像素空间生成最终图像。 Latent Space(潜在空间):ComfyUI 中的许多操作都在潜在空间中进行,如 KSampler 节点执行采样过程,通过节点调整对潜在空间的操作,如噪声添加、去噪步数等。 扩散过程(Diffusion Process): 噪声的生成和逐步还原:扩散过程表示从噪声生成图像的过程,在 ComfyUI 中通常通过调度器控制,如 Normal、Karras 等,可通过“采样器”节点选择不同调度器控制处理噪声和逐步去噪回归到最终图像。 时间步数:在生成图像时,扩散模型会进行多个去噪步,通过控制步数影响图像生成的精细度和质量。 官方链接:https://github.com/comfyanonymous/ComfyUI (内容由 AI 大模型生成,请仔细甄别)
2025-01-06
怎么学习Midjourney和stable defussion
以下是关于学习 Midjourney 和 Stable Diffusion 的一些建议: Midjourney: 优势:操作简单方便,创作内容丰富,但需要科学上网并且付费,月费约 200 多元。若只是前期了解,可先尝试。 学习途径:只需键入“thingyouwanttoseev 5.2”(注意末尾的v 5.2 很重要,它使用最新的模型),就能得到较好的结果。Midjourney 需要 Discord,可参考。 Stable Diffusion: 优势:开源免费,可以本地化部署,创作自由度高,但需要较好的电脑配置,尤其是显卡。 学习途径: 关于具体的安装方法可以去看看 B 站的【秋葉 aaaki】这个 Up 主的视频。 可以参考,了解其工作原理和基本功能。 如果走 Stable Diffusion 这条路,这里有一个很好的指南(请务必阅读第 1 部分和第 2 部分) 此外,在学习 AI 绘画这段时间,发现 AI 绘画并不会完全替代设计师,而是可以让出图质量更好,效率更高。比如可以用 Midjourney 生成线稿,PS 稍微做一些修正,再用 ControlNet 控制,Stable Diffusion 上色,多套 AI 组合拳,可以快速生成效果惊艳的图。
2025-01-06
有什么工具可以把英文音频转为中文音频?
以下工具可以将英文音频转为中文音频:Whisper。它和 llama 类似,采用 make 命令编译,之后去 ggerganov/whisper.cpp下载量化好的模型,然后转换音频即可。目前 Whisper 只接受 wav 格式,可以用 ffmpeg 进行转化。输出的 srt 文件如下所示: |Size|Parameters|Englishonly model|Multilingual model|Required VRAM|Relative speed| ||||||| |tiny|39 M|tiny.en|tiny|~1 GB|~32x| |base|74 M|base.en|base|~1 GB|~16x| |small|244 M|small.en|small|~2 GB|~6x| |medium|769 M|medium.en|medium|~5 GB|~2x| |large|1550 M|N/A|large|~10 GB|1x| 一般来说,对于英文音频,small 模型通常就足够了,但如果是中文音频,最好使用最大的模型。
2025-02-02
中文word排版,美化AI
以下是关于中文 word 排版和美化以及 AI 相关的综合信息: AI 绘画方面: 例如“Pixar Style,Tiny cute and adorable Cute little mouse wearing hanfu,Delicate face,fluffy hair,anthropomorphic,cinematic lighting,baptiste monge,Chinese culture,super clear details,super clear material,closeup,complex texture,octane rendering,zbrush,8k,portraittestpar 9:16upbetaupbetaupbetaupbetaupbetaupbeta”等描述,展现了不同角色穿着汉服的绘画设定。 AI 文章排版工具: AI 文章排版工具主要用于自动化和优化文档的布局和格式,特别是学术论文和专业文档。 一些流行的工具包括: Grammarly:不仅是语法和拼写检查工具,还提供排版功能,改进文档风格和流畅性。 QuillBot:AI 驱动的写作和排版工具,改进文本清晰度和流畅性。 Latex:广泛用于学术论文排版,使用标记语言描述格式,有许多 AI 辅助的编辑器和插件。 PandaDoc:文档自动化平台,使用 AI 帮助创建、格式化和自动化文档生成,适合商业和技术文档。 Wordtune:AI 写作助手,重新表述和改进文本。 Overleaf:在线 Latex 编辑器,提供丰富模板和协作工具,适合学术写作和排版。 AI 工作流中的文章排版: 例如在处理需要加粗的内容时,跟 GPT 说明选择,等待其输出排版后的文章,点击「复制代码」,粘贴到微信 Markdown 排版器。 选择合适的 AI 文章排版工具取决于具体需求,如文档类型、出版标准和个人偏好。学术论文常用 Latex 和 Overleaf,一般文章和商业文档常用 Grammarly 和 PandaDoc 等。
2025-01-26
推荐一个可以把英文翻译为中文的AI工具
以下是一些可以将英文翻译为中文的 AI 工具推荐: 1. 浏览器插件“沉浸式翻译”: 地址:https://immersivetranslate.com/ 它支持阅读本地 PDF 等,是非常实用的英文资料和网页翻译插件。 2. 浏览器插件莫妮卡(Monica): 地址:https://monica.im/ 集成了 GPT 的功能,可对网页文字进行翻译。 3. 利用 GPT 辅助阅读。 4. DeepL(网站): 地址:https://www.deepl.com/translator 点击页面「翻译文件」按钮,可上传 PDF、Word 或 PowerPoint 文件进行翻译。 5. 沉浸式翻译(浏览器插件): 地址:https://immersivetranslate.com/ 安装插件后,点击插件底部「更多」按钮,可选择多种本地文件进行翻译。 6. calibre(电子书管理应用): 地址:https://calibreebook.com/zh_CN 下载并安装 calibre,并安装翻译插件「Ebook Translator」。 7. 谷歌翻译(网页): 地址:https://translate.google.com/ 先将 PDF 转成 Word,再点击谷歌翻译「Document」按钮上传 Word 文档。 8. 百度翻译(网页): 地址:https://fanyi.baidu.com/ 点击导航栏「文件翻译」,可上传多种格式文件,支持选择领域和导出格式,但进阶功能基本需付费。 9. 彩云小译(App): 下载后点击「文档翻译」,可导入多种格式文档并开始翻译,但有免费次数限制且进阶功能需要付费。 10. 微信读书(App): 下载 App 后将 PDF 文档添加到书架,打开并点击页面上方「切换成电子书」,轻触屏幕唤出翻译按钮。 11. 浏览器自带的翻译功能: 对于一些过大或不支持的 PDF,可转成 HTML 格式,然后使用浏览器自带的网页翻译功能。
2025-01-25
AI工具可以把英文翻译成中文吗
AI 工具可以将英文翻译成中文。例如,在一些案例中,会使用谷歌将中文台词翻译成英文,然后进行校对和润色。像 Whisper 这样的工具能很好地识别视频或音频中的语言,包括英文,对于中文的处理可能需要选择 large 尺寸效果会更好。此外,在处理翻译问题时,还会涉及到将英文翻译为中文以生成双语字幕等情况。国内的出门问问的魔音工坊也可用于相关处理。但需注意,AI 只是辅助工具,不能替代人的思考,且可能会犯错,给 AI 的信息应尽可能准确。
2025-01-25
哪个中文AI工具比较好用呢
以下是一些好用的中文 AI 工具: 内容仿写方面: 秘塔写作猫:https://xiezuocat.com/ 是 AI 写作伴侣,能推敲用语、斟酌文法、改写文风,还能实时同步翻译。支持全文改写,一键修改,实时纠错并给出修改建议,智能分析文章属性并打分。 笔灵 AI 写作:https://ibiling.cn/ 是智能写作助手,能应对多种写作需求,支持一键改写/续写/扩写,智能锤炼打磨文字。 腾讯 Effidit 写作:https://effidit.qq.com/ 是由腾讯 AI Lab 开发的智能创作助手,能提升写作效率和创作体验。更多相关工具可查看:https://www.waytoagi.com/sites/category/2 (内容由 AI 大模型生成,请仔细甄别) 图像生成方面: 可灵:由快手团队开发,主要用于生成高质量的图像和视频,图像质量高,但价格相对较高,有不同的收费档次,轻度用户也有免费点数和较便宜的包月选项。 通义万相:在中文理解和处理方面表现出色,可选择多种艺术和图像风格,操作界面简洁直观,用户友好度高,目前免费,每天签到获取灵感值即可。但存在一些局限性,如某些类型图像无法生成,处理非中文语言或国际化内容可能不够出色,处理多元文化内容时可能存在偏差。 PPT 制作方面: Gamma:在线 PPT 制作网站,通过输入文本和想法提示快速生成幻灯片,支持嵌入多媒体格式。https://gamma.app/ 美图 AI PPT:由美图秀秀团队推出,通过输入文本描述生成专业 PPT 设计,有丰富模板库和设计元素。https://www.xdesign.com/ppt/ Mindshow:AI 驱动的 PPT 辅助工具,提供智能设计功能,如自动布局、图像选择和文本优化等。https://www.mindshow.fun/ 讯飞智文:由科大讯飞推出,利用语音识别和自然语言处理技术优势,提供智能文本生成、语音输入、文档格式化等功能。https://zhiwen.xfyun.cn/
2025-01-25
我需要一个工具,用于把我的中文视频转为英文视频,并且口型能匹配
以下为您推荐两个可将中文视频转为英文视频且口型能匹配的工具及相关信息: 1. 即梦 AI: 对口型是其视频生成中的二次编辑功能,现支持中文、英文配音。 主要针对写实/偏真实风格化人物的口型及配音生成,为用户创作提供更多视听信息传达能力。 操作流程:可上传包含完整人物面容的图片,进行视频生成,待完成后点击预览视频下的“对口型”(嘴唇)按钮,输入台词并选择音色,或上传配音文件进行对口型效果生成。目前支持语言包括中文(全部音色)、英文(推荐“超拟真”内的音色)。 技巧:上传写实/近写实的人物单人图片,不支持多人物图片对口型;输入 prompt,选择参数,点击生成视频,尽量确保人物无形变等扭曲效果;确保人物生成的情绪与希望匹配的口型内容匹配;在生成的视频下方,点击【对口型】;输入或上传需要配音的内容,注意视频生成时长和配音试听时长尽量对齐,点击生成;先对口型,再超分补帧。 2. HenGen AI:近期公布了 AI 切换视频内语言的能力,并且能够将 Avatar 口型与视频相匹配。 如果您想要制作低成本的营销视频、企业宣传视频、培训课程,还可以使用 Synthesia、HeyGen AI、DID 等产品,用 Avatar 代替真人出镜。又如出海企业需要给产品(商品)推广、介绍使用体验,早在 21 年,诗云马良平台就推出了给视频中模特换脸、切换语言的能力,方便电商营销商家进行产品的本地化推广。
2025-01-15
怎么写好提示词
写好提示词(prompt)需要注意以下几点: 1. 明确任务:清晰地定义任务,比如写故事时包含故事背景、角色和主要情节。 2. 提供上下文:若任务需要特定背景知识,要提供足够信息,如写历史事件报告时提供基本信息。 3. 使用清晰语言:尽量用简单、清晰的语言描述任务,避免模糊或歧义词汇。 4. 给出具体要求:如有特定格式或风格要求,在提示词中明确指出,如文章需遵循特定格式或引用特定文献。 5. 使用示例:如有特定期望结果,提供示例帮助 AI 模型理解需求。 6. 保持简洁:提示词简洁明了,过多信息可能导致 AI 模型困惑,生成不准确结果。 7. 使用关键词和标签:有助于 AI 模型理解任务主题和类型。 8. 测试和调整:生成文本后仔细检查结果,根据需要调整提示词,可能需要多次迭代达到满意结果。 在星流一站式 AI 设计工具中: 1. 输入语言方面,通用大模型与基础模型 F.1、基础模型 XL 使用自然语言(如一个长头发的金发女孩),基础模型 1.5 使用单个词组(如女孩、金发、长头发),支持中英文输入。 2. 写好提示词的方法包括: 预设词组:小白用户可点击提示词上方官方预设词组进行生图。 提示词内容准确:包含人物主体、风格、场景特点、环境光照、画面构图、画质,如一个女孩抱着小猫,背景是一面红墙,插画风格、孤独感,高质量。 调整负面提示词:点击提示框下方的齿轮按钮,弹出负面提示词框,负面提示词可帮助 AI 理解不想生成的内容,如不好的质量、低像素、模糊、水印。 利用“加权重”功能:在功能框增加提示词并进行加权重调节,权重数值越大越优先,还可对已有提示词权重进行编辑。 辅助功能:有翻译功能可一键将提示词翻译成英文,还有删除所有提示词和会员加速等功能。 此外,宝玉日报提到提示词应清晰明确,避免模糊不清的指令,因为 AI 无法理解用户的背景和想法,不会读心术。工作或恋爱中常见的误区同样适用于 AI 交互,要提供足够的背景信息和清楚的需求描述,以确保模型给出准确结果。
2025-02-04
提示词
以下是关于提示词的相关知识: 艺术字生成: 模型选择图片 2.1,输入提示词(可参考案例提示词)。 案例参考: 金色立体书法,“立冬”,字体上覆盖着积雪,雪山背景,冬季场景,冰雪覆盖,枯树点缀,柔和光影,梦幻意境,温暖与寒冷对比,静谧氛围,传统文化,唯美中国风。 巨大的春联,金色的书法字体,线条流畅,艺术美感,“万事如意”。 巨大的字体,书法字体,线条流畅,艺术美感,“书法”二字突出,沉稳,大气,背景是水墨画。 巨大的奶白色字体“柔软”,字体使用毛绒材质,立在厚厚的毛绒面料上,背景是蓝天。 星流一站式 AI 设计工具: 在 prompt 输入框中可输入提示词,使用图生图功能辅助创作。 提示词相关: 什么是提示词:用于描绘想生成的画面,支持中英文输入。星流通用大模型与基础模型 F.1、基础模型 XL 使用自然语言(如一个长头发的金发女孩),基础模型 1.5 使用单个词组(如女孩、金发、长头发)。 如何写好提示词: 预设词组:小白用户可点击提示词上方官方预设词组进行生图,提示词内容应准确,包含人物主体、风格、场景特点、环境光照、画面构图、画质等,比如:一个女孩抱着小猫,背景是一面红墙,插画风格、孤独感,高质量。 调整负面提示词:点击提示框下方的齿轮按钮,弹出负面提示词框,负面提示词可帮助 AI 理解不想生成的内容,如不好的质量、低像素、模糊、水印。 利用“加权重”功能:可在功能框增加提示词,并进行加权重调节,权重数值越大,越优先,也可对已有的提示词权重进行编辑。 辅助功能:包括翻译功能(一键将提示词翻译成英文)、删除所有提示词(清空提示词框)、会员加速(加速图像生图速度,提升效率)。 提示词要素: 提示词由一些要素组成,包括指令(想要模型执行的特定任务或指令)、上下文(包含外部信息或额外的上下文信息,引导语言模型更好地响应)、输入数据(用户输入的内容或问题)、输出指示(指定输出的类型或格式)。 示例:在一个旨在完成文本分类任务的提示中,指令是“将文本分类为中性、否定或肯定”,输入数据是“我认为食物还可以”部分,输出指示是“情绪:”。提示词所需的格式取决于想要语言模型完成的任务类型,并非所有要素都是必须的。
2025-02-04
提示词定义 思维链
提示词是设计和优化输入到 AI 系统的指令的艺术和科学,就像是与 AI 对话的语言。提示词本质上是逻辑思维和表达能力,只不过交互对象从人变成了大模型。最终要面对的问题包括知识储备不足、业务 know how 不扎实、语言逻辑有缺陷。 思维链(Chain of Thought,CoT)是一种提示技巧,使用 CoT 来指导 AI 就像进行一次探险,尽管有一条指引的路径,但每一步都需要深入的思考和策略,以确定最佳的前进方向。 密度链(Chain of Density,CoD):使用 CoD 来指导 AI 就像按照特定的顺序和结构建造一座积木塔。每一步都必须精确和有组织,以确保整体的稳定性和连续性。 在撰写提示词时,输出结果的好坏与“连续提示”息息相关,特别在“目标明确、逻辑性、分步骤、考虑变量”这四方面。随着企业面临的挑战日益复杂,简单的提示词往往无法满足需求,推动了更先进提示技巧如思维链、思维树和思维图等的发展,这些高级技巧能够引导 AI 进行更深入的分析、探索多种可能性,并处理复杂的推理任务。
2025-02-04
提示词定义
提示词(Prompt)是给大语言模型的输入文本,用于指定模型执行的任务和生成的输出。它发挥“提示”模型的作用,设计高质量的提示词需根据目标任务和模型能力精心设计,良好的提示词能让模型正确理解人类需求并给出符合预期的结果。 提示词由一些要素组成,包括指令(想要模型执行的特定任务或指令)、上下文(包含外部信息或额外的上下文信息,引导语言模型更好地响应)、输入数据(用户输入的内容或问题)、输出指示(指定输出的类型或格式)。但提示词所需的格式取决于想要语言模型完成的任务类型,并非所有要素都是必须的。 在星流一站式 AI 设计工具的 prompt 输入框中可以输入提示词、使用图生图功能辅助创作。输入语言方面,不同基础模型有不同要求,支持中英文输入。写好提示词要做到内容准确,包含人物主体、风格、场景特点、环境光照、画面构图、画质等;可调整负面提示词,帮助 AI 理解不想生成的内容;利用“加权重”功能让 AI 明白重点内容;还可使用预设词组、辅助功能如翻译、删除所有提示词、会员加速等。
2025-02-04
提示词
以下是关于提示词的相关知识: 艺术字生成: 模型选择图片 2.1,输入提示词(可参考案例提示词)。 案例参考: 金色立体书法,“立冬”,字体上覆盖着积雪,雪山背景,冬季场景,冰雪覆盖,枯树点缀,柔和光影,梦幻意境,温暖与寒冷对比,静谧氛围,传统文化,唯美中国风。 巨大的春联,金色的书法字体,线条流畅,艺术美感,“万事如意”。 巨大的字体,书法字体,线条流畅,艺术美感,“书法”二字突出,沉稳,大气,背景是水墨画。 巨大的奶白色字体“柔软”,字体使用毛绒材质,立在厚厚的毛绒面料上,背景是蓝天。 星流一站式 AI 设计工具: 在 prompt 输入框中可输入提示词,使用图生图功能辅助创作。 提示词相关: 用于描绘想生成的画面。 输入语言: 星流通用大模型与基础模型 F.1、基础模型 XL 使用自然语言(如一个长头发的金发女孩),基础模型 1.5 使用单个词组(如女孩、金发、长头发),支持中英文输入。 提示词优化:启用后可扩展提示词,更生动地描述画面内容。 写好提示词的方法: 预设词组:小白用户可点击提示词上方官方预设词组进行生图。 内容准确:包含人物主体、风格、场景特点、环境光照、画面构图、画质,如一个女孩抱着小猫,背景是一面红墙,插画风格、孤独感,高质量。 调整负面提示词:点击提示框下方的齿轮按钮,弹出负面提示词框,负面提示词可帮助 AI 理解不想生成的内容,如不好的质量、低像素、模糊、水印。 利用“加权重”功能:可在功能框增加提示词,并进行加权重调节,权重数值越大,越优先;也可对已有的提示词权重进行编辑。 辅助功能:翻译功能可一键将提示词翻译成英文;删除所有提示词可清空提示词框;会员加速可加速图像生图速度,提升效率。 提示词要素: 提示词由一些要素组成,包括指令(想要模型执行的特定任务或指令)、上下文(包含外部信息或额外的上下文信息,引导语言模型更好地响应)、输入数据(用户输入的内容或问题)、输出指示(指定输出的类型或格式)。 示例:在文本分类任务的提示中,指令是“将文本分类为中性、否定或肯定”,输入数据是“我认为食物还可以”,输出指示是“情绪:”。提示词所需格式取决于语言模型要完成的任务类型,并非所有要素都是必须的。
2025-02-01
提示词怎么用
提示词在现代大型语言模型中具有重要作用,以下是关于提示词使用的相关知识: 1. 理解提示词的作用:提示词为模型提供上下文和指示,直接影响模型输出质量。 2. 学习提示词的构建技巧: 明确任务目标,用简洁准确的语言描述。 给予足够的背景信息和示例,帮助模型理解语境。 使用清晰的指令,如“解释”“总结”“创作”等。 对特殊要求应给予明确指示,如输出格式、字数限制等。 3. 参考优秀案例:可在领域社区、Github 等资源中研究和学习已有的优秀提示词案例。 4. 实践、迭代、优化:多与语言模型互动,根据输出提高提示词质量,尝试各种变体,持续优化。 5. 活用提示工程工具:如 Anthropic 的 Constitutional AI 等。 6. 跟上前沿研究:持续关注提示工程最新的研究成果和方法论。 在具体的应用场景中,如星流一站式 AI 设计工具: 在 prompt 输入框中可输入提示词,使用图生图功能辅助创作。 输入语言方面,星流通用大模型与基础模型 F.1、基础模型 XL 使用自然语言(一个长头发的金发女孩),基础模型 1.5 使用单个词组(女孩、金发、长头发),支持中英文输入。 提示词优化方面,启用提示词优化后可帮您扩展提示词,更生动地描述画面内容。 写好提示词的方法: 小白用户可点击提示词上方官方预设词组进行生图。 提示词内容准确,包含人物主体、风格、场景特点、环境光照、画面构图、画质等。 调整负面提示词,点击提示框下方的齿轮按钮,弹出负面提示词框,帮助 AI 理解不想生成的内容。 利用“加权重”功能,让 AI 明白重点内容,可在功能框增加提示词,并进行加权重调节,权重数值越大越优先。 辅助功能包括翻译功能(一键将提示词翻译成英文)、删除所有提示词(清空提示词框)、会员加速(加速图像生图速度,提升效率)。 在 Stable Diffusion 中: 根据想画的内容写出提示词,多个提示词之间使用英文半角符号“,”。 一般而言,概念性的、大范围的、风格化的关键词写在前面,叙述画面内容的关键词其次,最后是描述细节的关键词。 每个词语本身自带的权重可能有所不同,关键词最好具有特异性,措辞越不抽象越好,尽可能避免留下解释空间的措辞。 可以使用括号人工修改提示词的权重。
2025-01-31