Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何使用sora生成一段视频

Answer

使用 Sora 生成一段视频的步骤如下:

  1. 文本提示优化:类似于 DALLE3,Sora 在处理用户提供的文本提示时,可以利用 GPT 模型来扩展或优化提示。GPT 模型能将简短的用户提示转化为更详细、更富有描述性的文本,有助于 Sora 更准确地理解并生成符合用户意图的视频。
  2. 生成视频:用户提供文本提示,Sora 根据提示在潜在空间中初始化视频的生成过程。利用训练好的扩散模型,Sora 从这些初始化的时空潜伏斑块开始,逐步生成清晰的视频内容。
  3. 视频解码和后处理:使用与视频压缩相对应的解码器将潜在空间中的视频转换回原始像素视频。对生成的视频进行可能的后处理,如调整分辨率、裁剪等,以满足发布或展示的需求。

此外,Sora 采用了一些相关技术和原理:

  1. 视频压缩网络:训练一个降低视觉数据维度的网络,接受原始视频作为输入,并输出在时间和空间上都被压缩的潜在表示。Sora 在这个压缩的潜在空间上进行训练,并随后生成视频。同时还训练了一个相应的解码器模型,将生成的潜在表示映射回像素空间。
  2. 时空潜空间块:给定一个压缩的输入视频,提取一序列的时空分块作为 Transformer 变换器的 Token。这个方案也适用于图像,基于分块的表示使 Sora 能够训练具有不同分辨率、持续时间和纵横比的视频和图像。在推理时,可以通过在适当大小的网格中随机初始化分块来控制生成视频的大小。
  3. 调整图像模型来生成视频:通过插入时间层来“扩增”预训练的文生图扩散模型,然后选择仅在视频上对新的层进行微调或完全避免进行额外的训练。新模型会继承文本 - 图像对的先验知识,有助于缓解对文本 - 视频对数据的需求。
  4. 扩散视频建模:如 Singer et al. 在 2022 年提出的 Make-A-Video,在一个预训练扩散图像模型的基础上扩展一个时间维度,包含三个关键组件:一个在文本 - 图像对数据上训练的基础文生图模型;时空卷积和注意力层,使网络覆盖时间维度;一个帧插值网络,用于高帧率生成。
Content generated by AI large model, please carefully verify (powered by aily)

References

Sora 原理解释

[heading3]问题:从原始视频数据到模型训练再到模型生成视频全流程"类似于DALLE3,Sora在处理用户提供的文本提示时,也可以利用GPT模型来扩展或优化这些提示。GPT模型可以将简短的用户提示转化成更详细、更富有描述性的文本,这有助于Sora更准确地理解并生成符合用户意图的视频。8.生成视频:用户提供一个文本提示,Sora根据这个提示在潜在空间中初始化视频的生成过程。·利用训练好的扩散模型,Sora从这些初始化的时空潜伏斑块开始,逐步生成清晰的视频内容。9.视频解码和后处理:使用与视频压缩相对应的解码器将潜在空间中的视频转换回原始像素视频。对生成的视频进行可能的后处理,如调整分辨率、裁剪等,以满足发布或展示的需求。通过以上步骤,从视频数据的收集和高度描述性标注的生成(利用DALLE3技术),到视频的压缩、处理(利用Transformer架构和时空潜伏斑块),再到基于用户文本提示的视频生成(结合GPT模型进行文本优化),每一个环节都是精心设计的,确保生成的视频不仅在视觉上高质量,而且能准确反映用户的意图

Sora之后,OpenAI Lilian Weng亲自撰文教你从头设计视频生成扩散模型

图4:Imagen Video扩散模型中一个空间-时间可分离模块的架构。SSR和TSR模型都基于在通道方面连接了有噪声数据𝐳_𝑡的上采样的输入。SSR是通过双线性大小调整来上采样,而TSR则是通过重复帧或填充空白帧来上采样。Imagen Video还应用了渐进式蒸馏来加速采样,每次蒸馏迭代都可以将所需的采样步骤减少一半。在实验中,他们能够将所有7个视频扩散模型蒸馏为每个模型仅8个采样步骤,同时不会对感知质量造成任何明显损失。为了更好地扩大模型规模,Sora采用了DiT(扩散Transformer)架构,其操作的是视频和图像隐代码的时空块(spacetime patch)。其会将视觉输入表示成一个时空块序列,并将这些时空块用作Transformer输入token。图5:Sora是一个扩散Transformer模型。调整图像模型来生成视频在扩散视频建模方面,另一种重要方法是通过插入时间层来「扩增」预训练的文生图扩散模型,然后就可以选择仅在视频上对新的层进行微调或完全避免进行额外的训练。这个新模型会继承文本-图像对的先验知识,由此可以帮助缓解对文本-视频对数据的需求。在视频数据上进行微调Singer et al.在2022年提出的Make-A-Video是在一个预训练扩散图像模型的基础上扩展一个时间维度,其包含三个关键组件:1.一个在文本-图像对数据上训练的基础文生图模型。2.时空卷积和注意力层,使网络覆盖时间维度。3.一个帧插值网络,用于高帧率生成。

Sora 原理解释

We train a network that reduces the dimensionality of visual data.This network takes raw video as input and outputs a latent representation that is compressed both temporally and spatially.Sora is trained on and subsequently generates videos within this compressed latent space.We also train a corresponding decoder model that maps generated latents back to pixel space.我们训练了一个降低视觉数据维度的网络。这个网络接受原始视频作为输入,并输出在时间和空间上都被压缩的潜在表示。Sora在这个压缩的潜在空间上进行训练,并随后生成视频。我们还训练了一个相应的解码器模型,将生成的潜在表示映射回像素空间。[heading3]Spacetime Latent Patches[heading3]时空潜空间块[content]Given a compressed input video,we extract a sequence of spacetime patches which act as transformer tokens.This scheme works for images too since images are just videos with a single frame.Our patch-based representation enables Sora to train on videos and images of variable resolutions,durations and aspect ratios.At inference time,we can control the size of generated videos by arranging randomly-initialized patches in an appropriately-sized grid.给定一个压缩的输入视频,我们提取一序列的时空分块,作为Transformer变换器的Token。这个方案也适用于图像,因为图像只是带有单一帧的视频。我们的基于分块的表示使Sora能够训练具有不同分辨率、持续时间和纵横比的视频和图像。在推理时,我们可以通过在适当大小的网格中随机初始化分块来控制生成视频的大小。[heading3]Scaling transformers for video generation

Others are asking
sora现在能生成多长时间视频
Sora 是由 OpenAI 开发的文生视频模型,能够根据文字指令创造出逼真且充满想象力的场景,并生成长达 1 分钟的高质量视频,且具有一镜到底的特点,视频中的人物和背景能保持惊人的一致性和稳定性。与之前的视频生成模型相比,Sora 在生成时长和视频质量上有显著进步。同时,还有其他一些文字生成视频的 AI 产品,如 Pika 擅长动画制作且支持视频编辑,SVD 是基于 Stable Diffusion 的插件,Runway 是老牌的收费 AI 视频生成工具且提供实时涂抹修改视频功能,Kaiber 是视频转视频 AI,能将原视频转换成各种风格的视频。更多相关网站可查看:https://www.waytoagi.com/category/38 。
2025-01-15
sora和lora是什么
LoRA(LowRank Adaptation)是一种低阶自适应模型,您可以将其理解为基础模型(Checkpoint)的小插件。在生图时,LoRA可有可无,但它具有明显的价值,常见于对一些精细的控制,如面部、材质、物品等细节的控制。其权重在相关界面会有显示。 Sora 并非常见的 AI 领域特定术语,上述知识库中未提及相关内容。
2025-01-02
openai 发布的sora最新模型中,生成视频的提示词与一般问答提示词有什么区别或者注意事项?
Sora 是 OpenAI 于 2024 年 2 月发布的文本到视频的生成式 AI 模型。 生成视频的提示词与一般问答提示词的区别和注意事项如下: 1. 对于视频生成,神经网络是单射函数,拟合的是文本到视频的映射。由于视频的动态性高,值域大,因此需要丰富且复杂的提示词来扩大定义域,以学好这个函数。 2. 详细的文本提示能迫使神经网络学习文本到视频内容的映射,加强对提示词的理解和服从。 3. 和 DALL·E 3 一样,OpenAI 用内部工具(很可能基于 GPT4v)给视频详尽的描述,提升了模型服从提示词的能力以及视频的质量(包括视频中正确显示文本的能力)。但这会导致在使用时的偏差,即用户的描述相对较短。OpenAI 用 GPT 来扩充用户的描述以改善这个问题,并提高使用体验和视频生成的多样性。 4. 除了文本,Sora 也支持图像或者视频作为提示词,支持 SDEdit,并且可以向前或者向后生成视频,因此可以进行多样的视频编辑和继续创作,比如生成首尾相连重复循环的视频,甚至连接两个截然不同的视频。 以下是一些 Sora 的案例提示词,如:“小土豆国王戴着雄伟的王冠,坐在王座上,监督着他们广阔的土豆王国,里面充满了土豆臣民和土豆城堡。”“咖啡馆的小地图立体模型,装饰着室内植物。木梁在上方纵横交错,冷萃咖啡站里摆满了小瓶子和玻璃杯。”“一张写有‘SORA’的写实云朵图像。”“一群萨摩耶小狗学习成为厨师的电影预告片‘cinematic trailer for a group of samoyed puppies learning to become chefs’”
2024-12-27
sora教程
以下是关于 Sora 及相关的教程信息: AI 视频方面: 软件教程: 工具教程: 应用教程: Python + AI 方面: 对于不会代码的人,有 20 分钟上手的教程,包括通过 OpenAI 的 API 生成文章缩略信息的代码重写及相关操作步骤。同时提醒妥善保管 API Key,OpenAI 的综合文档、API 使用、API Playground、API 案例与答疑的相关网址为:https://platform.openai.com/docs/overview 、https://platform.openai.com/docs/apireference 、https://platform.openai.com/playground 、https://cookbook.openai.com/ 。 工具教程: 开放公测,群友有实测案例。可参考卡兹克的教程介绍:https://mp.weixin.qq.com/s/YGEnIzfYA3xGpT9_qh56RA 以及 zho 总结的官方网站的案例。目前除每日 150 个赠送积分外,还新增积分购买选项,可操作固定种子、步数、运动幅度,交互也很有意思,在生成过程中会有案例标注。 此外,还有几个视频 AIGC 工具:Opusclip 可将长视频剪成短视频,Raskai 能将短视频素材直接翻译至多语种,invideoAI 输入想法后可自动生成脚本和分镜描述进而生成视频再人工二编合成长视频,descript 可对屏幕/播客录制并以 PPT 方式做视频,veed.io 能自动翻译自动字幕,clipchamp 是微软的 AI 版剪映,typeframes 类似 invideoAI 但内容呈现文本主体比重更多,google vids 是一款相关工具。Sora 是 OpenAI 发布的超强视频生成 AI,能通过处理各种视觉数据生成视频,使用视频压缩网络和空间时间补丁统一不同来源数据,并借助文本条件化的 Diffusion 模型生成与文本提示匹配的视觉作品。
2024-12-17
ChatGPT与Sora 是不是只有苹果手机或苹果电脑才能注册与登入?
ChatGPT 注册与登录: 苹果系统: 中国区正常无法在 AppleStore 下载 ChatGPT,需切换到美区。美区 AppleID 注册教程可参考知乎链接:https://zhuanlan.zhihu.com/p/696727277 。 最终在 AppleStore 搜到 ChatGPT 下载安装,注意别下错。 打开支付宝,地区切换到美区任意区,购买【App Store&iTunes US】礼品卡,按需要金额购买(建议先买 20 刀),然后在 apple store 中兑换礼品卡,在 chatgpt 中购买订阅 gpt plus,中途不想继续订阅可到订阅列表中取消。 会员不管在苹果还是安卓手机上购买的,电脑上都能登录。 注册美区 ID 详细步骤: 1. 电脑上打开 Apple ID 的注册页面:https://appleid.apple.com/ac 。 2. 填写验证码后点继续。 3. 到谷歌邮箱接收邮箱验证码。 4. 接着验证手机号码。 5. 验证完后会出现页面,此时美区 ID 已注册但未激活,切换到手机操作。 6. 打开 App Store,点击右上角人形头像。 7. 拉到最底下,点击退出登录,先退出国内的 ID。 8. 之后再点击右上角人形头像。 9. 手动输入美区 ID,会收到短信进行双重验证。 10. 之后完成美区的 ID 登录。 11. 随便找个软件下载,会弹出提示,点击“检查”进行激活。 12. 点击同意,进入下一页填写美国地址。 13. 若付款方式中没有“无”或“none”选项,输入街道地址和电话。 14. 至此,通过中国 IP、中国手机号、免信用卡成功注册一个美区 ID,可用于下载例如小火箭、ChatGPT、Discord、X、TikTok 等软件。 关于 Sora 的注册与登录相关信息未提及。
2024-12-16
Sora是什么
Sora 是 OpenAI 发布的一个文本到视频的生成模型。 它具有以下特点和能力: 1. 能够根据描述性的文本提示生成高质量的视频内容。 2. 其生成的视频不仅逼真且充满想象力,能创造出各种场景。 3. 可以生成长达 1 分钟的超长视频,且是一镜到底的,视频中的人物和背景等具有惊人的一致性和稳定性。 4. 虽然在技术界引起广泛关注和讨论,但目前 OpenAI 未公开发布,仅向少数研究人员和创意人士提供有限访问权限以获取使用反馈并评估技术安全性。 在图像生成能力方面,Sora 能生成图像,虽不及 Midjourney,但优于 Dalle 3。此外,Sora 在视频游戏模拟中也具有一定的能力。
2024-12-16
想学习和北邦一样的图片生成动画视频,应该怎么做?
以下是学习和北邦一样的图片生成动画视频的方法: 1. 使用 Runway: 进入 Runway 官网首页,点击“start with image”。 直接将图片拖进来。 动画幅度尽量用 3,5 有时候会乱跑。 啥都不用改,直接点击生成即可。 注意:不需要等进度条转完,可以直接继续往里放图片,可以同步执行。 直接点删除,然后重新上传下面的图即可(最多可以放几个可自行测试)。 重复步骤即可生成所有视频。 (Runway 是收费的,也可以找免费的,或在闲鱼、淘宝买号。) 2. 使用即梦:上传图片至视频生成模块,提示词简单描绘画面中的动态内容即可生成时长为 3 秒钟的画面,运镜类型可根据剧本中的镜头描绘设置,主要设置以随机运镜为主,生成速度根据视频节奏选择,比如选择慢速。 3. ComfyUI AniamteDiff: 了解 IPAdapter、Animatediff、controlNet 的用法和这三个之间通过蒙蔽遮罩灵活搭配生成视频的方法。 模型加载用到两个 lora,一个是 Animatediff v3_sd15_mm 运动模型需要的 v3_sd15_adapter,lora 的强度在合理范围内越高,画面越稳定;另一个 more_details 这个 lora 是给画面添加更多细节。 上传 4 张图片,并且使用 image batch 复制图像来制作批次,这是为了在使用 IPAdapter 时候,每一帧都可以参考上传的图片,让风格迁移更像。 上传的蒙版视频是为了在帧与帧之间做遮罩过渡,添加一个动态的效果。 用 IPAdapter 来做图像的风格迁移,对应四张图片。使用遮罩来控制每张图片显示的帧数,从第 0 帧开始计算,一张图片 16 帧,加上中间过渡的 8 帧。需要显示的帧设置为 1,隐藏的为 0,以此类推。这样就把 4 张图片融合成了一个 96 帧的序列,并且使用遮罩控制每一帧显示出来的画面。
2025-02-22
语音处理 视频处理工具
以下是一些语音处理和视频处理工具的相关信息: Notebook LM: 文字文档处理:可导入人工智能相关的 PDF 格式论文,左侧栏快速加载,提供常见问题解答、学习指南、目录、时间轴、简报文档等功能,对不相关问题会拒绝回复。 视频处理:可复制 YouTube 视频网址链接进行处理,操作与文字文档类似,但文本输出格式存在问题。 音频播客处理:可自定义或使用默认设置生成音频播客,能控制时长范围,最长约 15 分钟,最短 1 2 分钟,生成内容自然。 老金:Voice 语音识别与发送语音 音频处理工具 ffmpeg:点击地址进行安装 讯飞 API key 申请:讯飞免费一年,量很大,足够用。在讯飞上申请一个 API Key,网址为:https://www.xfyun.cn/services/rtasr 。进入控制台创建应用,获取 3 个要用到的 Key。 配置 Cow:打开根目录的 config.json 进行总开关配置,按需配置,开启是 true,关闭是 false。因发送语音不能是语音条,所以只开了语音识别。配置讯飞的 key,进入/chatgptonwechat/voice/xunfei 下的 config.json,把对应的 key 配置进来即可。配置完成,重新扫码登录。 MMVid:一个集成的视频理解系统,能处理和理解长视频内容并进行问答。应用场景包括快速的视频剪辑、快速的图生视频、快速诊断等。由 Microsoft Azure AI 开发,结合了 GPT4V 的能力和其他视觉、音频和语音处理工具,能处理和理解长视频和复杂任务。能够自动识别和解释视频中的元素,如人物行为、情感表达、场景变化和对话内容,从而实现对视频故事线的理解。其核心功能是将视频中的多模态信息(如视觉图像、音频信号和语言对话)转录成详细的文本脚本,这样大语言模型就能够理解视频内容。
2025-02-22
几个短视频生成一个全新的新视频用什么好
以下是几种可以将几个短视频生成一个全新视频的工具和方法: 1. Sora: 技术原理:用特别的网络压缩视频,将其变成类似“补丁”的小片段,然后利用变换器技术根据文字提示生成新视频,能生成各种大小和形状的视频,并确保自然衔接。 相关链接:Sora 技术报告原文:https://openai.com/research/videogenerationmodelsasworldsimulators 2. PixVerse V2: 输入提示词:支持文生和图生视频。 上传图片:如无图片上传,可忽略此步骤。 选择视频时长:支持 5s 和 8s 的视频生成。 添加新片段:所有 Scene 画面风格会与 Scene 1 保持一致,可添加多个 Scene,最多支持 5 个同时生成。 生成视频:每次生成需花费 30 Credits,默认将所有片段拼接,不支持单片段下载。 编辑生成的视频:可从角色、环境、动作等方面进行编辑,未修改的 Scene 再次生成时会改变。 3. Video: 使用video 参数创建短视频,展示初始图形生成过程,仅适用于图像网格,可与版本为 1、2、3、test 和 testp 的模型版本一起使用。 获取视频链接:添加video 到提示词结尾,等任务结束后点击表情符号,选择✉️emoji,在私信中收到视频链接,在浏览器中查看并下载。
2025-02-22
文生视频
以下是关于文生视频的相关信息: 文字生成视频的 AI 产品有: 1. Pika:擅长动画制作,支持视频编辑。 2. SVD:可作为 Stable Diffusion 的插件,在图片基础上生成视频,由 Stability AI 开源。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但收费。 4. Kaiber:视频转视频 AI,能将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多的文生视频网站可查看:https://www.waytoagi.com/category/38 (内容由 AI 大模型生成,请仔细甄别) PixVerse V2 的使用教程: 单个视频生成(8s):8s 的视频生成需要花费 30 Credits,5s 的视频生成需要花费 15 Credits,且只能使用 PixVerse V2 模型,生成时请注意模型选择,目前仅支持 16:9 画面比例的视频生成。 文生视频:点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2 支持多风格的视频生成,可在提示词中加入“Anime”“Realistic”等词语。 图生视频:点击“Image to Video”,在“Model”选择“PixVerse V2”,图生视频暂不支持“Magic Brush”“Camera Motion”“Motion Strength”等功能,如需使用上述功能,请将模型切换至“PixVerse V1”。 Sora 的模型推理策略: 官方展示 Sora 的应用包括文生视频、图生视频、视频反推、视频编辑、视频融合等。一些有意思的做法如: 1. 文生视频:喂入 DiT 的是文本 embedding+全噪声 patch。 2. 视频编辑:类似 SDEdit 的做法,在视频上加点噪声(不要搞成全是噪声),然后拿去逐步去噪。 3. 图生视频、视频反推、视频融合:喂入 DiT 的是文本 embedding(可选)+特定帧用给定图片的 embedding+其他帧用全噪声 patch。
2025-02-22
我想把人物老照片转彩色并生成视频动起来,用什么工具
以下是一些可以将人物老照片转彩色并生成视频动起来的工具和方法: 1. 对于给老照片上色,可以使用 Stable Diffusion 及其相关插件,如 MutiDiffusion 插件。在显存不够的情况下,可利用分块渲染功能放大图片。还可以加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,通过简单的关键词如“蓝天、绿树、灰石砖”来匹配色调。同时,将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。 2. 对于生成视频让图片动起来,可以使用即梦进行图生视频。只需上传图片至视频生成模块,用简单提示词描绘画面中的动态内容,能生成时长为 3 秒钟的画面,运镜类型可根据剧本中的镜头描绘设置,以随机运镜为主,生成速度可选择慢速。
2025-02-22
爆款AI视频
以下是关于爆款 AI 视频的相关内容: 2025AI 春晚: 行业身份:首届 AI 春晚发起人&总导演,包括央视总台论坛&直播、TEDxAI 演讲、得到分享等。 爆款视频案例:快手&国家反诈中心合作,微博 650w+热搜,快手 520w+热搜(6 月 28 日);央视&海尔冰箱首支 AI 概念短片(6 月 29 日);个人制作视频,无推流,快手平台 636w 播放(6 月 29 日)。 社区与企业关系:涉及 WaytoAGI、AIGCxChina 等聚会,以及德必集团、万兴集团、福布斯 AItop50 等的论坛分享,还有嘉定区政府颁奖、温州 AI 音乐大会、腾讯研究院论坛、江西财经大学分享、宣亚集团分享等。 WTF:1w 粉 10w 粉仅仅用时 13 天,像素级拆解《动物时装秀》: 作者模仿动物时装秀账号效果不错并分享教程。一个爆款视频至少要满足以下几点: 切片:短视频通过不断切片,增加信息密度,从长视频和其他短视频中脱颖而出。 通感:利用人的直觉脑,不让观众动脑子,如头疗、水疗直播间靠声音让人舒服,美食直播间靠展示美食吸引人。 反差:可参考抖音航线里行舟大佬的相关文档。 视频模型:Sora: OpenAI 突然发布首款文生视频模型 Sora,能够根据文字指令创造逼真且充满想象力的场景,生成 1 分钟的超长一镜到底视频,女主角、背景人物等都有惊人的一致性和稳定性,远超其他 AI 视频工具。
2025-02-21
我是一位德语老师,我想用ai帮我备课生成教案,可以用什么工具
以下为您推荐一款可用于生成教案的工具——COZE 应用: 1. 访问地址:https://www.coze.cn/s/iDsBwYLF/ 2. 首页说明:启动页面有相关说明。 3. 生成教案:进入设计教案页面,等待执行完成后即可看到教案,教案是以下三个功能的基础,所有功能都以教案为中心。 4. 趣味课堂:进入趣味课堂,可根据课文内容设计课堂问答卡和针对性的教学活动,采用寓教于乐的方式激发孩子学习兴趣,比如通过 5 个问题贯穿全文与故事主线,还有课堂互动游戏。 5. 课后作业:基于教学大纲和课本重点内容设计题目,包括生字词运用、阅读理解、写作。 6. 教案 PPT:PPT 内容基于前面生成的教学大纲,您需要手动进行少许内容修正。如果对大纲内容不满意,可以重新生成大纲和 PPT。首先复制大纲内容,打开 kimi,选择 PPT;然后复制教案,在对话框粘贴,KIMI 会帮您优化大纲。点击进去后,选择喜欢的模版生成。但友情提醒,下载需要充值。
2025-02-22
表情包生成网站或工具
以下为您推荐一些表情包生成的网站或工具及相关使用方法: 1. 即梦(https://jimeng.jianying.com/):可以生成类似的猫咪表情包,您可以输入相关提示词,生成图片后用 PPT 加文字制作成可发布的表情包。 具体过程:如生成“我觉得我又行了”的相关猫咪表情包。 2. 可灵 AI 1.6 图生视频工具:用于让生成的场景动起来。 提示词示例:可爱的拟人小鹿拿着红包对你说谢谢老板,非常开心忍不住跳舞,背后下着红包雨。 此外,在生成统一角色的插画海报时,也可以参考以下步骤: 1. 生成基础的第一套图形:写明确的关键词,如“Flat illustration design,a man,black hair,half body,face front,front view,sitting at the table,working,using computer or holding mobile phone,yellow and white clothes,blue solid color background,emoticon pack 6 emoji tables,red and white clothes,multiple poses and expressions,anthropomorphic style,different emotions,multiple poses and expressions,8kar 3:4niji 5style expressives 180”,多生成几套并挑选满意的。 2. 局部重绘不满意的区域:从得到的结果里挑选合适的放大,用 PS 抠出来。
2025-02-22
如何生成企业自己的知识库
生成企业自己的知识库可以参考以下内容: 理论基础: 大模型训练数据有截止日期,当需要依靠不在训练集中的数据时,可通过检索增强生成 RAG(Retrieval Augmented Generation)实现。 RAG 应用包括文档加载(从多种来源加载文档,如 PDF 等非结构化数据、SQL 等结构化数据及代码)、文本分割(把文档切分为指定大小的块)、存储(将切分好的文档块嵌入转换成向量形式并存储到向量数据库)、检索(通过检索算法找到与输入问题相似的嵌入片)、输出(把问题及检索出的嵌入片提交给 LLM 生成答案)。 使用 Coze 知识库: 海外官方文档:https://www.coze.com/docs/zh_cn/knowledge.html 国内官方文档:https://www.coze.cn/docs/guides/use_knowledge Coze 实操 徒手捏 Bot: 搭建流程: 用户输入问题。 大模型通过知识库搜索答案。 大模型根据知识库的内容生成答案。 数据库将用户问题和答案进行存储。 将答案展示给用户。 创建工作流: Start 节点:默认节点,定义输入变量“question”,由 Bot 从外部获取信息传递过来。 知识库节点:输入为用户的查询,输出为从知识库中查询出来的匹配片段。注意查询策略包括混合查询、语义查询和全文索引。 变量节点:有设置变量给 Bot 和从 Bot 中获取变量的能力。 此外,您还可以参考以下作业: 5 月 7 号:创建 https://www.coze.com 账号、创建 https://www.coze.cn 账号、加入共学的 team(看备注)、有精力的话提前阅读、尝试创建自己的第一个 Bot 用来免费使用 GPT4。 5 月 10 日罗文:认领一个插件制作插件说明,可参考。 上述两个作业在 5 月 8 号分享结束之后就可以上手进行了,5 月 9 号会针对工作流和多 Agent 模式进行进一步的讲解。大家制作的 Bot 都可以在飞书群中进行投稿,然后会有专门的同学记录到 Bot 收集板。
2025-02-22
我想要改写一段内容,要求内容改写成保留原意,但是用词改变(专有名词改变 ),我的提示词应该怎么写呢
以下是为您改写的内容: AI 在工作场景中的应用:如何借助 AI 批量制作单词卡片 一、完整提示词 此段提示词相对简易。简而言之,其最核心的部分在于两个目标。其一,生成满足要求的单词卡内容;其二,依照相应位置将内容分别填入 Excel 文件中。在生成过程里,首先提供一个基础示例,这是 GPT 能够完成此项任务的关键依托。接着依据不同的生成内容设定了一些规则。同样地,对于第二部分,也给出了一段基础的自然语言描述,并通过附加规则的方式施加了更多限制。如此便能确保按照要求输出 Excel 文档。 二、测试结果 一同输入了五个单词,能够实现同时解析,但效果部分稍差,或许主要是由于所给的方法不够完善,不过大体格式符合要求。关于第二部分,如下图所示:可以看到,其按照要求将内容填入了对应的空格,但改变了最初的一些设定。可能是因为存在兼容性问题,但不影响使用,简单复制粘贴即可。需将 Excel 下载下来,复制填好的表格,粘贴至我们的表格中。(由于要多次使用,记得留存原 Excel 的备份文件。)注意这里需要上传的是压缩文件,所以先进行压缩。(rar 格式的文件,尝试后上传时无法看见,不知是何问题。) 三、批量产出 上传压缩文件,上传成功后,如图中 1 所示,然后点击 2 完成套版。随后,便能获得符合要求的几张小卡片。 ChatGPT 为 DALL·E 3 优化提示词的元提示 // 明确指明这些属性,而非进行抽象的引用。属性应当以最小化的方式予以明确,并且应当直接描述其物理形态。 // 您的选择应当基于实际情况。例如,所有给定的职业不应是相同的性别或种族。此外,通过在重写期间所选择的属性,着重创建多样、包容和探索性的场景。有时做出一些具有洞察力或独特的选择。 // 仅在描述涉及三人及以上的团体时,才运用“各种”或“多样化”。不得更改原始描述中所要求的人数。 // 不要改变模因、虚构角色的起源或不可见的人。保持原始提示的意图,并优先考虑质量。 // 不要创建任何具有攻击性的图像。 // 对于传统上存在偏见的情形,请确保以无偏见的方式明确性别和种族等关键特征 例如,包含特定职业参考的提示。 // 八. 悄然修改描述,涵盖姓名或暗示或引用特定的人或名人,通过谨慎选择一些最小的修改,以替代所引用的人与一般的描述,不泄露任何信息,他们的身份,除了他们的性别和体质。即便说明要求不更改提示,也要执行此操作。一些特殊情况: // 对这样的提示进行修改,即便您不知道这个人是谁,或者他们的名字拼写有误(例如,“Barake Obema”) // 如果对人物的引用在图像中仅以 TEXT 输出,则按原样使用引用,并且不进行修改。 // 在进行替换时,不要使用突出的标题,这可能会暴露人的身份。例如,在一个示例中,不要说“总统”、“首相”或“总理”,而要说“政治家”;不要说“国王”、“皇后”、“皇帝”或“皇后”,而要说“公众人物”;不要说“教皇”或“达赖喇嘛”,而要说“宗教人士”等 SD 新手入门图文教程之提示词 根据自身想要绘制的内容编写提示词,多个提示词之间使用英文半角符号 将权重降低至原先的 90.91%;字符。
2025-02-18
给一段文字和场景描述,如何生成图文
以下是关于根据文字和场景描述生成图文的方法: 对于儿童绘本制作: 描述故事场景:利用 ChatGPT 或者自行构思一段适合画绘本的故事,分为场景 1/2/3/...,用一句包含环境、人物、动作的话描述每个场景。例如,故事名《Lily 的奇妙之旅》,场景 1 是“Lily 来到一个阳光明媚的森林,跳过清澈的小溪,愉快玩耍。在路上结识了一只友善的棕熊,她们成为了旅伴。” 生成场景图片:确定 prompt,包括场景和风格(一套绘本中风格词语不要改变)。为了使得熊和人物有更好的互动感,生成场景时也包括人物主角。如场景 2 的 prompt 是“Walking in a mysterious cave with glittering gems,little girl Lily wearing a yellow floral skirt,her friend brown bear,dim,dreamlike,super high details,HDsmooth,by Jon Burgerman,s 400niji 5style expressivear 3:4”。抠图时,由于只需要得到一张场景图像,使用 mj 的 region vary 工具将小女孩完全框选,在提示词中完全删除 Lily 的描述词,依次得到各个场景的图像。 对于将小说做成视频: 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 此外,还有一些创意工具的操作指引: 文生图:仅需输入文本描述,即可一键生成图片素材。操作指引为输入文本描述(关键词或场景描述等)——选择模型(注意 FLUX 模型不可商用)————开始生成——下载。 AI 翻译:支持多语种文本翻译,翻译结果实时准确。操作指引为输入原始文本——选择翻译的目标语言——开始生成。 TikTok 风格数字人:适配 TikTok 媒体平台的数字人形象上线,100+数字人模板可供选择。操作指引为输入口播文案——选择数字人角色——点击开始生成,视频默认输出语言和输入文案语言保持一致,默认尺寸为 9:16 竖版。 多场景数字人口播配音:支持生成不同场景下(室内、户外、站姿、坐姿等)的数字人口播视频。操作指引为输入口播文案——选择数字人角色和场景——选择输出类型——点击开始生成,视频默认输出语言和输入文案语言保持一致。 音频驱动多场景数字人:支持音频和场景数字人一键合成,快速生成数字人口播视频。操作指引为上传音频链接——选择数字人角色和场景——选择输出类型——点击开始生成,音频文件支持 MP3 和 WAV 格式,文件大小上限 5M。
2025-02-10
客服系统,需要写一段提示词给大模型,需求是,先跟用户表示歉意,产品问题请咨询我另外一个同事,点击同事名称即可咨询,每次回复的内容不能一样
以下是为您生成的客服系统相关的大模型提示词示例,每次回复内容不同: 1. 非常抱歉给您带来了不便,关于产品问题,您可以咨询我的同事,点击即可进行咨询。 2. 很抱歉让您遇到了困扰,产品方面的疑问请找我的同事咨询,点击就能联系到。 3. 实在不好意思呀,产品的问题您向我的同事咨询会更清楚,点击即可开启咨询。 4. 深感抱歉,对于产品的情况,建议您咨询我的同事,点击就能和他交流。 5. 抱歉给您造成了不好的体验,产品相关问题请咨询我的同事,点击就能获取帮助。
2025-01-26
有什么应用可以通过每天录一段口水话的语音,然后自动整理为日记
目前尚未有专门针对每天录制一段口水话语音就能自动整理为日记的应用。但一些语音转文字的应用,如讯飞语记、百度语音助手等,结合一些笔记类应用,如印象笔记、有道云笔记等,可能在一定程度上帮助您实现类似的功能。您可以先将语音转换为文字,然后再手动整理到笔记应用中形成日记。
2025-01-23
给我写一段AI产品经理板块的介绍,一小段话,用于在公司内部的科技论坛上
在公司内部的科技论坛上,为您介绍 AI 产品经理板块: AI 产品经理可大致分为三个层级: 1. 入门级:能通过 WaytoAGI 等开源网站或课程了解 AI 概念,使用 AI 产品并动手实践应用搭建。 2. 研究级:有技术研究和商业化研究两条路径,能根据需求场景选择解决方案,或利用 Hugging face 等工具验证想法。 3. 落地应用级:有成功落地应用案例并产生商业化价值。 传统互联网 PM 也有类似的三个层级: 1. 负责功能模块与执行细节。 2. 负责整体系统与产品架构。 3. 熟悉行业竞争格局与商业运营策略。 对 AI 产品经理的要求是懂得技术框架,关注场景、痛点和价值。同时,为您列举一些岗位技能要求,如本科及以上学历,计算机科学等相关专业背景,熟悉多种 AI 工具的使用及原理,具备创新思维等。我们身边也有相关案例,如枫 share、行远等都是从事相关工作的产品经理。
2025-01-23
我有一段chatgpt提示词,我要如何应用它
以下是关于如何应用 ChatGPT 提示词的一些方法: 1. 对于“Prompt 逆向工程:让 ChatGPT 模仿任何作家,完美续写红楼梦”的提示词,您可以按照以下步骤应用: 对给定的文本进行分析,提炼其语气、写作风格、用词、句式等写作要素。 生成逆向提示词,并将其发送给 ChatGPT,让其以任意主题写出与给定文本风格类似的文章。 可将生成的提示词应用于如编写大学新生代表的演讲稿等文本创作场景。 2. 对于“📘英文学习老师口语听力阅读一体化练习”的提示词,应用方式如下: 先将整段提示词喂给 ChatGPT(建议开一个新的对话专门用来学习英文)。 然后,当您输入英文和中文表达时,ChatGPT 会返回更地道的表达,并对俚语部分加粗,同时针对您发送的话题举一反三,结合欧美流行内容给出更多例子。 输入“Hey GPT,run the end of day task.”,ChatGPT 会输出今天的对话回顾,并建议 3 个推荐的任务,以强化记忆。 建议开一个窗口复制提示词,在手机端打开历史记录,点右上角的耳机图标打电话,既能练口语又能练听力,结束后看回顾帮助阅读。 3. 对于“ChatGPT 给 DALL·E 3 优化提示词的元提示”的提示词,应用时需注意: ChatGPT 会基于给定的图像描述使用 DALL·E 3 创建图像,并以纯文本形式总结用于生成图像的提示。 遵循相关政策,如翻译非英文描述、不创建超过 4 个图像、不创作特定人物形象等。 在生成字幕时,用三个形容词代替艺术家名字,包括相关艺术运动或时代,并提及主要媒体。 总是在标题开头提到图像类型,使人物形象描述多样化。
2025-01-18