Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

sora和lora是什么

Answer

LoRA(Low-Rank Adaptation)是一种低阶自适应模型,您可以将其理解为基础模型(Checkpoint)的小插件。在生图时,LoRA可有可无,但它具有明显的价值,常见于对一些精细的控制,如面部、材质、物品等细节的控制。其权重在相关界面会有显示。

Sora 并非常见的 AI 领域特定术语,上述知识库中未提及相关内容。

Content generated by AI large model, please carefully verify (powered by aily)

References

Liblibai简易上手教程

1.首页-模型广场:发布了其他大手子炼成的模型。如你所见,收藏和运行数(被其他用户来生图的次数)较多的模型都在首页前排,点击后可以看模型的详细信息,将模型加入模型库可用于今后生图时的快速调用。模型详情信息的下方,是用这个模型生成的图片,俗称返图区。1.Checkpoint:生图必需的基础模型,任何生图操作必须要选定一个checkpoint模型才能开始操作。注意,checkpoint区别于lora,这两个东西在模型广场都是混着展示的。checkpoint必选,lora可选可不选,任何主题的作图需求,都可以试着在模型广场上搜索或者浏览,然后收集到模型库中用于生图。1.lora:低阶自适应模型,你可以理解为checkpoint的小插件,生图的时候lora可有可无。但是lora的价值还是很明显的,基本上你看到一些精细的控制,如面部、材质、物品等等细节都常见于用相应的lora进行控制。这个也是可以加入模型库的。1.VAE:是个编码器,功能类似于我们熟悉的滤镜,调整生图的饱和度。无脑选择右侧截图中840000这个即可。1.CLIP跳过层:可以用于在生成图片之后控制、调整构图变化,一般设成2就行了,早期不用花太多精力在这里。1.Prompt提示词:想要AI生成的内容(不绝对有效,需要从入门阶段就费功夫学习,哪怕从照抄别人开始)。2.负向提示词Negative Prompt:想要AI避免产生的内容(不绝对有效,也需要费功夫学,哪怕从照抄别人开始)。1.采样方法:使用何种采样器,通俗说就是让AI用什么算法生图。

Tusiart简易上手教程

1.首页-模型\帖子\排行榜:发布了其他大手子炼成的模型、图片。不同的模型有checkpoint和lora两种不同的标签,有些模型的标签后面还有第二个XL的标签,这是属于SDXL这个新模型的意思。点击后可以看模型的详细信息。模型详情信息的下方,是用这个模型生成的图片,俗称返图区。1.基础模型:生图必需的,英文名Checkpoint。任何生图操作必须要选定一个checkpoint模型才能开始操作。注意,checkpoint区别于lora,这两个东西在模型广场都是混着展示的。checkpoint必选,lora可选可不选,任何主题的作图需求,都可以试着在模型广场上搜索或者浏览,然后收集到模型库中用于生图。1.lora:低阶自适应模型,你可以理解为checkpoint的小插件,生图的时候lora可有可无。但是lora的价值还是很明显的,基本上你看到一些精细的控制,如面部、材质、物品等等细节都常见于用相应的lora进行控制。旁边的数值是lora的权重。1.ControlNet:控制图片中一些特定的图像,可以用于控制人物姿态,或者是生成特定文字、艺术化二维码等等。也是高阶技能,后面再学不迟。1.VAE:是个编码器,功能类似于我们熟悉的滤镜,调整生图的饱和度。无脑选择右侧截图中840000这个即可。1.Prompt提示词:想要AI生成的内容(不绝对有效,需要多费功夫学习,哪怕从照抄别人开始)。2.负向提示词Negative Prompt:想要AI避免产生的内容(不绝对有效,也需要费功夫学,哪怕从照抄别人开始)。1.图生图:上传图片之后,sd将根据你的图片和你选择的模型以及输入的prompt等等信息进行重绘。重绘幅度越大,输出的图和输入的图差别就越大。

guahunyo:SD入门讲解PPT.pptx

safetensors支持各种AI模型,而在safetensors出现前,各种AI模型都有着自己独特的后缀。这就导致每种模型既可以使用safetensors又可以使用自己原有的后缀,所以入门的时候就会让人有点分不清。其实safetensors是由huggingface研发的一种开源的模型格式,它有几种优势:足够安全,可以防止DOS攻击加载迅速支持懒加载通用性强所以现在大部分的开源模型都会提供safetensors格式。开源地址:https://github.com/huggingface/safetensorsLoRA和LyCORIS LoRA是除了主模型外最常用的模型。LoRA和LyCORIS都属于微调模型,一般用于控制画风、控制生成的角色、控制角色的姿势等等。LoRA和LyCORIS的后缀均为.safetensors,体积较主模型要小得多,一般在4M-300M之间。一般使用LoRA模型较多,而LyCORIS与LoRA相比可调节范围更大,以前需要额外的扩展才可使用,现在sd已经内置了。需要管理模型时我们可以进入WebUI目录下的models/LoRA目录下。在WebUl中使用时,可在LoRA菜单中点击使用。也可以直接使用Prompt调用。[heading2]YOUR LOGO[content]Textual Inversion Textual Inversion是文本编码器模型,用于改变文字向量。可以将其理解为一组Prompt。Textual Inversion后缀为.pt或者.safetensors,体积非常小,一般只有几kb。模型所在的目录不在models下,而是在WebUI中的embeddings目录下。在使用时同样可以在Textual Inversion菜单中点击使用,也可以使用Prompt调用。

Others are asking
lora炼丹活动
以下是关于 Lora 炼丹活动的相关信息: 魔多·LoRA 模型创作大赛正在进行中。基于 SD1.5、SDXL、FLUX.1 底模创作 LoRA 模型,有中国神话、武侠风云、写实人像、灵动萌兽、银幕穿梭机、盲盒幻想六个赛题方向可供选择。 10 月 17 日晚 8 点有免费的 0 基础炼丹课程,由忠忠(设计类模型 Top1,Canva、平安科技、华为、腾讯等领先互联网公司培训讲师)授课。会议主题为教你 0 基础炼丹,会议时间为 20:00 22:00,会议 ID 为 370 697 604,会议链接为 https://vc.feishu.cn/j/370697604 。 此外,还有关于人像 lora 炼制的详细步骤: 1. 打标:选一个基础大模型,如“麦橘写实”,填一个 lora 的名字。将照片导入丹炉,选择适合的分辨率,可勾选“脸部加强训练”,然后点击“预处理”。手动裁剪照片,预处理后会出现脸部和整体的文件夹,且每张照片自动打好 tag 标签。可给整体添加统一标签或单独修改每张的标签,注意描述的详细程度会影响人物 lora 的泛化性。 2. 参数调整:前面环节重要,此环节可佛系,大部分参数固定,主要参数按人物参数配置,后期根据生成结果调整。 3. 炼丹:18 张脸部图片,20 张整体图片,各训练 50 步,循环训练 10 次,并行步数为 1,训练总步数为 19000,训练时长为 45 分钟,loss 值为 0.0769。但具体好坏需通过测试判断。 活动详情地址:
2025-02-07
layer_xl_bg2ble.safetensors,layer_xl_transparent_conv.safetensors,vae_transparent_encoder.safetensors这一类是大模型,还是Lora?
layer_xl_bg2ble.safetensors、layer_xl_transparent_conv.safetensors、vae_transparent_encoder.safetensors 这类文件可能是大模型的一部分,也可能是 Lora 模型。 在 AI 模型中: 基础模型(英文名 Checkpoint)是生图必需的,任何生图操作必须要选定一个基础模型才能开始。 Lora 是低阶自适应模型,可以理解为基础模型的小插件,生图时可有可无,但在控制面部、材质、物品等细节方面有明显价值。 同时,VAE 是个编码器,功能类似于滤镜,可调整生图的饱和度。
2025-01-31
想知道lora是什么,怎么使用
LoRA 是一种在图像生成领域具有重要作用的技术。以下是关于 LoRA 的详细介绍和使用方法: LoRA 可以固定图像的特征,包括人物特征、动作特征和照片风格等。在使用非 SDXL 基础模型时会用到 LoRA,使用方法和平常类似,但需要注意将 cfg 值调小,一般设置为 1,步数设置根据所使用的 LoRA 步数为准。 在实际使用中,以 Stable Diffusion 为例,点击“生成”下面的第三个按钮,会弹出新的选项框,找到 Lora 选项,就会出现下载保存到电脑的 Lora 模型。点击要用的 Lora ,会自动添加到关键词的文本框里面,Lora 可以叠加使用,但新手不建议使用太多,每个 Lora 后面的数字用于调整权重,一般只会降低权重。选择 Lora 时要根据最初想要生成的照片类型来选择相应风格的 Lora 。 此外,LoRA 具有极大的商用价值,比如“墨心”的 LoRA 可以把图片变成水墨风格,盲盒 LoRA 可以生成 2.5D 的卡通小人角色,还有一些明星或知名动漫角色的 LoRA 可以直接生成相应形象。但在使用时需要有很强的版权和法律意识。
2025-01-23
Flux 的lora模型训练教程
以下是 Flux 的 Lora 模型训练教程: 1. 模型准备: 下载所需模型,如 t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。 注意: 不使用时模型存放位置随意,只要知晓路径,后续会引用。 训练建议使用 flux1dev.safetensors 版本的模型和 t5xxl_fp16.safetensors 版本的编码器。 2. 下载训练脚本: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 3. 训练步骤: 进入厚德云模型训练数据集:https://portal.houdeyun.cn/sd/dataset 步骤一·创建数据集: 在数据集一栏中,点击右上角创建数据集。 输入数据集名称。 可以提前将图片和标签打包成 zip 上传,zip 文件里图片名称与标签文件应当匹配,如图片名"1.png",对应的达标文件就叫"1.txt"。也可以一张一张单独上传照片。 上传 zip 以后等待一段时间,确认创建数据集,返回到上一个页面,等待一段时间后上传成功,可点击详情检查,预览数据集的图片以及对应的标签。 步骤二·Lora 训练: 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 选择数据集,点击右侧箭头,会跳出所有上传过的数据集。 触发词可有可无,取决于数据集是否有触发词。 模型效果预览提示词则随机抽取一个数据集中的标签填入即可。 训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数。如果不知道如何设置,可以默认 20 重复次数和 10 轮训练轮数。 可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力。 然后等待训练,会显示预览时间和进度条。训练完成的会显示出每一轮的预览图。鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 4. 低配置方案: 开源社区对低配置方案进行了优化,NF4 来自 controlnet 的作者,GGUF 则包含多个版本可以使用。 NF4 模型下载:https://huggingface.co/lllyasviel/flux1devbnbnf4/blob/main/flux1devbnbnf4.safetensors ,放置在 ComfyUI/models/checkpoint/中(不像其他 Flux 模型那样放置在 UNET 中),NF4 配套节点插件:git clone https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4.git GGUF 模型下载:Flux GGUF 模型:https://huggingface.co/city96/FLUX.1devgguf/tree/main ,GGUF 配套节点插件:GGUF 节点包:https://github.com/city96/ComfyUIGGUF 。 值得一提的是在最新版本的 ComfyUI 中 GGUF 的节点插件可以在 Manager 管理器中搜到下载安装,NF4 的配套节点插件则搜不到。 注意使用精度优化的低配模型的话,工作流和原版是不一样的。此处没有专门列举。 自己改的话就是把上面官方的 fp8 的工作流,只需把底模的节点换成 NF4 的或者 GUFF 的即可。 相关生态发展很快,有 Lora、Controlnet、IPadpter 相关生态建设非常速度,以及字节最近发布的 Flux Hyper lora 是为了 8 步快速生图。
2025-01-19
理解LoRA训练以及参数
LoRA 训练的参数主要包括以下方面: 1. 学习步数:指 AI 对每张图片的学习次数。二次元图片的 repeat 一般在 10 15,写实人物图片的 repeat 一般在 30 50,真实世界的景观场景可能要达到 100。repeat 值越高,AI 越能读懂图片,但图片精细度越高,学习步数也要越高。 2. 循环次数:AI 将所有图片按照学习步数学习一轮就是一次循环,循环次数就是将这个过程重复的遍数。一般数值在 10 20 之间,次数并非越多越好,过多会导致过拟合。总的训练步数 = 图片张数×学习步数×循环次数。 3. 效率设置:主要控制电脑的训练速度,可保持默认值,也可根据电脑显存微调,但要避免显存过载。 4. DIM:不同场景有不同的推荐值。如二次元一般为 32,人物常见为 32 128,实物、风景则≥128。DIM 为 64 时,输出文件一般为 70MB +;DIM 为 128 时,输出文件一般为 140MB + 。 5. 样图设置:主要控制训练过程中的样图显示,可实时观测训练效果。“sample every n steps”为 50 代表每 50 步生成一张样图,prompts 提示词可预设效果或自定义。 6. 并行数量:代表 AI 同一时间学习的图片数量。数值越大,训练速度越快,内存占用越大,收敛得慢;数值越小,训练速度越慢,内存占用越小,收敛得快。以 512×512 的图片为例,显存小于等于 6g,batch size 设为 1;显存为 12g 以上,batch size 可设为 4 或 6。增加并行数量时,通常也会增加循环次数。 7. 质量设置: 学习率:指 AI 学习图片的效率,过高会过拟合,过低会不拟合。1e 4 即 1 除以 10 的 4 次方,等于 0.0001;1e 5 即 1 除以 10 的 5 次方,等于 0.00001。一般保持默认,如需调整可点击数值旁的加减号。 网格维度:network dim 决定出图精细度,数值越高有助于 AI 学会更多细节,但数值越大学习越慢,训练时间越长,易过拟合。
2025-01-06
理解LoRA训练以及参数
LoRA 训练的参数主要包括以下方面: 1. 学习步数:指 AI 对每张图片的学习次数。二次元图片的 repeat 一般在 10 15,写实人物图片的 repeat 一般在 30 50,真实世界的景观场景可能要达到 100。repeat 值越高,AI 越能读懂图片,但图片精细度越高,学习步数也要越高。 2. 循环次数:AI 将所有图片按照学习步数学习一轮就是一次循环,循环次数就是将这个过程重复的遍数。一般数值在 10 20 之间,次数并非越多越好,过多会导致过拟合。总的训练步数 = 图片张数×学习步数×循环次数。 3. 效率设置:主要控制电脑的训练速度,可保持默认值,也可根据电脑显存微调,但要避免显存过载。 4. DIM:不同场景有不同的推荐值。如二次元一般为 32,人物常见为 32 128,实物、风景则≥128。DIM 为 64 时,输出文件一般为 70MB +;DIM 为 128 时,输出文件一般为 140MB + 。 5. 样图设置:主要控制训练过程中的样图显示,“sample every n steps”为 50 代表每 50 步生成一张样图。Prompts 提示词可预设效果或自定义。 6. 并行数量:代表 AI 同一时间学习的图片数量。数值越大,训练速度越快,内存占用越大,但收敛得慢;数值越小,训练速度越慢,内存占用越小,但收敛得快。显存小于等于 6g 时,batch size 设为 1;显存为 12g 以上时,batch size 可设为 4 或 6。 7. 质量设置: 学习率:指 AI 学习图片的效率,过高会过拟合,过低会不拟合。1e 4 实际为 1 除以 10 的 4 次方,即 0.0001;1e 5 为 1 除以 10 的 5 次方,即 0.00001。一般保持默认,如需调整可点击数值旁的加减号。 网格维度:network dim 决定出图精细度,数值越高有助于 AI 学会更多细节,但数值越大学习越慢,训练时间越长,易过拟合。
2025-01-06
sora现在能生成多长时间视频
Sora 是由 OpenAI 开发的文生视频模型,能够根据文字指令创造出逼真且充满想象力的场景,并生成长达 1 分钟的高质量视频,且具有一镜到底的特点,视频中的人物和背景能保持惊人的一致性和稳定性。与之前的视频生成模型相比,Sora 在生成时长和视频质量上有显著进步。同时,还有其他一些文字生成视频的 AI 产品,如 Pika 擅长动画制作且支持视频编辑,SVD 是基于 Stable Diffusion 的插件,Runway 是老牌的收费 AI 视频生成工具且提供实时涂抹修改视频功能,Kaiber 是视频转视频 AI,能将原视频转换成各种风格的视频。更多相关网站可查看:https://www.waytoagi.com/category/38 。
2025-01-15
如何使用sora生成一段视频
使用 Sora 生成一段视频的步骤如下: 1. 文本提示优化:类似于 DALLE3,Sora 在处理用户提供的文本提示时,可以利用 GPT 模型来扩展或优化提示。GPT 模型能将简短的用户提示转化为更详细、更富有描述性的文本,有助于 Sora 更准确地理解并生成符合用户意图的视频。 2. 生成视频:用户提供文本提示,Sora 根据提示在潜在空间中初始化视频的生成过程。利用训练好的扩散模型,Sora 从这些初始化的时空潜伏斑块开始,逐步生成清晰的视频内容。 3. 视频解码和后处理:使用与视频压缩相对应的解码器将潜在空间中的视频转换回原始像素视频。对生成的视频进行可能的后处理,如调整分辨率、裁剪等,以满足发布或展示的需求。 此外,Sora 采用了一些相关技术和原理: 1. 视频压缩网络:训练一个降低视觉数据维度的网络,接受原始视频作为输入,并输出在时间和空间上都被压缩的潜在表示。Sora 在这个压缩的潜在空间上进行训练,并随后生成视频。同时还训练了一个相应的解码器模型,将生成的潜在表示映射回像素空间。 2. 时空潜空间块:给定一个压缩的输入视频,提取一序列的时空分块作为 Transformer 变换器的 Token。这个方案也适用于图像,基于分块的表示使 Sora 能够训练具有不同分辨率、持续时间和纵横比的视频和图像。在推理时,可以通过在适当大小的网格中随机初始化分块来控制生成视频的大小。 3. 调整图像模型来生成视频:通过插入时间层来“扩增”预训练的文生图扩散模型,然后选择仅在视频上对新的层进行微调或完全避免进行额外的训练。新模型会继承文本 图像对的先验知识,有助于缓解对文本 视频对数据的需求。 4. 扩散视频建模:如 Singer et al. 在 2022 年提出的 MakeAVideo,在一个预训练扩散图像模型的基础上扩展一个时间维度,包含三个关键组件:一个在文本 图像对数据上训练的基础文生图模型;时空卷积和注意力层,使网络覆盖时间维度;一个帧插值网络,用于高帧率生成。
2025-01-10
openai 发布的sora最新模型中,生成视频的提示词与一般问答提示词有什么区别或者注意事项?
Sora 是 OpenAI 于 2024 年 2 月发布的文本到视频的生成式 AI 模型。 生成视频的提示词与一般问答提示词的区别和注意事项如下: 1. 对于视频生成,神经网络是单射函数,拟合的是文本到视频的映射。由于视频的动态性高,值域大,因此需要丰富且复杂的提示词来扩大定义域,以学好这个函数。 2. 详细的文本提示能迫使神经网络学习文本到视频内容的映射,加强对提示词的理解和服从。 3. 和 DALL·E 3 一样,OpenAI 用内部工具(很可能基于 GPT4v)给视频详尽的描述,提升了模型服从提示词的能力以及视频的质量(包括视频中正确显示文本的能力)。但这会导致在使用时的偏差,即用户的描述相对较短。OpenAI 用 GPT 来扩充用户的描述以改善这个问题,并提高使用体验和视频生成的多样性。 4. 除了文本,Sora 也支持图像或者视频作为提示词,支持 SDEdit,并且可以向前或者向后生成视频,因此可以进行多样的视频编辑和继续创作,比如生成首尾相连重复循环的视频,甚至连接两个截然不同的视频。 以下是一些 Sora 的案例提示词,如:“小土豆国王戴着雄伟的王冠,坐在王座上,监督着他们广阔的土豆王国,里面充满了土豆臣民和土豆城堡。”“咖啡馆的小地图立体模型,装饰着室内植物。木梁在上方纵横交错,冷萃咖啡站里摆满了小瓶子和玻璃杯。”“一张写有‘SORA’的写实云朵图像。”“一群萨摩耶小狗学习成为厨师的电影预告片‘cinematic trailer for a group of samoyed puppies learning to become chefs’”
2024-12-27
sora教程
以下是关于 Sora 及相关的教程信息: AI 视频方面: 软件教程: 工具教程: 应用教程: Python + AI 方面: 对于不会代码的人,有 20 分钟上手的教程,包括通过 OpenAI 的 API 生成文章缩略信息的代码重写及相关操作步骤。同时提醒妥善保管 API Key,OpenAI 的综合文档、API 使用、API Playground、API 案例与答疑的相关网址为:https://platform.openai.com/docs/overview 、https://platform.openai.com/docs/apireference 、https://platform.openai.com/playground 、https://cookbook.openai.com/ 。 工具教程: 开放公测,群友有实测案例。可参考卡兹克的教程介绍:https://mp.weixin.qq.com/s/YGEnIzfYA3xGpT9_qh56RA 以及 zho 总结的官方网站的案例。目前除每日 150 个赠送积分外,还新增积分购买选项,可操作固定种子、步数、运动幅度,交互也很有意思,在生成过程中会有案例标注。 此外,还有几个视频 AIGC 工具:Opusclip 可将长视频剪成短视频,Raskai 能将短视频素材直接翻译至多语种,invideoAI 输入想法后可自动生成脚本和分镜描述进而生成视频再人工二编合成长视频,descript 可对屏幕/播客录制并以 PPT 方式做视频,veed.io 能自动翻译自动字幕,clipchamp 是微软的 AI 版剪映,typeframes 类似 invideoAI 但内容呈现文本主体比重更多,google vids 是一款相关工具。Sora 是 OpenAI 发布的超强视频生成 AI,能通过处理各种视觉数据生成视频,使用视频压缩网络和空间时间补丁统一不同来源数据,并借助文本条件化的 Diffusion 模型生成与文本提示匹配的视觉作品。
2024-12-17
ChatGPT与Sora 是不是只有苹果手机或苹果电脑才能注册与登入?
ChatGPT 注册与登录: 苹果系统: 中国区正常无法在 AppleStore 下载 ChatGPT,需切换到美区。美区 AppleID 注册教程可参考知乎链接:https://zhuanlan.zhihu.com/p/696727277 。 最终在 AppleStore 搜到 ChatGPT 下载安装,注意别下错。 打开支付宝,地区切换到美区任意区,购买【App Store&iTunes US】礼品卡,按需要金额购买(建议先买 20 刀),然后在 apple store 中兑换礼品卡,在 chatgpt 中购买订阅 gpt plus,中途不想继续订阅可到订阅列表中取消。 会员不管在苹果还是安卓手机上购买的,电脑上都能登录。 注册美区 ID 详细步骤: 1. 电脑上打开 Apple ID 的注册页面:https://appleid.apple.com/ac 。 2. 填写验证码后点继续。 3. 到谷歌邮箱接收邮箱验证码。 4. 接着验证手机号码。 5. 验证完后会出现页面,此时美区 ID 已注册但未激活,切换到手机操作。 6. 打开 App Store,点击右上角人形头像。 7. 拉到最底下,点击退出登录,先退出国内的 ID。 8. 之后再点击右上角人形头像。 9. 手动输入美区 ID,会收到短信进行双重验证。 10. 之后完成美区的 ID 登录。 11. 随便找个软件下载,会弹出提示,点击“检查”进行激活。 12. 点击同意,进入下一页填写美国地址。 13. 若付款方式中没有“无”或“none”选项,输入街道地址和电话。 14. 至此,通过中国 IP、中国手机号、免信用卡成功注册一个美区 ID,可用于下载例如小火箭、ChatGPT、Discord、X、TikTok 等软件。 关于 Sora 的注册与登录相关信息未提及。
2024-12-16
Sora是什么
Sora 是 OpenAI 发布的一个文本到视频的生成模型。 它具有以下特点和能力: 1. 能够根据描述性的文本提示生成高质量的视频内容。 2. 其生成的视频不仅逼真且充满想象力,能创造出各种场景。 3. 可以生成长达 1 分钟的超长视频,且是一镜到底的,视频中的人物和背景等具有惊人的一致性和稳定性。 4. 虽然在技术界引起广泛关注和讨论,但目前 OpenAI 未公开发布,仅向少数研究人员和创意人士提供有限访问权限以获取使用反馈并评估技术安全性。 在图像生成能力方面,Sora 能生成图像,虽不及 Midjourney,但优于 Dalle 3。此外,Sora 在视频游戏模拟中也具有一定的能力。
2024-12-16