Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何把静态的图片动起来

Answer

以下是一些可以将静态图片动起来的方法和工具:

  1. 使用 VIGGLE 工具:
    • Mix 模式:先上传一个视频和一张角色图像,Viggle 会自动将视频的动态赋予给这个角色,形成新视频。它能模拟出角色的 3D 状态,准确还原身体旋转、四肢交叠等动作,也可以利用现有的模版视频作为动作获取来源。
    • Multi 模式:通过视频的动作,将上传的多个角色进行识别并赋予动作,形成新视频。
    • Move 模式:将视频的动作直接映射在图片人物身上,实现“让静态图动起来”。
    • 案例:Rane.m4v,结合 Midjourney 制作图片。
  2. LiveSketch:为素描“注入生命”,通过文本提示将静态素描动画化。
    • 应用场景:FlipaClip 提供的服务方向+LiveSketche 可更便捷生成动画;简笔画替换成骨骼图+controlnet+帧图可生成动态漫;简笔画替换成骨骼图+runway 控制可生成动态视频。
    • 技术特点:能够将单一主题的静态素描转换成动画,用户只需提供描述所需动作的文本提示,系统就会生成短动画。通过修改描述运动的提示文本,还可以控制生成结果的程度。
  3. 使用 Camera Motion:
    • 上传图片:点击“AddImage”上传图片。
    • 输入提示词:在“Prompt”中输入提示词。
    • 设置运镜方向:选择想要的运镜方向,输入运镜值。
    • 设置运动幅度:运动幅度和画面主体运动幅度有关,与运镜大小无关,可设置成任意值。
    • 其它设置:选择好种子(seed),是否高清(HD Quality),是否去除水印(Remove Watermark)。
    • 生成视频:点击“create”生成视频。
Content generated by AI large model, please carefully verify (powered by aily)

References

视频工具:VIGGLE

先上传一个视频和一张角色图像,Viggle会自动将视频的动态赋予给这个角色,形成一段新视频。而且Viggle并非只能生成简单的正面动作,它能模拟出角色的3D状态,这样即使原视频中有身体旋转、四肢交叠等动作,Viggle也能准确进行还原处理。(也可以利用现有的模版视频作为动作获取来源)[heading2]2、Multi(多人模式)[content]同样通过视频的动作,将上传的多个角色进行识别并赋予给这个角色,形成一段新视频。[heading2]3、Move(将视频的动作直接映射在图片人物身上)[content]不同于Mix的图片元素替换原视频内容,Move主要是通过将动作映射在图像里面的人物身上,实现“让静态图动起来”。[heading2]案例:[content][Rane.m4v](https://bytedance.feishu.cn/space/api/box/stream/download/all/Y26ybfOKGo7K3JxVfQScWmaCnre?allow_redirect=1)结合Midjourney制作图片再

Han:基于现有能力项目应用的思考

|技术名称|应用场景|技术类型|简介|主要特点|工作原理|其他|官方网站|项目及演示|论文|Github|在线体验|附件|最后更新时间||-|-|-|-|-|-|-|-|-|-|-|-|-|-||LiveSketch:为素描“注入生命”通过文本提示将静态素描动画化|1、FlipaClip提供的服务方向+LiveSketche=更便捷的动画生成。<br>2、简笔画替换成骨骼图+controlnet+帧图=动态漫?<br>3、简笔画替换成骨骼图+runway控制=动态视频?|3D动画人物,图片|该技术能够将单一主题的静态素描转换成动画。<br>用户只需提供描述所需动作的文本提示,系统就会生成短动画。<br>通过修改描述运动的提示文本,你还可以控制生成结果的程度。<br>比如,如果你画了一只猫,并用文字描述它在跳跃,这个系统就能制作出一只跳跃的猫的动画。<br>它为任何人提供了一种简单直观的方法,使他们的素描变得生动活泼。这对于讲故事、插图、网站、演示文稿等领域都非常有用。|主要功能<br>•动画化静态素描:该技术能够将单一主题的静态素描转换成动画。用户只需提供描述所需动作的文本提示,系统就会生成短动画。<br>•基于文本到视频的先验:这种方法利用了大型预训练的文本到视频扩散模型的运动先验,

Camera Motion 使用教程

点击"AddImage"上传图片。[heading2]2.输入提示词[content]在“Prompt”中输入提示词。[heading2]3.设置运镜方向[content]选择您想要的运镜方向,输入[运镜值](https://waytoagi.feishu.cn/docx/Ci9yd5xu2o46rXxNofdcnqH9nXb#doxcniTMBNtWHj6MSpXvB2DTyUh)。(下图中所示为向右运镜)[heading2]4.设置运动幅度[content]运动幅度和画面主体运动幅度有关,与运镜大小无关,可以设置成您想要的任意值。[heading2]5.其它[content]选择好种子(seed),是否高清(HD Quality),是否去除水印(Remove Watermark)。[heading2]6.生成视频[content]点击“create”,生成视频。

Others are asking
静态图片如何通过ai生成动图
以下是将静态图片生成动图的两种方法: 方法一:使用 LivePortrait 1. LivePortrait 可以精确控制眼睛和嘴唇的动作,还能无缝拼接多个肖像,将不同人物特征合并成一个视频,确保过渡自然流畅。 2. 它使用了一种不同于主流扩散方法的隐式关键点框架,在计算效率和可控性之间取得了有效的平衡。生成的动画质量优于现有的非扩散和扩散模型方法。在 RTX 4090 GPU 上,生成速度为每帧 12.8 毫秒,效率显著高于现有的扩散模型。 3. 支持各种风格的图片,常见的动物面部迁移,并可以微调面部运动幅度。 4. 工作流与模型地址: https://pan.baidu.com/s/1FkGTXLmM0Ofynz04NfCaQ?pwd=cycy https://pan.quark.cn/s/8dfd7ace4f05 5. 教程: 在 comfyui 里使用工作流、模型:https://pan.baidu.com/s/1FkGTXLmM0Ofynz04NfCaQ?pwd=cycy 安装包解压即用链接:https://pan.baidu.com/s/1fh9vvLk8OHuIlCJxD7jiBg?pwd=282n 提取码:282n 项目地址:https://github.com/KwaiVGI/LivePortrait 节点地址:https://github.com/kijai/ComfyUILivePortraitKJ 方法二:使用星流一站式 AI 设计工具的图生图功能 1. 图生图功能允许用户上传一张图像,并基于该图像生成新的视觉内容。 2. 应用图生图: prompt 输入框下,点击“图生图”上传本地文件。 无限画布中,在图片功能区进行选择。 3. 调整“图生图”功能区参数: 参考程度: 更像原图:小幅度修改基底图像,有限的增加元素。 更创意:大幅度修改基底图像,可搭配增强模型加入更多的元素。 自定义:可自定义修改重绘幅度。 增加参考纬度:点击添加按钮,会自动的应用并打开“生成器”的图片参考功能。 替换图像:鼠标滑动到图像,点击“选择参考图”即可重新选择图片。 转换提示词:反推参考图信息填入进提示词框中。 同步生图尺寸:同步参考图尺寸到“生成器”的生图尺寸中。
2025-01-20
静态图生成动态图的工具有吗
以下是一些可以将静态图生成动态图的工具: 1. Comfyui LivePortrait: 可以精确控制眼睛和嘴唇的动作,无缝拼接多个肖像,将不同人物特征合并成一个视频,确保过渡自然流畅。 使用了不同于主流扩散方法的隐式关键点框架,在计算效率和可控性之间取得有效平衡。 生成的动画质量优于现有的非扩散和扩散模型方法,在 RTX 4090 GPU 上,生成速度为每帧 12.8 毫秒。 支持各种风格的图片,常见的动物面部迁移,并可以微调面部运动幅度。 工作流与模型地址: https://pan.baidu.com/s/1FkGTXLmM0Ofynz04NfCaQ?pwd=cycy https://pan.quark.cn/s/8dfd7ace4f05 内容依技术发展更新,请以文档为准 https://xiaobot.net/post/74238a84d2734b2ca195ed2858b24ffe 2. 视频工具 VIGGLE: Mix(让视频的动作映射到图片人物身上):先上传一个视频和一张角色图像,Viggle 会自动将视频的动态赋予给这个角色,形成一段新视频。能模拟出角色的 3D 状态,准确还原处理原视频中身体旋转、四肢交叠等动作。(也可以利用现有的模版视频作为动作获取来源) Multi(多人模式):通过视频的动作,将上传的多个角色进行识别并赋予给这个角色,形成一段新视频。 Move(将视频的动作直接映射在图片人物身上):不同于 Mix 的图片元素替换原视频内容,Move 主要是通过将动作映射在图像里面的人物身上,实现“让静态图动起来”。 案例: 评价: :https://x.com/imxiaohu/status/1771173928591093940 兄弟们,又出来个牛 P 玩意阿里那个被截胡了,这个直接能用可以直接通过文字描述让任何静态图动起来,而且能做各种动作,跳舞什么的都是小 case...最牛 P 的是,他们的模型能能理解真实世界的物理运动原理,所以出来的视频很真实。不仅如此,它还能直接文字生成视频,进行各种角色混合和动作替换...其核心技术基于 JST1 模型。JST1 是首个具有实际物理理解能力的视频3D 基础模型,能够根据用户的需求,让任何角色按照指定的方式进行运动。核心功能: 可控制的视频生成:用户可以通过文字描述指定角色的动作和场景的细节,Viggle 将根据这些指示生成视频。 基于物理的动画:JST1 模型的一个显著特点是其对物理原理的理解,这意味着生成的视频不仅看起来真实,而且角色的动作和互动符合实际物理规律。这提高了视频的质量和真实感。 3D 角色和场景创建:Viggle 不仅限于传统的 2D 视频制作,它还能够创建 3D 角色和场景。
2025-01-11
那款AI可以让静态变动态I
以下是一些可以让静态变动态的 AI 工具和方法: 1. Hailuo AI 推出的 I2V01Live 新功能,能够为静态 2D 插画加入流畅动画,赋予角色生命力,支持多种艺术风格,动作细节表现真实流畅。相关链接: 2. 腾讯 Hunyuan 是 130 亿参数开源视频模型,能生成高质量视频,动作连贯自然,镜头切换灵活,具备强大语义跟随能力。官网: 3. 可以通过教程学习用 AI 制作动画视频播客,比如五步学会的方法。相关链接: 4. 可以使用即梦、runway 等工具,比如在剪映里添加 PNG 透明底图并导出。
2024-12-18
静态动物图片,生成说话视频
以下是一些能够将静态动物图片生成说话视频的技术和相关信息: VividTalk:单张照片和一段音频可生成看似真实的说话视频,支持多种语言和风格,如真实和卡通风格,由南京大学、阿里巴巴、字节跳动和南开大学合作开发。链接:https://x.com/xiaohuggg/status/1732026172509421697?s=20 腾讯 AniPortrait:根据音频和静态人脸图片生成逼真的动态视频,支持多种语言、面部重绘、头部姿势控制,比阿里 EMO 项目先开源。链接:https://github.com/ZejunYang/AniPortrait 、https://arxiv.org/abs/2403.17694 、https://x.com/imxiaohu/status/1772965256220045659?s=20
2024-11-13
配置“DeepSeek-R1”模型的 API key:基础 URL:https://ark.cn-beijing.volces.com/api/v3 ,填好之后,点击保存,关掉提醒弹窗。添加“DeepSeek-R1”模型。这个行为在Macbook中怎么操作,请进行指导,通过图片、文字、数据、网址等形式
在 Macbook 中配置“DeepSeekR1”模型的 API key 及添加模型的操作步骤如下: 1. 获取 DeepSeekR1 满血版密钥: 注册并登录火山引擎,点击立即体验进入控制台:https://zjsms.com/iP5QRuGW/ 。 创建一个接入点,点击在线推理创建推理接入点。 为接入点命名为 DeepSeekR1。若提示“该模型未开通,开通后可创建推理接入点”,点击“立即开通”,勾选全部模型和协议一路开通(免费)。 确认无误后,点击“确认接入”按钮。 自动返回创建页面,复制多出的接入点名称“DeepSeekR1”。 点击【API 调用】按钮,进入后点击【选择 API Key 并复制】,若没有则点击【创建 API key】,复制并保存。 2. 配置“DeepSeekR1”模型的 API key: 安装插件:使用 Chrome 或 Microsoft Edge 浏览器,点击此链接,安装浏览器插件,添加到拓展程序:https://chromewebstore.google.com/detail/pageassist%E6%9C%AC%E5%9C%B0ai%E6%A8%A1%E5%9E%8B%E7%9A%84web/jfgfiigpkhlkbnfnbobbkinehhfdhndo 。 打开聊天页面:点击右上角的插件列表,找到 Page Assist 插件,点击打开。 配置 API key:基础 URL:https://ark.cnbeijing.volces.com/api/v3 ,填好之后,点击保存,关掉提醒弹窗。 添加“DeepSeekR1”模型。 3. 环境配置指南: 首先到 deepseek 的官网(https://www.deepseek.com/),进入右上角的 API 开放平台。若没有赠送余额,可选择充值,支持美元和人民币两种结算方式及各种个性化充值方式,并创建一个 API key(注意及时保存,只会出现一次)。 以 cursor 作为代码编辑器为例,下载安装后,在插件页面搜索并安装 Roocline 。安装完后,打开三角箭头,选中 RooCline 并点击齿轮,进入设置,依次设置: API Provider:选择 DeepSeek 。 API Key:填入已创建的 key 。 模型:选择 DeepSeekreasoner 。 语言偏好设置。 记得把 HighRisk 选项都打开,最后点击 Done 保存修改。 在聊天框输入产品需求,输入需求后点击星星优化提示词,最终得到想要的结果。
2025-02-26
图片去水印工具
以下是一些常见的图片去水印工具: 1. AVAide Watermark Remover:在线工具,使用 AI 技术,支持多种图片格式(如 JPG、JPEG、PNG、GIF 等)。操作简单,上传图片、选择水印区域,保存并下载处理后的图片,还提供去除文本、对象、人物、日期和贴纸等功能。 2. Vmake:提供 AI 去除图片水印功能,可上传最多 10 张图片,AI 自动检测并移除水印,处理完成后可保存生成的文件,适合需快速去水印并在社交媒体分享图片的用户。 3. AI 改图神器:提供 AI 智能图片修复去水印功能,可一键去除图片中多余物体、人物或水印,不留痕迹。支持直接粘贴图像或上传手机图像,操作简便。 此外,还有以下工具可供选择: 对于去除图片中特定物体(如右手的手串),除了 PS,PS 的 AI 版、SD 局部重绘、Firefly、canva、Google photo 都有局部重绘功能,微软 Designer 也免费。 ProPainter:一键移除视频内物体或水印,基于 E2FGVI 实现。 收费但效果较好的工具如:https://anieraser.media.io/app。 效果一般的免费工具:https://onlinevideocutter.com/removelogo。 您可以根据具体需求选择最适合您的去水印工具。请注意,内容由 AI 大模型生成,请仔细甄别。
2025-02-25
图片生成
图像生成是 AIGC 的一个重要领域,它离不开深度学习算法,如生成对抗网络(GANs)、变分自编码器(VAEs)以及 Stable Diffusion 等,以创建与现实世界图像视觉相似的新图像。图像生成可用于数据增强以提高机器学习模型的性能,也可用于创造艺术、生成产品图像,如艺术作品、虚拟现实场景或图像修复等。 一些具有代表性的海外图像生成项目包括: Stable Diffusion:文本生成图像模型,主要由 VAE、UNet 网络和 CLIP 文本编码器组成。首先使用 CLIP 模型将文本转换为表征形式,然后引导扩散模型 UNet 在低维表征上进行扩散,之后将扩散之后的低维表征送入 VAE 中的解码器,从而实现图像生成。 DALLE 3(Open AI):OpenAI 基于 ChatGPT 构建的一种新型神经网络,可以从文字说明直接生成图像。 StyleGAN 2(NVIDIA):一种生成对抗网络,可以生成非常逼真的人脸图像。 DCGAN(Deep Convolutional GAN):一种使用卷积神经网络的生成对抗网络,可生成各种类型的图像。 在实际应用中,如生成 Jellycat 风的毛茸茸玩偶,操作步骤如下: 1. 打开即梦 AI,选择图片生成。(https://jimeng.jianying.com/) 2. 输入提示词,格式为“Jellycat 风+毛茸茸的 XXX”,发挥创意。 3. 选择最新的模型,将精细度拉到最大值,点击生成。 此外,还有景淮镜子画布小游戏中的图片生成需求,例如生成可爱画风、左右对称结构、线条简单且只有唯一主人公的机器人图片。还可以通过输入不同的提示词进行测试,如“一只小猫”。在图片处理方面,也有基于中轴线裁剪、增加空白图片、添加辅助线等不同的需求和处理方式。
2025-02-25
你有生成图片的功能吗
以下是关于生成图片的相关信息: Sora 可以生成不同大小的图像,分辨率最高可达 2048x2048。例如:“Closeup portrait shot of a woman in autumn, extreme detail, shallow depth of field”“Vibrant coral reef teeming with colorful fish and sea creatures”。 LayerStyle 副本中的 LayerUtility 的 TextImage 可以从文字生成图片以及遮罩。支持字间距、行间距调整,横排竖排调整,可设置文字的随机变化,包括大小和位置的随机变化。节点选项包括 size_as、font_file、spacing、leading、horizontal_border、vertical_border、scale、variation_range、variation_seed、layout、width、height、text_color、background_color 等。 Liblibai 有以下生图入口: 网页顶部的右方有生图按钮,点击进入生图界面。 点进模型广场上任意一个模型(checkpoint 或 lora),有立即生图按钮。 点进任意一个模型下面的返图区,点开一张喜欢的图片,右侧有在线生成的按钮。点开之后可以选择自动复制所有设置,尝试复现图片,但不一定能完全复现,不过大概率能出同水平同要素的图。
2025-02-25
生成图片
以下是关于生成图片的相关内容: PS Beta 版本 Firefly Image 3 模型: 生成图像:局部生成图像自然,英文关键词生成结果比中文好。 参考图像:产品外形还原不像,颜色还原较好。 调整画笔:功能多且实用。 生成类似的内容:右侧可选择生成类似内容,效果还行。 生成背景:有添加背景的 3 种方式,包括生成背景、导入背景和油漆桶,效果各有特点,自动抠图功能存在一定局限。 增强细节:生成蝴蝶后点击左上角增强细节图标,效果有但不明显。 SD 入门: 基础操作讲解中的生成图片:单张或几张调试参数时建议设置特定预览图以观察生成过程,批量生成时可选速度最快的预览图。右键可进入无限跑图模式,有插件可解决无限跑图参数无法修改的痛点。 第三代采样器:2023 年新算法,统一预测校正器兼容性好收敛快,10 步左右可生成可用画面,建议只用 restart。无用采样器可设置隐藏。
2025-02-25
生成图片
以下是关于生成图片的相关内容: PS Beta 版本 Firefly Image 3 模型: 生成图像:局部生成图像自然,英文关键词生成结果比中文好。 参考图像:产品外形还原不像,颜色还原较好。 调整画笔:功能多且实用。 生成类似的内容:右侧可选择生成类似内容,效果还行。 生成背景:有添加背景的 3 种方式,包括生成背景(效果凑合,图片质量不高)、导入背景、油漆桶(自动添加颜色图层),自动扣图并添加蒙版功能无法自动扣出投影的透明区域。 增强细节:先生成蝴蝶,点击左上角增强细节图标,效果不明显但清晰了点。 SD 入门教程: 基础操作讲解中的生成图片:单张或几张调试参数时建议设置前面几种预览图以便中断生成,批量生成时选最后一种速度最快。右键可进入无限跑图模式,有插件可解决无限跑图参数无法修改的痛点。 第三代采样器:2023 年新算法,统一预测校正器,兼容性好收敛,10 步左右能生成可用画面,建议只用 restart。无用采样器可设置隐藏。
2025-02-25
我想把人物老照片转彩色并生成视频动起来,用什么工具
以下是一些可以将人物老照片转彩色并生成视频动起来的工具和方法: 1. 对于给老照片上色,可以使用 Stable Diffusion 及其相关插件,如 MutiDiffusion 插件。在显存不够的情况下,可利用分块渲染功能放大图片。还可以加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,通过简单的关键词如“蓝天、绿树、灰石砖”来匹配色调。同时,将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。 2. 对于生成视频让图片动起来,可以使用即梦进行图生视频。只需上传图片至视频生成模块,用简单提示词描绘画面中的动态内容,能生成时长为 3 秒钟的画面,运镜类型可根据剧本中的镜头描绘设置,以随机运镜为主,生成速度可选择慢速。
2025-02-22
生成3d模型可以让模型动起来吗?
生成 3D 模型后是可以让模型动起来的。例如,通过以下工具和流程可以实现: 工具链:Midjourney(生成等距图像)→Trellis(图像转 3D 模型)→Browser Lab(浏览器内 3D 编辑器)。 步骤: 使用 Midjourney 生成等距 3D 场景,提示词示例:3D isometric bedroom with a bed and desk。(DALLE 3 也可测试) 用 Trellis 工具将图像转为 3D 模型(支持 Tripo 3D 等其他工具)。工具地址: 下载生成的 3D 模型(GLB 文件或高斯分布文件),然后导入 Browser Lab 编辑器中进一步编辑。编辑器地址: 结合可灵 AI、Hailuo AI、Runway 等工具可让场景中的人物动起来。 对于文物雕塑上色,可使用 runway 让固有想法的物体变得动态,runway gen3 的 V2V 可以让物体重新建模、重新上色,再把背景上个色,传到剪映,加上 BGM。 先上传图片,运用提示词,只要让物体动起来就行,一次可能不成功,可以多次抽卡(分够的话)。 生成好的视频的左下方,点击“Reuse”,再点击上方出现的“Video to Video”,视频就会跳转到我们的工作台。 再在下方输入提示词“3D modeling with vibrant colors”等待生成。 再重复上面一个步骤,把提示词换成“Changing the background to the universe,the body emits light”。 最后导入剪映,按照自己喜欢的风格,剪成一个小短片。 另外,可以用即梦 S2.0(或其他可以动效的工具)出动态视频,在剪映提前转成 9:16 或 16:9 的大小,否则 runway 会裁剪尺寸。
2025-02-20
如何让agent协作起来
要让 Agent 协作起来,可以参考以下方法: 1. 了解不同的产品设计模式:生成式 AI 的人机协同分为 Embedding(嵌入式)、Copilot(副驾驶)、Agent(智能代理)这 3 种模式,每种模式下人与 AI 的协作流程有所差异。其中 Embedding 模式人类完成大多数工作,Copilot 模式人类和 AI 协同工作,Agents 模式 AI 完成大多数工作。 2. 采用 Multiagent Collaboration 的方法:让不同角色的 Agent 按照任务要求自主规划选择工具、流程进行协作完成任务。例如作为产品经理,可将产品功能设计需求通过 Agents 拆解成多个独立任务,遵循不同工作流,生成初步结果后再修改完善。 3. 从原子能力层思考:抽象化拆解大模型的底层能力,如翻译、识别、提取、格式化等,围绕“输入”“处理”“输出”“反馈”构建最底层的信息处理逻辑。 4. 重塑获取信息的方式:搜索引擎和基于大模型的聊天机器人的目标从根本上一致,可根据需求选择。 5. 注意多 Agent 模式中的设置:分为全局设置和节点设置。全局设置中更应注意角色定义和人物刻画,节点设置更关注单个智能体中要详细执行的逻辑。 6. 合理编排智能体:将智能体编排首尾相连,避免成为线性工作流。 7. 明确跳转模式和适用场景:单个 Agent 中两种跳转模式分别适用于通用和复杂的意图识别和跳转,一般场景下前者效果更好,后者适用更复杂的意图识别情景。同时,编排时应明确单个 Agent 的名称和适用场景,以便节点跳转模型更好地识别触发条件。
2025-02-19
如何让老照片动起来
以下是一些让老照片动起来的方法和相关信息: 1. 参加“时光印记”AI 公益挑战赛:该挑战赛采集了杨浦 20 位老一辈建设者老照片与故事,期望用 AIGC 技术创作影视频、AIMV、动图。作品要求任选百年主题,创作视频短片、音乐 AIMV 或动态老照片,AI 制作内容不低于 70%,视频短片时长 60 秒以上,音乐 AIMV 至少 30 秒,图片组让老照片动起来 5 10s。报名及创作时间为即日起至 2024 年 11 月 20 日。参赛方式为填写报名问卷和进群获取素材。 2. 使用 Dreamina 即梦工具:不需要🪜,每天有免费额度。注册可用抖音号或手机号,上传照片即可尝试让老照片动起来。 3. 使用 Sora 工具:优点是发布的成果好,集成在 openai 一套里可用,但需要🪜,需要 gmail 注册,需要订阅后才能使用。
2025-02-14
我想让公司做内容的同时用起来AI工具做好小红书和公众号的内容
以下是关于在公司做小红书和公众号内容时使用 AI 工具的相关信息: 1. 卓 sir 利用 AI 工具完成 PPT 作业的经验: 卓 sir 在时间紧迫的情况下,出于对 AI 提效的好奇,决定自己先用 AI 工具完成电子商务组队的 PPT 汇报作业。 探索写 prompt 花费了 3 个小时,但最终成功完成了包括大纲内容、排版、动画等的 PPT,认为加上企业背景图片即可提交。 用到的 AI 工具为 GPT4、WPS AI 和 chatPPT。 2. 12 月 25 日的 AI 资讯: Recraft AI 更新了 60 种新的图像风格,是一款可用于生成和编辑插画、海报、产品周边等的 AI 平面设计工具,对所有用户每日都有免费试用点数,并允许对生成的图像进行商业使用。地址:https://www.recraft.ai/ AI 公文智能体“学习强国公文助手”在文小言 APP 正式上线,可以帮助用户进行文汇检索、AI 公文书写、AI 公文润色等。使用方式:下载文小言 APP,找寻学习强国公文助手。 3. 关于生成式 AI 内容的思考: 汉青老师分享提到生成式 AI 的内容仍和传统社交媒体内容共存,短期内可能因新鲜感获流量红利,但人们最终在意的仍是高质量内容。 虽掌握了各种先进工具,但应更关注内容,认真感受真实世界和身边普通人。对于如何与 AI 结合还没想好,需慢慢思考。 希望以上信息对您在公司利用 AI 工具做小红书和公众号内容有所帮助。
2025-02-08
我在一周前的文章[1]里说对 DeepSeek-R1 只需要说大白话,但在三天前的文章[2]里又用了看起来还挺复杂的结构化提示词。有伙伴问我到底咋回事。这就来解释下喽。
以下是关于 DeepSeekR1 提示词的相关信息: 历史更新: 字节跳动推出新技术 OmniHuman,利用单张图片和音频生成生动视频。 DeepSeek 的出现标志着算力效率拐点显现,其优化算法架构提升算力利用效率,AI 基础大模型参数量迎来拐点,2025 年是算法变革元年,其训练过程聚焦强化学习提升推理能力。 提示词方法论: 核心原理认知:包括多模态理解、动态上下文、任务适应性等 AI 特性定位,以及采用意图识别+内容生成双通道处理等系统响应机制。 基础指令框架:包括四要素模板、格式控制语法等。 进阶控制技巧:如思维链引导、知识库调用、多模态输出。 高级调试策略:包括模糊指令优化、迭代优化法。 行业应用案例:涵盖技术开发场景、商业分析场景。 异常处理方案:如处理信息幻觉、格式偏离、深度不足等情况。 效能监测指标:包括首次响应准确率、多轮对话效率、复杂任务分解等。 在 R1 时代,使用 AI 提示词关键在于提供足够背景信息,简单大白话有效但信息量不足难达理想结果,示例和框架可助理清思路,最终影响在于思考和表达,利用乔哈里视窗分析信息需求,避免过度指令化,让 AI 自由思考以激发更高创意和效果。
2025-02-07