直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

可灵AI的教程

回答

以下是关于可灵 AI 的教程:

可灵(免费):

  • 支持文生视频、图生视频。
  • 支持图生视频首尾帧功能。
  • 提示词可使用中文。
  • 文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持 16:9、9:16、1:1 尺寸。
  • 图生视频除了不可运镜控制以外,其他跟文生视频基本相同。
  • 默认生成 5s 的视频。

相关链接:

使用可灵处理图片生成视频的步骤(以快影为例):

  1. 打开快影(需要先通过内测申请),选择 AI 创作。
  2. 选择 AI 生成视频。
  3. 选择图生视频。
  4. 上传处理好的图片,填写想要的互动动作和效果,然后点击生成视频。
  5. 排队等待生成结束,点击下载。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

小歪:AI视频工具合集

https://jimeng.jianying.com/ai-tool/video/generate知识库详细教程:[工具教程:Dreamina](https://waytoagi.feishu.cn/wiki/AxZuwUQmEipTUEkonVScdWxKnWd)简单介绍:支持文生视频、图生视频,视频生视频支持图生视频首尾帧功能提示词使用中文、英文都可以文生视频支持正向提示词、运镜控制、运动强度控制、帧数选择,支持16:9、9:16、1:1、3:4、4:3尺寸,图生视频、视频生视频除了尺寸不可选以外,其他跟文生视频基本相同默认生成3s的视频相关界面截图:[heading3]可灵(免费)[content]https://klingai.kuaishou.com/知识库详细教程:[视频模型:可灵](https://waytoagi.feishu.cn/wiki/GevKwyEt1i4SUVk0q2JcqQFtnRd)简单介绍:支持文生视频、图生视频支持图生视频首尾帧功能提示词可使用中文文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持16:9、9:16、1:1尺寸,图生视频除了不可运镜控制以外,其他跟文生视频基本相同默认生成5s的视频相关界面截图:

AI视频:软件教程

[title]AI视频:软件教程[来来:AI视频软件汇总](https://waytoagi.feishu.cn/wiki/Y0RywLaIuinDM6kEcVPcvOlwnwd)[AIGC生态和时间轴](https://waytoagi.feishu.cn/wiki/MoDdwqzYzi6PVokeUhPcxe1Gnfc)[工具教程:剪映](https://waytoagi.feishu.cn/wiki/FVAvwUC3Uihl6bkjNlAcMURDn0c)[工具教程:Dreamina](https://waytoagi.feishu.cn/wiki/AxZuwUQmEipTUEkonVScdWxKnWd)[工具教程:Pika](https://waytoagi.feishu.cn/wiki/V150wUonIiHafQkb8hzcO1E5nCe)[工具教程:StableVideo](https://waytoagi.feishu.cn/wiki/Hf1cwooP5iRH2zkJ6RrcAKLunWb)[工具教程:Pixverse](https://waytoagi.feishu.cn/wiki/LPuqwx3kuiTMfIkXDPDckosDndc)[工具教程:morphstudio](https://waytoagi.feishu.cn/wiki/LkN4wiFaJiklVHkDG4Ec5nZpnLb)[工具教程:Runway Gen-3](https://waytoagi.feishu.cn/wiki/Eun9wqDgii1Q7GkoUvCczYjln7r)[视频模型:luma Dream Machine](https://waytoagi.feishu.cn/wiki/EOCmw4SMhiEMMBkvNePcz1Jxntd)[视频模型:可灵](https://waytoagi.feishu.cn/wiki/GevKwyEt1i4SUVk0q2JcqQFtnRd)

AI 带你穿越时空,去拥抱儿时的自己

步骤如下:1.打开快影(需要先通过内测申请哦),选择AI创作1.选择AI生成视频1.选择图生视频1.上传刚才处理好的图片,填写想要的互动动作和效果,然后点击生成视频。1.排队等待生成结束,点击下载。[heading3]八)效果展示[content]只能说因为图片本身效果就差一点,所以一转换视频就更不像了= =可灵处理结果[a75995384c637b42b2d6a22cde182936.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/K559bpuepo9XLVxck2dcUhhrnFg?allow_redirect=1)Luma处理结果[16ac5734.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/JgYtbjIj6o1MEXxkmZUciM0wnSd?allow_redirect=1)然后这边使用的换脸软件比较简单操作的一种,下面还有些需要些学习和操作的项目可以参考使用下。比如GitHub上的Fooocus https://github.com/lllyasviel/Fooocus?tab=readme-ov-file

其他人在问
AI能对医院医用耗材出入库数据做怎样的数据处理,方便耗材管理人员对相关数据进行分析
AI 在医院医用耗材出入库数据处理方面可以发挥以下作用,以方便耗材管理人员进行数据分析: 1. 预测需求:通过分析历史出入库数据、医院科室使用情况、季节变化等因素,预测未来某段时间内的耗材需求量,优化库存管理策略,降低成本。 2. 库存优化:实时监控库存水平,及时发现库存过高或过低的情况,提醒管理人员进行调整。 3. 数据分类与整合:对大量的出入库数据进行分类和整合,使其更易于分析和理解。 4. 异常检测:识别出入库数据中的异常情况,如突然的大量领用或长时间未领用等,及时发现潜在问题。 5. 成本分析:计算不同种类、不同批次耗材的采购成本和使用成本,为成本控制提供依据。 需要注意的是,以上内容由 AI 大模型生成,请仔细甄别。
2024-12-22
画分镜头的ai工具推荐4个
以下为您推荐 4 个画分镜头的 AI 工具: 1. Pika:对于奇幻感较强的画面把控较好,自然度高,但真实环境画面易糊,更新的唇形同步功能便捷。 2. Pixverse:在高清化方面有优势,对偏风景和纪录、有特定物体移动的画面友好,但生成视频有帧率问题,处理人物时易出戏。 3. Runway:在真实影像质感方面最佳,战争片全景镜头处理出色,控件体验感好,但爱变色,光影不稳定。 4. SVD:整体表现略差,仅在风景片测试中表现较好。 在实际使用中,可根据不同工具对画面的处理能力进行组合使用,例如 Pixverse 擅长物体滑行运动,Runway 可辅助完成有手部特殊运动的画面,需要人物表情自然的画面可用 Pika 生成。
2024-12-22
画分镜头的ai
以下是关于画分镜头的 AI 相关内容: 在利用 AI 拆分镜时,完成前期设定和剧本生成对应的分镜内容后,GPT 虽有结构化的优势,但因分镜较细可能会丢失内容,需人工审核查缺补漏。制作分镜时要考虑视角,如第一人称视角还是第三人称视角,以及视角的切换,使读者更好地理解故事。 设计分镜时要注意详细的定义,例如从本子 311 到 314 的画面,通过视角的来回切换让故事走向更清晰。永远记住,剧本转化为影像时很多表达与文字不同,当前 AI 做不了长镜头,要做减法,分镜指令要明确,如“谁+干什么”“什么东西+在哪里”,不要用难以呈现画面的表述。制作分镜过程要按画面角度思考,以画面驱动文字,设计分镜表时要考虑人物视角、画面描述(可实现的动作、人物表情)。 用 AI 制作分镜时,AI 容易把段落当成一句话或把一个画面拆分成几个镜头,这需要人工干预检查景别、画面描述、前后镜关联。AI 拆分的分镜只能作为参考,需人工再看,否则出图会很痛苦,同时要注意前后镜的关系,避免画面割裂。
2024-12-22
画分镜头脚本的ai工具
以下为一些画分镜头脚本的 AI 工具及相关信息: 1. Claude:分镜提示词的结构为“我要做多长时间的视频+要出多少个分镜+每个分镜包含哪些内容+对输出格式有什么要求”。可将故事脚本改写成指定时长和格式的分镜脚本,例如 30 秒时长、包括序号、场景、景别等内容的广告片分镜脚本,并以 markdown 列表形式输出。其给出的分镜符合奔驰广告的特点,对于 30 秒的简短广告,10 个分镜较为合适,每个分镜平均 3 秒。景别是让 MJ 生图时的提示词内容之一,镜头时长设定了每个分镜的长度,画面内容可用于 MJ 生图,对话旁白可用于生成配音,音乐音效能为创作背景音提供思路。分镜脚本示例可参考: 2. GPTs:以的冰工厂赛道为例,分镜头脚本制作的参考 prompt 为“请帮我把一下(广告故事)设计成(30)秒的可执行分镜脚本,要求使用不同的景别进行画面切换,并给我(100 字)左右的详细画面描述,并每句都加入(高清,真实感,3D,blender)这些文字,整体节奏(顺畅紧张且有趣)”。 3. Anifusion:这是一款基于人工智能的在线工具,可通过输入文本描述生成漫画页面或动漫图像,还提供直观的布局工具、强大的画布编辑器、多种 AI 模型支持等功能。用户对创作的作品拥有完整的商业使用权,可用于独立漫画创作、快速原型设计、教育内容、营销材料等方面。其优点是非艺术家也能轻松创作漫画,基于浏览器无需额外安装软件,具有快速迭代和原型设计能力,并拥有创作的全部商业权利。
2024-12-22
我想要一个AIGC 图像审查领域的专家
以下是关于 AIGC 图像审查领域的相关信息: 如何判断一张图片是否 AI 生成: AI 技术自身带来造假难题,可通过一些网站如 ILLUMINARTY(https://app.illuminarty.ai/)对大量图片数据抓取和分析来判断画作属性,但存在测试中真实摄影作品被误判为 AI 作图的情况,这是因为鉴定 AI 的逻辑算法不能像人类一样综合考虑各种不符合逻辑的表现。 从不同角度看鉴别 AIGC 的需求: 技术出身的朋友多出于对 AI 产物底层逻辑的追溯兴趣,关心能否通过数据检测等手段实现鉴别并应用于创造收益。 产业领域的朋友面对 AI 技术冲击,关注其在工作流中的影响,以求应对可能的裁员风险。 法律背景的朋友认为鉴别 AIGC 对未来著作权法律判定有意义,首例 AIGC 侵权案件悬而未决,需判定 AI 作品中智力投入占比。 最近招聘信息:猿印教育招聘 AIGC 图像生成算法工程师/专家,工作地点在北京五道口附近。简历发送至:stephen.wang@yyinedu.com 。岗位职责包括开发针对性图像生成解决方案、负责模型部署和推理性能优化、推动团队技术水平提升等。任职要求为计算机相关专业本科及以上学历,具备扎实计算机基础知识,熟练掌握 Python 语言和主流深度学习框架,对相关理论和方法有深入理解,具有良好的学习、沟通和团队合作能力。
2024-12-22
如何通过AI构建自己的知识体系,比如通识教育,英语口语,以及子女学习辅导
以下是关于如何通过 AI 构建自己在通识教育、英语口语、子女学习辅导方面知识体系的建议: 通识教育: 1. 把学习任务切割成小单元,利用 AI 构建专属智能体。 2. 定期根据结果反馈调整智能体。 3. 审视学习流程,更多地应用 AI 。 4. 培养并维持旺盛的好奇心和持续学习的习惯,广泛阅读,深入研究新领域,不断探索前沿知识。 英语口语: 1. 利用智能辅助工具,如 Grammarly 进行写作和语法纠错,改进表达和写作能力。 2. 借助语音识别应用,如 Call Annie 进行口语练习和发音纠正,获取实时反馈和建议。 3. 使用自适应学习平台,如 Duolingo 获得量身定制的学习计划和个性化内容练习。 4. 与智能对话机器人,如 ChatGPT 进行会话练习和对话模拟,提升交流能力和语感。 子女学习辅导: 1. 对于英语学习,可参考上述英语口语的学习方法。 2. 数学学习方面,使用自适应学习系统,如 Khan Academy 获得个性化学习路径和练习题;利用智能题库和作业辅助工具,如 Photomath 获取问题解答和解题步骤;借助虚拟教学助手,如 Socratic 解答问题、获取教学视频和答疑服务;参与交互式学习平台,如 Wolfram Alpha 的课程和实践项目进行数学建模和问题求解。 需要注意的是,在使用 AI 辅助学习的过程中,要结合传统学习方法,仔细甄别生成的内容,以取得更好的学习效果。
2024-12-22
可灵ai官网教学
以下是关于可灵 AI 的相关信息: 可灵是一款由快手团队开发的 AI 应用,主要用于生成高质量的图像和视频。 其特点包括: 1. 生成的图像质量非常高。 2. 最初采用内测邀请制,现在已向所有用户开放使用。 费用方面: 1. 价格相对较高,重度用户的最高档年费可能达到几千元人民币,平均每月使用成本在 400 到 600 元人民币之间。 2. 对于临时使用或轻度使用的用户,有每日免费点数和 60 多元单月的最便宜包月选项。 您可以通过以下方式获取更多关于可灵 AI 的教学内容: 1. 可灵的官网帮助中心。 2. 相关的视频教程,如“【90 分钟视频教程】全网最详细的 Coze AI 应用教学”。
2024-12-21
可灵ai如何保持人物一致性
要保持可灵 AI 中人物的一致性,可以参考以下方法: 1. 人物设定: 明确主角、配角等人物的性格特点、外貌特征等,如主角是一位 40 岁的中年男探险家,性格特点是面对挑战从不轻言放弃,外貌特征是健壮、棕色头发、常穿探险服。 2. MJcref 控制人物一致性: 先根据人物设定,在 MJ 里筛选适合的人物形象,选中后右键复制图片链接。 在尾缀加入【cref 图片链接】控制人物一致性,【cw 数值】控制权重。 对于镜头较多的角色,建议炼个人物模型出来控制,不然 MJ 容易不稳定。 3. 控制多人物场景统一: 先控制一个角色再进行重绘。 选一张合适的图片后,点击 Vary进行局部重绘,并把尾缀机器人的 cref 链接改成主角的 cref 链接。 4. 通过 prompt 格式实现“角色一致性”: 公式:发型+年龄性别+衣物颜色+环境+其他(动作、镜头等)。 发型/衣物:构造尽可能多的角色非面部视觉元素,产生观众对角色的“一致性观感”。 年龄:约束角色年龄特征。 环境:约束能够产生相同观感的环境空间,尤其是光环境,增加观众对于形象认识的“一致性”认知。例如: 特写一个棕色卷发,身穿棕褐色上衣的小男孩,正对镜头,面部被烛光照亮,表情惊讶,环境昏暗明暗对比强烈。 特写一个棕色卷发,身穿棕褐色上衣的小男孩,侧对镜头,微微仰头走在一片暗绿色的森林中,面部被手中提着的油灯照亮,环境昏暗明暗对比强烈。 一个棕色卷发,身穿棕褐色上衣的小男孩侧对镜头,看着面前桌上的蜡烛,环境昏暗明暗对比强烈。 中景拍摄一个棕色卷发,身穿棕褐色上衣的小男孩,正对镜头,在一个梦幻感的暖色调房间里,全身贯注地拼装面前的积木玩具。
2024-12-21
可灵和即梦哪个生成视频的能力更强
目前难以直接明确可灵和即梦哪个生成视频的能力更强。 Google DeepMind 和 OpenAI 展示了强大的文本到视频扩散模型预览,但访问受限且技术细节披露不多。Meta 更进一步,将音频加入其 Movie Gen 模型。 在 2024 年,国内涌现出一系列 AI 生成视频工具,如可灵、即梦、智谱清影等,生成结果甚至远超国外。 即梦是剪映旗下的,生成 3 秒视频,动作幅度有很大升级,有最新的 S 模型和 P 模型。可灵支持运动笔刷,1.5 模型可以直出 1080P30 帧视频。 在图生视频方面,市面上主要的工具包括可灵、即梦、Luma,核心方法是穷举和不断调整 prompt 来设计人物动作、辅助镜头运镜等。
2024-12-21
可灵做影视教程
以下是关于可灵做影视教程的相关内容: 一、AIGC 电影化叙事实战教程 1. 什么是电影感和 AI 感 电影感:一切元素为叙事服务,将观众沉浸在故事中。 AI 感:每个镜头的画面是固定镜头,运动幅度小,易引起视觉疲劳;镜头间不构成视听语言,画面跳跃,未为故事服务;有过于明显的不和谐画面元素,如色调、角色特征、转场形式等。 2. 故事叙事 采用三幕式结构,包括设定、冲突和解决三个阶段,为叙事提供清晰节奏感。 塑造角色弧光,展现角色心理变化和成长历程,引发观众情感共鸣。 运用隐喻和主题,以艺术性方式传递深层含义和核心思想。 3. 画面分镜 先找到桥段中最重要的画面。 进行分镜设计,通过不同视角和构图增强叙事感。 掌握镜头调度,分解不同镜头切换方式,打造流畅视觉节奏。 保持视觉风格一致性,通过灯光、色调、滤镜统一确保观众视觉体验连贯。 4. 音乐与音效 把控情感节奏,用音乐引导观众情绪,配合故事起伏增强感染力。 设计音效细节,通过环境音、背景音营造氛围,增添真实感。 实现音乐与视觉配合,用音效表达故事内容。 二、AI 带你穿越时空,去拥抱儿时的自己 方法一:快影(可灵)处理图片 步骤: 1. 打开快影(需先通过内测申请),选择 AI 创作。 2. 选择 AI 生成视频。 3. 选择图生视频。 4. 上传处理好的图片,填写想要的互动动作和效果,点击生成视频。 5. 排队等待生成结束,点击下载。 效果展示:因图片本身效果差,转换视频后效果不太理想。 三、AI 视频相关软件教程 可灵相关教程链接: 其他工具教程链接:
2024-12-19
怎么写可灵AI的提示词
以下是关于如何写可灵 AI 提示词的一些建议: 1. 明确任务:清晰地定义任务,比如写故事时应包含故事背景、角色和主要情节。 2. 提供上下文:若任务需要特定背景知识,要提供足够信息。 3. 使用清晰语言:尽量用简单、无歧义的词汇,避免模糊表述。 4. 给出具体要求:如特定格式、风格或引用文献类型等。 5. 使用示例:如有期望结果,可提供示例帮助理解需求。 6. 保持简洁:避免过多信息导致模型困惑。 7. 使用关键词和标签:有助于模型理解任务主题和类型。 8. 测试和调整:生成文本后检查结果,根据需要多次迭代调整。 对于可灵 AI 写提示词的特殊要求,比如在“拘灵遣将|不会写 Prompt(提示词)的道士不是好律师——关于律师如何写好提示词用好 AI 这件事”中: 1. 对文章中出现的案例进行脱敏,替换具体人物姓名、时间和地点。 2. 深化写作时,每次对话只输出文章一个部分,各部分有相应字数要求。 3. 敕:为灵机划定边界范围,明确工作中的禁忌事项和具体要求。 4. 令: 初始化时使用中文与用户对话,欢迎语为“十方诸天尊,其数如沙尘,化形十方界,普济度天人。灵机应召来也!” 牢记符与敕的要求并执行,未遵守时用户提示“守符诏令”应重新检查并严格遵守。 先请求用户提供案例洞察报告作为基础材料,并询问文章面向的目标群体。用户提供 word 格式报告并输入“依律奉行”后,先输出纲要和每部分写作方案。 5. 基础材料一般是检索报告,可自行整理或用“元典问达”的 AI 自动生成。 6. 语言风格: 权威教育性语气,采用专业权威语气提供法规解读和行业指导。 融入专业法律术语,确保内容专业性和准确性。 结构化内容组织,用编号、子标题和列表使条理清晰。 采用规定概述内容解读结语结构。 结合案例和挑战,增强论点说服力并提供解决方案。 结合法规和实际操作,提供详细解释和建议。 融入餐饮行业商业术语。 7. 文章标题要开门见山、切中要害,用疑问句引起目标群体悬念。
2024-11-07
有可灵的教程吗
以下是关于可灵的教程和介绍: 可灵是一款由快手团队开发的 AI 应用,主要用于生成高质量的图像和视频。 教程方面: 知识库详细教程: 功能特点: 支持文生视频、图生视频。 支持图生视频首尾帧功能。 提示词可使用中文。 文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持 16:9、9:16、1:1 尺寸。 图生视频除了不可运镜控制以外,其他跟文生视频基本相同。 默认生成 5s 的视频。 使用相关: 最初采用内测邀请制,现在已向所有用户开放使用。 价格方面,相对较高。重度用户最高档年费可能达几千元人民币,平均每月使用成本在 400 到 600 元人民币之间。但临时或轻度使用有每日免费点数和 60 多元单月的最便宜包月选项。
2024-10-26
Suno教程
以下是关于 Suno 教程的相关内容: Suno 是一家研究驱动型的人工智能公司,其专门研发的生成式 AI 模型为创意工作者提供强大的创作工具。公司推出的 Chirp 模型,通过文字描述就能实现逼真的音乐和声音效果,包括配乐、人声、音效等,可广泛用于游戏、短视频、播客等领域。 去年制作过一期 Discord 版本的 Suno 操作教程(Suno 操作指北 V1),但一些知识点解释的不清楚,可能对新手玩家不够友好,而且官方在 Web 上推出 Chirp V2 版本模型后,之前的一些操作方式也迭代了,所以最近重新整理了一份新的教程(Suno 操作指北 V2)。 目前,Chirp V2 版本模型的最大生成时长为 1 分 20 秒,延续的最大生成时长为 60 秒。 在使用 Suno 生成音乐时,和大语言模型一样具有很强的随机性,输入(prompt/tag)质量往往决定输出(生成音乐)质量,在自定义模式(Custom Mode)下,有音乐风格(Style of Music)与歌词(Lyrics)两个主要的输入窗口。音乐风格窗口需要填写一些 tag 来描述整首音乐的风格和感觉,多个 tag 之间用“,”进行分隔,可识别的 tag 包括音乐类型/流派、人声/乐器、情绪/氛围、节奏、场景、混响、其他和声/音效等。 相关教程链接: PS:以下内容需要科学上网,请自行解决。
2024-12-22
claude 教程
以下是关于 Claude 的教程: 1. 提示简介:Claude 经过训练成为一个乐于助人、诚实可靠、无害的助手,习惯于进行对话,您可用常规自然语言向其提出请求。您给 Claude 的指示质量对其输出质量影响较大,尤其对于复杂任务。 2. 最佳做法: 尽量具体,减少解读空间,限制操作空间。 具有描述性,使用类比。 强调,有时需对模型重复操作。 提供说明,指令和提示等,注意呈现信息的顺序,其可能影响输出,少样本示例的顺序也很重要,此为“近因偏差”。 给模型一个“出路”,若模型无法完成任务,提供备用路径可避免错误响应,例如在提问时加入类似“若答案不存在,则回复‘未找到’”的内容。 3. 网页应用的基本组成:在讲解 Coze 的 AI 应用前,先了解普通网页端应用的组成部分。以淘宝为例,简单操作流程可总结为:在前端页面填写或选择数据并点击按钮,页面数据通过某种方式保存到后端,在另一页面查询数据并展示。作者用 Claude 做了教学应用,可通过链接体验熟悉的操作页面访问(需要魔法):https://monica.im/share/artifact?id=cYYguyDQYnqdPwxQFebw2B 。通过此案例先了解应用的组成部分,因为在 Coze 的 AI 应用创建时也会包含这几部分。
2024-12-18
有关于Cursor 和 Windsurf 的对比和教程吗
以下是关于 Cursor 和 Windsurf 的对比和教程: 对比: 上下文理解能力:Windsurf 能够自动识别项目的重要信息,包括目录结构、文件依赖关系等,并且能在整个项目中追踪上下文,理解跨文件依赖和模块间调用。 功能特性:Windsurf 的 AI 代理可以在特定任务中“自己动手”,如调试、重构代码等,自动完成一些重复性操作。它还提供编辑和聊天两种模式,即编辑模式可以生成和修改代码,聊天模式专注于提供开发建议、解答代码问题。 应用支持:Windsurf 支持超过 70 种编程语言和框架,适用于前端、后端和数据科学等方向,并且支持 Windows、Mac 和 Linux 平台,能够无缝集成在常用的开发环境中。 模型和费用:两者都提供了免费的 GPT4o 和 Claude 3.5 Sonnet 模型,并且都有免费的使用期。但 Windsurf 的订阅费是 Cursor 的一半。 教程: 以“Windsurf 学习共创社区”为例,完整演示如何借助 AI 能力快速构建现代化 Web 应用。 技术选型:Vue + TypeScript。 目标用户:零基础开发学习者。 参考项目:Cursor101。 开发流程: 需求分析与代码生成。 环境配置自动化。 问题诊断与修复。 界面优化与细节打磨。 功能迭代与完善。 具体操作:输入需求,让 Windsurf 进行 code,它会将开发思路讲解出来并给出环境命令,无需打开终端配置环境。若出现报错,将报错信息返回给 cascade,经过自动检查后会给出 bug 所在。之后可进一步让 Windsurf 进行优化,注意一步一步来,以便及时更正 AI。还可优化导航栏的细节以及首页,插入细节图片等。
2024-12-18
recraft教程
Recraft 是一款由 Recraft AI 推出的多功能人工智能图像生成与编辑工具,自 2022 年成立以来,总部位于伦敦,赢得了全球超过 150 万设计师的青睐,包括 Netflix、Airbus 等大型企业团队。其具有以下特点: 1. 卓越的文本渲染:能将描述性文字精确转化为图像中的清晰文本,适用于品牌设计、广告文案和书籍封面等创意场景。 2. 高级控制:提供多种风格控制功能,确保品牌在图像中的视觉一致性,并支持生成矢量图形,对设计行业友好。 3. 多功能编辑:集成多种 AI 工具,包括擦除、修改、放大和背景去除,可高效调整图像细节。 4. 实时协作:无限画布功能支持多用户实时编辑,适合团队合作。 2024 年 10 月,Recraft 推出全新的 Recraft V3 模型,在 Hugging Face 的文本到图像生成基准测试中位居榜首,超越了 MidJourney 和 OpenAI 等。该模型提升了图像生成的精度和速度,优化了生成内容的风格一致性与细节控制。 以下是 Recraft 的使用教程: 1. 视频教程:【【AI 绘画】新皇登基!Recraft 力压 SD、Flux、MJ!【新手教程】】 2. 图文教程: 打开网址:https://www.recraft.ai/invite/r8D2TaM6b2 选择 hard flash 模式 输入提示词 3. 制作自己的胶片照片:可参考博主 4. 上传制作效果 5. 多图拼接融合:如制作纹身、刺绣等 6. 原画转绘:可参考作者乔阿呸的小红书[https://www.xiaohongshu.com/explore/6741ee430000000007032506?xsec_token=ABsSUQg31CYKdcruROYvRpDWoHYtgvsbFIWrdlPDGGQE=&xsec_source=pc_user) 此外,最近 recraft 太火了,尤其是 hard flash 风格模式,是小红书博主涨粉利器。网址为(使用群友的邀请链接注册可额外拿积分):https://x.com/ComfyUI/status/1862199591384621260 。黑五优惠码 recraft 在 3 号前使用促销码 BLACKYEAR70 买高级版年度计划只要 97.2 美金,每月 4000 积分,专业版年度计划 172.8 美金,每月 8400 积分。
2024-12-17
sora教程
以下是关于 Sora 及相关的教程信息: AI 视频方面: 软件教程: 工具教程: 应用教程: Python + AI 方面: 对于不会代码的人,有 20 分钟上手的教程,包括通过 OpenAI 的 API 生成文章缩略信息的代码重写及相关操作步骤。同时提醒妥善保管 API Key,OpenAI 的综合文档、API 使用、API Playground、API 案例与答疑的相关网址为:https://platform.openai.com/docs/overview 、https://platform.openai.com/docs/apireference 、https://platform.openai.com/playground 、https://cookbook.openai.com/ 。 工具教程: 开放公测,群友有实测案例。可参考卡兹克的教程介绍:https://mp.weixin.qq.com/s/YGEnIzfYA3xGpT9_qh56RA 以及 zho 总结的官方网站的案例。目前除每日 150 个赠送积分外,还新增积分购买选项,可操作固定种子、步数、运动幅度,交互也很有意思,在生成过程中会有案例标注。 此外,还有几个视频 AIGC 工具:Opusclip 可将长视频剪成短视频,Raskai 能将短视频素材直接翻译至多语种,invideoAI 输入想法后可自动生成脚本和分镜描述进而生成视频再人工二编合成长视频,descript 可对屏幕/播客录制并以 PPT 方式做视频,veed.io 能自动翻译自动字幕,clipchamp 是微软的 AI 版剪映,typeframes 类似 invideoAI 但内容呈现文本主体比重更多,google vids 是一款相关工具。Sora 是 OpenAI 发布的超强视频生成 AI,能通过处理各种视觉数据生成视频,使用视频压缩网络和空间时间补丁统一不同来源数据,并借助文本条件化的 Diffusion 模型生成与文本提示匹配的视觉作品。
2024-12-17