Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

recraft教程

Answer

以下是关于 recraft 的教程:

Remix - 重组:

  1. 使用过程:
    • Step 1:line-art stack of pumpkins
      • 打开 Remix 模式。
      • 选择图片进行 Remix。
    • Step 2:Remix
      • 选择“Make Variations.”
      • 在弹出框中添加或修改提示词。
    • 结果:pile of cartoon owls
      • 使用新的提示和原始图像来生成一幅图像。
    • 不同程度的调整示例:Medium Change
    • 结合参数使用 Remix:
      • 在使用 Remix 模式时,可以添加或删除参数,但必须使用有效的参数组合。比如:将/imagine prompt illustrated stack of pumpkins --version 3 --stylize 10000 更改为 illustrated stack of pumpkins --version 4 --stylize 10000 会返回错误,因为 Midjourney Model Version 4 与 Stylize 参数不兼容。
      • 使用 Remix 与参数结合可用对比:
        • ||初始生成|点击 Variations 后添加 Remix|
        • |-|-|-|
        • |Aspect Ratio*|✓|✓|
        • |Chaos|✓||
        • |Image Weight|✓||
        • |No|✓|✓|
        • |Quality|✓||
        • |Seed|✓||
        • |Same Seed|✓||
        • |Stop|✓|✓|
        • |Stylize|✓||
        • |Tile|✓|✓|
        • |Video|✓|✓|
      • 使用 Remix 改变宽高比将会将图像拉伸。并不会扩展画布,添加丢失的细节或修复错误。

悠船基础使用教程:

  1. 图片调整:
    • 这里我们点击进入对应的图片,常用的内容主要是变化、高清、重塑、扩图。
    • 变化:让生成的图片产生一定改变,细微就是改变幅度很小,强烈就是很大。
    • 高清:放大图片,“直接”表示啥都不变,直接出高清,“创意”表示在图片基础上进行微小的优化调整。
    • 风格变化:基于生成的图片作为上传图片(垫图)再创作。
    • 拓展:上下左右拓展图片。
    • 缩放:指的是镜头,比如 2x 就是镜头拉远 2 倍。
    • 局部重绘:可以选择一个区域改成想要的,建议选择区域要大一些,太小的无法进行修改。
    • 使用图片,就是垫图,用这张图;使用风格,就是参考这张图的风格;使用提示词,就是复制这个图片的提示词。
  2. 图像参考:
    • 在悠船中可以利用垫图和提示词配合生成符合要求的建筑、风景、文物等。只需要将图片复制到悠船的提示词款里面,还需要填写对应的提示词描述。

小田:视频转绘制作视频过程中不可或缺的一环 - 转绘教程(Ebsynth Utility):

  1. 批量跑图脚本设置:
    • 当对关键帧的图片试验完毕得到满意画面时,需要进行批量跑图。来到图生图界面点击最下面的脚本按钮。
    • 选择 Ebsynth Utility 这个脚本。
    • 会看到很多参数,只需要简单操作。
    • 第一个必须要填写对应的工程文件路径,这个路径和之前在插件填写的路径一致。
    • 接下来一个选项要注意,即 Mask option 这个选项。这个选项控制是否使用蒙版,简单说就是是否只需要重绘主体部分,需要使用蒙版就维持默认参数不修改,如果不想使用蒙版就重绘所有画面,把参数调整成相应参数。
    • 下面的参数是 ControlNet 配置,可以不用管它保持默认参数。
    • 配置脸部裁切:这个配置默认是关闭的,开不开可以自己决定,试验下来开了以后可以明显改善一下面部崩坏的情况。
    • 这里几个参数大致说一下:
      • Face Detection method:面部裁切选择(不需要动使用默认的即可)。
      • Face Crop Resolution:面部裁切分辨率(一般给 512 即可,可以适当缩小或者放大)。
      • Max Crop Size:最大裁切尺寸(保持默认)。
      • Face Denoising Strength:人脸去噪程度(如果本来画面不清晰可以稍微拉高一点)。
      • Face Area Magnification:面部放大倍数(设置越大处理越费时间)。
    • 至于这个选项,如果开启了则会按照下方的提示词来对裁切后的面部进行重绘。好了到这里所有的参数都设置完成了点击生成按钮,耐心等待。最后会在工程文件夹中生成一个 img2img_key 的一个文件夹。
Content generated by AI large model, please carefully verify (powered by aily)

References

Remix-重组

line-art stack of pumpkins打开Remix模式.选择图片进行Remix.[heading3]Step 2[content]Remix选择"Make Variations."在弹出框中添加或修改提示词[heading3]结果[content]pile of cartoon owls使用新的提示和原始图像来生成一幅图像[heading3]不同程度的调整示例:[content]Medium Change[heading3]结合参数使用Remix[content]You can add or remove[Parameters](https://docs.midjourney.com/parameter-list)while using Remix mode,but you must use valid parameter combinations.Changing /imagine prompt illustrated stack of pumpkins --version 3 --stylize 10000 to illustrated stack of pumpkins --version 4 --stylize 10000 will return an error because Midjourney Model Version 4 is incompatible with the Stylize parameter.Only parameters that normally influence variations will work while using Remix:在使用Remix模式时,可以添加或删除参数,但必须使用有效的参数组合。比如:将/imagine prompt illustrated stack of pumpkins --version 3 --stylize 10000更改为illustrated stack of pumpkins --version 4 --stylize 10000会返回错误,因为Midjourney Model Version 4与Stylize参数不兼容。使用Remix与参数结合可用对比:||初始生成|点击Variations后添加Remix|<br>|-|-|-|<br>|Aspect Ratio*|✓|✓|<br>|Chaos|✓||<br>|Image Weight|✓||<br>|No|✓|✓|<br>|Quality|✓||<br>|Seed|✓||<br>|Same Seed|✓||<br>|Stop|✓|✓|<br>|Stylize|✓||<br>|Tile|✓|✓|<br>|Video|✓|✓|使用Remix改变宽高比将会将图像拉伸。并不会扩展画布,添加丢失的细节或修复错误。

悠船基础使用教程

这里我们点击进入对应的图片,我们常用的内容,主要是变化,高清,重塑,扩图。1.变化-让你生成的图片产生一定改变,细微就是改变幅度很小,强烈就是很大2.高清-放大你的图片,「直接」表示啥都不变,直接出高清,「创意」表示在你图片基础上进行微小的优化调整3.风格变化-基于你产生的这张图片作为上传图片(垫图)再创作4.拓展-上下左右,拓展图片5.缩放-指的是镜头,比如这个2x,就是镜头拉远2倍)6.局部重绘-就是你可以选择一个区域改成你要的这边建议选择区域要大一些,太小的无法进行修改1.使用图片,就是垫图,用这张图;使用风格,就是参考这张图的风格;使用提示词,就是复制这个图片的提示词[heading5]图像参考:[content]再悠船中我们可以利用垫图和提示词配合生成符合要求的建筑,风景,文物等。那么具体怎么操作呢?我们来看一下。这里我们只需要将上面的图片复制到悠船的提示词款里面就可以了。这里还需要我们填写对应的提示词描述

小田:视频转绘制作视频过程中不可或缺的一环

当我们对关键帧的图片试验完毕后的得到了满意的画面的时候我们就需要进行批量跑图了,这里我们来到图生图界面点击最下面的脚本按钮选择Ebsynth Utility这个脚本你会看到有很多参数,不用担心这里只需要简单的操作一下就可以了。第一个我们必须要要填写对应的工程文件路径这个路径和我们之前在插件填写的路径是一致的。接下载一个选项我们要注意一下就是Mask option这个选项。这个选项是控制是否使用蒙版,简单来讲就是是否只需要重绘主体部分这里如果我们需要使用蒙版就维持默认参数不修改如果你说你不想使用蒙版就像重绘所有画面,那这里把参数调整成如下参数或者将参数修改成这样好的我们再往下面看,下面的参数就是ControlNet配置这里可以不用管它保持默认参数就可以了。这两个配置一般不操作也可以保持默认感兴趣的小伙伴可以自行尝试一下哈~在过来配置脸部裁切这个配置默认是关闭的,但是开不开可以自己决定,我试验下来是开了以后可以明显改善一下面部崩坏的情况。这里几个参数大致说一下。Face Detection method:面部裁切选择(这个不需要动使用默认的即可)Face Crop Resolution:面部裁切分辨率(这里一般给512即可可以适当缩小或者放大)Max Crop Size:最大裁切尺寸(保持默认)Face Denoising Strength:人脸去噪程度(如果本来画面不清晰可以稍微拉高一点)Face Area Magnification:面部放大倍数(设置越大处理越废时间)至于这个选项如果开启了则会按照你下方的提示词来对裁切后的面部进行重绘。好了到这里所有的参数都设置完成了点击生成按钮。耐心等待就好了~。最后会在你的工程文件夹中生成一个img2img_key的一个文件夹

Others are asking
recraft教程
Recraft 是一款由 Recraft AI 推出的多功能人工智能图像生成与编辑工具,自 2022 年成立以来,总部位于伦敦,赢得了全球超过 150 万设计师的青睐,包括 Netflix、Airbus 等大型企业团队。其具有以下特点: 1. 卓越的文本渲染:能将描述性文字精确转化为图像中的清晰文本,适用于品牌设计、广告文案和书籍封面等创意场景。 2. 高级控制:提供多种风格控制功能,确保品牌在图像中的视觉一致性,并支持生成矢量图形,对设计行业友好。 3. 多功能编辑:集成多种 AI 工具,包括擦除、修改、放大和背景去除,可高效调整图像细节。 4. 实时协作:无限画布功能支持多用户实时编辑,适合团队合作。 2024 年 10 月,Recraft 推出全新的 Recraft V3 模型,在 Hugging Face 的文本到图像生成基准测试中位居榜首,超越了 MidJourney 和 OpenAI 等。该模型提升了图像生成的精度和速度,优化了生成内容的风格一致性与细节控制。 以下是 Recraft 的使用教程: 1. 视频教程:【【AI 绘画】新皇登基!Recraft 力压 SD、Flux、MJ!【新手教程】】 2. 图文教程: 打开网址:https://www.recraft.ai/invite/r8D2TaM6b2 选择 hard flash 模式 输入提示词 3. 制作自己的胶片照片:可参考博主 4. 上传制作效果 5. 多图拼接融合:如制作纹身、刺绣等 6. 原画转绘:可参考作者乔阿呸的小红书[https://www.xiaohongshu.com/explore/6741ee430000000007032506?xsec_token=ABsSUQg31CYKdcruROYvRpDWoHYtgvsbFIWrdlPDGGQE=&xsec_source=pc_user) 此外,最近 recraft 太火了,尤其是 hard flash 风格模式,是小红书博主涨粉利器。网址为(使用群友的邀请链接注册可额外拿积分):https://x.com/ComfyUI/status/1862199591384621260 。黑五优惠码 recraft 在 3 号前使用促销码 BLACKYEAR70 买高级版年度计划只要 97.2 美金,每月 4000 积分,专业版年度计划 172.8 美金,每月 8400 积分。
2024-12-17
recraft 的使用技巧
以下是关于 Recraft 使用技巧的相关内容: Recraft 是由 Recraft AI 推出的多功能人工智能图像生成与编辑工具,自 2022 年成立,总部位于伦敦,受到全球超过 150 万设计师的青睐,包括 Netflix、Airbus 等大型企业团队。 其具有以下卓越功能: 卓越的文本渲染:能将描述性文字精确转化为图像中的清晰文本,适用于品牌设计、广告文案和书籍封面等创意场景。 高级控制:提供多种风格控制功能,确保品牌在图像中的视觉一致性,并支持生成矢量图形,对设计行业友好。 多功能编辑:集成多种 AI 工具,包括擦除、修改、放大和背景去除,便于调整图像细节。 实时协作:无限画布功能支持多用户实时编辑,适合团队合作。 2024 年 10 月,Recraft 推出全新的 Recraft V3 模型,在 Hugging Face 的文本到图像生成基准测试中以 1172 分位居榜首,超越了 MidJourney 和 OpenAI 等,提升了图像生成的精度和速度,优化了生成内容的风格一致性与细节控制。 关于 Remix 的使用: 在使用 Remix 模式时,可以添加或删除参数,但必须使用有效的参数组合。比如将/imagine prompt illustrated stack of pumpkins version 3 stylize 10000 更改为 illustrated stack of pumpkins version 4 stylize 10000 会返回错误,因为 Midjourney Model Version 4 与 Stylize 参数不兼容。 只有通常影响变化的参数在使用 Remix 时才有效,如 Aspect Ratio、Chaos、Image Weight、No、Quality、Seed、Same Seed、Stop、Stylize、Tile、Video 等。使用 Remix 改变宽高比将会将图像拉伸,并不会扩展画布、添加丢失的细节或修复错误。 在 Udio 中: Udio 具有混音功能,混音是现有剪辑的微妙或不那么微妙的变化。要创建混音,首先选择适当的曲目(目前只能重新混合 30 首曲目),然后在曲目页面或上下文菜单中单击“重新混合”。 与标准创建模式相比,提示框中新增了一个区域。左侧与扩展模式的原始剪辑区域相同,右侧的滑块允许控制混音效果(方差)的强度。滑块在最左侧时,混音不改变原始音频,向右移动(设置滑块位置后单击“重新混合”)效果更明显,某些方面开始改变。强度低值主要影响细节,而保持原始的整体结构和和谐。强度高值会引入更显著的变化,滑块最右侧位置的结果与原始剪辑几乎没有相似之处。
2024-11-29
recraft好用么?
Recraft 是一款好用的创新生成式 AI 设计工具。它具有以下优点: 能够让用户以一致的品牌风格创作和编辑数字插画、矢量艺术、图标及 3D 图形。 用户上传一张图片,它便能以相似风格快速生成图像。 提供精准的颜色控制功能,可轻松将一组颜色重新调色以符合品牌色彩方案。 AI 工具箱功能强大,能帮助用户从文本或视觉素材出发,数分钟内制作出精致设计作品。 利用套索工具可对设计进行编辑和重绘,实现细致调整和个性定制。 提供无限画布,可自由创作多幅图像、添加文本、拖放元素。 汇集众多艺术家和 AI 设计师,为用户提供灵感和创意源泉。 其链接为:https://www.recraft.ai/
2024-11-14
trae教程
以下是关于 Trae 的相关教程: Trae 简介: Trae 是一款与 AI 深度集成,提供智能问答、代码自动补全以及基于 Agent 的 AI 自动编程能力的 IDE 工具。对中文用户更加友好。 Trae 的特点: 1. Trae Windows 版本已于 2 月 17 日 9:00 全量上线,即日起全系统可用。 2. 标配 Claude3.5sonnet 模型免费不限量,而竞品工具同一模型每月 140 大洋且限量使用 500 次。 3. Trae 编辑器所有功能原生支持中文,上手门槛大大降低。 上手教程: 1. 安装:前往,将 Trae 安装至电脑,然后启动。 2. 初始设置: 首次启动时,点击开始按钮,进入初始配置流程。 选择主题(暗色、亮色和深蓝)和显示语言(简体中文和 English),然后点击继续按钮。 3. 从 VS Code 或 Cursor 中导入配置:若电脑中已安装并配置 VS Code 或 Cursor,可以点击从 VS Code 导入或从 Cursor 导入按钮,系统会获取相关信息并一键导入到 Trae 中。添加 Trae 相关的命令行后,可在终端中使用命令行更快速地完成 Trae 相关的操作。 4. 登录:需要登录 Trae 以使用 AI 能力,提供了 Google 账号登录、Github 账号登录、邮箱登录三种方式。若没有账号,也可新注册一个账号。 5. 项目操作:打开已有的项目或克隆 Git 仓库,详情参考《》。 此外,为了让大家更好地掌握,还建立了一个 AI 编程训练营的群,接下来两周会带大家一步步入门,会发布包含图文教程、视频、直播的内容,社群内有老师答疑,完全免费。并且,作者给大家演示了 4 个“看了就能上手”的小案例教程,可以跟着制作。
2025-02-18
通义灵码教程
以下是关于通义灵码的教程: 1. 通义灵码安装:在 vscode 中安装通义灵码,包括在应用商店搜索、安装及相关设置。 2. vscode 界面介绍:讲解新下载 vscode 后的界面,如文件操作、左侧栏功能、搜索功能等,重点指出初级阶段需了解的三个点。 3. 通义灵码拖动:演示将通义灵码从左侧拖动至右侧的操作,此操作基于个人习惯,不拖也不影响使用。 4. 活动回顾与目标:回顾第一节课关于 AI 编程的理解、能力边界、表达需求等内容,明确本次活动目标为完成新年接福小游戏。 5. 复刻新年接福小游戏的流程与方法: 明确目标:确定制作小游戏的目的,如为课程增添趣味性。 绘制原型:将想法具象化,画出游戏页面框架,如开始页、游戏中财宝掉落和用户操作等。 准备素材:寻找合适的图片完善游戏画面,如背景图、财宝和人物形象等。 清晰表达:把需求准确表述给 AI 程序员,如创建文件夹、在特定位置编辑需求等。 利用工具:使用 AI 程序员和相关编程工具实现游戏开发。 此外,通义灵码是阿里巴巴团队推出的一款基于通义大模型的智能编程辅助工具,提供行级/函数级实时续写、自然语言生成代码、单元测试生成、代码注释生成、代码解释、研发智能问答、异常报错排查等能力。在 Pytharm 中,通过“文件”“设置”“插件”红色框位置搜索“通义灵码”进行安装(目前免费)。
2025-02-17
有没有lora怎么使用的教程
以下是关于 Lora 使用的教程: 1. 港风胶片 Lora 模型使用方法: 方法 1:利用上一期活动图片反推工作流,使用唯美港风图片进行反推提示词,在大模型后接一个墨悠_胶片 Lora。上一期活动链接:。胶片 Lora 链接:https://www.liblib.art/modelinfo/e16a07d8be544e82b1cd14c37e217119?from=personal_page 方法 2:利用抱脸的 joycaption 图片反推提示词,然后在哩布上跑 flux 文生图工作流。 joycaption 链接(需要魔法):https://huggingface.co/spaces/fancyfeast/joycaptionprealpha 文生图工作流: 在哩布上跑文生图:https://www.liblib.art/modelinfo/e16a07d8be544e82b1cd14c37e217119?from=personal_page 2. Comfyui SDXLLightning 中 Lora 的使用: SDXLLightning 是字节跳动推出的高速文本生成图像模型,包含完整的 UNet 和 LoRA 检查点。用户可以使用 Diffusers 和 ComfyUI 等框架进行配置。模型地址:https://huggingface.co/ByteDance/SDXLLightning/tree/main 。 实际使用时,拿 Lora 的使用来做介绍,使用方法和平常的 Lora 用法一样,但需要注意 CFG 值需要调小,一般设置为 1,另外步数设置根据使用的 Lora 步数为准。 3. Stable Diffusion 中 Lora 的使用: 当想要生成多张同一张脸的照片时,需要用到 Lora 模型。Lora 可以固定照片的特征,如人物特征、动作特征、照片风格。 点击“生成”下面的第三个按钮,弹出新的选项框,找到 Lora,就会出现下载保存到电脑的 Lora 模型。 点击要用的 Lora,会自动添加到关键词的文本框里面。Lora 可以叠加使用,但建议新手不要使用太多 Lora,每个 Lora 后面的数字用于调整权重,一般只会降低权重。 选择 Lora 时,要根据最开始想要生成的照片类型来选择,比如想生成真人模特,对应的 Lora 也要选用真人模特。
2025-02-17
帮我找一些具有文件上传功能的AI智能体或应用的搭建教程
以下是一些具有文件上传功能的 AI 智能体或应用的搭建教程: 使用 Coze 搭建: 方法一:直接使用 Coze 的 API 对接前端 UI 框架,将工作流逻辑集中在工程模板端,实现前后端分离的处理方式。 方法二:直接调用大模型 API,并通过前端代码实现提示词处理和逻辑控制,将交互流程完全放入前端代码中。 实现文件上传:通过 Coze 的,用户可将本地文件上传至 Coze 的云存储。在消息或对话中,文件上传成功后可通过指定 file_id 来直接引用该文件。 Coze 的 API 与工作流执行:关于 API 的使用及工作流执行流程可以参考。 设计界面:搭建 Demo 最简单的方式是首先绘制草图,然后借助多模态 AI 工具(如 GPT/Claude)生成初步的前端结构代码。前端开发语言包括 HTML 用于构建网页基础框架,定义整体页面结构;CSS 负责网页布局样式美化;JavaScript 实现交互逻辑,如信息处理、网络请求及动态交互功能。 Stuart 教学 coze 应用中的“上传图片”: 传递上传图片地址:首先,把工作流的入参设置为 File>Image。然后,注意代码内容,其中 ImageUpload1 部分是可以替换成实际的文件上传组件的组件名称的,一个引号,一个大括号都不能错。 获得图片 URL:接下来就比较简单了,工作流中可以直接用这个 image 变量,也可以用 string 模式输出,它会在工作流中变成图片的 URL。 无企业资质也能 coze 变现: 以 API 形式链接 Zion 和 Coze:同理也可以为 dify、kimi 等给任何大模型&Agent 制作收费前端。参考教程: 自定义配置:变现模版 UI 交互、API、数据库等拓展功能,支持在 Zion 内自由修改,可参考文档配置。相关链接:支付: 微信小程序变现模版正在开发中,不久将会上线。目前实现小程序端可以通过 API 形式搭建。 Zion 支持小程序,Web,AI 行为流全栈搭建,APP 端全栈搭建 2025 上线。
2025-02-16
帮我查找关于文件上传的智能体搭建教程 、
以下是关于文件上传的智能体搭建教程: 1. 上传文档至知识库: 点击【上传知识】按钮,进入知识上传和配置页面。 上传文档文件或 URL 导入。 上传文档类知识:支持上传 pdf(建议)、doc/docx、ppt/pptx、xlsx、csv、txt、md 等类型的文档,当前文档默认上传大小不超过 50M。对于本地化部署的知识库,可通过配置文件调整此限制。 可以添加 URL 类知识:支持添加多个 url 链接,添加后将会至网页中抓取静态内容,当前暂不支持下钻抓取其他网页的内容;手动点击更新后将会从网页上重新爬取内容(仅包含静态网页内容,不可下钻爬取内容)。若企业自有网站会做知识的动态更新,可以手动快速同步到清流平台上。 配置知识的切片方式:切片类型选择当前系统会根据解析的知识类型自动选择,若想了解更多信息,可至【进阶功能】【文档切片调优】处查看。设置支持配置图片处理方式和自定义切片方式,了解更多信息,可至【进阶功能】【文档切片调优】、【图片解析】处查看。 知识预览:根据选择的知识类型,展示预览内容方便查看切片效果。 2. 知识处理学习:配置完成后知识将进入数据处理中状态,主要对知识进行解析、切片和向量化处理,此时耐心等待数据处理完成即可。
2025-02-16
coze教程
以下是关于 Coze 教程的相关内容: 可能是全网最好的 Coze 教程之一,能一次性带您入门 Coze 工作流。即使是非技术出身的爱好者也能上手跟学,一站式学会 AI Agent 从设计到落地的全流程方法论。 阅读指南: 长文预警,请视情况收藏保存。 核心看点: 通过实际案例逐步演示,用 Coze 工作流构建一个能够稳定按照模板要求,生成结构化内容的 AI Agent。 开源 AI Agent 的设计到落地的全过程思路。 10+项常用的 Coze 工作流的配置细节、常见问题与解决方法。 适合人群: 任何玩过 AI 对话产品的一般用户(如果没用过,可以先找个国内大模型耍耍)。 希望深入学习 AI 应用开发平台(如 Coze、Dify),对 AI Agent 工作流配置感兴趣的爱好者。 注:本文不单独讲解案例所涉及 Prompt 的撰写方法。文末「拓展阅读」中,附有相关 Prompt 通用入门教程、Coze 其他使用技巧等内容,以供前置或拓展学习。 此外,还有以下关于 Coze 的介绍: Coze 是新一代一站式 AI Bot 开发平台。无论是否有编程基础,都可以在 Coze 平台上快速搭建基于 AI 模型的各类问答 Bot,从解决简单的问答到处理复杂逻辑的对话。并且,可以将搭建的 Bot 发布到各类社交平台和通讯软件上,与这些平台/软件上的用户互动。 个人认为:Coze 是字节针对 AI Agent 这一领域的初代产品,在 Coze 中将 AI Agent 称之为 Bot。字节针对 Coze 这个产品部署了两个站点,分别是国内版和海外版。 国内版: 网址:https://www.coze.cn 官方文档教程:https://www.coze.cn/docs/guides/welcome 大模型:使用的是字节自研的云雀大模型,国内网络即可正常访问。 海外版: 网址:https://www.coze.com 官方文档教程:https://www.coze.com/docs/guides/welcome 大模型:GPT4、GPT3.5 等大模型(可以在这里白嫖 ChatGPT4,具体参考文档:),访问需要突破网络限制的工具。 参考文档:https://www.coze.com/docs/zh_cn/welcome.html AI Agent 的开发流程: Bot 的开发和调试页面布局主要分为如下几个区块:提示词和人设的区块、Bot 的技能组件、插件、工作流、Bot 的记忆组件、知识库、变量、数据库、长记忆、文件盒子、一些先进的配置、触发器(例如定时发送早报)、开场白(用户和 Bot 初次对话时,Bot 的招呼话语)、自动建议(每当和 Bot 一轮对话完成后,Bot 给出的问题建议)、声音(和 Bot 对话时,Bot 读对话内容的音色)。下面会逐一讲解每个组件的能力以及使用方式。
2025-02-16