Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

你和GPT4o、MJ、suno有什么区别呢

Answer

GPT-4o 能快速返回答案,但可能存在错误且无法自动纠错。

o1 推理模型在给出最终结果前会反复推演和验证,耗时更长但结果更准确,o1 Pro 计算时间更长,推理能力更强,适合复杂问题。

MJ (Midjourney)是一款专注于生成图像的工具。

Suno 相关的特点未在提供的内容中有明确提及。

由于不清楚您提到的“Suno”的具体情况,无法给出更详细的对比。但总体来说,不同的工具在功能、性能、适用场景等方面存在差异。

Content generated by AI large model, please carefully verify (powered by aily)

References

宝玉 日报

亮点:AI生成图片时可加入中文文字,提升应用场景多样性。示例场景:教孩子古诗时生成配图加文字,让学习更有趣。春节生成春联配图,增加节日氛围。制作漫画、梗图等内容,释放创意潜力。**关键点:**文生图支持文字后,AI创作更关注想象力而非技术。🔗[https://x.com/dotey/status/1864975649430966362](https://x.com/dotey/status/1864975649430966362)5⃣️🤖o1推理模型:从“快思考”到“慢思考”特性:o1模型在给出最终结果前会反复推演和验证,就像围棋高手在算棋。区别:GPT-4o:快速返回答案,但可能错误,且无法自动纠错。o1:支持回溯推理,耗时更长但结果更准确。o1 Pro:计算时间更长,推理能力更强,适合复杂问题。应用案例:o1 Pro成功完成《纽约时报》“Connections”文字游戏,这曾是GPT-4o无法解决的任务。**趋势:**未来算力的重点将从训练模型转向增强推理能力。🔗[https://x.com/dotey/status/1865890371722440734](https://x.com/dotey/status/1865890371722440734)6⃣️🎥OpenAI发布会:Sora v2功能公布新版亮点:生成1分钟长度的视频。支持文字转视频、文字加图片转视频、文字加视频转视频。提升多媒体创作灵活性,为用户提供更多创意选择。

Others are asking
免费试用chatgpt4o
ChatGPT 4o 于 5 月 13 日发布后引起热潮,目前 ChatGPT 官网有 3 个版本,分别是 GPT3.5、GPT4 和 ChatGPT 4o。发布会上称 ChatGPT 4o 可以免费体验,但次数有限。 GPT3.5 为免费版本,拥有 GPT 账号即可使用,但其智能程度不如 GPT4o,且无法使用 DALL.E3 等插件。ChatGPT 3.5 的知识更新到 2022 年 1 月,ChatGPT 4o 的知识更新到 2023 年 10 月,ChatGPT 4 则更新到 2023 年 12 月。 想要更多功能更智能的 GPT4o 需升级到 PLUS 套餐,收费标准为 20 美金一个月,GPT4 还有团队版和企业版,费用更贵,一般推荐使用 PLUS 套餐。 以下是安卓系统安装、订阅 GPT4 的教程: 1. 安装 Google Play:到小米自带的应用商店搜索 Google Play 进行安装,安装好后打开,按提示登录。 2. 下载安装 ChatGPT:在谷歌商店搜索“ChatGPT”进行下载安装,开发者是 OpenAI。可能会遇到“google play 未在您所在的地区提供此应用”的问题,可通过在 Google Play 点按右上角的个人资料图标,依次点按:设置>常规>帐号和设备偏好设置>国家/地区和个人资料,添加国内双币信用卡,地区选美。若仍搜不到,可卸载重装 Google Play 并保持梯子的 IP 一直是美。 3. 体验 ChatGPT:若只想体验 ChatGPT 3.5 版本,不升级 GPT4,直接登录第二部注册好的 ChatGPT 账号即可。 4. 订阅 GPT4 Plus 版本:先在 Google play 中的【支付和订阅】【支付方式】中绑定好银行卡,然后在 ChatGPT 里订阅 Plus。
2024-11-19
gpt4o视觉模型
GPT4o 是 OpenAI 推出的模型。开发人员现在可在 API 中将其作为文本和视觉模型进行访问。与 GPT4 Turbo 相比,具有速度快 2 倍、价格减半、速率限制高出 5 倍的优势。未来几周计划向 API 中的一小群受信任的合作伙伴推出对其新音频和视频功能的支持。 GPT4o(“o”代表“omni”)是迈向更自然人机交互的一步,能接受文本、音频和图像的任意组合作为输入,并生成文本、音频和图像输出的任意组合。它在 232 毫秒内可响应音频输入,平均为 320 毫秒,与人类响应时间相似。在英语文本和代码上的 GPT4 Turbo 性能相匹配,在非英语语言的文本上有显著改进,在 API 中更快且便宜 50%,在视觉和音频理解方面表现出色。 在 GPT4o 之前,语音模式由三个独立模型组成的管道实现,存在信息丢失等问题。而 GPT4o 是在文本、视觉和音频上端到端训练的新模型,所有输入和输出都由同一个神经网络处理,但对其能做什么及局限性仍在探索。
2024-11-14
GPT4o能免费用几次
ChatGPT 4o 可以免费体验,但免费体验次数很有限。截至 2024 年 5 月 13 日,Plus 用户在 GPT4o 上每 3 小时最多发送 80 条消息。免费套餐的用户将默认使用 GPT4o,且使用 GPT4o 发送的消息数量受到限制,具体数量会根据当前的使用情况和需求而有所不同。当不可用时,免费层用户将切换回 GPT3.5。
2024-10-26
chatgpt4o免费的模型和付费的模型有什么区别
ChatGPT 免费的模型(如 GPT3.5)和付费的模型(如 GPT4o 的 PLUS 套餐)主要有以下区别: 1. 知识更新时间:ChatGPT 3.5 的知识更新到 2022 年 1 月,ChatGPT 4o 的知识更新到 2023 年 10 月,而 ChatGPT 4 更新到 2023 年 12 月。 2. 智能程度:GPT3.5 的智能程度明显低于 GPT4o。 3. 功能:GPT3.5 无法使用 DALL.E3(AI 画图功能)、GPTs 商店和高级数据分析等插件。 4. 费用:想要使用更多功能更智能的 GPT4o 需要升级到 PLUS 套餐,收费标准是 20 美金一个月。GPT4 还有团队版企业版,费用更贵,一般推荐使用 PLUS 套餐即可。 此外,ChatGPT 4o 发布后,虽称可免费体验,但免费体验次数很有限。
2024-10-26
如何连接GPT4o
以下是连接 GPT4o 的方法: 1. 对于 ChatGPT Mac 客户端: 下载地址:persistent.oaistatic.com/sidekick/public/ChatGPT_Desktop_public_latest.dmg 使用 Proxyman、Charles 或您喜欢的网络代理来进行以下操作(需要有 ChatGPT 付费账号,以及网络技术基础):以 ProxyMan 为例 登录一次以触发 API 调用 对 ChatGPT 的 App 启用 SSL 代理(需要配置好 ProxyMan 证书) 再登录一次以触发 API 调用 然后右键点击 ab.chatgpt.com/v1/initialize 选择本地映射,并将所有的 false 替换为 true 再尝试一次,您就应该能顺利登录了。 详细版图文教程: 2. 对于安卓系统: 先在 Google play 中的【支付和订阅】【支付方式】中绑定好银行卡 然后在区 chatgpt 里订阅 Plus,操作如下截图 完成后即可开始使用 ChatGPT 4o
2024-08-18
gpt4o mini有关的文档
以下是关于 GPT4o mini 的相关文档信息: Open AI 发布了 GPT4o mini 模型。其 MMLU 得分为 82%,碾压其他同级别小模型。价格较低,为 0.15 美元/100 万 token 输入和 0.6 美元/100 万 token 输出,比 GPT3.5 Turbo 便宜超过 60%。具有 128k 的大上下文窗口,非常适合 RAG。GPT4o mini 在 API 中支持文本和图片,未来将支持文本、图像、视频和音频输入和输出。GPT4o mini 接替 3.5 成为 ChatGPT 中的免费模型,目前还不支持多模态,而且 4o mini 的 API 一旦涉及到图片 Token 数量也会大增。
2024-08-17
mj提示词
以下是关于 MJ 提示词的相关内容: 1. MidJourney 图片生成大师能够根据您的故事内容创作出全面的分镜提示词,包括分镜描述、人物描述、环境描述、氛围描述、灯光描述、色彩描述、构图描述、风格描述等。还会考虑您所使用的相机类型、摄影风格和镜头位置,您分享故事内容和具体需求即可获得专业服务。 2. 在提示词中,文本前置、后置等效果相近,过长的文本难以控制文本出现的位置,建议只要求 AI 生成部分主要文本内容,自行嵌字仍是当前最佳方法。加入引号“”包裹文本能达到 MJ 生成文字的效果,不必要特殊说明“生成一段文本......”等内容。MJ 能够自行判断文本应当存在的位置,会将文本安排在符合逻辑的位置上。后续有机会可进一步测试【局部重绘】能否控制文本在规定位置出现。总结来说,MJ 进行文本输出任务,提示词没有特别固定的语法结构,只需要认识其文本生成的能力范围和使用场景,即可高效应用 V6 模型生成有趣画面内容。 3. 让 Claude 出 MJ 提示词的提示词结构是:让大模型告诉你如何出 MJ 提示词效果会更好+让大模型出提示词+加上一些要求。先让大模型告诉你如何出 MJ 提示词效果会更好,因为大模型输出的过程也是思考的过程,所以对大模型循循善诱效果更好。对于有名的产品,如奔驰 E300L,每个出图的提示词都需包含“奔驰 E300L”。再加上一些要求,比如参数“ar 16:9”是要求 MJ 生成比例图片 16:9 的宽频图片,“q 2”是画面质量最高的参数。出 MJ 提示词还有更方便好用的办法,就是使用 chatgpt 里面的 gpts,如“Mid Journey V6 Prompt Creator”。可以理解为:chatgpt 是手机安卓系统,gpts 就是手机里的 app,不同的 gpts 能实现不同的功能,有的能绘画,有的能帮您总结文献,有的能生成更专业的 MJ 提示词。
2025-01-22
MJ中如何精准控制颜色
以下是关于在 Midjourney 中精准控制颜色的一些方法和相关信息: 1. 在使用 MJ 生成兔子贴纸的过程中,关键词中限制了颜色,生成的图片会一种情绪对应一种颜色。若不想让模型把情绪和颜色做挂钩,同一种情绪可多生成几张不同色系的;若需要挂钩,也可反其道而行之。 2. 进行 SD 上色时,正关键词主要前面添加了增加照片质感常用的+mj 生成线稿的关键词调整(去掉 mj 里线稿的关键词,一开始嘴巴效果不好,添加了张开嘴巴等关键词,颜色都是可以单独调整控制)+风格参数。负关键词看自己的效果添加,添加一切不想要的东西。 3. 在 MJ 的公式方面: 角色人物公式:人物姓名(命名)+描述词(重要描述词和人物特征描述词)+风格+官方命令词。 3D 公式:主体+描述词(重要描述词和物体特征描述词)+风格+灯光+官方命令词。 插画公式:主题描述词语+风格(风格名称或画家)+描述+颜色灯光+官方命令。 特定公式: 连续场景变化公式: 角色/场景公式:上传图片(喂图)+人物描写(融入其他场景需要关键词 white background,结合场景后换成 walking in a futuristic cyberpunk city)+场景风格描写+官方命令。 木偶公式:人物图片+场景+人物+动作+风格+官方命令。 等距粘土公式: 等距+物体+max emoji(表情符号),soft(柔和)lighting soft(柔和光线)pastel colors/pastel background(背景)+3Dicon+clay(粘土)+blender 3d+背景颜色=等距粘土物体。 安子布莱斯娃娃/也可以换成其他知道的娃娃名称+灯光/颜色/背景/材质+clay(粘土)+良奈吉友画风/或者其他名人风格=人。 3D 图标公式(未测试,可用):喂图(1~3 张相似的风格)+描述的 icon(和喂图一致的关键词)+颜色(和喂图颜色一致的)+渲染词+官方命令。 通用公式:角色/物体描述+背景描述+灯光风格+官方命令。
2025-01-17
请问如何学习MJ
以下是关于学习 Midjourney 的相关内容: 1. Midjourney 今天发布了模型个性化 Personalization 或'p'的早期测试版本。其工作原理是:每次写提示时,很多信息是“隐含的”,MJ 的算法通常会用社区的综合偏好填补空白,而模型个性化会学习您的喜好来填补空白。使用模型个性化的要求包括:目前从成对排名中的投票和喜欢的探索页面上的图像中学习,需要大约 200 个成对排名/喜欢才能生效,可在排名页面查看评分数量或在 Discord 上输入/info。使用方法为:在提示后输入p,或使用提示栏中的设置按钮为所有提示启用个性化功能,启用时会在提示后添加一个“代码”,可分享此代码让他人使用应用于该图像的个性化效果,还可以使用s 100 控制个性化效果的强度(0 为关闭,1000 为最大,100 为默认)。但需注意个性化目前不是稳定功能,会随更多成对排名而变化,且可能会推出算法更新。 2. 训练 Midjourney 的 prompt 流程:可以复制每一步,按照步骤跟 GPT 聊下去。原理是把 MJ 的官网说明书喂给 GPT,让它根据说明了解机制和结构,给出适合的提示词。 3. MJ 很长一段时间内依赖 discord 进行操作,可简单理解为一个微信群/钉钉群,群里有机器人,@它并给一段文字,它就会出图片。也可自己创建群组(服务器),把机器人拉进来对话创作。开始创作时@机器人,MJ 会返回 4 宫格图片。想要放大一张图,点击上面的 U 1——4,MJ 会发大图回来。或者看看其他风格,点击上面的 v 14,MJ 会返回新的 4 宫格。简单来说,步骤包括告诉 MJ 要什么,MJ 给 4 个不同风格小图,放大或再看其他风格,在这些图片基础继续处理。初学可能会有一些想法,比如第一次出图感觉不错,但再改可能难,此时设计师技能上线。以前除了氪金多练习没好办法,现在可以去离谱村进修。
2025-01-09
mj 学习教程
以下是一些关于 Midjourney(MJ)学习的教程资源: 理论学习方面: 生成式 AI 原理:李宏毅老师风格幽默风趣的课程,很好跟进。 AI 图原理:简单清晰的介绍 AI 生图。 实操方面: 喂饭级实操攻略: MJ 入门:15 分钟快速了解,MJ 的基础技巧,快速入门。 https://www.bilibili.com/video/BV1vm4y1B7gP/?spm_id_from=333.880.my_history.page.click&vd_source=afe0a1f0c730039635f99f5ee84c1276 https://www.bilibili.com/video/BV1ko4y1t7wr/?spm_id_from=333.880.my_history.page.click 新手学习手册和干货网站(必看):https://ciweicui.feishu.cn/docx/DPbidgdBeoNw55xKjO6c7ao3nbc?from=from_copylink MJ 官方学习手册(至少看 1 遍):https://docs.midjourney.com/ B 站·莱森 LysonOber 免费视频教程(基础操作必看):https://space.bilibili.com/630876766?spm_id_from=333.337.0.0 【腾讯文档】野菩萨 AI 课程(小红书@野菩萨)摄影范式:https://docs.qq.com/sheet/DSXRNUGJIQ0tMWkhu?tab=BB08J2 【腾讯文档】副本野菩萨 AI 课程(小红书@野菩萨)绘画范式:https://docs.qq.com/sheet/DSWlmdFJyVVZPR3VN?tab=y0u7ta 【腾讯文档】野菩萨 AI 课程(小红书@野菩萨)Niji 二次元范式:https://docs.qq.com/sheet/DSUxaRmprc0FrR25W?tab=c7lsa8 【腾讯文档】野菩萨 AI 课程(小红书@野菩萨)三维和抽象:https://docs.qq.com/sheet/DSUlaSHVXT1daaFlJ?tab=BB08J3 【腾讯文档】野菩萨 AI 课程(小红书@野菩萨)AI 产品制作与展现:https://docs.qq.com/sheet/DSW1jSFVZTER4Rnlq?tab=BB08J4 【腾讯文档】《野菩萨 AI 课程(小红书@野菩萨)电影范式》:https://docs.qq.com/sheet/DSXJKdmZ3WXhIQ2Vq?tab=BB08J5&scode=
2025-01-06
mj如何指定生成16:9的图
要在 Midjourney(MJ)中指定生成 16:9 的图,可以按照以下步骤操作: 1. 首先复制图片的网址,然后打开 discord,在聊天栏输入“/imagine prompt”。 2. 回到官网,复制图像的提示词,再回到 discord 粘贴到刚才拷贝的网址后面,注意空一格。 3. 生成图像后,放大觉得还不错的一张,点击“Custom Zoom”。 4. 此时可以改变拉伸镜头后的画面比例,将“ar”这个参数后面的数值改成 16:9(默认的方形构图这里是 1:1),“zoom”参数设置为 1.5。“zoom”参数是镜头拉伸的倍数,1.5 1.7 比较靠谱,太大(比如 2)会有更大几率生成一些莫名其妙的东西。 5. 选一张比较好的放大一下,就可以放进 PPT 调整构图。如果构图还是不太好,可以在当前这张图的基础上再用一次“Zoom Out 1.5x”。 另外,在 Pika 中使用 MJ 生成图片时,默认的照片幅度是 16:9。在使用 MJ 进行图生图功能时,要注意截图的对标比例未必是标准的 9:16,可以手动修改一下比例,以省去一些返工的情况。
2024-12-17
请问我该在知识库的 哪里找到MJ的提示词库
以下是关于 MJ 提示词库的相关信息: MidJourney 200 条风格词汇: 《》 @TheMouseCrypto 发表了一份 200 条风格词汇整理,页数是 77 页,很全的宝典。 Prompt 网站精选(图像类 Prompt 网站): MidLibrary:Midjourney 最全面的流派、艺术技巧和艺术家风格库, MidJourney Prompt Tool:类型多样的 promot 书写工具,点击按钮就能生成提示词修饰部分, OPS 可视化提示词:这个网站有 Mid Journey 的图片风格、镜头等写好的词典库,方便你快速可视化生成自己的绘画提示词, AIart 魔法生成器:中文版的艺术作品 Prompt 生成器, IMI Prompt:支持多种风格和形式的详细的 MJ 关键词生成器, Prompt Hero:好用的 Prompt 搜索,Search prompts for Stable Diffusion,ChatGPT & Midjourney, OpenArt:AI 人工智能图像生成器, img2prompt:根据图片提取 Prompt, MidJourney 提示词工具:专门为 MidJourney 做的提示词工具,界面直观易用, PromptBase:Prompt 交易市场,可以购买、使用、销售各种对话、设计 Prompt 模板, AiTuts Prompt:精心策划的高质量 Midjourney 提示数据库,提供了广泛的不同风格供你选择, MJ 的随机种子库收集: 使用方法: 输入提示词 + sref random ar 1:1,可获得随机风格种子和图片。 测试风格种子的泛用性:{a girl,a boy,animals,plants,environment}sref 同一个风格种子
2024-12-08
Suno教程
以下是关于 Suno 教程的相关内容: Suno 是一家研究驱动型的人工智能公司,其专门研发的生成式 AI 模型为创意工作者提供强大的创作工具。公司推出的 Chirp 模型,通过文字描述就能实现逼真的音乐和声音效果,包括配乐、人声、音效等,可广泛用于游戏、短视频、播客等领域。 去年制作过一期 Discord 版本的 Suno 操作教程(Suno 操作指北 V1),但一些知识点解释的不清楚,可能对新手玩家不够友好,而且官方在 Web 上推出 Chirp V2 版本模型后,之前的一些操作方式也迭代了,所以最近重新整理了一份新的教程(Suno 操作指北 V2)。 目前,Chirp V2 版本模型的最大生成时长为 1 分 20 秒,延续的最大生成时长为 60 秒。 在使用 Suno 生成音乐时,和大语言模型一样具有很强的随机性,输入(prompt/tag)质量往往决定输出(生成音乐)质量,在自定义模式(Custom Mode)下,有音乐风格(Style of Music)与歌词(Lyrics)两个主要的输入窗口。音乐风格窗口需要填写一些 tag 来描述整首音乐的风格和感觉,多个 tag 之间用“,”进行分隔,可识别的 tag 包括音乐类型/流派、人声/乐器、情绪/氛围、节奏、场景、混响、其他和声/音效等。 相关教程链接: PS:以下内容需要科学上网,请自行解决。
2024-12-22
我想看suno操作指北
以下是 Suno 的操作指北: 1. 注册官方地址加入 discord。 2. 在消息栏输入/chirp。 3. 按下 Enter,将出现一个弹出窗口。 4. 输入您歌曲风格以及歌词到对应框中,或者在 Chirp 提供的 ChatGPT 框中输入关键词让 AI 帮您生成。 5. 点击提交。 Chirp 操作: Chirp v1 更新了类型描述窗口。提交完成后,等待 2 3 分钟,即可生成两个示例音频,目前 Chirp 最多可生成 40 秒的音频。 生成的两个示例音频,如果您喜欢第一个,就点击⏩Continue 1,Chirp 就会弹出 Continue 窗口,您可以继续填入您想要的歌曲风格和歌词,点击提交,Chirp 会根据您的提示生成新的两个示例音频。 如果您觉得生成的两个音频不满意,可以点击🔁,Chirp 会弹出窗口提供修改,点击提交即可生成新的两个示例音频。 当您延续生成足够多的音频,想要将它们连接起来生成一个完整的音频,可以点击最后想要的音频所对应的❤️,Chirp 会自动帮您剪接之前所选的音频并生成完整音频,这个过程不需要消耗次数。 延续音频流程:/Chirp 输入→⏩Continue→⏩Continue→❤️
2024-11-24
有没有suno相关的学习资料
以下是关于 Suno 的学习资料: 音乐生成使用了 Suno,相关教程可参考 Keen 和陈浚嘉的这两篇: Suno 网址: 优点:回答问题更准确、上下文的衔接更好。 限制:需要🪜,需要邮箱注册。 时间:10 min。 价格:每日有免费额度 10 首歌。 Custom Mode:开启为自己有歌词,关闭则给你随机生成歌词,你只要填描述。 Lyrics:直接填歌词即可,可以用熟悉的、喜欢的歌曲原词先感受一下产品功能,会有对比性。 Instrumental:不要歌词、直接出纯音乐的曲子。 Style of Music:写 Prompt 的地方,1 句简短的自然语言描述即可,注意最多 100 字符。 此外,还有可供参考。在自定义模式(Custom Mode)下,有两个主要的输入窗口:音乐风格(Style of Music)与歌词(Lyrics)。音乐风格(Style of Music)需要填写一些 tag 来描述整首音乐的风格和感觉,多个 tag 之间用“,”进行分隔。根据 Suno 的官方文档和测试,可以识别的 tag 包括音乐类型/流派、人声/乐器、情绪/氛围、节奏、场景、混响、其他和声/音效等。
2024-11-24
suno提示词怎么写
以下是关于 Suno 提示词的写法: 在创作“离谱村”时,先收到台词素材和配音,构思出“童趣”“欢乐”等词,让 AJ 提出活泼、离谱搞笑的方向。然后把台词和想到的形容词投喂给 GPT4 生成音乐脚本,再将脚本输入给 SunoBeats 生成提示词。但最初生成的提示词太长,之后参考论坛网友分享的格式,即通过调式变化加上情节描述,使用和弦进展推动故事情节发展,让 SunoBeats 模仿这种格式生成提示词,测试发现这种格式的提示词质量更好、利用率更高。 推荐的写法可参考详细教程,如。 Suno 创作音乐的小技巧:如果想参考现有歌曲的节奏,可以在(引子)来更好地告诉 AI 这段歌词应该怎么唱。
2024-11-13
SUNO下载
以下是关于 SUNO 下载的相关信息: Suno 是一款强大的 AI 驱动歌曲生成器,被誉为音乐界的 ChatGPT,能够根据简单提示创造出完整音乐作品。 地址:https://www.suno.ai/ 账号要求:需要拥有 Discord、谷歌或微软中的至少一个账号,并确保网络环境稳定。 订阅信息: 免费用户:每天 50 积分,每首歌消耗 5 积分,每天可创作 10 首歌曲,每次点击生成两首歌曲。 Pro 用户:每月 2500 点数(约 500 首歌),按月 10 美元,按年 8 美元/月,96 美元/年。 Premier 用户:每月 10000 点数(约 2000 首歌),按月 30 美元,按年 24 美元/月,288 美元/年。 点击 Create 有两种模式: 默认模式:关闭个性化,可进行歌曲描述、乐器开关、模型选择 v3 等操作。 个性化模式:开启个性化定制,可填写歌词、曲风、标题等。 生成歌词:可使用大模型如 Kimi、GPT、文心一言等帮助生成。 开始生成:填写好所需内容后,点击 Create,等待 2 3 分钟即可。 下载: Suno 新功能“Suno Scenes”可通过照片或视频生成独特音乐,目前只有 iOS 客户端,且系统版本需升级到 17.0+,下载需要使用美国 ID 并在美国 IP 环境下体验。更新/安装客户端:suno.com/ios 。 网址:https://suno.com/create ,优点是回答问题更准确、上下文衔接更好,限制是需要翻墙和邮箱注册,每日有免费额度 10 首歌。Custom Mode 开启为自己有歌词,关闭则随机生成歌词,只要填描述。Instrumental 可出纯音乐曲子,Style of Music 用简短自然语言描述(最多 100 字符)。
2024-10-30
suno教程
以下是关于 Suno 的教程信息: Suno 是一家研究驱动型的人工智能公司,其专门研发的生成式 AI 模型为创意工作者提供强大的创作工具。公司推出的 Chirp 模型,通过文字描述就能实现逼真的音乐和声音效果,包括配乐、人声、音效等,可广泛用于游戏、短视频、播客等领域。 目前,Chirp V2 版本模型的最大生成时长为 1 分 20 秒,延续的最大生成时长为 60 秒。 去年制作过一期 Discord 版本的 Suno 操作教程。 在自定义模式(Custom Mode)下,有两个主要的输入窗口:音乐风格(Style of Music)与歌词(Lyrics)。音乐风格(Style of Music)需要填写一些 tag 来描述整首音乐的风格和感觉,多个 tag 之间用“,”进行分隔。根据 Suno 的官方文档和测试,可以识别的 tag 包括音乐类型/流派、人声/乐器、情绪/氛围、节奏、场景、混响、其他和声/音效等。 音乐生成使用 Suno 时,和大语言模型一样具有很强的随机性,并且输入(prompt/tag)质量往往决定了输出(生成音乐)质量,想要避免无谓的抽卡,让生成结果无限地靠近自己的想法,就需要使用一些提示词技巧。 您可以通过以下链接获取更多相关内容: PS:使用以下内容需要科学上网,请自行解决。此外,还建立了一个微信群【通往 AI 音乐之路】,可以填写问卷:https://waytoagi.feishu.cn/share/base/form/shrcnuLtIpBNzE5bcQtZbS8UEjh 或添加 AJ(微信号 AAAAAAAJ)备注您的音乐成就,拉您进群。右侧可以扫码关注公众号“智音 Brook”,方便更充分的探讨交流。
2024-10-16
豆包和coze有什么区别
Dify 和 Coze 都是大模型中间层产品,有以下主要异同点: 开源性: Dify 是开源的,允许开发者自由访问和修改代码以定制,由专业团队和社区共同打造。 Coze 由字节跳动推出,目前未明确是否开源,可能更侧重商业化服务和产品。 功能和定制能力: Dify 提供直观界面,结合多种功能,支持基于任何 LLM 部署 API 和服务。 Coze 有丰富插件能力和高效搭建效率,支持发布到多个平台作为 Bot 能力使用。 社区和支持: Dify 作为开源项目有活跃社区,开发者可参与共创共建。 Coze 可能更多依赖官方更新和支持,社区参与和开源协作程度可能不如 Dify。 豆包和 Coze 的区别在于: 豆包主要是大模型交互,功能相对默认。 Coze 不用魔法,上手简单,更新快,插件多。在模型选择方面,GLM 模型和 MoonShot 模型对结构化提示词理解良好,适合处理精确输入输出任务;豆包系列模型在角色扮演和工具调用方面有优势,能识别用户意图并选择合适工具或服务。将这三种模型结合在工作流或多 Agent 中可实现优势互补。
2025-01-25
精准率和召回率有什么区别
精准率和召回率是常见的评估指标,主要区别如下: 精准率(Precision):指返回的检索内容中有用信息的占比。也就是说,在所有被检索出来的内容中,真正有用的信息所占的比例。其计算公式为:精准率 = 真正例 / (真正例 + 假正例)。 召回率(Recall):指相关信息被正确预测出来的比例,即真正例在所有实际相关信息中的占比。其计算公式为:召回率 = 真正例 / (真正例 + 假反例)。 例如,在一个文档检索的场景中,精准率体现的是检索出的文档中有多少是真正有用的;召回率则体现的是相关的文档有多少被包含在返回的检索结果里。 总的来说,精准率关注的是检索结果的准确性,而召回率关注的是检索结果的完整性。
2025-01-23
深度学习跟机器学习有啥区别呀?能不能举个通俗易懂的例子
深度学习和机器学习的区别主要体现在以下几个方面: 1. 学习方式:机器学习通常需要人工选择和设计特征,而深度学习能够自动从数据中学习特征。 2. 模型结构:机器学习模型相对简单,深度学习则使用多层的神经网络,结构更复杂。 3. 数据处理能力:深度学习能够处理更大量和更复杂的数据模式。 例如,在图像识别任务中,如果使用机器学习,可能需要人工提取图像的颜色、形状等特征,然后基于这些特征进行分类。但在深度学习中,神经网络可以自动从大量的图像数据中学习到有效的特征表示,从而实现更准确的分类。 机器学习是人工智能的一个子领域,让计算机通过数据学习来提高性能,不是直接编程告诉计算机如何完成任务,而是提供数据让机器找出隐藏模式或规律,然后用这些规律预测新的未知数据。 深度学习是机器学习的一个子领域,模拟人脑工作方式,创建人工神经网络处理数据,包含多个处理层,能学习和表示大量复杂模式,在图像识别、语音识别和自然语言处理等任务中非常有效。 大语言模型是深度学习在自然语言处理领域的应用之一,目标是理解和生成人类语言,需要在大量文本数据上训练,如 ChatGPT、文心一言。同时,大语言模型具有生成式 AI 的特点,不仅能理解和分析数据,还能创造新的独特输出。
2025-01-21
深度学习跟机器学习有啥区别呀
深度学习和机器学习的区别主要体现在以下几个方面: 1. 范畴:机器学习是人工智能的一个子领域,深度学习则是机器学习的一个子集。 2. 工作方式:机器学习通过输入数据训练模型,让计算机在没有明确编程的情况下学习。深度学习模拟人脑工作方式,创建人工神经网络处理数据。 3. 处理模式:机器学习模型可以是监督的或无监督的,监督模型使用标记的数据学习并预测未来值,无监督模型专注于发现原始数据中的模式。深度学习使用人工神经网络,能处理更复杂的模式,神经网络可使用标记和未标记的数据,实现半监督学习。 4. 应用效果:深度学习在图像识别、语音识别和自然语言处理等任务中表现出色,因为其能学习和表示大量复杂的模式。 例如,大语言模型是深度学习在自然语言处理领域的应用,其不仅能理解和分析数据,还能创造新的独特输出,如 ChatGPT、文心一言等。
2025-01-21
AIGC和AGI的区别
AIGC(人工智能生成内容)是利用人工智能技术生成各种类型内容的应用方式,包括文字、图像、视频等。它在内容创作、广告、媒体等领域广泛应用。 AGI(通用人工智能)则是一种让机器具备像人类一样的通用智能的目标,能够理解、学习和处理各种不同的任务和领域。 AIGC 侧重于内容的生成,是通过机器学习和深度学习算法,根据输入的数据和指令生成符合特定要求的内容。而 AGI 追求的是更广泛和通用的智能能力。 例如,AIGC 可以生成文章、艺术作品、短视频等具体的内容形式;AGI 则是期望机器能够像人类一样进行思考、推理、解决复杂的综合性问题等。 总的来说,AIGC 是 AGI 在内容生成方面的一种具体应用,而 AGI 是更宏观和高远的人工智能发展目标。
2025-01-19
AI手机端和网页端的应用场景有什么区别?
AI 手机端和网页端的应用场景存在以下区别: 网页端产品更倾向于支持涉及内容创作和编辑的复杂、多步骤工作流程,例如 AI 语音工具包 ElevenLabs、AI 艺术创作器 Leonardo 以及 AI 演示文稿构建器 Gamma 等。 移动端应用更倾向于通用型助手,不少在功能上模仿了 ChatGPT。 在移动设备上,图片和视频的内容编辑是最常见的用途。例如,美图秀秀、SNOW 和 Adobe Express 等传统创意工具转型为生成式 AI 优先,并在移动排名中表现出色。 ChatGPT 以巨大优势成为网络和移动端排名第一的产品,而争夺最佳消费者助手的竞争正在升温。Perplexity 在网络上排名第三,专注于提供简明、实时和准确的查询答案,且用户参与度很高,还首次进入移动端前 50 名榜单。Anthropic 的 Claude 是 ChatGPT 的直接竞争对手,在网页排名中进入前五。
2025-01-16