Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

去哪里使用mj

Answer

Midjourney 的使用方法如下:

  • 模型个性化:
    • 工作原理:模型个性化会学习您的喜好,以更符合您的口味生成图像。
    • 要求:目前从成对排名中的投票和您喜欢的探索页面上的图像中学习,需要大约 200 个成对排名/喜欢才能生效。您可以在排名页面查看评分数量,或在 Discord 上输入/info。
    • 使用方法:在提示后输入--p,或使用提示栏中的设置按钮为所有提示启用个性化功能。启用时会在提示后添加一个“代码”,您可以分享此代码让他人使用应用于该图像的个性化效果。还可以使用--s 100 控制个性化效果的强度(0 为关闭,1000 为最大,100 为默认)。
    • 注意事项:个性化目前不是稳定功能,会随您进行更多成对排名而变化,且可能会在接下来几周内推出算法更新。
  • 在 Discord 上的使用:
    • 与 Midjourney Bot 互动:可以在 Discord 上进行,Midjourney 服务器具有不同的界面和频道。
    • 直接消息:与直接消息中的 Midjourney 机器人进行一对一合作,获得更安静的体验。
    • Midjourney 官方服务器:提供协作和计费/技术支持渠道。
    • 频道列表:包括#support 频道获取计费和技术支持,#newbies 频道创建图像。
    • 会员名单:Midjourney Bot 使用命令生成图像,版主和指南可帮助解决计费和技术问题。
  • V6 更新风格参考命令 2.0"--sref":
    • 初次更新 1.0 说明:2 月 1 日,MJ 发布首个“一致风格”测试算法,称为“风格参考”,可提供一个或多个描述想要的一致风格的图像的 URL。
    • 如何使用:在提示后面输入--sref 及图像的 URL,例如--sref url A。系统会将图像 URL 视为“风格参考”,并尝试生成与其风格或美学相匹配的内容,适用于 V6 和 Niji V6(不适用于 V5 等)。
    • 高级设置:可使用多个图像 URL 并设置相对权重,例如--sref urlA::2 urlB::3 urlC::5,通过--sw 100 设置风格化的总体强度(100 是默认值,0 表示关闭,1000 表示最大值),常规图像提示必须在--sref 之前。
    • 注意事项:MJ 可能会在接下来几周内更新此功能,若提示倾向于照片逼真而想要冲突的插图风格,可能仍需在提示中添加文本说明,风格参考对图像提示没有直接影响,仅对至少包含一个文本提示的作业产生影响,计划稍后添加“一致角色”功能,与--cref 参数使用方式相同。
Content generated by AI large model, please carefully verify (powered by aily)

References

Midjourney 更新 · 模型个性化

MJ今天发布了模型个性化Personalization或'--p'的早期测试版本。以下是其工作原理和使用方法。[heading1]官方说明[content]每次您写提示时,很多信息都是“隐含的”。MJ的算法通常会用它们自己的“偏好”来填补这些空白,这些偏好实际上是MJ社区的综合偏好。且每个人的偏好都是不同的!模型个性化会学习你的喜好,以便更可能用你的口味来填补空白。模型个性化的要求·目前,模型个性化从成对排名中的投票和你喜欢的探索页面上的图像中学习。·你需要大约200个成对排名/喜欢,才能使此功能生效。·你可以在排名页面查看你的评分数量,或在Discord上输入/info。如何使用模型个性化·只需在提示后输入--p,或使用提示栏中的设置按钮为所有提示启用个性化功能。·当你启用个性化功能时,会在提示后添加一个“代码”,你可以分享这个代码,让其他人也能使用应用于该图像的个性化效果。·你可以使用--s 100控制个性化效果的强度(0为关闭,1000为最大,100为默认)。请注意:个性化目前不是一个稳定的功能,它会随着你进行更多的成对排名而变化(细微的),并且我们可能会在接下来的几周内推出算法更新。所以请将其视为一个“不断变化的有趣功能”(表脸,就是没做好提前放出来赶进度的说辞)。

MJ手册·如何使用MJ

[heading2]服务器列表[content]直接消息与直接消息中的中途机器人进行一对一合作,以获得更安静的体验。Midjourney官方服务器官方Midjourney服务器,提供协作和计费/技术支持渠道。[heading2]频道列表[content][#support](https://discord.com/channels/662267976984297473/958069758211797092)请访问此频道以获取中途指南的计费和技术支持。#newbies访问任何#newbies频道来创建图像。[heading2]会员名单[content]Midjourney Bot使用命令生成图像的机器人/imagine版主和指南版主和指南可以帮助解决支持渠道中的计费和技术问题。

Midjourney V6 更新风格参考命令2.0 "--sref "

2月1日,MJ初次发布了它们的首个“一致风格”测试算法。它们称这个功能为“风格参考”。它的工作方式类似于图像提示,您可以提供一个或多个描述您想要的一致风格的图像的URL。[heading3]如何使用风格参考[content]在您的提示后面输入--sref,以及一个指向图像的URL(URL为当前图像您复制的链接),例如--sref url A(url A为一条地址链接,比如有两条地址链接为url A和url B)MJ的系统将会将图像URL视为“风格参考”,并尝试生成与其风格或美学相匹配的内,这适用于V6和Niji V6(不适用于V5等)[heading3]高级设置[content]使用多个图像URL,例如--sref urlA urlB urlC(同上解释,地址链接1,地址链接2,地址链接3)设置风格的相对权重,例如--sref urlA::2 urlB::3 urlC::5通过--sw 100设置风格化的总体强度(100是默认值,0表示关闭,1000表示最大值)常规图像提示必须在--sref之前,例如/imagine cat ninja ImagePrompt1 ImagePrompt2--sref stylePrompt1 stylePrompt2[heading3]请注意(上方2.0已经更新)[content]MJ可能会在接下来的几周内更新此功能(可能会更改一些内容,因此在处于alpha阶段时请注意)如果您的提示倾向于照片逼真,而您想要一种与之相冲突的插图风格,您可能仍然需要在提示中添加一些文本来说明,风格参考对图像提示没有直接影响,仅对至少包含一个文本提示的作业产生影响我们计划稍后添加一个“一致角色”的功能,它与--cref参数的使用方式相同。

Others are asking
如何用mj有效地画三视图
要有效地用 Midjourney(MJ)画三视图,可以参考以下步骤: 1. 对于核心角色创建,如局长的三视图设计,先明确角色特点,使用 GPT4 生成相关描述。 2. 进行多次尝试和修改,根据团队成员的反馈不断调整。 3. 可以用 MJ 进行垫图生成,在保持原 IP 特点的基础上重新设计。 4. 如果 MJ 生成的效果不理想,可以结合其他工具,如用 Illustrator 手绘,再用 Stable Diffusion(SD)控图,后期利用 AI 工具生成拓展视频。 需要注意的是,MJ 虽然在美术效果和设计能力上有进步,但仍可能存在局限,需要不断尝试和改进。
2025-02-25
Mj
以下是关于 Midjourney(MJ)的相关信息: 1. 文字生成效果测试:MJ 在圣诞节前夕推出新版本 V6,聚焦于文字生成方面。使用英文文本输入,对英语提示词的识别效果变好,将需要生成的文本用双引号“text”包裹,输出的图片中便能出现所要求的文字。但带文字的图片生成仍受文本量、文字在画面中的占比、其他提示词数量和画面复杂程度等因素影响。为探究 V6 的文字生成能力开展了进一步实践测试。 2. 更新风格参考命令 2.0“sref”:2 月 1 日,MJ 发布首个“一致风格”测试算法,称为“风格参考”。工作方式类似于图像提示,在提示后面输入sref 及图像的 URL,可提供一个或多个 URL 并设置相对权重,还可通过sw 100 设置风格化总体强度。此功能适用于 V6 和 Niji V6,不适用于 V5 等。MJ 可能在接下来几周内更新此功能,风格参考对图像提示无直接影响,仅对至少包含一个文本提示的作业产生影响,计划稍后添加“一致角色”功能。 3. 角色一致性功能使用报告:MJ 推出角色一致性功能,以甜茶的图片为例进行测试。使用方式是在提示后输入`cref URL`附上人物图像的 URL,注意要在提示词后面,可使用`cw`修改参考强度,强度 100 是默认值,会使用面部、头发和衣服,强度 0 时只会关注面部。
2025-02-20
mj提示词
以下是关于 MJ 提示词的相关内容: 1. MidJourney 图片生成大师能够根据您的故事内容创作出全面的分镜提示词,包括分镜描述、人物描述、环境描述、氛围描述、灯光描述、色彩描述、构图描述、风格描述等。还会考虑您所使用的相机类型、摄影风格和镜头位置,您分享故事内容和具体需求即可获得专业服务。 2. 在提示词中,文本前置、后置等效果相近,过长的文本难以控制文本出现的位置,建议只要求 AI 生成部分主要文本内容,自行嵌字仍是当前最佳方法。加入引号“”包裹文本能达到 MJ 生成文字的效果,不必要特殊说明“生成一段文本......”等内容。MJ 能够自行判断文本应当存在的位置,会将文本安排在符合逻辑的位置上。后续有机会可进一步测试【局部重绘】能否控制文本在规定位置出现。总结来说,MJ 进行文本输出任务,提示词没有特别固定的语法结构,只需要认识其文本生成的能力范围和使用场景,即可高效应用 V6 模型生成有趣画面内容。 3. 让 Claude 出 MJ 提示词的提示词结构是:让大模型告诉你如何出 MJ 提示词效果会更好+让大模型出提示词+加上一些要求。先让大模型告诉你如何出 MJ 提示词效果会更好,因为大模型输出的过程也是思考的过程,所以对大模型循循善诱效果更好。对于有名的产品,如奔驰 E300L,每个出图的提示词都需包含“奔驰 E300L”。再加上一些要求,比如参数“ar 16:9”是要求 MJ 生成比例图片 16:9 的宽频图片,“q 2”是画面质量最高的参数。出 MJ 提示词还有更方便好用的办法,就是使用 chatgpt 里面的 gpts,如“Mid Journey V6 Prompt Creator”。可以理解为:chatgpt 是手机安卓系统,gpts 就是手机里的 app,不同的 gpts 能实现不同的功能,有的能绘画,有的能帮您总结文献,有的能生成更专业的 MJ 提示词。
2025-01-22
MJ中如何精准控制颜色
以下是关于在 Midjourney 中精准控制颜色的一些方法和相关信息: 1. 在使用 MJ 生成兔子贴纸的过程中,关键词中限制了颜色,生成的图片会一种情绪对应一种颜色。若不想让模型把情绪和颜色做挂钩,同一种情绪可多生成几张不同色系的;若需要挂钩,也可反其道而行之。 2. 进行 SD 上色时,正关键词主要前面添加了增加照片质感常用的+mj 生成线稿的关键词调整(去掉 mj 里线稿的关键词,一开始嘴巴效果不好,添加了张开嘴巴等关键词,颜色都是可以单独调整控制)+风格参数。负关键词看自己的效果添加,添加一切不想要的东西。 3. 在 MJ 的公式方面: 角色人物公式:人物姓名(命名)+描述词(重要描述词和人物特征描述词)+风格+官方命令词。 3D 公式:主体+描述词(重要描述词和物体特征描述词)+风格+灯光+官方命令词。 插画公式:主题描述词语+风格(风格名称或画家)+描述+颜色灯光+官方命令。 特定公式: 连续场景变化公式: 角色/场景公式:上传图片(喂图)+人物描写(融入其他场景需要关键词 white background,结合场景后换成 walking in a futuristic cyberpunk city)+场景风格描写+官方命令。 木偶公式:人物图片+场景+人物+动作+风格+官方命令。 等距粘土公式: 等距+物体+max emoji(表情符号),soft(柔和)lighting soft(柔和光线)pastel colors/pastel background(背景)+3Dicon+clay(粘土)+blender 3d+背景颜色=等距粘土物体。 安子布莱斯娃娃/也可以换成其他知道的娃娃名称+灯光/颜色/背景/材质+clay(粘土)+良奈吉友画风/或者其他名人风格=人。 3D 图标公式(未测试,可用):喂图(1~3 张相似的风格)+描述的 icon(和喂图一致的关键词)+颜色(和喂图颜色一致的)+渲染词+官方命令。 通用公式:角色/物体描述+背景描述+灯光风格+官方命令。
2025-01-17
请问如何学习MJ
以下是关于学习 Midjourney 的相关内容: 1. Midjourney 今天发布了模型个性化 Personalization 或'p'的早期测试版本。其工作原理是:每次写提示时,很多信息是“隐含的”,MJ 的算法通常会用社区的综合偏好填补空白,而模型个性化会学习您的喜好来填补空白。使用模型个性化的要求包括:目前从成对排名中的投票和喜欢的探索页面上的图像中学习,需要大约 200 个成对排名/喜欢才能生效,可在排名页面查看评分数量或在 Discord 上输入/info。使用方法为:在提示后输入p,或使用提示栏中的设置按钮为所有提示启用个性化功能,启用时会在提示后添加一个“代码”,可分享此代码让他人使用应用于该图像的个性化效果,还可以使用s 100 控制个性化效果的强度(0 为关闭,1000 为最大,100 为默认)。但需注意个性化目前不是稳定功能,会随更多成对排名而变化,且可能会推出算法更新。 2. 训练 Midjourney 的 prompt 流程:可以复制每一步,按照步骤跟 GPT 聊下去。原理是把 MJ 的官网说明书喂给 GPT,让它根据说明了解机制和结构,给出适合的提示词。 3. MJ 很长一段时间内依赖 discord 进行操作,可简单理解为一个微信群/钉钉群,群里有机器人,@它并给一段文字,它就会出图片。也可自己创建群组(服务器),把机器人拉进来对话创作。开始创作时@机器人,MJ 会返回 4 宫格图片。想要放大一张图,点击上面的 U 1——4,MJ 会发大图回来。或者看看其他风格,点击上面的 v 14,MJ 会返回新的 4 宫格。简单来说,步骤包括告诉 MJ 要什么,MJ 给 4 个不同风格小图,放大或再看其他风格,在这些图片基础继续处理。初学可能会有一些想法,比如第一次出图感觉不错,但再改可能难,此时设计师技能上线。以前除了氪金多练习没好办法,现在可以去离谱村进修。
2025-01-09
mj 学习教程
以下是一些关于 Midjourney(MJ)学习的教程资源: 理论学习方面: 生成式 AI 原理:李宏毅老师风格幽默风趣的课程,很好跟进。 AI 图原理:简单清晰的介绍 AI 生图。 实操方面: 喂饭级实操攻略: MJ 入门:15 分钟快速了解,MJ 的基础技巧,快速入门。 https://www.bilibili.com/video/BV1vm4y1B7gP/?spm_id_from=333.880.my_history.page.click&vd_source=afe0a1f0c730039635f99f5ee84c1276 https://www.bilibili.com/video/BV1ko4y1t7wr/?spm_id_from=333.880.my_history.page.click 新手学习手册和干货网站(必看):https://ciweicui.feishu.cn/docx/DPbidgdBeoNw55xKjO6c7ao3nbc?from=from_copylink MJ 官方学习手册(至少看 1 遍):https://docs.midjourney.com/ B 站·莱森 LysonOber 免费视频教程(基础操作必看):https://space.bilibili.com/630876766?spm_id_from=333.337.0.0 【腾讯文档】野菩萨 AI 课程(小红书@野菩萨)摄影范式:https://docs.qq.com/sheet/DSXRNUGJIQ0tMWkhu?tab=BB08J2 【腾讯文档】副本野菩萨 AI 课程(小红书@野菩萨)绘画范式:https://docs.qq.com/sheet/DSWlmdFJyVVZPR3VN?tab=y0u7ta 【腾讯文档】野菩萨 AI 课程(小红书@野菩萨)Niji 二次元范式:https://docs.qq.com/sheet/DSUxaRmprc0FrR25W?tab=c7lsa8 【腾讯文档】野菩萨 AI 课程(小红书@野菩萨)三维和抽象:https://docs.qq.com/sheet/DSUlaSHVXT1daaFlJ?tab=BB08J3 【腾讯文档】野菩萨 AI 课程(小红书@野菩萨)AI 产品制作与展现:https://docs.qq.com/sheet/DSW1jSFVZTER4Rnlq?tab=BB08J4 【腾讯文档】《野菩萨 AI 课程(小红书@野菩萨)电影范式》:https://docs.qq.com/sheet/DSXJKdmZ3WXhIQ2Vq?tab=BB08J5&scode=
2025-01-06
Trae 的使用,有能力outline么?
Trae 是一款强大的 AI 编程工具,具有以下特点和优势: 1. 显著提升开发效率: 对于像 Eric Quan 这样不太擅长编程的人,几乎每行代码都可依靠 Trae 完成,能快速 Ship 产品,前端代码开发效率高,可直接在窗口里看预览确认效果,0 到部署所需时间大幅缩短,1 个月的 MVP 能实现原来半年才敢想的 App。 对于有编程基础和专业开发的同学,Trae 支持通过目录选择代码文件作为上下文,集成终端报错信息,支持将多个文件作为上下文,还支持“解释这个文件夹”的功能。 2. 节省开发成本:随着项目与团队扩张,成本节省更显著。一个人相当于一个团队,能大幅减少开发者数量。 3. 丰富的功能和支持: 支持将数据库嵌入到 IDE 中,使用方便。 提供插件市场功能,使用 openvsx 作为插件源,也支持自行上传插件。 具备回退版本功能,能记录修改代码和沟通需求,方便找到历史记录并重新生成,对不满意的生成代码效果可回退到之前版本。 4. 模式选择:在产品使用中,Chat 模式更可控,可只修改指定内容;同时也有 Builder 模式,能更自动化生成代码。 总之,Trae 为不同类型的开发者提供了强大的支持,极大地改变了开发的方式和效率。
2025-02-28
我想利用ai写一篇本科毕业论文,我该怎样使用?或者说有什么对ai的指令吗?
利用 AI 写本科毕业论文时,以下是一些相关的信息和示例供您参考: 有示例表明,如果向 LLM 提供关于个人背景的信息和指令,比如“根据以下关于我的信息,写一篇四段的大学申请论文:我来自西班牙巴塞罗那。尽管我的童年经历了一些创伤性事件,比如我 6 岁时父亲去世,但我仍然认为我有一个相当快乐的童年。在我的童年时期,我经常换学校,从公立学校到非常宗教的私立学校。我做过的最‘异国情调’的事情之一是在爱达荷州的双子瀑布与我的大家庭一起度过六年级。我很早就开始工作了。我的第一份工作是 13 岁时的英语老师。在那之后,以及在我的学习过程中,我做过老师、服务员,甚至建筑工人。”,LLM 可以为您生成论文。但需要注意的是,这并非提倡这种方式是道德的使用方式。 在教育领域也有相关例子,比如一位历史老师让 GPT 参与教学。通过不同的提示方式,GPT4 能产生差异较大的结果。例如,让 ChatGPT 扮演“一个经过训练、熟悉获奖研究生和本科生论文的高级语言模型”,并要求其从自我反思和大纲开始,生成的内容质量会更好。但随着学生在优化提示方面变得更擅长,在家完成写作作业时作弊会变得更容易。不过,让 LLM 进行角色扮演也使其成为有趣的教育工具,特别是作为历史模拟器。 需要强调的是,使用 AI 辅助撰写论文时,不能完全依赖其生成的内容,应遵守学术道德和规范,确保论文的原创性和学术诚信。
2025-02-28
你是AI专家,如何更好地使用AI工具?
以下是关于如何更好地使用 AI 工具的一些建议: 理解工具: AI Agent 有效使用工具的前提是全面了解其应用场景和调用方法。利用 LLM 的 zeroshot learning 和 fewshot learning 能力,AI Agent 可以通过描述工具功能和参数的 zeroshot demonstration 或提供特定工具使用场景和相应方法演示的少量提示来获取工具知识。这与人类通过查阅工具手册或观察他人使用工具进行学习的方法类似。在面对复杂任务时,应先将其分解为子任务,然后有效地组织和协调,这依赖于 LLM 的推理和规划能力以及对工具的理解。 使用工具: AI Agent 学习使用工具的方法主要包括从 demonstration 中学习和从 reward 中学习(清华有一篇从训练数据中学习的文章)。这包括模仿人类专家的行为,了解其行为后果,并根据从环境和人类获得的反馈做出调整。环境反馈包括行动是否成功完成任务的结果反馈和捕捉行动引起的环境状态变化的中间反馈;人类反馈包括显性评价和隐性行为,如点击链接。 具身智能: 在追求人工通用智能(AGI)的过程中,具身 Agent 正成为核心的研究范式,强调将智能系统与物理世界紧密结合。其设计灵感来自人类智能的发展,认为智能更多地来自与周遭环境的持续互动和反馈。与传统的深度学习模型相比,LLMbased Agent 能够主动感知和理解所在的物理环境并与之互动,利用内部丰富的知识库进行决策并产生行动改变环境,这被称为“具身行动”。 此外,在生成 PPT 方面,市面上有多种受欢迎的 AI 工具,如 MindShow、爱设计、闪击、Process ON、WPS AI 等。每款工具都有独特优势,能帮助您快速、高效地完成 PPT 设计。
2025-02-28
如何使用AI绘画
以下是关于如何使用 AI 绘画的详细介绍: 1. 选择工具:根据您的具体需求选择合适的 AI 绘图工具,例如 Creately、Whimsical、Miro 等。 Creately 是一个在线绘图和协作平台,利用 AI 功能简化图表创建过程,适合绘制流程图、组织图、思维导图等。具有智能绘图功能,可自动连接和排列图形,还有丰富的模板库和预定义形状,支持实时协作。官网:https://creately.com/ Whimsical 是一个专注于用户体验和快速绘图的工具,适合创建线框图、流程图、思维导图等。具有直观的用户界面,易于上手,支持拖放操作,快速绘制和修改图表,提供多种协作功能。官网:https://whimsical.com/ Miro 是一个在线白板平台,结合 AI 功能,适用于团队协作和各种示意图绘制,如思维导图、用户流程图等。支持无缝协作,支持远程团队实时编辑,有丰富的图表模板和工具,支持与其他项目管理工具(如 Jira、Trello)集成。官网:https://miro.com/ 2. 创建账户:注册并登录所选平台。 3. 选择模板:利用平台提供的模板库,选择适合您需求的模板。 4. 添加内容:根据您的需求,添加并编辑图形和文字。利用 AI 自动布局功能优化图表布局。 5. 协作和分享:如果需要团队协作,可以邀请团队成员一起编辑。完成后导出并分享图表。 如果您使用 Stable Diffusion 进行 AI 绘画,步骤如下: 1. 安装依赖库和 repositories 插件后,配置模型,将 Stable Diffusion 模型放到/stablediffusionwebui/models/Stablediffusion/路径下。 2. 到/stablediffusionwebui/路径下,运行 launch.py。 3. 运行完成后,将输入到本地网页中,打开 Stable Diffusion WebUI 可视化界面。 4. 在可视化界面中,在红色框中选择 SD 模型,然后在黄色框中输入 Prompt 和负向提示词,在绿色框中设置想要生成的图像分辨率(推荐设置成 768x768),然后点击 Generate 按钮进行 AI 绘画。 5. 等待片刻后,图像生成并展示在界面右下角,同时保存到/stablediffusionwebui/outputs/txt2imgimages/路径下。 关于 Stable Diffusion 的工作原理:就像学习画画,比如学习梵高的风格,要先看他的画并临摹。AI 绘画也是类似,人们把成千上万的美术风格作品练成一个模型放在 AI 里面,AI 就能依照这个模型画出风格类似的作品。想要画出符合心意的作品,首先要选对合适的大模型。大模型的下载,可以去 C 站(https://civitai.com/),有真实系、二次元、游戏 CG 风等多种风格,但需要科学上网。
2025-02-28
新手如何更好使用该网站,主要了解人工智能或者AGI进展,主流软件的学习和应用
对于新手想要更好地使用该网站来了解人工智能或 AGI 进展以及主流软件的学习和应用,以下是一些相关内容: AE 软件: 基本功能:可通过图层软件抠元素加插件做特效,如利用 auto field 自动填充工具,轨道遮罩功能让图层按特定形状变化等。 与 AI 结合运用:如用 runway 生成烟花爆炸素材,结合 AE 的图层混合模式、遮罩等功能实现特效可控的画面。 其他应用:用内容识别填充功能处理视频画面,如抹掉入镜的人;从素材网站获取粒子素材为画面添加氛围感。 学习路径:可在 B 站找丰富的 AE 软件入门课程自学,也可从包图网下载工程文件学习。 学习方法:通过拆解视频、留意路边广告特效、按层级逻辑思考画面运动来学习 AE,还可参考模板。 与 AI 的关系:AI 出现后,AE 使用减少,有些动效可用 AI 完成。 在短剧中的应用:在火焰、文字、光线等方面有少量应用。 AI 相关技术与活动: AI 音乐创作:通过输入更高级的词汇与 AI 音乐对话能产生更好效果,有 AI 音乐的版块、挑战、分享会和教程,可通过王贝加入 AI 音乐社区。 数字人语音合成:介绍了声音克隆技术,提到了微软、阿里等的相关成果,常用的是 JPT service。 Config UI 的应用:能降低成本、提高效率,在图书出版、引流等方面有应用,岗位稀缺,社区有相关共学课程。 社区共创项目:包括东京的 confii 生态大会、AI 文旅视频、娃卡奖、李普村共创故事、AI 春晚等活动。 作业与报名:作业是询问对 AI 方向的兴趣和想做的项目,活动报名可通过填写名字和申请新增学校参与。 线下寄送物料组织活动:会给大家寄送线下活动物料,在学校内组织。 AI 春晚即将开始:去年 300 人 30 天共创了 AI 春晚,今年的也即将开始,可报名参与多种岗位。 AIPO 活动及相关挑战:10 月 20 日的 AIPO 活动,可提前构思展示项目,有会话和视频相关的挑战赛。 共学活动与技能提升:接下来 10 天有从零基础到建站等内容的讲解,回放会放在链接里,可先从练习提示词入手。 硬件机器人材料购买:若搞硬件机器人,部分材料需尽快购买。 自媒体发布与流量扶持:在小红书发布活动内容带特定标签有流量扶持,作品也可发布在 GitHub 等平台。 活动奖项与历史玩法:设最佳创业奖和最佳投资奖各四个,有线下摆摊展示交流、IPO 路演等玩法,之前在多个城市举办过 AI 切磋大会。 工具使用与新大赛预告:可使用多种 AI 工具,新的大赛即将开启,有百万奖金池,相关动态会在社区活动栏目公布。 AI 音乐和数字人语音合成: AI 音乐方面,提到草爷、格林 king、狗哥带大家入门,有相关课程与教程,且淘宝上有套壳工具抄袭。社区伙伴做的 AI 音乐专辑不错。 数字人语音合成部分提到声音克隆,有新的声音克隆且音质很不错。 提到了微软新出的成果、阿里的 Cozy voice(指出其泛化能力不强)、大家常用的 GPT solve it、刚举办的 AI 3D 活动。 以小田的 config UI 基础工作流一日谈展开,讲述了多个案例,如许建拍摄场景图成本降低,郭佑萌在图书出版行业提升效率,影楼可进行换装等操作,文旅文创场景有有趣的合影生成方式,还提到该工作流岗位稀缺且社区有课程可供学习。 AJ 介绍平台资源,包括共学课程、专栏报告、数据等,还提及就业创业及一些企业专栏的内容。
2025-02-28
如何免费使用claude3.7
Claude 3.7 Sonnet 目前已经在 Claude.ai 平台上线,Web、iOS 和 Android 用户皆可免费体验。对于希望构建自定义 AI 解决方案的开发者,可以通过 Anthropic API、Amazon Bedrock 以及 Google Cloud 的 Vertex AI 进行访问。目前“扩展思考”模式还没有上线,所有人均可免费使用。此外,tree 接入 Claude 3.7 可免费使用,国内版 Claude 3.7 下周上线。在标准模式和扩展思考模式下,Claude 3.7 Sonnet 的价格与其前代产品相同:3 美元/百万输入 token,15 美元/百万输出 token——这其中包括了思考 token 的费用。
2025-02-28