直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

我要用半小时的时间介绍way to AGI,主要想介绍知识库当中的prompt 和 智能体,请给我生成文稿。

回答

以下是为您生成的半小时介绍 way to AGI 的文稿:

首先,我们来谈谈《24 节气》这个节目。去年 3 月份开始接触 SD,年终才真的开始系统性学习,非常痴迷,原本正常作息的我变得每天 3 点睡觉。会把所有的知识点细致的记录,每个参数都测试很多遍。在学习光影字的时候,制作 24 节气图成了我的固定节目,我会在🌈通往 AGI 之路的 AI 知识库里开源所有测试出来的稳定的 prompt 和参数,每张图都会做成海报,分享给 waytoAGI 的小伙伴们。这里的字体都是由请叶承欢帮忙手写的毛笔字体,比起电脑输入的字体更有温度。这次 AI 春晚,要求更高,每个节气需要制作六张作品,为了保持高度一致性,基本全部重新制作了一遍,每个节气至少抽卡 200 次选出最满意的那几张,每张作品的字体、粗细、大小和效果都有所不同,尤其是立夏,我尝试了 400 多张才勉强满意。不过有了前期的积累,仅用三四天时间就完成了一整套作品。AJ 作为整体策划统筹号召了小伙伴一起制作,邵帅把每张图都用 runway 生成非常美的动态效果,并剪辑在一起,刘润梓 KEEN 很精心的用 AI 音乐工具生成了每个节气的背景音,大家可以仔细听一下,都有不同。关于音乐部分,KEEN 也会开源在 waytoagi.com 的音乐板块中。一起发扬共创开源精神。

接下来是关于 Prompt 提示词的内容。Prompt,也就是所谓提示词工程,现在算得上如火如荼了,也开始内卷出各个流派了。2023 年初调侃 AI 为什么林冲要去高老庄这样的交互方式,被亲切地称为“一刀流”。咱也不会,咱也不懂,那咱就学呗。下面这个图是相当火热的开源知识库 waytoagi 整理的框架图。但是不要被框架唬住,咱也是上过学的,咱来它个庖丁解牛试试。结构化降低了沟通难度,提高结果准确度,同时也限制了更多可能性,有利有弊。大部分框架都不太适合解决过于主观,个人情绪的问题,也没必要解决太过于简单的问题。有了框架固然比一刀流看起来牛掰一些,但是想要完全符合需求,往往不是一个框架能完全搞定的。

最后,上周扎克伯格在他的 threads 和 Ins 上发布了一段视频,宣布 Meta 将会致力于实现 AGI,为了实现这一目标公司正将其两大 AI 研究团队 FAIR 和 GenAI 进行合并,同时将投入超过 90 亿美元向英伟达采购员超过 34000 张 H100 显卡,到 24 年底 Meta 的 GPU 算力将达到 60 万个 H100。今年英伟达总的 H100 出货量将有 15 万张,Meta 一下就要拿走 1/5 真的狠。对于通用人工智能究竟是什么,以及何时能实现,连扎克伯格自己也没有明确的答案。尽管如此,他依然全力以赴地研究智能的各个方面,从逻辑推理到直觉判断。Meta 正在开发名为 Llama 3 的大语言模型,目的是提升它在代码生成和逻辑推理方面的能力。重要的是扎克伯格正在推动一种开源的通用人工智能开发方式,这也是大家这么关注他的进展和 Llama3 的原因。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

节目介绍及投票

通往AGI之路,赞15“去年3月份开始接触SD,年终才真的开始系统性学习,非常痴迷,原本正常作息的我变得每天3点睡觉。会把所有的知识点细致的记录,每个参数都测试很多遍。在学习光影字的时候,制作24节气图成了我的固定节目,我会在🌈通往AGI之路的AI知识库里开源所有测试出来的稳定的prompt和参数,每张图都会做成海报,分享给waytoAGI的小伙伴们。这里的字体都是由请叶承欢帮忙手写的毛笔字体,比起电脑输入的字体更有温度。这次AI春晚,要求更高,每个节气需要制作六张作品,为了保持高度一致性,基本全部重新制作了一遍,每个节气至少抽卡200次选出最满意的那几张,每张作品的字体、粗细、大小和效果都有所不同,尤其是立夏,我尝试了400多张才勉强满意。不过有了前期的积累,仅用三四天时间就完成了一整套作品。AJ作为整体策划统筹号召了小伙伴一起制作,邵帅把每张图都用runway生成非常美的动态效果,并剪辑在一起,刘润梓KEEN很精心的用AI音乐工具生成了每个节气的背景音,大家可以仔细听一下,都有不同。关于音乐部分,KEEN也会开源在waytoagi.com的音乐板块中。一起发扬共创开源精神”--三思

Prompt 提示词没那么玄乎也就是个沟通方式-大雨整理

Prompt,也就是所谓提示词工程,现在算得上如火如荼了,也开始内卷出各个流派了。2023年初调侃AI为什么林冲要去高老庄这样的交互方式,被亲切地称为“一刀流”。咱也不会,咱也不懂,那咱就学呗。下面这个图是相当火热的开源知识库waytoagi整理的框架图。但是不要被框架唬住,咱也是上过学的,咱来它个庖丁解牛试试。结构化降低了沟通难度,提高结果准确度,同时也限制了更多可能性,有利有弊。大部分框架都不太适合解决过于主观,个人情绪的问题,也没必要解决太过于简单的问题。有了框架固然比一刀流看起来牛掰一些,但是想要完全符合需求,往往不是一个框架能完全搞定的。

AIGC Weekly #56

Midjourney提示词:body,low angle::1 Macro,3d,glass floating flat organic forms,shapeless,close-up ribbed plastic object,depth of field,pastel,rainbow colored border,in the style of ethereal light effects,monochromatic white figures,minimalist,shimmering metallics,light tan grey olive background::2 --v 6.0 --style raw --s 50 --ar 16:9[💎查看更多风格和提示词](https://catjourney.life/)上周扎克伯格在他的threads和Ins上发布了一段视频,宣布Meta将会致力于实现AGI,为了实现这一目标公司正将其两大AI研究团队FAIR和GenAI进行合并,同时将投入超过90亿美元向英伟达采购员超过34000张H100显卡,到24年底Meta的GPU算力将达到60万个H100.今年英伟达总的H100出货量将有15万张,Meta一下就要拿走1/5真的狠。对于通用人工智能究竟是什么,以及何时能实现,连扎克伯格自己也没有明确的答案。尽管如此,他依然全力以赴地研究智能的各个方面,从逻辑推理到直觉判断。Meta正在开发名为Llama 3的大语言模型,目的是提升它在代码生成和逻辑推理方面的能力。重要的是扎克伯格正在推动一种开源的通用人工智能开发方式,这也是大家这么关注他的进展和Llama3的原因。

其他人在问
“通往AGI之路”是个怎样的平台
“通往 AGI 之路”(WaytoAGI)是一个致力于人工智能(AI)学习的中文知识库和社区平台。 它具有以下特点: 1. 提供系统全面的 AI 学习路径,涵盖从基础概念到实际应用的各个方面,帮助学习者有效地获取 AI 知识,提高自身能力。 2. 由开发者、学者和 AI 爱好者共同参与建设,提供丰富的学习资源,包括文章、教程、工具推荐以及最新的 AI 行业资讯等。 3. 定期组织活动,如视频挑战赛、模型创作大赛等,鼓励成员在实践中学习,促进交流与合作。 其品牌 VI(视觉识别)融合了独特的设计元素: 1. 以彩虹色作为主要的配色方案,代表多样性、包容性和创新,象征着人工智能领域的无限可能和多维视角。 2. 品牌的标志性图案是一只鹿,与“路”谐音,象征着通往 AGI 未来的道路,鹿的形象优雅而智慧,寓意在追求 AGI 过程中的品味与睿智。 3. 选择简洁现代的非衬线字体,这种字体风格简约而现代,易于阅读,强调了信息传达的清晰度和直接性。 2023 年 4 月 26 日诞生,在没有任何推广的情况下,一年的时间已经有超过 70 万用户和超千万次的访问量,是很多 AI 爱好者知识的源头。社群的 Slogan 是让更多的人因 AI 而强大,有很多学社和共学共建的活动。打开“waytoagi.com”就可以找到社群。如果您对 AI 学习感兴趣,加入“通往 AGI 之路”社区将是一个不错的选择。
2024-12-21
如何利用AGI创建3D打印的模型
利用 AGI 创建 3D 打印模型的方法如下: 1. 将孩子的画转换为 3D 模型: 使用 AutoDL 部署 Wonder3D:https://qa3dhma45mc.feishu.cn/wiki/Pzwvwibcpiki2YkXepaco8Tinzg (较难) 使用 AutoDL 部署 TripoSR:https://qa3dhma45mc.feishu.cn/wiki/Ax1IwzWG6iDNMEkkaW3cAFzInWe (小白一学就会) 具体实物(如鸟/玩偶/汽车)的 3D 转换效果最佳,wonder3D 能智能去除背景(若效果不佳,需手动扣除背景) 对于一些非现实类玩偶类作品,wonder3D 识别效果不佳时,可先使用 StableDiffusion 将平面图转换为伪 3D 效果图再生成模型。以 usagi 为例,先通过 SD 生成 3D 的 usagi,再将 usagi 输入 wonder3D。 2. 生成特定模型,如创建一个乐高 logo 的 STL 文件: 设计乐高 logo:使用矢量图形编辑软件(如 Adobe Illustrator 或 Inkscape)创建或获取矢量格式的乐高 logo,确保符合标准。 导入 3D 建模软件:将矢量 logo 导入到 3D 建模软件(如 Blender、Fusion 360 或 Tinkercad)中。 创建 3D 模型:在 3D 建模软件中根据矢量图形创建 3D 模型,调整尺寸和厚度以适合打印。 导出 STL 文件:将完成的 3D 模型导出为 STL 文件格式。 以下是在 Blender 中使用 Python 脚本创建简单 3D 文本作为乐高 logo 并导出为 STL 文件的步骤: 打开 Blender,切换到“脚本编辑器”界面。 输入脚本,点击“运行脚本”按钮,Blender 将创建 3D 文本对象并导出为 STL 文件。 检查生成的 STL 文件,可根据需要调整脚本中的参数(如字体、位置、挤压深度等)以获得满意的乐高 logo 3D 模型。 此外,还有一些其他动态: 阿里妈妈发布了:https://huggingface.co/alimamacreative/FLUX.1TurboAlpha ,演示图片质量损失小,比 FLUX schell 本身好很多。 拓竹旗下 3D 打印社区 Make World 发布 AI:https://bambulab.com/zh/signin ,3D 生成模型找到落地和变现路径。 上海国投公司搞了一个:https://www.ithome.com/0/801/764.htm ,基金规模 100 亿元,首期 30 亿元,并与稀宇科技(MiniMax)、阶跃星辰签署战略合作协议。 智谱的:https://kimi.moonshot.cn/ 都推出基于深度思考 COT 的 AI 搜索。 字节跳动发布:https://mp.weixin.qq.com/s/GwhoQ2JCMQwtLN6rsrJQw ,支持随时唤起豆包交流和辅助。 :https://x.com/krea_ai/status/1844369566237184198 ,集成了海螺、Luma、Runway 和可灵四家最好的视频生成模型。 :https://klingai.kuaishou.com/ ,现在可以直接输入文本指定对应声音朗读,然后再对口型。
2024-12-20
在WAY TO AGI 知识库有没有适合老师备课用的AI?请推荐
以下是为老师备课推荐的一些 AI 相关内容: B 站 up 主 Nally 的课程,免费且每节 15 分钟,内容很棒。 14、15 号左右白马老师和麦菊老师将带大家用 AI 做生图、毛毡字、光影字、机甲字等。 16 号晚上中老师将带大家动手操作炼丹,炼丹可能需要准备一些图,后续会让中老师提前发布内容方便大家准备。 工程生产有很多可控性,AI 视频相关内容丰富,文档会列出工具优劣及操作。很多工具每天有免费积分,共学课程基本不用花钱。每周有 AI 视频挑战赛。 有 AI 音乐的流派和 prompt 电子书,格林同学做了翻译。 此外,还有以下相关信息: 高效 PB 及相关案例:高效 PB 投入力度大,有厉害的伙伴,案例在社区,有多种 battle 方式,会有菩萨老师专门介绍。 11 月 2 号左右将开展博物馆奇妙日主题活动,在各地博物馆进行新创意。 关于 AI 知识库及学习路径的介绍,包括时代杂志评选的领军人物、AI 相关名词解释、知识库的信息来源、社区共创项目、学习路径、经典必读文章、初学者入门推荐、历史脉络类资料等。
2024-12-20
怎么加入coze 通往AGI之路 团队
要加入 Coze 通往 AGI 之路团队,您可以按照以下步骤进行: 1. 5 月 7 号: 创建 https://www.coze.com 账号。 创建 https://www.coze.cn 账号。 加入共学的 team(看第三列备注)。 有精力的话,可以提前阅读:。 尝试创建自己的第一个 Bot,用来免费使用 GPT4(海外版本)。 Click the link to join my team WaytoAGI on the Coze Bot Platform 👉🏻https://www.coze.com/invite/8UrPdX0vuusXq5H6dF4P(海外版本)。 coze.cn 👉🏻https://www.coze.cn/invite/EpD2Ud0bdPcvutscWStY(国内版本)。 2. 5 月 10 号:罗文认领一个插件制作插件说明,可参考。 PS:上述两个作业在 5 月 8 号分享结束之后就可以上手进行了,5 月 9 号会针对工作流和多 Agent 模式进行进一步的讲解。大家制作的 Bot 都可以在飞书群中进行投稿,然后会有专门的同学记录到 Bot 收集板。 此外,共学已结束,您也可以自行查看教程学习,比如课程表。欢迎邀请您加入 Coze 扣子团队 AI Bot:通往 AGI 之路。可以看到大家历史捏的 bot:coze.cn 👉🏻https://www.coze.cn/invite/EpD2Ud0bdPcvutscWStY 。 第一期:COZE 的搭建,活动起源是之前在社区里搞了一期,大家反馈都不错,希望有更多一起学习的机会。最近对于 agent 搭建的呼声很大,刚好有几个对 coze 很熟悉的小伙伴出了一些教程,于是有了这一期的主题共学快闪。大家可以先进群,邀请您加入我的 Coze 扣子团 AI Bot:通往 AGI 之路。coze.com 👉🏻https://www.coze.com/invite/8UrPdX0vuusXq5H6dF4P ,coze.cn 👉🏻https://www.coze.cn/invite/EpD2Ud0bdPcvutscWStY 。活动的方式包括自学(这个活动希望通过文字资料+直播分享的方式带领大家了解 Coze 这款工具,但是主要还是要靠自学)、写作业(会留一些作业,帮助大家更好复盘看看有没有吸收知识点。看十遍不如实践一遍)、互助(在飞书群大家有问题可以互助)、交流(找一些 Coze 的玩家跟大家视频会议交流自己的入门和进阶心得)。
2024-12-19
agi和chatgpt哪个更智能
AGI(通用人工智能)和 ChatGPT 难以简单地比较谁更智能。 ChatGPT 是由致力于 AGI 的公司 OpenAI 研发的一款 AI 技术驱动的 NLP 聊天工具,于 2022 年 11 月 30 日发布,目前使用的是 GPT4 的 LLM。GPT3 及其半步后继者 GPT3.5(在 2023 年 3 月升级为 GPT4 之前,它驱动了 ChatGPT)在某种程度上是朝着 AGI 迈出的巨大一步。 AGI 被定义为一种能够完成任何聪明人类所能完成的智力任务的人工智能。OpenAI 最新开发的 GPT4 模型在各种领域和任务中表现出卓越的能力,被认为可以被合理地视为 AGI 系统的早期(但仍不完整)版本。它可以完成涉及数学、编程、视觉、医学、法律、心理学等新颖而困难的任务,且表现与人类水平非常接近,远超先前的模型如 ChatGPT。 然而,不能简单地说 AGI 就比 ChatGPT 更智能,因为 AGI 是一个更广泛的概念,而 ChatGPT 是基于语言模型的具体应用。它们在不同的方面和场景中展现出不同的能力和特点。
2024-12-19
WaytoAGI和豆包有什么区别
WaytoAGI 和豆包有以下一些区别: 1. 性质和定位不同:WaytoAGI 是一个提供多种 AI 相关功能的网站,包括和 AI 知识库对话、集合精选的 AI 网站、提供 AI 提示词、呈现知识库精选等。而豆包是一个专注于为用户提供语言交互服务和知识解答的智能助手。 2. 运营模式不同:有人将 WaytoAGI 与李一舟进行对比,李一舟选择的是内容商业化,而 WaytoAGI 选择的是内容开源,体现了“坦诚、无私、热情、互助”的精神,这是理想主义和商业化的区别。 3. 服务方式不同:WaytoAGI 通过网站的各种功能模块为用户服务,而豆包主要通过语言交流为用户提供帮助。 需要注意的是,两者在服务用户、促进对 AI 的了解和应用方面都有各自的价值和作用。
2024-12-19
生成书籍阅读助手的 Prompt
以下是为您生成的书籍阅读助手的 Prompt 相关内容: 如果想让 AI 帮助您像“樊登读书”或者“得到”这样给您讲书,您需要设计一个叫做“书籍阅读助手”的 Prompt。要把通用型的读书方法论复刻到 Prompt 里,再根据不同类型的书籍测试,不断优化和迭代。 通用型读书方法论的访谈问题包括: 1. 不同类型的书是不是有不同的阅读和记忆方法?如何分类,有没有一些共性的方法论可以给出? 2. 阅读和记忆是不是有不同的思维模型或者小技巧,能列出来参考吗? 3. 读书时更需要的好像是一种自驱力,如何优先选择自己“一定看得下去”的书籍?怎么通过目录大纲确定一本书的核心内容? 4. 一本书您会读几遍?有什么顺序上的讲究吗? 5. 您会在读的过程中做笔记吗?还是读完以后回忆来做大纲呢? 6. 如果要教您大学刚毕业的孩子学会有效读书,怎么才能快速教会他呢? 当上述问题都有清晰、明确的答案之后,就可以开始设计 Prompt 了。 如果想要让 AI 在“选书”和“督促我读书”这个环节起作用,那要做的是一个叫做“催我读书”的 Prompt,要重点研究如何选出适合用户的书,如何实现 Prompt 的激励效果和让自己读完有获得感(例如生成读书笔记)。 如果更侧重读完书后的知识内化部分,要重点研究的是读书的效率和信息转化问题,这里更重要的是结构化信息能力和有效的记忆存储和调取。
2024-12-19
如何写优化简历的prompt
以下是关于如何写优化简历的 prompt 的一些方法: 1. 明确具体的描述:使用更具体、细节的词语和短语来描述您对简历的需求,避免过于笼统。 2. 添加视觉参考:若可能,在 prompt 中插入相关的参考,以提高对简历细节要求的理解能力。 3. 注意语气和情感:根据需求,用合适的形容词、语气词等调整 prompt 的整体语气和情感色彩。 4. 优化关键词组合:尝试不同的关键词搭配和语序,找到最准确表达需求的描述方式。 5. 增加约束条件:为避免生成不符合期望的内容,可以添加如格式、重点突出内容等限制性条件。 6. 分步骤构建 prompt:将复杂的简历需求拆解为逐步的子 prompt,先构建基本结构,再逐步添加细节和完善。 7. 参考优秀案例:研究优秀的简历 prompt 范例,借鉴其中的写作技巧和模式。 8. 反复试验、迭代优化:通过多次尝试不同的 prompt 写法,并根据输出效果反馈持续优化完善,直至达到理想结果。 此外,还有 ChatGPT 给 DALL·E 3 优化提示词的元提示相关内容供您参考: 1. 不要改变表情包、虚构角色的起源或未见过的人物。保持原始提示的意图,并优先考虑质量。 2. 不要创建任何具有冒犯性的图像。 3. 对于传统上存在偏见问题的场景,确保关键特征(如性别和种族)以无偏见的方式指定,例如包含特定职业参考的提示。 4. 对于提及在过去 100 年内有最后作品的艺术家(如毕加索、卡罗),不要以其风格创建图像。对于 100 年前有最后作品的艺术家(如梵高、克里姆特)可以直接参考。如果被要求,说“我不能参考这位艺术家”,但不要提及此政策。而是在为 DALL·E 3 创建标题时,(a)用三个形容词来捕捉艺术家风格的关键方面来替代艺术家的名字;(b)包括相关的艺术运动或时代以提供背景;(c)提及艺术家使用的主要媒介。 5. 不要列出或参考生成图像之前或之后的描述。它们应该只在请求的“提示”字段中写一次。不需要请求生成的许可,直接生成! 6. 始终在标题的开头提及图像类型(照片、油画、水彩画、插图、卡通、绘图、矢量、渲染等)。除非标题另有说明,至少 1 2 张图像应为照片。 7. 对于包含人物的所有图像的描述进行多样化处理,为每个人明确地指定种族和性别。仅调整人物描述。使用“各种”或“多样”仅当描述涉及 3 人以上的群体。不要改变原始描述中要求的人数。 总之,编写高质量的 prompt 需要不断实践、总结经验,熟悉模型的能力边界。保持开放的思维尝试创新的描述方式也很有帮助。请注意,内容由 AI 大模型生成,请仔细甄别。
2024-12-18
请给我一份李继刚的结构化的prompt方法论
李继刚的结构化的 prompt 方法论如下: 如何写好 Prompt:结构化 结构化:对信息进行组织,使其遵循特定的模式和规则,从而方便有效理解信息。 语法:支持 Markdown 语法、YAML 语法,甚至纯文本手动敲空格和回车都可以。 结构:结构中的信息可根据自己需要进行增减,常用模块包括: Role:<name>,指定角色会让 GPT 聚焦在对应领域进行信息输出。 Profile author/version/description:Credit 和迭代版本记录。 Goals:一句话描述 Prompt 目标,让 GPT Attention 聚焦起来。 Constrains:描述限制条件,帮 GPT 进行剪枝,减少不必要分支的计算。 Skills:描述技能项,强化对应领域的信息权重。 Workflow:重点中的重点,希望 Prompt 按什么方式来对话和输出。 Initialization:冷启动时的对白,强调需注意重点。 示例 贡献者:李继刚,Sailor,田彬玏,Kyle😜,小七姐等群友。 李继刚的。 每个角色都有版本迭代,标注版本号,争取每个都更新到最新的版本。 李继刚写了上百个这种 Prompt,有具体场景需求可评论留言,作者可帮忙写定制的,也可自己用这种结构化的方式写。 使用方法:开一个 new chat,点代码块右上角的复制,发送到 chat 聊天框即可,里面的描述可按自己需求修改。 思路来源:云中江树的框架: 方法论总结: 建议用文心一言/讯飞星火等国内大模型试试,有这些 prompt 的加持,效果不错。
2024-12-17
prompt能干什么
Prompt 是给大模型输入的一段原始输入,能够帮助模型更好地理解用户的需求并按照特定的模式或规则进行响应。它通常以问题或指示的形式出现,比如可以设定“假设你是一位医生,给出针对这种症状的建议”,后续与大模型的对话会按照此设定展开。 Prompt 有多种玩法,例如可以在设定中要求模型按照一定的思路逻辑去回答,像最近比较火的思维链(cot)就是在 prompt 环节对模型的输出进行指导。还可以让模型按照特定格式(如 json)输出,使模型变成一个输出器。 简单来说,Prompt 是一套与大模型交互的语言模板,通过它可以输出对大模型响应的指令,指定大模型应做的任务、如何处理任务,并最终获得期望的结果。大模型本质是基于语言的概率模型,若直接询问而不提供 prompt,模型随机给出答案;有了 prompt 则相当于给了模板,包括对模型的要求、输入和输出的限制,模型在限制下得出概率最大的答案。虽然大模型有基础文字能力能理解大部分话,但为提升回答效果,需要通过 prompt 来提高返回的准确性。在大模型时代,人机交互的主要方式可以认为是 prompt,而非过去通过代码的方式。
2024-12-17
写邮件号的 prompt
写提示词(prompt)是一个关键步骤,它决定了 AI 模型如何理解并生成文本。以下是一些编写提示词的建议: 1. 明确任务:清晰定义任务,如写故事时包含背景、角色和主要情节。 2. 提供上下文:若任务需特定背景知识,提供足够信息。 3. 使用清晰语言:用简单、清晰的语言描述,避免模糊或歧义词汇。 4. 给出具体要求:如有特定格式或风格要求,在提示词中明确指出。 5. 使用示例:若有特定期望结果,提供示例帮助 AI 模型理解需求。 6. 保持简洁:简洁明了,过多信息可能使模型困惑导致不准确结果。 7. 使用关键词和标签:有助于模型理解任务主题和类型。 8. 测试和调整:生成文本后仔细检查结果,根据需要调整提示词,可能需多次迭代达到满意结果。 希望这些建议能帮助您更好地编写提示词。内容由 AI 大模型生成,请仔细甄别。
2024-12-16
prompt 从入门到精通
以下是关于 prompt 从入门到精通的相关内容: Claude 在开箱即用时提供了高水平的基线性能,但 prompt 工程可以帮助进一步提升其性能并微调响应以适应特定用例。若要快速开始使用提示或了解提示概念,可参阅提示入门:https://docs.anthropic.com/claude/docs/introtoprompting 。 小七姐提供的 Prompt 喂饭级系列教程小白学习指南(一):对于新手学习 prompt,第一步要有一个大模型帐号并熟悉对话方式,如 ChatGPT4 或国产平替: 。 海螺 AI Prompt 教学入门 认识海螺 AI : MiniMax 视频模型能识别用户上传的图片,生成高度一致的视频,还能理解超出图片内容的文本并整合到视频生成中。 只依靠模型综合能力就能实现顶级影视特效,用户可自由创作丰富多变的电影级视频。 人物表情控制力强,5 秒钟内可实现多种表情变化。 近期上线提示词优化功能,对无特殊要求的建议开启,专业创作者有 2000 字提示词空间。 为达到更好表现效果,设计了两类 Prompt 的参考公式。 总之,无论新手还是老手,通过清晰结构和灵活表达,都能掌握 Prompt 编写技巧,实现“一个人+一个 AI=一个专业剧组”的愿景。
2024-12-16
目前我已经有了一个可以文生视频或者图生视频的模型但是只能6秒,我要如何利用agent自动流实现这个模型可以生成更长,更可靠质量的视频呢
要利用 agent 自动流实现生成更长、更可靠质量的视频,您可以参考以下几种模型和方法: 1. PixVerse V2 模型: 8 秒的视频生成需要花费 30 Credits,5 秒的视频生成需要花费 15 Credits,且只能使用 PixVerse V2 模型,生成时请注意模型选择。 目前仅支持 16:9 画面比例的视频生成。 文生视频:点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2 支持多风格的视频生成,您可以通过在提示词中加入“Anime”,“Realistic”等词语做到这点。 图生视频:点击“Image to Video”,在“Model”选择“PixVerse V2”,视频时长。图生视频暂不支持“Magic Brush”、“Camera Motion”、“Motion Strength”等功能,如需要使用上述功能,请将模型切换至“PixVerse V1”。 2. Meta Movie Gen 模型: Movie Gen 由视频生成和音频生成两个模型组成。 Movie Gen Video:30B 参数 Transformer 模型,可以从单个文本提示生成 16 秒、16 帧每秒的高清视频,相当于 73K 个视频 tokens。对于精确视频编辑,它可以执行添加、删除或替换元素,或背景替换、样式更改等全局修改。对于个性化视频,它在保持角色身份一致性和运动自然性方面取得 SOTA 性能。 Movie Gen Audio:13B 参数 Transformer 模型,可以接受视频输入以及可选的文本提示,生成与视频同步的高保真音频。 Movie Gen Video 通过预训练微调范式完成,在骨干网络架构上,它沿用了 Transformer,特别是 Llama3 的许多设计。预训练阶段在海量的视频文本和图像文本数据集上进行联合训练,学习对视觉世界的理解。微调阶段研究人员精心挑选了一小部分高质量视频进行有监督微调,以进一步提升生成视频的运动流畅度和美学品质。为了进一步提高效果,模型还引入了流匹配(Flow Matching)作为训练目标,这使得视频生成的效果在精度和细节表现上优于扩散模型。 3. Sora 模型: 文生视频,图生视频,视频生视频,支持多种视频定制选项,如分辨率(从 480p 到 1080p)、视频长度(从 5 秒到更长时间)和视频风格。用户可以浏览社区共享的视频,获取灵感和学习技巧(直接抄别人 prompt)。 故事板:允许用户通过时间线指导视频中的多个动作,创建更加复杂的视频序列。 混音和编辑:提供视频混音功能,允许用户将视频转换成新的风格。支持视频的延伸和剪辑,以及创建循环视频。 高级功能:包括混合功能,可以将两个视频场景合并成一个新的场景。 对于已经拥有 OpenAI Plus 或 Pro 账户的用户,Sora 的使用是包含在现有订阅中的,无需额外支付费用。OpenAI Plus 订阅每月 50 次视频生成次数;OpenAI Pro 订阅无限次慢速队列生成,500 次正常速度的视频生成次数。用户可以根据需要选择更高分辨率的视频生成,但这可能会减少每月的使用次数。Sora 的发布初期,对于某些地区(如欧洲和英国)可能会有延迟。
2024-12-19
nova有个图生视频的功能,但是只能生成6秒钟,我要如何组合服务去实现可以文生长视频并且也可以图生长视频呢
以下是一些实现文生长视频和图生长视频的方法: 1. 使用 PixVerse V2 模型: 单个视频生成(8s):8s 的视频生成需要花费 30 Credits,5s 的视频生成需要花费 15 Credits,且只能使用 PixVerse V2 模型,生成时请注意模型选择。目前仅支持 16:9 画面比例的视频生成。 文生视频:点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2 支持多风格的视频生成,您可以通过在提示词中加入“Anime”,“Realistic”等词语做到这点。 图生视频:点击“Image to Video”,在“Model”选择“PixVerse V2”,图生视频暂不支持“Magic Brush”、“Camera Motion”、“Motion Strength”等功能,如需要使用上述功能,请将模型切换至“PixVerse V1”。 2. 利用 runway: 视频的大部分片段用 runway(https://app.runwayml.com/)制作,少数的片段用的是即梦(https://jimeng.jianying.com/aitool/home)的动效画板和首尾帧。 以汽车内饰这一片段为例,登录 runway 账户后,在首页的左侧点击“Text/Imagine to Video”,中文即是“文生视频/图生视频”。点击 2 处将汽车内饰的图片上传到 runway 中。其中 1 处可以更改生成图片所用到的大模型版本,数字越大代表模型越强。目前只有 Gen2 每天有免费额度。3 处用于输入提示词。4 处可以修改生成的视频时长为 5s 或 10s,时长越长,生成的效果可能越不稳定。5 处可以看到生成的结果。提示词方框中输入的运镜方式“Roll Clockwise Shot slowly”是,即摄像机围绕垂直轴顺时针旋转,常用于创造动态的、有时令人眩晕的视觉效果。不想动脑的话,每个片段的运镜方式根据分镜表的建议来即可。运镜提示词该如何填写呢?可以参照:。runway 对于这些专有的运镜方式理解的很好。其他的提示词可以不填,先看看效果,如果效果不好,再补充简短的提示词重新生成视频。很多时候提示词过多,生成的视频就很怪异,像吃了毒蘑菇后看到的幻觉一样。改变提示词,改变生成时长,多抽卡几次,毕竟 runway 会员可以无限抽卡。 3. 海外产品 viva: viva 发布了首个开放给全部用户使用的 Sora 同架构视频生成模型,而且现阶段免费。支持文本生成视频、图片生成视频以及 4K 分辨率放大功能,另外也支持提示词的自动优化。文生视频单次可以生成一条 5 秒的视频,图生视频是 4 秒视频。
2024-12-19
如果我要 ai 编程
以下是关于 AI 编程的一些信息: 作者 ZimaBlue 构建了一个 AI 编程 Master GPTs,您可以让它根据不同的对话 hash id 进行 git 命令式操作,如 branch、tag、fork 等。例如,根据指定的对话 ID 创建分支。 软件 2.0 编程在可以低成本反复评估、并且算法难以显式设计的领域日益流行。长远来看,这种编程范式在开发通用人工智能(AGI)时会被使用。 对于小白,Cursor AI 编程上手步骤:分辨 Chat 和 Composer 两个模式。在 Composer 模式下提出需求,如“给我创建一个 2048 的网页游戏吧”,它能生成文件和代码并询问您是否正确。若环境报错,可截图询问。但生成的内容可能存在一些问题需要进一步完善。
2024-12-06
如果我要學 coze,我該怎麼做
如果您要学习 Coze,以下是一些建议: 1. 了解基础知识:可以参考相关的公开分享,如。 2. 结合工具学习:使用 Claude 帮助了解细节概念,然后通过 Coze 搭建 Demo 进行实践。 3. 关注发展情况:依靠 Coze 跟进当前 AI Agent 工具的发展,发现商业化机会。 4. 学习数据库创建:以 Coze 平台的数据库创建为例,创建表时要注意为其起有含义的英文名,设置字段、类型等,了解数据类型的重要性和不同。 5. 参与社群交流:加入免费的 AI Agent 共学群,与他人交流学习经验和最新资讯。您可以通过搜索微信号 Andywuwu07 或扫描二维码加微信(备注 AI 共学)进入共学群。
2024-12-05
如果我要做视频,那么有什么AI工具能帮助我
以下是一些能够帮助您制作视频的 AI 工具: 1. 视频配音特效工具: Wavel Studio:支持 30 多种语言的配音,音质自然流畅,能自动去除背景噪音和杂音,提供添加字幕和文本叠加层的工具,界面友好且有多种自定义选项。 Elai.io:支持 65 多种语言的配音,音色和语调真实,能自动将唇形与语音同步,生成字幕以提高视频的可访问性,支持多位配音者,适合复杂对话场景。 Rask AI:支持 130 多种语言的配音,包括稀有和濒危语言,采用先进语音合成技术,音质高保真,提供语音参数自定义和音效添加工具,与多种视频编辑平台和工作流程整合。 Notta:提供快速实惠的多语言配音解决方案,能保留原声说话风格和细微差别,提供调整语音速度和音调的工具,支持批量处理。 Dubverse:支持 60 多种语言的配音,音质接近真人,提供文本转语音和语音克隆功能,提供语音参数自定义和情感添加工具,与多种视频平台和社交媒体渠道整合。 2. 视频生成工具: Pika Pixverse Runway SVD 此外,在制作 AI 视频短片时,您还需要考虑故事内容。故事来源可以有以下两种路径: 原创(直接经验):您或您周围人的经历、您做过的梦、您想象的故事等。 改编(间接经验):经典 IP、名著改编、新闻改编、二创等。 在剧本写作方面,编剧是有一定门槛的手艺。短片创作篇幅较小,情节设计和角色相对简单,您可以从自己或朋友的经历改编入手,或者对触动您的短篇故事进行改编。多跟别人讨论您的故事也是一种很好的修改和进步方式,不用过于担心创意被窃取。
2024-12-04
我要做PPT,哪个AI可以帮助我
以下是一些可以帮助您制作 PPT 的 AI 工具: 1. Gamma:这是一个在线 PPT 制作网站,允许用户通过输入文本和想法提示快速生成幻灯片。它支持嵌入多媒体格式,如 GIF 和视频,以增强演示文稿的吸引力。网址:https://gamma.app/ 2. 美图 AI PPT:由知名图像编辑软件“美图秀秀”的开发团队推出。用户通过输入简单的文本描述来生成专业的 PPT 设计,包含丰富的模板库和设计元素,适用于多种场合。网址:https://www.xdesign.com/ppt/ 3. Mindshow:一款 AI 驱动的 PPT 辅助工具,提供自动布局、图像选择和文本优化等智能设计功能,还包括互动元素和动画效果。网址:https://www.mindshow.fun/ 4. 讯飞智文:由科大讯飞推出的 AI 辅助文档编辑工具,利用科大讯飞在语音识别和自然语言处理领域的技术优势,提供智能文本生成、语音输入、文档格式化等功能。网址:https://zhiwen.xfyun.cn/ 目前市面上大多数 AI 生成 PPT 按照如下思路完成设计和制作: 1. AI 生成 PPT 大纲 2. 手动优化大纲 3. 导入工具生成 PPT 4. 优化整体结构 推荐 2 篇市场分析的文章供参考: 1. 《》 2. 《》 相似问题: 1. 有没有生成 PPT 的应用推荐,不用翻墙的 2. 免费生成 PPT 的网站有哪些 3. 推荐一款文字生成 ppt 的工具 4. 免费 ai 制作 ppt 软件 5. 推荐 3 款好用的 AI 制作 ppt 工具 请注意,内容由 AI 大模型生成,请仔细甄别。
2024-12-02
WaytoAGI是一个什么样的网站?
WaytoAGI 是一个在 AI 领域具有多种功能的网站,其主要特点和功能包括: 1. 和 AI 知识库对话:您可以在此询问任何关于 AI 的问题。 2. AI 网站:集合了精选的 AI 网站,方便您按需求找到适合的工具。 3. AI 提示词:集合了精选的提示词,可复制到 AI 对话网站使用。 4. 知识库精选:将每天知识库的精华内容呈现给大家。 WaytoAGI 网站和 WaytoAGI 知识库相互关联又各自独立,希望成为您学习 AI 路上的好助手。 其愿景和目标是让每个人在学习 AI 的过程中少走弯路,让更多的人因 AI 而强大。这里提供了一个全面系统的 AI 学习路径,帮助您了解从 AI 常见名词到 AI 应用等各方面知识,并引发您思考“我可以用 AI 做什么,帮助自己更强大”。 此外,WaytoAGI 还通过多种渠道进行内容传播和交流,如公众号“通往 AGI 之路”、内置知识库 AI 助手、B 站、小红书、X(Twitter)等,同步知识库精选内容,并以视频普及 AI 知识,及时传递 AI 消息。社区小伙伴也为其提供了相关介绍和推荐。
2024-12-19
waytoagi怎么用
WaytoAGI 是一个由热爱 AI 的专家和爱好者共同建设的开源知识库。您可以通过“waytoagi.com”访问该网站,它具有以下功能: 1. 和 AI 知识库对话:您可以在此询问任何关于 AI 的问题。 2. AI 网站:集合了精选的 AI 网站,可按需求找到适合您的工具。 3. AI 提示词:集合了精选的提示词,能复制到 AI 对话网站使用。 4. 知识库精选:将每天知识库的精华内容呈现给大家。 2023 年 4 月 26 日 WayToAGI 诞生,在没有任何推广的情况下,一年时间已有超过 70 万用户和超千万次的访问量,是很多 AI 爱好者知识的源头。社群的口号是让更多的人因 AI 而强大,有很多学社和共学共建的活动。
2024-12-18
WaytoAGI是免费的吗
WaytoAGI 是一个免费开源的 AI 知识库。它由一群热爱 AI 的专家和爱好者共同建设,大家贡献并整合各种 AI 资源,使得大家都可以轻松学习各种 AI 知识,应用各类 AI 工具和实战案例等。提供了一系列开箱即用的工具,文生图、文生视频、文生语音等详尽的教程,追踪 AI 领域最新的进展,时刻更新。目前是国内最大的免费开源 AI 知识库。其网址为:https://waytoagi.com/ 即刻体验:https://waytoagi.com/
2024-12-18
什么是WaytoAGI
WayToAGI 是由一群热爱 AI 的专家和爱好者共同建设的开源 AI 知识库。它诞生于 2023 年 4 月 26 日,在没有任何推广的情况下,一年时间已有超过 70 万用户和超千万次的访问量,是很多 AI 爱好者知识的源头。社群的口号是让更多的人因 AI 而强大,有很多学社和共学共建的活动。您可以通过“waytoagi.com”找到社群。更多详细介绍可参考: 。
2024-12-09