Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

目前支持上下文长度最长的是什么AI

Answer

目前支持上下文长度较长的 AI 有以下几种:

  • Kimi:是国内最早支持 20 万字无损上下文的 AI,现在已提升到 200 万字,对长文理解表现出色,适合处理长文本或大量信息的任务,但在文字生成和语义理解、文字生成质量方面可能不如国内其他产品,且不支持用户自定义智能体。
  • http://X.AI 发布的 Grok-1.5:支持 128k 上下文长度,性能翻倍,在 MATH、HumanEval、GSM8K、MMLU 测试中表现出色。
  • AI21 发布的 Jamba:创新的 SSM-Transformer 架构,支持 256K 上下文长度,结合 Joint Attention 和 Mamba 技术,提升长上下文吞吐量。
Content generated by AI large model, please carefully verify (powered by aily)

References

1.1 入门:AI 学习路径与课程

Kimi智能助手1.Chatgpt的国产平替,实际上手体验最好,推荐新手用Kimi入门学习和体验AI2.1.不用科学🕸️、不用付费、支持实时联网3.是国内最早支持20万字无损上下文的AI,也是目前对长文理解做的最好的Ai产品3.能一次搜索几十个数据来源,无广告,能定向指定搜索源(如小红书、学术搜索[PC端点我传送门直接使用](https://kimi.moonshot.cn/?utm_campaign=TR_LgLmkEor&utm_content=&utm_medium=%E7%BD%91%E7%AB%99&utm_source=CH_tpOYmtV1&utm_term=)[移动端Android/ios](https://kimi.volctrack.com/a/E3w3Q1xa)点我去下载[heading1]🙏友情链接[content]「飞书」:一款汇集了各类AI优质知识库、AI工具使用实践的效率工具,助力人人成为效率高手。👇浏览飞书社区的精选课程、先进客户实践:[💻下载飞书](https://www.feishu.cn/download)

XiaoHu.AI日报

🔔Xiaohu.AI日报「3月29日」✨✨✨✨✨✨✨✨1⃣️🎬VideoSwap:替换视频中的人物、物体在不改变背景的情况下更换视频主体。提供交互式操作,实现个性化编辑。https://videoswap.github.io🔗https://x.com/imxiaohu/status/1773701782000308465?s=202⃣️🚀http://X.AI发布Grok-1.5128k上下文长度,性能翻倍。在MATH、HumanEval、GSM8K、MMLU测试中表现出色。http://x.ai/blog/grok-1.5🔗https://x.com/imxiaohu/status/1773645579354296723?s=203⃣️🤖Looi:让你的手机变成桌面机器人集成ChatGPT,实现富有表情的对话互动。支持情感识别、自适应互动等AI功能。正在众筹,129美金!http://looirobot.com🔗https://x.com/imxiaohu/status/1773611296216481913?s=204⃣️🎥LTX Studio发布一键生成电影工具由阿里-福尔曼使用@LTXStudio制作宣传片。展示将梦境变成现实影像的AI技术。🔗https://x.com/imxiaohu/status/1773598833076817922?s=205⃣️🌐AI21发布Jamba:世界首个Mamba的生产级模型创新的SSM-Transformer架构,支持256K上下文长度。结合Joint Attention和Mamba技术,提升长上下文吞吐量。https://ai21.com/jamba🔗https://x.com/imxiaohu/status/1773385162795241489?s=20

给小白的AI产品推荐

谈到聊天对话类的AI产品,我首推的是Kimi。Kimi最显著的特点就是它的超长上下文能力,这一特性在国内的AI聊天对话产品中可以说是独树一帜的。Kimi最初支持20万字的上下文,而现在已经提升到了惊人的200万字。这对于需要处理长文本或大量信息的任务来说是一个巨大的优势。因此,如果你从事文案工作,特别是需要处理大量文字或文件的工作,我强烈推荐使用Kimi。它的超长上下文能力可以帮助你更有效地处理和分析大量信息,提高工作效率。对于需要长期记忆或需要参考大量背景信息的任务,Kimi的这一特性尤其有用。但是,Kimi也有一些不足之处。经过使用,我发现它在文字生成和语义理解、和文字生成质量方面的能力可能不如国内其它产品好,并且它不支持用户自定义智能体。但尽管如此,我仍然强烈推荐Kimi给刚入门AI的朋友们。[heading3]2.1.2智谱清言[content]接下来,让我们来谈谈智谱清言。在中国AI领域,智谱AI的模型可以说是开创性的(22年就和清华一起自研了GLM130B)。这主要归功于其背后的技术,源自清华大学研发团队的科研成果转化。从模型质量来看,智谱AI的表现相当出色。在产品设计方面,智谱AI明显以ChatGPT为对标,努力打造类似的用户体验。值得一提的是,智谱AI是国内首批开放智能体应用的AI公司之一。这意味着他们在智能体开发和模型优化方面已经积累了丰富的经验和技术。特别是在逻辑推理和处理复杂提示词方面,智谱AI表现出了明显的优势,这使得它在处理需要深度思考和分析的任务时表现出色。

Others are asking
目前有哪些免费可用的 AI视频生成软件
以下是一些免费可用的 AI 视频生成软件: 1. Haiper:有免费额度,网址为 https://haiper.ai/ 。支持文生视频、图生视频、素描生视频、扩展视频,能生成 HD 超高清的视频。文生视频支持选择风格、秒数(2s 和 4s)、种子值。图生视频只能写提示词、秒数(2s 和 4s)。还支持视频重绘,包括局部重绘。 2. DynamiCrafter:免费,网址为 https://huggingface.co/spaces/Doubiiu/DynamiCrafter 及 https://github.com/Doubiiu/DynamiCrafter?tab=readmeovfile ,可生成 2 秒图生视频,还能做短视频拼长视频。 3. Morph studio:处于内测阶段,网址为 https://app.morphstudio.com/ 。暂未对外开放,可在官网提交内测申请。在 discord 上可以免费体验,支持文生视频、图生视频,英文提示词,支持运镜、运动强度、尺寸、秒数设置,默认生成 3s 视频。 此外,清影也是一款不错的 AI 视频生成工具,在首发测试期间所有用户均可免费使用。它具有不限量使用、生成速度快、提供配乐小功能等特色。生成参数包括时长 6s、清晰度 1440x960(3:2)、帧率 16fps 等,在风景、动物、超现实、人文历史类需求以及皮克斯风格、卡通风格、摄影风格、动漫风格等方面表现突出。 截至 2023 年,我们已经发现了 21 个公开的人工智能视频生成工具,大多数起初以 Discord 机器人的形式存在,随着产品成熟,越来越多的工具开始建立自己的网站甚至开发移动应用。
2025-03-18
使用ai绘图能够将带货产品批量换背景,使用在小红书社区
以下是一些能够为带货产品批量换背景并应用于小红书社区的人员信息: 卡飞猫:15692004031,擅长摄影写真、banner 生成、替换产品。 韩君奇:13060035786,能够批量出图,做小红书种草。 阿鱼:18102592057,擅长各种类型的 AI 画图,以及 AI 视频提效。 吴燕波:15766104311,可进行日常出图,视频等。
2025-03-18
使用ai绘图实现小红书笔记图片批量生成
以下是关于使用 AI 绘图实现小红书笔记图片批量生成的相关知识: Liblibai 简易上手教程: 1. 迭代步数:AI 调整图片内容的次数。步骤越多,调整越精密,出图效果理论上更好,但生图耗时越长,且效果提升并非线性,过多可能导致效果增长曲线放平并开始震荡。 2. 尺寸:图片生成的尺寸大小。太小 AI 生成内容有限,太大则可能放飞自我。如需高清图,可设置中等尺寸并用高分辨率修复。 3. 生成批次:用本次设置重复生成的批次数。 4. 每批数量:每批次同时生成的图片数量。 5. 提示词引导系数:指图像与 prompt 的匹配程度。数字增大图像更接近提示,但过高会使图像质量下降。 6. 随机数种子:生成的每张图都有随机数种子,固定种子后可对图片进行“控制变量”操作,如修改提示词、修改 clip 跳过层等。首次生成图时无种子。 7. ADetailer:面部修复插件,可治愈脸部崩坏,为高阶技能。 8. ControlNet:控制图片中特定图像,用于控制人物姿态、生成特定文字、艺术化二维码等,也是高阶技能。 利用 AI 批量生成、模仿和复刻《小林漫画》: 1. 需求分析:主要需求是国内可直接使用且能批量生产,选用扣子搭建工作流,可能需牺牲一定质量的文案和图片效果。 2. 批量生成句子:一次性生成的句子都进行生成图片处理,建议一次不要生成太多,如设置一次生成五句。 3. 句子提取:把生成的句子逐个提取,针对每个句子绘图。 4. 图片生成:根据生成的句子结合特有画风等描述绘图。 5. 图片和句子结合:扣子工作流支持 Python 代码,但环境缺少画图、图片处理所需包,可替换成搞定设计的方式处理图片,会用 PS 脚本效果也不错。 此外,还有一些人员在不同领域涉及 AI 绘图相关工作,如韩君奇从事批量出图和小红书种草工作。
2025-03-18
使用ai换背景能够实现真实的画面效果
使用 AI 换背景能够实现较为真实的画面效果,以下为您介绍几种相关方法: 在 SD 中,若要实现更精确的蒙版,如人物的眼睛或身上配饰等,可以使用 Segment Anything 中的 GroundingDINO 模型。启用该模型后,AI 会自动下载,也可从云盘下载放到指定文件目录。在检测提示词中输入相关内容,如“eye”,AI 可自动检测并设置蒙版,还能通过预览箱体获取眼睛编号进行单一调整。选择要修改的蒙版上传到重绘蒙版中,添加提示词如“闭眼”并生成。之后可给人物换背景,加载生成的背景蒙版,选择大模型和正向提示词,如“简单背景、花、国画、工笔”,并选择蒙版模式。若效果不佳,可将图片放入图生图中用 tile 模型细化,还可在 PS 中用创成式填充修复头发。 在 PS 中,可利用“创成式填充”去掉主体以外的人物,如在水面画选区并输入提示词添加渔船,选择头部区域添加棒球帽,选择草地部分输入提示词更换,选择树输入提示词更改等。但 PS 的“创成式填充”并非无所不能,生成的图可能质量不高或不匹配,需要更多尝试和后期处理。 Google 的 Gemini 文生图 AI 在抠图、换背景、打光影方面表现出色。如能无中生有地换背景,进行商业级别的背景合成与打光,通常能在短时间内取得稳定且较好的预期结果。
2025-03-18
ai变现
以下是关于 AI 变现的一些方式: 电商:婴儿的四维彩超 AI 预测 这是适合普通人作为副业的项目,操作简单。在孕妇妈妈孕期 22 26 周进行四维彩超检查期间,准爸爸妈妈通常很期待宝宝的模样,从而产生市场需求。在小红书、抖音等公域平台发布相关笔记会吸引咨询。操作流程为客户提供四维彩超原图,在 Midjourney 里进行垫图和特定描述词,10 分钟内出图。变现方式是在抖音、快手、视频号、小红书上发布相关内容,将客户引到私域接单,需注意平台引流要隐蔽,以免被限流或封号。 Character.ai 由 Noam Shazeer 和 Daniel De Freitas 于 2022 年 9 月创建,是一款基于 LLM 的聊天机器人网站。已预先创建许多聊天角色,用户可交流或自己创作角色,更注重人格属性,满足社交、情感等需求,还支持创建房间多人聊天。目前没有商业变现途径,公司计划“在不久的将来”推出付费订阅模式,也不排除采用广告支持模式。 写作:AI 写作变现指南 1. 项目启动:确定目标客户群体,如大学生、职场人士、自媒体从业者等,选择合适的 AI 写作工具。 2. 准备阶段:学习并实践 AI 写作技术,构建团队。 3. 商业模式构建:确定服务内容,如论文、报告、文案等写作服务,制定质量控制标准。 4. 运营与推广:在淘宝等电商平台开设店铺,建立写作培训社群,通过社交媒体和线下活动进行品牌和社群建设,与其他团队合作。 5. 项目优化与发展:持续关注 AI 技术进展,根据市场需求拓展服务和产品,收集客户反馈优化服务。
2025-03-17
毕业论文降低ai率
在毕业论文写作中,若要降低 AI 率,以下是一些建议和相关的 AI 工具介绍: AI 工具方面: 1. 文献管理和搜索: Zotero:结合 AI 技术,可自动提取文献信息,助您管理和整理参考文献。 Semantic Scholar:由 AI 驱动的学术搜索引擎,能提供相关文献推荐和引用分析。 2. 内容生成和辅助写作: Grammarly:通过 AI 技术提供文本校对、语法修正和写作风格建议,提高语言质量。 Quillbot:基于 AI 的重写和摘要工具,可精简和优化论文内容。 3. 研究和数据分析: Google Colab:提供基于云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,便于数据分析和可视化。 Knitro:用于数学建模和优化的软件,可进行复杂的数据分析和模型构建。 4. 论文结构和格式: LaTeX:结合自动化和模板,高效处理论文格式和数学公式。 Overleaf:在线 LaTeX 编辑器,有丰富模板库和协作功能,简化论文编写过程。 5. 研究伦理和抄袭检测: Turnitin:广泛使用的抄袭检测工具,确保论文原创性。 Crossref Similarity Check:通过与已发表作品比较,检测潜在抄袭问题。 使用这些工具时,要结合自己的写作风格和需求,选择最合适的辅助工具。同时,需注意不能过度依赖 AI 生成的内容,应保持自己的思考和创作,以降低论文的 AI 率。 需提醒的是,上述内容由 AI 大模型生成,请仔细甄别。
2025-03-17
我在写小说,怎么让AI在写作时能很好地根据整体故事情节和上下文进行故事的展开和描写
以下是一些让 AI 在写作小说时能很好地根据整体故事情节和上下文进行故事展开和描写的方法: 1. 创作穿越故事的 Prompt 时,明确以下内容: 标题:“generate:小说的标题” 设置:“generate:小说的情景设置细节,包括时间段、地点和所有相关背景信息” 主角:“generate:小说主角的名字、年龄、职业,以及他们的性格和动机、简要的描述” 反派角色:“generate:小说反派角色的名字、年龄、职业,以及他们的性格和动机、简要的描述” 冲突:“generate:小说故事的主要冲突,包括主角面临的问题和涉及的利害关系” 对话:“generate:以对话的形式描述情节,揭示人物,以此提供一些提示给读者” 主题:“generate:小说中心主题,并说明如何在整个情节、角色和背景中展开” 基调:“generate:整体故事的基调,以及保持背景和人物的一致性和适当性的说明” 节奏:“generate:调节故事节奏以建立和释放紧张气氛,推进情节,创造戏剧效果的说明” 其它:“generate:任何额外的细节或对故事的要求,如特定的字数或题材限制” 根据上面的模板生成为特定题材小说填充内容,并分章节,生成小说的目录。 2. 接下来,让 AI 一段一段进行细节描写。为确保文章前后一致,先让 AI 帮助写故事概要和角色背景介绍,并在其基础上按自己的审美略做修改。 3. 可以让 AI 以表格的形式输出细节描述。这样做有三个好处: 打破 AI 原本的叙事习惯,避免陈词滥调。 按编号做局部调整很容易,指哪改哪,别的内容都能够稳定保持不变。 确保内容都是具体的细节,避免整段输出时缩减导致丢光细节只有笼统介绍。 4. 把生成的表格依次复制粘贴,让 AI 照着写文章,偶尔根据需要给 AI 提供建议。 5. 注意小说大赛的要求,如最后的作品必须是 AI 直接吐出来的,不能有任何改动,不能超过规定字数等。如果需要修改,可能会遇到像 GPT4 记性不好或 Claude 改掉关键情节等问题。
2025-01-26
如何优化ai对话脚本和逻辑(多轮对话测试提升ai上下文理解)
以下是优化 AI 对话脚本和逻辑(多轮对话测试提升 AI 上下文理解)的方法: 1. 样例驱动的渐进式引导法 评估样例,尝试提炼模板:独自产出高质量样例较难,可借助擅长扮演专家角色的 AI 改进初始正向样例,如使用 Claude 3.5 进行对话,输入初始指令,通过其回复侧面印证对样例的理解与建议。 多轮反馈,直至达到预期:AI 可能犯错输出要求外内容,需多轮对话引导,使其不断修正理解,直至达成共识。 用例测试,看看 AI 是否真正理解:找 13 个用例,让 AI 根据模板生成知识卡片,根据结果验证是否符合预期,不符合则继续探讨调整。用例测试和多轮反馈步骤灵活,可根据需要自由反馈调整。 2. Coze 全方位入门剖析 标准流程创建 AI Bot(进阶推荐) 为 Bot 添加技能:国内版暂时只支持使用“云雀大模型”作为对话引擎,可根据业务需求决定上下文轮数。在 Bot 编排页面的“技能”区域配置所需技能,可选择自动优化插件或自定义添加插件。还可根据需求配置知识库、数据库、工作流等操作,参考相关介绍和实战操作或官方文档学习。 测试 Bot:在“预览与调试”区域测试 Bot 是否按预期工作,可清除对话记录开始新测试,确保能理解用户输入并给出正确回应。
2024-12-29
ai能够回复多少内容和它的上下文限制有关吗
AI 能够回复的内容与其上下文限制有关。 首先,上下文在英文中通常翻译为“context”,指的是对话聊天内容前、后的信息。使用时,上下文长度和上下文窗口都会影响 AI 大模型回答的质量。上下文长度限制了模型一次交互中能够处理的最大 token 数量,而上下文窗口限制了模型在生成每个新 token 时实际参考的前面内容的范围。 不同的 AI 平台有不同的限制方式。例如,Claude 基于 token 限制上下文,简单理解就是每次和 AI 对话,所有内容字数加起来不能太多,如果超过了,它就会忘记一些内容,甚至直接提示要另起一个对话。ChatGPT 则限制会话轮数,比如在一天之中,和它会话的次数有限制,可能 4 个小时只能说 50 句话。 应对这些限制的策略包括将复杂任务分解为小模块、定期总结关键信息以及在新会话中重新引入重要上下文。
2024-11-15
回复限制和上下文限制是一样的吗
回复限制和上下文限制不是一样的概念。 上下文(英文通常翻译为 context)指对话聊天内容前、后的内容信息。使用时,上下文长度限制了模型一次交互中能够处理的最大 token 数量,而上下文窗口限制了模型在生成每个新 token 时实际参考的前面内容的范围。 回复限制通常是指对模型生成回复内容的各种约束条件,例如让模型基于一个固定知识片段去回复内容,为避免模型产生幻觉而对提示词进行优化,将 Constraints 前置以更好地控制模型行为。例如在一些测试中,会出现模型在没有上下文时不回复,按照提供的知识准确回复但透露原文,知识片段大小影响回复,以及有错误知识片段时不回复等情况,这表明模型在处理用户输入时会进行一定程度的推理和验证,生成回复时会考虑多种因素,包括上下文的准确性、问题的合理性以及模型内部的约束机制等。
2024-11-15
上下文窗口和 tokens限制
以下是关于上下文窗口和 tokens 限制的详细解释: Token 方面: Token 是大模型语言体系中的最小单元。人类语言发送给大模型时,会先被转换为大模型自己的语言,大模型推理生成答案后再翻译为人类能看懂的语言输出。 不同厂商的大模型对中文的文本切分方法不同,通常 1Token 约等于 1 2 个汉字。 大模型的收费计算方法以及对输入输出长度的限制,都是以 token 为单位计量的。 上下文方面: 上下文指对话聊天内容前、后的内容信息,其长度和窗口都会影响大模型回答的质量。 上下文长度限制了模型一次交互中能够处理的最大 token 数量,上下文窗口限制了模型在生成每个新 token 时实际参考的前面内容的范围。 目前常见模型的 token 限制: Claude 2 100k 模型的上下文上限是 100k Tokens,即 100000 个 token。 ChatGPT 16k 模型的上下文上限是 16k Tokens,即 16000 个 token。 ChatGPT 4 32k 模型的上下文上限是 32k Tokens,即 32000 个 token。 Token 限制的影响: 对一次性输入和一次对话的总体上下文长度同时生效。 当达到上限时,不是停止对话,而是遗忘最前面的对话,类似于鱼的短暂记忆。 查看 token 使用量: 对于 GPT,可以打开查看实时生成的 tokens 消耗和对应字符数量。 需注意 GPT3 和 GPT3.5/4 的 token 计算方式不同,且英文的 Token 占用相对于中文较少,这也是很多中文长 Prompt 会被建议翻译成英文设定然后要求中文输出的原因。 Token 限制对 Prompt 编写的影响:理解前面的内容后,答案应在您的脑海中有雏形。
2024-11-15
上下文的含义
上下文指对话聊天内容前、后的内容信息。在 AI 领域,其英文通常翻译为 context。使用时,上下文长度和上下文窗口都会影响 AI 大模型回答的质量。上下文长度限制了模型一次交互中能够处理的最大 token 数量,而上下文窗口限制了模型在生成每个新 token 时实际参考的前面内容的范围。 从算法视角看,更宽的上下文窗口允许模型在推理时纳入训练数据中未找到的大量新的、特定于任务的信息,从而提高各种自然语言或多模式任务的性能。对越来越长的上下文进行数据建模的能力有着发展历程:从 Shannon 1948 提出的 2gram 语言模型、到 1990 年代和 2000 年代的现代 ngram 模型(5 个上下文 token),2010 年代的循环神经网络(RNN)达到数百个 token(Jozefowicz 等),到 2023 年 Anthropic 将上下文扩展到几十万 token。 从产品视角看,长上下文意味着 LLM 理解能力增强。从提示词到 RAG,都是为了增加给模型的上下文,进而让需求更明确,让模型理解得更好。从用数据训练模型、到指令微调,到提示词和 RAG,到大模型的超长下文,机器越来越像人了。提示词和 RAG 正在快速被弱化,但出于工程和商业考量,目前在很多领域还是主流,未来依然可能是一个混合状态。 模型上下文长度覆盖了书籍、电影、长视频等产品的通用长度,应该会引发相关链路上产品交互层的变化,这一点值得观察。 在提示词中,上下文包含外部信息或额外的上下文信息,能够引导语言模型更好地响应。
2024-10-26
文本生成视频最长时间的工具是什么
目前,能够进行文本生成视频且生成时间较长的工具包括以下几种: 1. Pika:出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:如果熟悉 Stable Diffusion,可以安装此最新插件,在图片基础上直接生成视频,这是由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需要收费,其视频生成时长上限为 30 秒。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的文生视频的网站可以查看这里:https://www.waytoagi.com/category/38 。 需要注意的是,内容由 AI 大模型生成,请仔细甄别。
2025-03-16
Poe上免费可用的模型中,哪一个可接受的上下文最长
Cocos Creator 是一个跨平台的游戏开发工具,它支持开发者使用JavaScript和TypeScript来创建2D和3D游戏。以下是一些学习 Cocos Creator 的基本步骤: 1. 了解基础知识: 学习基本的游戏开发概念,如游戏循环、物理引擎和用户输入。 了解JavaScript或TypeScript的基础知识,因为Cocos Creator主要使用这两种语言。 2. 下载并安装 Cocos Creator: 访问 Cocos Creator 的官方网站并下载最新版本。 安装软件,并确保你的计算机满足所有系统要求。 3. 阅读官方文档: Cocos Creator 官方文档是学习的最佳资源,它详细介绍了如何使用编辑器、创建游戏、编写代码等。 4. 观看教程: 网络上有许多视频教程,这些教程可以帮助你快速入门。 官方也提供了一些入门教程,适合初学者。 5. 创建第一个项目: 按照教程或文档中的指导,创建并运行你的第一个项目。 熟悉项目结构、编辑器界面和基本操作。 6. 学习编辑器功能: 学习如何使用场景编辑器、动画编辑器、粒子系统等。 理解资源管理器、组件系统和脚本编写。 7. 编写代码: 学习如何编写脚本来控制游戏对象的行为。 熟悉Cocos Creator的API和框架。 8. 实践: 通过创建小项目来实践所学知识。 尝试实现不同的游戏机制和功能。 9. 加入社区: 加入Cocos Creator社区,如论坛、QQ群、微信群等。 与其他开发者交流,获取帮助和灵感。 10. 阅读源码: 研究官方示例项目的源代码,了解如何实现特定功能。 11. 持续学习: 游戏开发是一个不断变化的领域,持续学习新技术和最佳实践。 12. 构建项目: 学习如何构建项目,以便在不同的平台上运行,如iOS、Android、Web等。 13. 调试和优化: 学习如何调试代码和优化游戏性能。 14. 发布游戏: 了解如何将游戏发布到不同的平台。 通过这些步骤,你可以逐步建立起对 Cocos Creator 的深入理解,并开始创建自己的游戏项目。记得实践是学习的关键,不断尝试和犯错将帮助你更快地成长。
2024-05-28
现在国内最好用的文生视频工具是什么,主要专注于一段文字转换成视频,文档字数300字左右,制作出的视频长度在一分钟左右
以下是一些国内好用的文生视频工具: 1. Pika:出色的文本生成视频 AI 工具,擅长动画制作且支持视频编辑。 2. SVD:若熟悉 Stable Diffusion,可安装此最新插件,能在图片基础上生成视频,由 Stability AI 开源。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频功能,但收费。 4. Kaiber:视频转视频 AI,能将原视频转换成各种风格。 5. Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 此外,还有以下工具: 1. ChatGPT + 剪映:ChatGPT 生成视频小说脚本,剪映根据脚本自动分析并生成素材和文本框架。 2. PixVerse AI:在线 AI 视频生成工具,支持多模态输入转化为视频。 3. Pictory:允许用户提供文本描述生成相应视频内容。 4. VEED.IO:提供 AI 图像和脚本生成器,帮助规划视频内容。 5. 艺映 AI:专注人工智能视频领域,提供文生视频等服务。 国内的还有: 1. Hidreamai:有免费额度,支持文生视频、图生视频,提示词中文、英文均可,能控制运镜等,可生成 5 秒和 15 秒的视频。 2. ETNA:由七火山科技开发,能根据简短文本描述生成 8 15 秒的视频,画质可达 4K,支持中文,时空理解。 您可以根据自己的具体需求和使用场景进行选择。更多的文生视频网站可查看:https://www.waytoagi.com/category/38 。请注意,内容由 AI 大模型生成,请仔细甄别。
2025-01-15
已知直角三角形的两直角边为3和4,编程求出三角形的斜边长度
在直角三角形中,根据勾股定理,斜边的长度等于两直角边长度的平方和的平方根。已知直角边分别为 3 和 4,斜边长度 c 可通过以下公式计算: \[ c = \sqrt{3^2 + 4^2} = \sqrt{9 + 16} = \sqrt{25} = 5 \] 以下是使用 Python 语言实现的代码: ```python import math a = 3 b = 4 c = math.sqrt print ```
2024-10-23
10碱基长度序列如何进行比对
很抱歉,目前知识库中没有关于 10 碱基长度序列如何进行比对的相关内容。但一般来说,进行碱基序列比对可以使用专门的生物信息学软件和算法,常见的方法包括基于动态规划的算法(如 NeedlemanWunsch 算法和 SmithWaterman 算法)、基于哈希表的快速比对方法等。同时,还需要考虑碱基的相似性计分规则、空位罚分等因素。如果您需要更详细准确的信息,建议查阅专业的生物信息学教材或咨询相关领域的专家。
2024-08-27
prompt长度是否占用token?
是的,prompt 的长度会占用 token 数量。 在大型语言模型中,输入的文本会被分词器(tokenizer)拆分成一串 token 序列输入给模型。每个 token 通常对应一个单词或字符串片段。token 的数量就决定了输入序列的长度。 所以,prompt 中包含的每个单词、标点符号等都会被视为一个 token,从而占用 token 数量。 不同的分词器有不同的分词策略和词表,对于同一个 prompt,可能得到不同的 token 数。但总的来说,prompt 越长,占用的 token 数就越多。 很多大模型对输入长度有限制,比如 GPT3 接受的最大 token 数是 2048。这就要求控制好 prompt 的长度,否则会被截断或产生不准确的结果。 一些技巧可以用来节省 prompt 的 token 数: 1. 使用简洁的词语,避免冗余 2. 缩写/代词替代复杂词组 3. 去除不必要的标点和空格 4. 小写替代部分大写单词 总之,prompt 长度对应的 token 数需要根据具体任务合理控制,以在保证效果和节省计算的间权衡取舍。对于特别复杂的输入,可以考虑分步骤输入以规避长度限制。
2024-04-23