Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

runway现在更新了吗

Answer

Runway 目前仍在不断更新。在近半年中,它在模型和产品功能上快速迭代。例如,7 月更新的 Gen-3 支持了 Alpha Turbo(更快速)和 Alpha(更强表现力)两种模式,增强了对极度复杂提示词描述的理解,对图像运动元素的识别也有所提升,单次生成视频时长最长达到 10 秒,支持延长到 40 秒。11 月 2 日,Runway 的 Gen-2 模型进行了升级,提高了视频生成的质量,确保视频内容与输入(无论是文本还是图像)更加匹配和一致。

您可以通过以下链接获取更多详细信息:https://x.com/xiaohuggg/status/1720069510324244986?s=20 这里还可以看到 Runway 目前支持的场景和视频案例:https://runwayml.com/product/use-cases

Content generated by AI large model, please carefully verify (powered by aily)

References

AI视频爆发式更新- 近半年闭源产品趋势

7月更新的Gen-3,支持Alpha Turbo(更快速)和Alpha(更强表现力)两种模式,增强了对极度复杂提示词描述的理解,对图像运动元素的识别也有所提升。能够实现富有想象力的过渡和场景中元素的精确关键帧。此外还支持设置图片作为动画首帧/尾帧,Gen3目前还不支持笔刷等高级调节能力。图片作为尾帧输入,更擅长从无到有地生成一些元素,下面的水墨画是一个特别好的案例file:68FP5xWnDBcP6z8e.mp4By Halim Alrasihi单次生成视频时长也达到了最长10s,支持延长到40s,达到当下AI视频产品输出的最大长度。file:Runway extend 40s.mp4此外,Gen-3 Alpha Turbo还支持了竖屏尺寸视频生成、加大力度发力视频到视频(风格转绘)能力,并表示即将推出更多控制能力。

XiaoHu.AI日报

[title]XiaoHu.AI日报[heading2]11月2日?小互的推特11月2日更新✨✨✨✨✨✨✨✨1️⃣? Runway升级:Gen-2模型升级,提高了视频生成的质量。确保视频内容与输入(无论是文本还是图像)更加匹配和一致。? https://x.com/xiaohuggg/status/1720069510324244986?s=202️⃣?微软发布的AI课程:为初学者设计的12课时的生成式AI课程。学员不仅学习理论,还会实操,模拟创建一个使用生成式AI技术的创业公司。? https://x.com/xiaohuggg/status/1720045400420401385?s=203️⃣⛈ MetNet-3天气预测:由Google和DeepMind共同开发的AI模型。能准确预测未来24小时的核心天气变量,准确性超越当前先进的物理天气预测模型。? https://x.com/xiaohuggg/status/1720029553299701846?s=204️⃣? Luma AI的3D模型工具:Genie可以根据文本描述在10秒内快速生成3D模型。提供了在他们的Discord频道中的体验。? https://x.com/xiaohuggg/status/1720016479960301631?s=205️⃣? AI诊断2型糖尿病:通过声音在10秒内诊断,准确率高达89%。识别2型糖尿病患者与非糖尿病患者之间的声音差异。? https://x.com/xiaohuggg/status/1719977678236012670?s=206️⃣? CustomNet图片技术:

XiaoHu.AI日报

[title]XiaoHu.AI日报[heading2]11月2日?小互的推特11月2日更新✨✨✨✨✨✨✨✨1️⃣? Runway升级:Gen-2模型升级,提高了视频生成的质量。确保视频内容与输入(无论是文本还是图像)更加匹配和一致。? https://x.com/xiaohuggg/status/1720069510324244986?s=202️⃣?微软发布的AI课程:为初学者设计的12课时的生成式AI课程。学员不仅学习理论,还会实操,模拟创建一个使用生成式AI技术的创业公司。? https://x.com/xiaohuggg/status/1720045400420401385?s=203️⃣⛈ MetNet-3天气预测:由Google和DeepMind共同开发的AI模型。能准确预测未来24小时的核心天气变量,准确性超越当前先进的物理天气预测模型。? https://x.com/xiaohuggg/status/1720029553299701846?s=204️⃣? Luma AI的3D模型工具:Genie可以根据文本描述在10秒内快速生成3D模型。提供了在他们的Discord频道中的体验。? https://x.com/xiaohuggg/status/1720016479960301631?s=205️⃣? AI诊断2型糖尿病:通过声音在10秒内诊断,准确率高达89%。识别2型糖尿病患者与非糖尿病患者之间的声音差异。? https://x.com/xiaohuggg/status/1719977678236012670?s=206️⃣? CustomNet图片技术:

Others are asking
runway属于什么ai能力类型
Runway 是一家总部位于旧金山的 AI 创业公司推出的产品。 在 AI 能力类型方面: 年初爆火,其 Gen2 代表了当前 AI 视频领域最前沿的模型,能够通过文字、图片等方式生成 4 秒左右的视频。 内测能力可根据参考图像进行 Video to Video 视频风格化。 致力于专业视频剪辑领域的 AI 体验,同时也在扩展图片 AI 领域的能力。 11 月 25 日发布新图像生成模型 Frames,专注打造特定美学和视觉氛围,支持细粒度控制“外观、感觉和氛围”,强调“世界构建”,可设计完整的视觉世界,包括场景、氛围、情感等,提供全面的视觉叙事支持。 目前 Runway 支持在网页、iOS 访问,网页端目前支持 125 积分的免费试用额度(可生成约 105 秒视频),iOS 则有 200 多,两端额度貌似并不同步。官方网站:https://runwayml.com/
2025-04-15
runway的能力类型,核心功能
Runway 的能力类型和核心功能包括以下方面: 在 Gen2 模型上推出了较多细节控制能力,并且支持精细数值调节,是当下 AI 视频生成产品中可控性最强的产品。 多笔刷控制局部运动:支持最多 5 个笔刷控制,包括物体运动方向、运动曲线调节。调高 Ambient,笔刷绘制区域物体的运动将和周边环境产生更多关联,并加大运动幅度。 相机控制:支持水平/垂直平移,水平/垂直翻转,镜头缩放/旋转。 Lip Sync Video:支持文本转 TTS 音频、音频文件换音,还有上半年大火的 Lip sync video 对口型能力。 不论是工具栏中不断丰富的音频、视频处理能力,还是 Runway Watch 栏目中的优秀合作案例,都能看出 Runway 一直坚定得在影视制作方向发展。未来若能打通 AI 生成和视频剪辑能力,Runway 未来将对影视制作起到至关重要的作用,成为视频领域必不可少的重要工具。
2025-04-15
stable diffusion是runway和goole联合开的吗
Stable Diffusion(简称 SD)不是由 Runway 和 Google 联合开发的,而是由初创公司 StabilityAI、CompVis 与 Runway 合作开发的。 Stable Diffusion 是 2022 年发布的深度学习文本到图像生成模型,其核心技术来源于 AI 视频剪辑技术创业公司 Runway 的 Patrick Esser 以及慕尼黑大学机器视觉学习组的 Robin Romabach。该项目的技术基础主要来自于这两位开发者之前在计算机视觉大会 CVPR22 上合作发表的潜扩散模型(Latent Diffusion Model)研究。 Stable diffusion 是一种基于潜在扩散模型(Latent Diffusion Models)的文本到图像生成模型,能够根据任意文本输入生成高质量、高分辨率、高逼真的图像。其原理包括使用新颖的文本编码器将文本输入转换为向量表示,利用扩散模型将随机噪声图像逐渐变换为目标图像,在扩散过程中根据文本向量和噪声图像作为条件输入给出变换的概率分布,最后使用超分辨率放大器将生成的低分辨率图像放大到更高的分辨率。 围绕 Stable Diffusion 等基础模型的兴奋和关注正在产生惊人的估值,但新研究的不断涌现确保新模型将随着新技术的完善而更替。目前,这些模型在法律方面也面临挑战,例如其训练所使用的大量内容数据集通常是通过爬取互联网本身获得的,这可能会引发法律问题。
2025-04-15
runway的开发公司
Runway 是由一家总部位于旧金山的 AI 创业公司开发的。其在 2023 年初推出的 Gen2 代表了当前 AI 视频领域最前沿的模型。目前 Runway 支持在网页(https://runwayml.com/ )、iOS 访问,网页端目前支持 125 积分的免费试用额度(可生成约 105s 视频),iOS 则有 200 多,两端额度貌似并不同步。
2025-04-15
Runway
以下是关于 Runway 的详细介绍: 网页:https://runwayml.com/ 注册: 零门槛注册,在右上角 Sign Up 处输入邮箱与基础信息,完成邮箱验证即可。新注册用户会有 125 个积分进行免费创作(约为 100s 的基础 AI)。 生成第一个视频的步骤: 1. 选择左侧工具栏“生成视频”。 2. 选择“文字/图片生成视频”。 3. 将图片拖入框内。 4. 选择一个动画系数。 5. 点击生成 4 秒视频。 6. 下载视频。 优势: 1. 拥有强大的底层模型,能够理解复杂的视频生成需求,并转化为高质量的视频输出。 2. 生成的视频质量高,画面清晰、动作流畅、内容连贯,能满足普通用户需求,也为专业创作者提供支持。 3. 团队持续进行技术迭代和更新,保持在视频 AI 技术前沿,提供最新、最强大的功能。 存在的问题: 1. 共用账号或生成特别好的视频时,生成队列相对较短,使用高峰期可能需等待一段时间才能开始新的视频生成任务。 2. 某些时段生成速度可能变慢,影响用户使用体验,尤其对需快速生成视频的用户。 此外,11 月 25 日的 Xiaohu.AI 日报提到 Runway 发布新图像生成模型 Frames,专注打造特定美学和视觉氛围,支持细粒度控制“外观、感觉和氛围”,强调“世界构建”,可设计完整的视觉世界,包括场景、氛围、情感等,提供全面的视觉叙事支持,帮助用户创建统一风格、独特审美的艺术世界,适配故事或项目需求。详细介绍:
2025-03-24
注册runway账号技巧
以下是注册 Runway 账号的技巧: 1. 访问 Runway 网页:https://runwayml.com/ 。 2. 在网页右上角点击“Sign Up”进行注册。 3. 输入邮箱与基础信息,并完成邮箱验证,即可完成注册。 4. 新注册用户会有 125 个积分进行免费创作(约为 100s 的基础 AI),您可以选择“Try For Free”模式。 此外,在使用 Runway 生成视频时: 1. 选择左侧工具栏“Generate videos”(生成视频)。 2. 选择“Text/Image to Video”(文字/图片生成视频)。 3. 将图片拖入框内。 4. 选择一个动画系数。 5. 点击生成 4 秒或 5 秒、10 秒(时长越长,生成的效果可能越不稳定)的视频。 6. 下载视频。 在制作视频时,以汽车内饰片段为例: 1. 登录 Runway 账户后,在首页的左侧点击“Text/Imagine to Video”(文生视频/图生视频)。 2. 点击 2 处将汽车内饰的图片上传到 Runway 中。 3. 1 处可以更改生成图片所用到的大模型版本,数字越大代表模型越强。目前只有 Gen2 每天有免费额度。 4. 3 处用于输入提示词。 5. 4 处可以修改生成的视频时长。 6. 5 处可以看到生成的结果。 提示词方框中输入的运镜方式“Roll Clockwise Shot slowly”是摄像机围绕垂直轴顺时针旋转,常用于创造动态的、有时令人眩晕的视觉效果。不想动脑的话,每个片段的运镜方式根据分镜表的建议来即可。运镜提示词可参照: 。Runway 对于这些专有的运镜方式理解得很好。其他的提示词可以不填,先看看效果,如果效果不好,再补充简短的提示词重新生成视频。很多时候提示词过多,生成的视频就很怪异。改变提示词,改变生成时长,多抽卡几次,毕竟 Runway 会员可以无限抽卡。
2025-03-17
什么AI工具可以实现提取多个指定网页的更新内容
以下 AI 工具可以实现提取多个指定网页的更新内容: 1. Coze:支持自动采集和手动采集两种方式。自动采集包括从单个页面或批量从指定网站中导入内容,可选择是否自动更新指定页面的内容及更新频率。批量添加网页内容时,输入要批量添加的网页内容的根地址或 sitemap 地址然后单击导入。手动采集需要先安装浏览器扩展程序,标注要采集的内容,内容上传成功率高。 2. AI Share Card:能够一键解析各类网页内容,生成推荐文案,把分享链接转换为精美的二维码分享卡。通过用户浏览器,以浏览器插件形式本地提取网页内容。
2025-05-01
可灵AI近期有哪些重大更新
快手 AI 产品“可灵”近期的重大更新如下: 1. 今年 6 月,凭借“让老照片动起来”、“让照片中的人拥抱”等热点在互联网爆火,以高质量视频效果、低价格和良心免费额度获好评。 2. 9 月更新了 1.5 模型能力,使视频的画面表现力、提示词理解能力、画面清晰度大幅提升,位列视频生成产品第一梯队。 1.0 模型生成一次视频消耗 10 灵感值,1.5 模型消耗 35 灵感值。 免费用户每日免费享 66 灵感值,付费用户享有 1.5 模型、去水印、高清晰度视频生成、视频延长能力、大师运镜、AI 生图画质增强能力。 增加了运动笔刷控制。 1.5 模型在画面表现力、提示词理解能力上有大幅提升,改善了此前将相机运动描述当作实物生成的问题,但视频中文本内容生成仍有待改进。 3. 移动端 APP 为快影,网页版访问地址为:https://klingai.kuaishou.com/ ,使用指南:https://docs.qingque.cn/d/home/eZQDKi7uTmtUr3iXnALzw6vxpsection=h.j6c40npi1fan 。 4. 传统 txt2vid、img2vid 以外,还支持首尾帧控制、延长视频、对口型能力。txt2vid 模式下支持运镜控制,普通用户可使用水平/垂直运镜、推进/拉远、垂直/水平摇镜;另有四种大师运镜仅付费用户可用。
2025-04-08
我是一个ai新手,请根据知识库现有的内容帮我拟一份学校ai的学习计划,以及更新知识的跟进和学习
以下是为您拟定的学校 AI 学习计划,以及知识更新的跟进和学习方法: 一、了解 AI 基本概念 首先,建议阅读「」部分,熟悉 AI 的术语和基础概念。了解什么是人工智能,它的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。同时,浏览入门文章,这些文章通常会介绍 AI 的历史、当前的应用和未来的发展趋势。 二、开始 AI 学习之旅 在「」中,您将找到一系列为初学者设计的课程。特别推荐李宏毅老师的课程。您还可以通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 三、选择感兴趣的模块深入学习 AI 领域广泛(比如图像、音乐、视频等),您可以根据自己的兴趣选择特定的模块进行深入学习。建议您一定要掌握提示词的技巧,它上手容易且很有用。 四、实践和尝试 理论学习之后,实践是巩固知识的关键。尝试使用各种产品做出您的作品。在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 五、体验 AI 产品 与现有的 AI 产品进行互动是学习 AI 的另一种有效方式。尝试使用如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 六、持续学习和跟进 AI 是一个快速发展的领域,新的研究成果和技术不断涌现。关注 AI 领域的新闻、博客、论坛和社交媒体,保持对最新发展的了解。考虑加入 AI 相关的社群和组织,参加研讨会、工作坊和会议,与其他 AI 爱好者和专业人士交流。 希望这份学习计划对您有所帮助,祝您在 AI 学习的道路上取得成功!
2025-03-31
帮我列举2025年3月1日以来,国内外、闭源开源模型厂商的更新记录。
以下是 2025 年 3 月 1 日以来,国内外、闭源开源模型厂商的部分更新记录: 2025 年 3 月 20 日,OpenAI 推出了一套全新的音频模型,旨在通过 API 为开发者提供更智能、更可定制的语音代理支持,包括改进的语音转文本和文本转语音功能,为语音交互应用带来显著提升。 李开复公开表示 OpenAI 面临生存危机,商业模式不可持续。他强调中国的 DeepSeek 以极低成本提供接近的性能,开源模式将主导未来 AI 发展。他认为企业级 AI 应用将成为投资重点,资源限制反而促进了创新。李开复大胆预测,中国将出现三大 AI 玩家,竞争愈发激烈。 SuperCLUE 发布《中文大模型基准测评 2025 年 3 月报告》,指出 2022 2025 年经历多阶段发展,国内外模型差距缩小。测评显示 o3mini总分领先,国产模型表现亮眼,如 DeepSeekR1 等在部分能力上与国际领先模型相当,且小参数模型潜力大。性价比上,国产模型优势明显。DeepSeek 系列模型深度分析表明,其 R1 在多方面表现出色,蒸馏模型实用性高,不同第三方平台的联网搜索和稳定性有差异。 以上信息来源包括: 《》 《》 《》
2025-03-26
Way to AGI 近期更新
Way to AGI 近期更新如下: 3 月 8 日: 《》:专为 AI 小白打造的实用指南,涵盖基础概念、30 分钟 AI 工具速成体验、Deepseek 使用指南、WayToAGI 知识库导航、Coze 智能体搭建等核心内容,适合多种人群,强调实践、通俗易懂、循序渐进,并融入社区互动。 《》:Manus 是 AI 驱动的无图形界面 Linux 虚拟机&浏览器,能运行终端命令、访问网页、调用 API,适用于自动化办公、数据分析等任务,但有一定限制,本文基于 8 小时直播测试,带你深入体验其能力、限制与未来可能性。 3 月 7 日: 《》:作者夙愿学长介绍了 2025 年必用的十大 AI 工具和工作流,涵盖写作、搜索、语音与视频处理等领域,推荐了 Claude、Gemini 和 Gamma 等工具。 《》:在 6 号晚的 WaytoAGI 直播中,Manus 引发 3 万人围观,展示了其强大的 AI 智能,参与者分享了各种趣味案例。 《》:与传统 AI 不同,“Manus”能完成复杂任务,成为用户在数字世界的“代理人”,创始人强调未来成功的关键在于主动寻找和解决问题的能力。 此外,WaytoAGI 近期活动备份: :2024 年 7 月 26 日9 月下旬,由中国科学技术馆和网易新闻发起,WaytoAGI 作为特别支持社区,即日起向全球征集 AI 音乐歌曲作品,9 月下旬进行线下汇演。8 月 1 日更新。 【线上⬆️】:2024 年 7 月 24 日8 月 8 日,Agent 共学活动新一期“谁是人类”全新开启,获得阿里云☁️百炼和通义千问大模型的支持,准备了丰厚奖品。 【线下⬇️】
2025-03-14
Way to AGI 近期更新
Way to AGI 近期更新如下: 3 月 8 日: 《》:专为 AI 小白打造的实用指南,涵盖基础概念、30 分钟 AI 工具速成体验、Deepseek 使用指南、WayToAGI 知识库导航、Coze 智能体搭建等核心内容,适合多种人群,强调实践、通俗易懂、循序渐进,并融入社区互动。 《》:Manus 是 AI 驱动的无图形界面 Linux 虚拟机&浏览器,能运行终端命令、访问网页、调用 API,适用于自动化办公、数据分析等任务,但有一定限制,基于 8 小时直播测试深入体验其能力、限制与未来可能性。 3 月 7 日: 《》:作者夙愿学长介绍 2025 年必用的十大 AI 工具和工作流,涵盖写作、搜索、语音与视频处理等领域,推荐工具如 Claude、Gemini 和 Gamma。 《》:6 号晚的 WaytoAGI 直播中,Manus 展示强大智能,引发 3 万人围观,参与者分享趣味案例,显示 AI 在代理任务中的潜力与挑战。 《》:与传统 AI 不同,“Manus”能完成复杂任务,成为用户在数字世界的“代理人”,创始人强调未来成功关键在于主动寻找和解决问题的能力,AI 将是放大器,创业者应从小目标出发抓住市场红利,核心壁垒在于对动态机会的把握。 此外,还有以下近期活动: :由中国科学技术馆和网易新闻发起,WaytoAGI 作为特别支持社区,即日起向全球征集 AI 音乐歌曲作品,通过专业评审评选出 10 首歌曲,将在 9 月下旬进行线下汇演。 8 月 1 日更新: 【线上⬆️】:Agent 共学活动新一期“谁是人类”全新开启,获得阿里云☁️百炼和通义千问大模型的支持,准备了丰厚奖品,活动时间为 2024 年 7 月 24 日8 月 8 日。 【线下⬇️】
2025-03-08
人工智能软件现在有哪些
以下是一些常见的人工智能软件: 1. 在自然语言处理和神经科学应用方面,大型语言模型取得了进展,拥有更先进的工具用于解码大脑状态和分析复杂脑部活动。 2. 在艺术创作领域,有涉及知识产权保护的相关软件,如软件工程师在设计时应确保生成内容合法合规、注重用户知识产权保护等。创作者使用此类软件时,应了解自身权利并做好保护。 3. 在线 TTS 工具方面,如 Eleven Labs(https://elevenlabs.io/)、Speechify(https://speechify.com/)、Azure AI Speech Studio(https://speech.microsoft.com/portal)、Voicemaker(https://voicemaker.in/)等。这些工具可将文本转换为语音,具有不同的特点和适用场景。但请注意,相关内容由 AI 大模型生成,请仔细甄别。
2025-04-15
我是医科大学的本科学生,我现在想用Ai帮助我书写论文和报告,我应该怎么系统学习?
以下是一些系统学习利用 AI 帮助书写论文和报告的建议: 一、了解常用的 AI 工具和平台 1. 文献管理和搜索 Zotero:结合 AI 技术,可自动提取文献信息,助您管理和整理参考文献。 Semantic Scholar:由 AI 驱动的学术搜索引擎,能提供相关文献推荐和引用分析。 2. 内容生成和辅助写作 Grammarly:通过 AI 技术提供文本校对、语法修正和写作风格建议,提高语言质量。 Quillbot:基于 AI 的重写和摘要工具,可精简和优化论文内容。 3. 研究和数据分析 Google Colab:提供基于云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,便于数据分析和可视化。 Knitro:用于数学建模和优化的软件,可进行复杂的数据分析和模型构建。 4. 论文结构和格式 LaTeX:结合自动化和模板,高效处理论文格式和数学公式。 Overleaf:在线 LaTeX 编辑器,有丰富模板库和协作功能,简化论文编写。 5. 研究伦理和抄袭检测 Turnitin:广泛使用的抄袭检测工具,确保论文原创性。 Crossref Similarity Check:检测潜在抄袭问题。 二、学习使用 AI 辅助撰写论文和报告的方法 1. 信息收集:利用 AI 搜索与权威网站结合获取关键数据,AI 可辅助提取结构化表格数据或编写抓取程序。 2. 内容拆分:针对报告需求将内容拆分,避免 AI 单次处理任务过长。 3. 数据处理:借助传统工具如 Excel,结合 AI 指导高效操作数据筛选与图表生成。 4. 分析与撰写:通过整理数据,利用 AI 辅助分析后撰写报告初稿,可指定风格并校验数据与结论准确性。 三、注意事项 1. AI 仅作辅助,最终内容需人工主导校验,避免误导性结论。 2. 保持科学的态度和方法,遵循科学伦理原则。 3. 了解现阶段 AI 在教育领域应用的局限性,如知识适配的层次性问题、教育应用的安全性考量等。 希望以上内容对您有所帮助。
2025-04-14
现在比较好用的AI硬件工具推荐一下,比如鼠标,眼镜,耳机啥的
以下是为您推荐的一些 AI 硬件工具: 1. 对于将 Raspberry Pi 连接到其他设备的配件,您可以参考: 防止过热的散热器 MicroUSB 转 USB 适配器,用于 Logitech 键盘的无线传感器 用于显示器的 MiniHDMI 转 HDMI 适配器 键盘和鼠标:推荐 2. 在可穿戴方面,以 GenAI 硬件为例,Meta 雷朋眼镜是具有代表性的产品。您还可以查看 GenAI 硬件榜单获取更多信息,比如: ,该榜单包含多个分类,数据来源包括 google、tiktok、twitter、亚马逊等。
2025-04-13
现在Ai已经发展到什么程度了
目前 AI 的发展已不再局限于单一的技术和应用范畴,而是融合了众多学科知识,并深入渗透到生活的各个层面,引发了一场生产力的革命。 有观点认为,AI 引领的是第四次工业革命的浪潮:继蒸汽机引发的机械化变革、电力驱动的电气化革新,以及电脑普及带来的信息化浪潮之后,AI 正推动着智能化时代的到来。 2025 开年 3 个月,AI 已经狂飙!R1 席卷全球,然后是 O3、Grok 3、Claude 3.7、GPT4.5 等,短短 3 个月内,AI 更新密集发布。然而很多人仍未察觉 AI 正在指数级加速,甚至抱怨 GPT4.5 表现不佳,但事实上,AI 发展已经是直线拉升状态,每天都在进步。 此外,Grok 语音模式已全面开放,支持 11 种模式(包括 2 种 18 禁),自带语音字幕,是学习英语的好工具,但目前仅支持英文。
2025-04-13
现在我想使用chat gtp,应该如何使用呢
使用 ChatGPT 可以参考以下步骤: 对于产品经理使用 ChatGPT 优化 SQL 代码: 1. 进行原 SQL 输入,让 GPT 对需求有初步理解。 2. 将真实的业务需求场景及现有问题输入给 GPT,通过多轮输入输出强化 GPT 对真实需求的认知。 3. 根据 GPT 给出的新代码不断调试和优化,直至生成满足需求的新代码。例如,按照 GPT 提出的每次更新 1 天数据、创建中间结果表、利用 CASE WHEN 合并查询约束条件等优化建议进行操作。 对于安卓系统安装、订阅 ChatGPT 4: 1. 安装 Google Play:到小米自带的应用商店搜索 Google Play 进行安装,安装好后打开,按照提示登录。 2. 下载安装 ChatGPT:在谷歌商店搜索“ChatGPT”进行下载安装(开发者是 OpenAI)。可能会遇到“google play 未在您所在的地区提供此应用”的问题,可通过在 google play 点按右上角个人资料图标,依次点按:设置>常规>帐号和设备偏好设置>国家/地区和个人资料,添加国内双币信用卡并选美地区来解决。若仍搜不到,可卸载重装 Google Play 并保持梯子 IP 为美。 3. 体验 ChatGPT 3.5 版本:直接登录注册好的 ChatGPT 账号即可。 4. 订阅 GPT4 Plus 版本:先在 Google play 中的【支付和订阅】【支付方式】中绑定银行卡,然后在 ChatGPT 里订阅 Plus。
2025-04-12
现在学AI视频怎么学上手快些
以下是一些能帮助您快速上手学习 AI 视频的途径和方法: 1. 您可以先查看 AI 视频学社的相关内容,包括入门教程: 2. 加入 AI 视频学社的交流群,需要学习 AI 视频的,参与 AI 视频挑战赛,参与 AI 视频提示词共创的小伙伴,可以扫二维码或联系:三思或小歪【备注:AI 视频学社】,但必须有 AI 视频账号才能进群。 3. 参加每周都举办的 Video Battle 以及不定期举办的各种视频比赛。 4. 您还可以学习我 AI 北京系列共学课,例如: 12 月 13 日 20:00(,讲师:@啊朔 12 月 14 日 20:00(,讲师:@二金 5. 对于小白来说,做 AI 视频思路清晰很重要,提示词方面要注意主体(什么东西)+动作(干啥了)+场景+镜头(怎么拍),您可以参考相关案例,如: 生成视频: 第一次生成 抽卡结果不理想 ,符合要求的修改提示词:母亲很疲惫看着孩子
2025-04-11