Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

最近一个月有哪些令人惊艳的开源大模型

Answer

以下是最近一个月令人惊艳的开源大模型:

  1. 三月初,Meta 的 LLaMA 泄露给公众,随后社区出现一系列创新,包括指令调整、量化、质量改进、人类评估、多模态、RLHF 等变体,解决了扩展问题,降低了培训和实验的准入门槛。
  2. 1 月 20 日,DeepSeek 宣布开源 R1 模型,将大模型行业推进到推理时代,引发了深刻影响。
  3. 2024 年 5 月:
    • 谷歌在 Google Cloud Next 2024 上发布一系列生成式 AI 产品和服务。
    • OpenAI 发布 GPT-4 Turbo 模型,并开源评估框架 simple-evals。
    • xAI 发布首个多模态模型 Grok-1.5V 的预览版。
    • 微软 WizardLM 团队发布 WizardLM-2,后紧急撤回进行毒性测试。
    • Mistral AI 开源 Mistral 8x22B 模型。
    • Meta 发布拥有 4000 亿参数的开源大模型 Llama 3。
Content generated by AI large model, please carefully verify (powered by aily)

References

[译]谷歌研究员:“我们的AI没有护城河,OpenAI也没有”

虽然我们的模型在质量方面仍然稍占优势,但差距正在迅速缩小。开源模型更快、更可定制、更私密,而且在性能上更胜一筹。他们用100美元和13B个参数做的事情,我们用1000万美元和540B个参数仍然很困难。而且他们只需要几周的时间,而不是几个月的时间。这对我们有深远的影响:我们没有秘密武器。我们最好的希望是从谷歌之外的其他人所做的事情中学习并合作。我们应该优先考虑启用第三方集成。当免费、不受限制的替代品在质量上相当时,人们不会为受限制的模型付费。我们应该考虑我们真正的价值所在。巨型模型正在拖慢我们的速度。从长远来看,最好的模型是那些可以快速迭代的。既然我们知道在小于20B参数范围内可能实现什么,我们应该将小变体视为重要的事情,而不是事后的想法。作者:BigYe程普链接:https://juejin.cn/post/7229593695653314597来源:稀土掘金著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。[heading2]What Happened[content]三月初,开源社区得到了他们的第一个真正有能力的基础模型,Meta的LLaMA泄露给了公众。它没有指令或对话调整,也没有RLHF。尽管如此,社区立即理解了他们所得到的东西的重要性。紧接着是一系列惊人的创新,每个重大进展之间仅相隔数天(详见时间轴)。现在,仅仅一个月后,已经出现了具有指令调整、量化、质量改进、人类评估、多模态、RLHF等变体,其中许多变体都是相互建立的。最重要的是,他们已经解决了扩展问题,以至于任何人都可以进行调整。许多新想法来自普通人。培训和实验的准入门槛已经从一个主要研究机构的总产出降至一个人、一个晚上和一台强大的笔记本电脑。

赛博月刊@25年2月:AI行业大事记

1.模型✦过去两个月,我们共同见证了一场席卷全球AI领域的风云巨变。✦o1惊艳问世后,全世界的大模型团队都想找到OpenAI藏起来钥匙。没想到,最先踹开这扇门的是一家「名不见经传」的中国公司——DeepSeek。1月20日,DeepSeek宣布开源R1模型和相关论文,将整个大模型行业急速推进到了推理时代(Test-Time Scaling)。✦起初,我们以为这只是一次技术圈层的突破,完全没料到它会引发如此深刻的影响,甚至撼动了世界格局。美股暴跌1.2万亿,中美在AI领域频繁交锋;国内厂商纷纷接入R1并拉爆宣传,自家模型研发团队的脸面被按在地上摩擦;春节期间家喻户晓街头巷议,AI真正「飞入寻常百姓家」;而风暴中心的DeepSeek默默不语,只是不停地开源。✦Scaling Law再一次「续命」成功。这次的终点会是哪里呢?Sam Altman说是——AGI。2.图像✦图像模型近期没有大的突破,整体在往更快、更便宜的方向发展了。✦AI图像生成去年就已经跨过了真假难辨的临界点,成为最常用的生产力工具之一。从LibLibAI一年融资数亿就能看出来,资本市场已经非常看好这条赛道。3.视频✦视频模型的底层架构没有大的变化,大家都在做一些细节的优化,例如视频音效生成在逐渐成为标配。

2024 年历史更新(归档)

《[AI似乎在向着奇怪的方向飞奔](https://mp.weixin.qq.com/s/cXktu3BDUee-s2L8Z0wXYA)》作者JioNLP从AI发展方向争论谈起:杨植麟支持技术创新,朱啸虎提倡跟随OpenAI。互联网寒冬下,AI火爆,但找需求仍困难。AI大模型虽进步,但仍替代不了大部分人类工作。找AI落地点急切,但需求匮乏,盲目探索无果。《[大模型月度回顾·2024年4月](https://mp.weixin.qq.com/s/R4HgAW6pL_P_hGWFGFi0_Q)》作者ADFeed,这是我看到非常全面详细的大模型月度回顾文章,非常清晰直观展示了上个月的大模型进展。包括不限于:1.谷歌在Google Cloud Next 2024上发布一系列生成式AI产品和服务,包括优化AI基础设施、Gemini 1.5 Pro、Vertex AI等。2.OpenAI发布了GPT-4 Turbo模型,并开源评估框架simple-evals,取得在Chatbot Arena中的首位。3.xAI发布了首个多模态模型Grok-1.5V的预览版,在多模态理解和物理世界理解方面取得显著进展。4.微软WizardLM团队发布WizardLM-2,首次在MT-Bench上超越GPT-4,但随后紧急撤回进行毒性测试。5.Mistral AI开源了Mistral 8x22B模型,具有多语言能力、数学和编程能力、成本效率等优势。6.Meta发布拥有4000亿参数的开源大模型Llama 3,提升了性能并分为不同规模版本。

Others are asking
会议语音识别并转为总结,思维导图。有什么开源项目模型支持?
以下是一些支持会议语音识别并转为总结、思维导图的开源项目: 1. 熊猫大侠: 基于 COW 框架的 ChatBot 实现。 支持多端部署,可接入个人微信、微信公众号、企业微信应用。 具备基础对话功能,支持私聊及群聊的消息智能回复,多轮会话上下文记忆,支持 GPT3、GPT3.5、GPT4、文心一言模型。 支持语音识别,可识别语音消息,通过文字或语音回复,支持 azure、baidu、google、openai 等多种语音模型。 支持图片生成和图生图,可选择 DellE、stable diffusion、replicate、Midjourney 模型。 拥有丰富插件,支持个性化插件扩展,已实现多角色切换、文字冒险、敏感词过滤、聊天记录总结等插件。 Tool 工具能与操作系统和互联网交互,支持最新信息搜索、数学计算、天气和资讯查询、网页总结,基于实现。 可通过上传知识库文件自定义专属机器人,作为数字分身、领域知识库、智能客服使用,基于 LinkAI 实现。 项目地址 项目地址 2. 阿里云百炼大模型平台: 具备对话分析能力,可根据对话内容生成标题和质检项等,结果以 JSON 结构呈现。 支持 API 调用,为实现企业级应用融合,可接入 API 将应用包装到工作流程链路中,满足企业数据安全隔离等需求。 支持图像生成,可通过 Flux 模型等生成图像,设置参数如正向提示词、负面提示词等。 支持文本生成,能生成小红书风格文案、朋友圈文案等各种营销文案,还能结合多模态模型创作歌曲。 拥有语音模型,包括语音合成和识别,可选择多种角色和自定义内容,对通用文字识别准确,对专有名词可微调识别。 支持视频处理,如影视传媒理解,能提取视频信息、分析爆点、生成字幕和思维导图等。 支持工作流串联,实时语音识别后可生成会议纪要,实现企业级应用中的工作流串联。 支持智能体应用的搭建与发布,工作流应用由多个节点组成,包括大模型节点、知识库节点、API 节点等,可实现意图分类和商品导购,还能进行文本转换兜底。 智能体应用创建有多种应用模板,可添加知识库,如客服话术知识库,能通过提示词和知识库数据进行智能客服问答。 支持多模态交互,包括语音交互和视频交互,语音交互可配置是否智能打断,视频交互需使用 VO 模型。 发布渠道有官方应用、钉钉机器人、微信公众号等,还有低代码开发平台,可快速创建 Web 应用。
2025-03-07
使用llm的爬虫工具推荐下,开源免费
以下是为您推荐的开源免费的使用 LLM 的爬虫工具: 1. Jina 开源的网页内容爬取工具:Reader API 能从网址提取出核心内容,并将其转化为干净、易于大语言模型处理的文本,确保为您的 AI 智能体及 RAG 系统提供高品质的数据输入。 2. Scrapy 库(Python 语言):在 crawlab 可以做到分布式爬取,非常高效。 3. GPT Crawler:主要运用 typescript 进行数据爬取。 4. 在开源的项目中,为实现对含有 JavaScript 内容的网页抓取,不使用 Python 自己的 request 库,而是使用 playwright 之类的浏览器,并将网页内容按照一定规则转化成 markdown 格式,方便 LLM 后续的理解和抓取。 同时,对于爬虫工具的选择,还需根据您的具体需求和技术熟悉程度来决定。
2025-03-06
你作为AI开源项目的专家,请解释下如何来做一个AI开源项目
要做一个 AI 开源项目,以下是一些关键步骤和要点: 1. 明确项目目标和范围:确定您的 AI 开源项目要解决的具体问题和应用场景,以及项目的边界和功能。 2. 制定.cursorrules: 说明自己的身份和期望的技能:告诉 AI 您希望它具备的专业水准和技能。 明确项目任务:清晰地告知 AI 项目的具体目标和要求。 设定项目规则:包括代码规范、风格等,以保证代码的一致性和可维护性。 规划文件存放位置:便于代码的组织和查找。 指定使用的工具:如框架和库,确保项目的整洁和统一。 说明测试要求:让 AI 生成的代码具有可测试性,并主动编写测试用例。 提供参考资料:帮助 AI 基于最佳实践进行开发。 如有 UI 需求,明确相关要求。 3. 选择合适的技术和框架:例如 Fooocus 这样的图像生成开源项目,它内置多种风格,适合小白上手,且具有离线、开源、免费等特点,支持在多种操作系统上使用,并借鉴了稳定扩散和 Midjourney 的设计思想。 4. 考虑开源的角色和影响:从长远来看,开源模型的情况会变得复杂。对于具有高度能力的模型,如能够自主创办和建立大型科技公司或进行科学研究的模型,其是否开源会产生难以预测的后果。 总之,创建一个 AI 开源项目需要综合考虑多方面的因素,包括技术选型、规则制定、目标明确等,以确保项目的成功和可持续发展。
2025-03-06
我想完全本地化部署deepseek,然后,将我的文档,文本,图片等内容丢给它训练,微调。我要完全本地化,因为我的文档设计隐私。我要免费开源流程。如何实现,
要完全本地化部署 DeepSeek 并使用您的文档、文本、图片等内容进行训练和微调,以下是一些相关的信息和步骤: 1. 模型训练与平台服务: 模型复现与微调:1:1 复现通常没问题,但理解细节并自行制作需要基础知识。有手把手教程、数据集等可帮助 1:1 复现,微调在特定领域可降低幻觉,参数量不变但权重变化。 训练模型的学习方法:先会用再学会训,从训的过程中倒推学习参数调整,这是以用导学的学习方法。 模型回答效果对比:微调后的模型在回答排列组合等问题时,思考前几乎无反馈,答案多为英文且格式稳定,但仍可能答错。 2. 平台服务介绍: 阿里云提供多种解决方案。 百炼是提供多种模型服务的 Maas 平台。 派平台是提供云服务的 PaaS 平台,二者在定位、服务内容和核心差异上有所不同。 3. 关于模型训练与数据集相关问题: 数据资源情况:默认提供公共数据训练集,百派平台能匹配模型和数据,通义开源了不少数据集。 多模态训练:多模态有自身标注方式,如视频拉框标注。 参数量变化:通常训练模型参数量固定,若想改变需改模型层,但可能要从头调。 本地微调框架:可使用 llama factory 等框架,需搭建并部署。 开源数据下载:可在 GitHub、hugging face、Mo Model Scope 等平台获取。 数据集转化:将文档资料转成数据集可先手动形成 SOP,再逐步自动化,初期需大量人力。 4. 本地部署介绍:讲解了如果拥有云服务器如何进行本地部署,以及满血版本地部署的实际情况。 5. 免费额度说明:在 freely.aliyun.com 可领取 500 元免费额度,但有使用限制,不能部署满血版和较大的增流模型。 6. 平台服务差异:介绍了 DLC、DSW 和 EAS 等模型部署平台服务的差别。 7. 模型蒸馏微调:会带着大家复现模型的蒸馏和微调,并讲解相关知识。 R1 模型的强化学习:通过强化学习,在训练过程中给予模型反馈,如路线规划是否成功到达终点、输出格式是否符合期望等,对正确路线增强权重,使做对的概率变高,导致思考逻辑变长。 R1 模型的蒸馏与微调:用 Deepseek RE Zero 蒸馏出带思考的数据,基于 Deepseek V3 微调,进行冷启动,再做强化学习,还从非公布模型提取微调数据,加上人类偏好,最终形成 R1。 R1 与其他模型的差别:R1 是原生通过强化学习训练出的模型,蒸馏模型是基于数据微调出来的,基础模型能力强,蒸馏微调模型能力也会强。 模型的相互帮助:Deepseek R1 反过来蒸馏数据微调 V3,形成互相帮助的局面,使两个模型都更强。 请注意,在进行本地化部署和训练微调时,需要具备一定的技术知识和经验,并且要遵循相关的法律法规和道德规范。
2025-03-04
有什么免费开源的数字人AI工具
以下为您推荐一些免费开源的数字人 AI 工具: 1. Aigcpanel: 特点:开源且适合小白用户,具有一键安装包,无需配置环境,简单易用。 功能:能够生成数字人视频,支持语音合成和声音克隆,操作界面中英文可选。 系统兼容:支持 Windows、Linux、macOS。 模型支持:MuseTalk(文本到语音)、CosyVoice(语音克隆)。 使用步骤:下载 8G+3G 语音模型包,启动模型即可。 GitHub 链接: 官网: 2. Heygen: 优点:人物灵活,五官自然,视频生成很快。 缺点:中文的人声选择较少。 使用方法: 点击网址注册后,进入数字人制作,选择 Photo Avatar 上传自己的照片。 上传后效果如图所示,My Avatar 处显示上传的照片。 点开大图后,点击 Create with AI Studio,进入数字人制作。 写上视频文案并选择配音音色,也可以自行上传音频。 最后点击 Submit,就可以得到一段数字人视频。 3. DID: 优点:制作简单,人物灵活。 缺点:为了防止侵权,免费版下载后有水印。 使用方法: 点击上面的网址,点击右上角的 Create vedio。 选择人物形象,可以点击 ADD 添加自己的照片,或者使用 DID 给出的人物形象。 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 最后,点击 Generate vedio 就可以生成一段视频。 打开自己生成的视频,可以下载或者直接分享给朋友。 4. KreadoAI: 优点:免费(对于普通娱乐玩家很重要),功能齐全。 缺点:音色很 AI。 使用方法: 点击上面的网址,注册后获得 120 免费 k 币,这里选择“照片数字人口播”的功能。 点击开始创作,选择自定义照片。 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 打开绿幕按钮,点击背景,可以添加背景图。 最后,点击生成视频。
2025-02-24
开源模型和闭源模型
开源模型和闭源模型的情况如下: 专有模型(闭源模型):如 OpenAI、Google 等公司的模型,需访问其官方网站或平台(如 ChatGPT、Gemini AI Studio)使用。 开源模型: 可使用推理服务提供商(如 Together AI)在线体验和调用。 可使用本地应用程序(如 LM Studio)在个人电脑上运行和部署较小的开源模型。 例如 DeepSeek、Llama 等开源模型。 Qwen 2 开源,具有多种尺寸的预训练和指令调整模型,在大量基准评估中表现出先进性能,超越目前所有开源模型和国内闭源模型,在代码和数学性能等方面显著提高。 金融量化领域的大模型正趋向闭源,几个巨头的核心模型如 OpenAI 最新一代的 GPT4、Google 的 Bard 以及未来的 Gemini 短时间内不会公开。Meta 的 LLaMA 目前开源,但未来可能改变。OpenAI 未来可能开源上一代模型。
2025-02-17
如何训练自己的模型
训练自己的模型可以参考以下步骤: 1. 选择合适的底模,如 Baichuan27BChat 模型,配置模型本地路径和提示模板。 在 Train 页面里选择 sft 训练方式,加载定义好的数据集,如 wechat 和 self_cognition。 注意学习率和训练轮次的设置,要根据数据集大小和收敛情况来调整。 使用 FlashAttention2 可减少显存需求,加速训练速度。 显存小的情况下,可以减少 batch size 并开启量化训练,内置的 QLora 训练方式很实用。 需要用到 xformers 的依赖。 显存占用约 20G,训练时间根据聊天记录规模大小而定,少则几小时,多则几天。 2. 对于 AI 绘画模型的训练,如 Stable Diffusion: 设置 sample_sampler,可选择多种 sampler,默认是“ddim”。 设置 save_model_as,可选择多种格式,目前 SD WebUI 兼容"ckpt"和"safetensors"格式模型。 完成训练参数配置后,运行训练脚本进行全参微调训练。 选择合适的底模型,如 WeThinkIn_SD_二次元模型。 利用 accelerate 库封装训练脚本,可根据需求切换训练环境参数。 3. 创建图像描述模型: 模型由编码器和解码器组成,编码器将输入图像转换为特征向量,解码器根据特征生成描述文本,二者组合形成完整模型。 自定义损失函数,如使用稀疏分类交叉熵并屏蔽填充部分。 编译模型后开始训练,可使用单个 GPU 训练,每个 epoch 约 15 至 20 分钟,可根据需求增加训练次数。 训练完成后进行推理与生成字幕,重构解码器结构,编写自定义推理循环以生成完整句子。
2025-03-10
有关国产大模型介绍及对比
以下是关于国产大模型的介绍及对比: 过去一年,国内大模型取得了显著进步。综合能力超过 GPT 3.5 和 GeminiPro 的国产模型有 11 个,如百度的文心一言 4.0、阿里云的通义千问 2.0 和 Qwen 72BChat、OPPO 的 AndesGPT、清华&智谱 AI 的智谱清言、字节跳动的云雀大模型等。在 SuperCLUE 测评中,国外模型平均成绩为 69.42 分,国内模型平均成绩为 65.95 分,差距约 4 分,且国内外平均水平差距在缩小。 国内开源模型在中文上表现优于国外开源模型,如百川智能的 Baichuan213BChat、阿里云的 Qwen72B、Yi34BChat 均优于 Llama213BChat。国内大模型竞争格局方面,从国内 TOP19 大模型的数量来看,创业公司和大厂的占比几乎持平。 此外,还有针对国产大模型的测评机制,包括以同组提示词下 ChatGPT 4.0 生成的内容做对标参照,对复杂提示词理解和执行、推理能力、文本生成能力、提示词设计能力、长文本归纳总结能力等方面进行多轮测评。 国外的代表性大模型如 GPT4 的不同版本、Claude2、Llama2 有较好的稳定性表现。国内开源模型总体表现较好,成绩最好的开源模型在中文某些场景或任务上接近 GPT 4,大版本的模型通常优于中小版本,众多创业公司是开源模型的主力。
2025-03-10
LLM大模型与运维
以下是关于 LLM 大模型与运维的相关内容: 部署方面: 本地部署包括三大部分:本地部署大语言模型、本地部署 FastGPT+OneAPI、本地部署 HOOK 项目或 COW。 下载并安装 Ollama:根据电脑系统,从 https://ollama.com/download 下载,双击打开点击“Install”,安装完成后将下方地址复制进浏览器中确认:http://127.0.0.1:11434/ 。 下载 qwen2:0.5b 模型:Windows 电脑点击 win+R 输入 cmd 回车,Mac 电脑按下 Command(⌘)+Space 键打开 Spotlight 搜索输入“Terminal”或“终端”,然后复制命令行粘贴回车等待自动下载完成。 训练方面: 模型训练比推理复杂得多,是一个计算量极大的过程。获取参数面临计算复杂性问题。例如训练 Llama2 70B 这样的开源模型,需要约 10TB 的文本,通常来源于互联网的抓取,大约 6000 个 GPU,运行约 12 天,费用约 200 万美元,得到的参数文件约 140GB,压缩比约 100 倍,且是有损压缩。 整体架构方面: 基础层:为大模型提供硬件支撑,数据支持,如 A100、数据服务器等。 数据层:包括静态的知识库和动态的三方数据集。 模型层:有 LLm(如 GPT,一般使用 transformer 算法)或多模态模型(如文生图、图生图等,训练数据为图文或声音等多模态数据集)。 平台层:如大模型的评测体系或 langchain 平台等,提供模型与应用间的组成部分。 表现层:即应用层,是用户实际看到的地方。
2025-03-09
lora模型
LoRA 模型相关信息如下: Fooocus 程序默认用到了 3 个 SDXL 的模型,包括一个 base、一个 Refiner 和一个 LoRA。LoRA 模型默认放在 Fooocus_win64_1110\\Fooocus\\models\\loras 。如果单独安装,需要下载三个模型: SDXL 基础模型:https://huggingface.co/stabilityai/stablediffusionxlbase1.0/resolve/main/sd_xl_base_1.0_0.9vae.safetensors refiner 模型:https://huggingface.co/stabilityai/stablediffusionxlrefiner1.0/resolve/main/sd_xl_refiner_1.0_0.9vae.safetensors LoRA 模型:https://huggingface.co/stabilityai/stablediffusionxlbase1.0/resolve/main/sd_xl_offset_examplelora_1.0.safetensors 若部署了 SD 秋叶包,也可共用模型(大模型和 LoRA),可在 Fooocus_win64_1110\\Fooocus\\modules\\path.py 中修改路径为秋叶包模型对应的路径,配置好后点击 run.bat 文件启动。 Lora 全称 LowRank Adaptation Models,中文翻译为低阶自适应模型,作用在于影响和微调画面,通过它可以再现人物或物品的特征。大模型训练复杂且对电脑配置要求高,LoRA 采用在原模型中插入新的数据处理层的方式,避免修改原有模型参数,训练轻量化,显存达到 6G 即可开启训练。 有利用新版 SDXL 生成的 lora 如针线娃娃,需要使用 SDXL1.0 的模型才可以运行,触发词是 BJ_Sewing_doll。想体验可添加公众号【白马与少年】,回复【SDXL】。
2025-03-09
最近的论文AI模型
以下是关于 AI 模型的相关知识: 1. 概念:生成式 AI 生成的内容称为 AIGC。 2. 概念与关系: AI 即人工智能。 机器学习是电脑找规律学习,包括监督学习、无监督学习、强化学习。 监督学习使用有标签的训练数据,目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习的数据没有标签,算法自主发现规律,经典任务如聚类,例如让模型将一堆新闻文章根据主题或内容特征分成相似组。 强化学习从反馈中学习,以最大化奖励或最小化损失,类似训小狗。 深度学习是一种参照人脑有神经网络和神经元(因层数多而称深度)的方法,神经网络可用于监督学习、无监督学习、强化学习。 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 LLM 是大语言模型,对于生成式 AI,生成图像的扩散模型不是大语言模型;对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型,可用于语义理解(不擅长文本生成),像上下文理解、情感分析、文本分类。 3. 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出 Transformer 模型,它完全基于自注意力机制(SelfAttention)处理序列数据,无需依赖循环神经网络(RNN)或卷积神经网络(CNN)。
2025-03-09
【深度拆解】ChatGPT-4o背后的技术革新:从语言模型到多模态跨越
ChatGPT4o 背后的技术革新具有重要意义。人类的感知多样,仅靠语言描述世界远远不够,多模态理解非常有用,能更全面学习世界、理解人类需求等。2023 年 9 月 GPT4v 发布,将大语言模型竞赛带入多模态模型时代,如 ChatGPT 能看图说话、画图,Google 的 Gemini 支持多种模态,但 OpenAI 常抢先发布。今年 5 月 OpenAI 发布 GPT4o,向智能体方向迈进,其是之前技术的集大成者,通过端到端神经网络混合训练视觉、语音和文本数据,平均音频输入反应时间为 300 毫秒,能感悟人类表达的情绪等。OpenAI 未公开 GPT4o 技术细节,唯一线索来自内部炼丹师的博客 AudioLM。此外,GPT4 是 OpenAI 的多模态工具,在编程任务中表现出色,ChatGPT 是用户友好界面,可与高级语言模型交互。2024 年 5 月 14 日 OpenAI 发布 GPT4o,效率高、价格降低、延迟缩短。9 月 16 日 OpenAI 推出 o1 系列模型,在复杂任务中表现优异,o1mini 适合编码任务,两个模型已在 ChatGPT 中提供,有免费或收费版本。
2025-03-09
最近一个月有哪些产品更新了ai能力
以下是近一个月 AI 能力更新的相关产品情况: 1. 在 AI 视频应用场景方面: 服务头部创作者方面,未来产品会增强编辑器能力,智能化后期制作任务。 影视后期方向,可将动捕演员表演转化为虚拟角色提高特效制作效率。 专业领域,创作者能通过草图分镜快速验证效果,如动画制作产品 Fable 于今年 4 月试水 Prism Beta 功能。 C 端大众消费侧,AI 视频在小说、网文阅读、短情景剧等内容消费方向有潜力,人物识别和替换可衍生电商平台虚拟试衣间能力。 Viggle、DomoAI 的产品中的模板套用能力若以更低成本开放在短视频产品中,可能带来新的爆发周期。 2. Luma AI 产品: Dream Machine 目前支持 txt2vid 文生视频和 img2vid 图生视频两种能力,8 月底发布的 Dream Machine 1.5 增强了提示词理解能力和视频生成能力,对视频内文字的表现很强。 在 img2vid 图生视频方面,生成效果在多方面远超其他产品,如生成时长较长、运动幅度大、能产生相机多角度位移、提示词中可增加无人机控制的视角变化、运动过程中一致性保持较好、分辨率高且改善了运动幅度大带来的模糊感。 3. 头部产品能力测评: 9 月初针对 Runway(Gen3)、Luma AI(Dream Machine1.5)、可灵 1.0 进行了 txt2vid 和 img2vid 不同场景的测试。 9 月末可灵 1.5 与 Luma、Runway Gen3 的差距在缩小。
2025-02-19
我是一个ai小白,我想要在一个月内快速入行ai,需要怎么做
以下是对于您在一个月内快速入行 AI 的建议: 首先,要明白对于超出自己理解范围的事情,最简单有效的方法就是亲自尝试。学习新事物,百闻不如一练。AI 是未来必然的发展方向,其科普还有很长的路要走,但尽可能简单地试用它,是让普通人在这场 AI 浪潮中受益的最佳方式。 对于普通人来说,对 AI 最好的直观初接触主要有两个方面: 1. 思考最低成本能直接上手试的工具是什么,自己能否亲自尝试。 2. 了解现在最普遍或最好的工具是什么,以及它们能达到的效果。 虽然底层都是大模型,但 AI 工具各有侧重,不同公司也会进行各自的优化。关于每一种工具的详细入门、讲解和应用,WayToAIG 已经分好了类目。为了更便捷地展示 AI 的能力,让普通人能更直观地马上上手,您可以重点关注以下几种工具: 1. 聊天工具 2. 绘画工具 3. 视频工具 4. 音乐工具 如果您想要跟他人交流、一起在 AI 路上探寻,可以戳这里:
2025-02-18
充值gpt 一个月需要多少钱?
GPT4 的充值价格为 20 美元一个月。GPT3.5 免费使用。 此外,在某些平台如极简未来(Link.AI)平台,充值 19 元可兑换 10000 积分用于使用 GPT 3.5 能力的大模型。
2024-12-13
最近一个月最重要的AI动态
以下是最近一个月的一些重要 AI 动态: 2024 年 4 月第二周:谷歌发布了一堆 AI 能力和升级,AI 音乐生成工具 Udio 发布,Open AI 发布 GPT4 Turbo 正式版,AI 画图应用 Ideogram 发布模型更新。 2024 年 4 月第三周:Meta 正式发布 Llama3 8B、70B 模型,Open AI 的 Assistants API 更新等,Reka Core 发布,一个 GPT4 级别的多模态 LLM,Mixtral8X22B 模型开源。 2024 年 4 月第四周:Open AI 的动态包括企业服务、起初研究和 ChatGPT 体验优化。 2024 年 5 月第一周:Claude 推出移动应用以及团队版计划,突然爆火的两款 SD 图像风格,亚马逊推出了 Amazon Q AI 助手。 2024 年 5 月第二周:Open AI 高强度预热发布会,Open AI 宣布和 Stack Overflow 达成合作,Controlnet 作者敏神发布 ICLight 光线融合生成项目。 此外,在过去的一段时间里,人工智能行业发展迅速。在过去 12 个月里,人工智能行业是重要的技术发展之一。从 2022 年 9 月到 2023 年 8 月,研究的工具访问量大幅增长。这一飞跃从去年 11 月 ChatGPT 成为最快达到 100 万用户的平台开始,炒作持续攀升,直到 2023 年 5 月达到峰值,之后虽有回落,但人们的兴趣仍然巨大。 另外,关于如何使用 AI 做事,目前似乎没有完善的用户文档,相关指南多通过 Twitter 影响者获得。作者基于自身经验为学生和读者准备的人工智能入门指南也需不断修改。
2024-11-15
帮我制定《通往AGI之路》的学习规划。并在为期一个月内将内容全部学完并掌握AI基本操作技巧
以下是为您制定的为期一个月的《通往 AGI 之路》学习规划: 第一周: 了解并选择感兴趣的学习小组,如 AI 音乐之路、关键词学社(AI 绘画)、SD 学社(AI 绘画)、AI 视频学社等。按照相应要求进群,如添加微信或飞书群,并备注相关信息。 第二周: 熟悉所选学习小组的活动规则和学习内容。 对于 AI 绘画相关的小组,开始学习相关软件的基本操作。 第三周: 积极参与小组活动,如根据关键词出图测试、案例实操等。 尝试将所学应用到实际操作中,如创建图像流智能体等。 第四周: 总结所学知识和实践经验。 巩固 AI 基本操作技巧,确保能够熟练运用。 在学习过程中,要注重学以致用,通过学习、分享不断填补知识的缝隙,成长进步。同时,要记住“少就是多”“先有个初识”“目录索引推荐”“兴趣最重要”“先动手”等学习要点,找到适合自己的学习路径。
2024-10-23