Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

现在国内有多少AI大模型产品 要求是经过网信办备案的

Answer

根据搜索结果,截止 2024 年 6 月,国内已有117个大模型完成了生成式AI服务备案。这些备案的大模型产品来自不同的公司,包括阿里巴巴、百度、科大讯飞等知名企业。备案过程遵循《生成式人工智能服务管理暂行办法》要求,由网信部门会同相关部门有序开展。已备案的AI大模型产品会在国家网信办官网进行公示,并定期更新相关信息。

Content generated by AI large model, please carefully verify (powered by aily)

References

8月正式上线的国内大模型

5⃣️五家北京企业机构:百度(文心一言)https://wenxin.baidu.com抖音(云雀大模型)https://www.doubao.com智谱AI(GLM大模型)https://chatglm.cn中科院(紫东太初大模型)https://xihe.mindspore.cn百川智能(百川大模型)https://www.baichuan-ai.com/3⃣️三家上海企业机构:商汤(日日新大模型)https://www.sensetime.com/MiniMax(ABAB大模型)https://api.minimax.chat上海人工智能实验室(书生通用大模型)https://intern-ai.org.cn今天这8个大模型,在聊天状态下——能生成Markdown格式的:智谱清言、商量Sensechat、MiniMax目前不能进行自然语言交流的:昇思(可以对文本进行是否由AI生成的检测,类似论文查重,准确度不错)、书生受限制使用:MiniMax(无法对生成的文本进行复制输出,且只有15元的预充值额度进行体验,完成企业认证后可以进行充值)特色功能:昇思——生图,MiniMax——语音合成

七大行业的商业化应用

作者|林志佳编辑|李小年本文首发于钛媒体APP2022年11月30日,美国OpenAI公司研发的一款ChatGPT的人工智能(AI)聊天机器人产品破土而出。OpenAI可能也没想到,原本ChatGPT只是向消费者展现GPT能力的产品,却能在过去200天里引发从投资人到创业者、从独角兽到大厂、从业界到学术界、从经济学家到科技部部长的广泛关注。与此同时,谷歌、微软、阿里等超30家科技大厂、创业公司、机构相继下场,一时间讨论四起,全球展开了一场AI大模型“军备赛”。《中国人工智能大模型地图研究报告》显示,截至今年5月28日,中国10亿参数规模以上的大模型已发布79个。而美国、中国占全球已发布大模型总量的80%以上。当下行业内达成的一个基本共识是,ChatGPT的出现标志着通用AI的起点和强AI的拐点,是AI领域科技创新和成果应用的一次重大突破,也是新时代数字化的“发电厂”。

问:国内免费的大模型app有哪些?

Kimi智能助手、文心一言、通义千问这几个都是国内免费的APP。Kimi智能助手:Kimi是一个有着超大“内存”的智能助手,可以一口气读完二十万字的小说,还会上网冲浪,Moonshot AI出品的智能助手。文心一言:百度出品的AI对话产品,它的定位是智能伙伴,能写文案、想点子,又能陪你聊天、答疑解惑。通义千问:通义千问是由阿里云开发的聊天机器人,能够与人交互、回答问题及协作创作。还有更多大模型产品,可以访问网站查看:内容由AI大模型生成,请仔细甄别。

Others are asking
生成AI视频的工作流
将小说用 AI 制作成视频的工作流通常包括以下步骤: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 以下是一些可利用的工具及网址: 1. Stable Diffusion(SD):一种 AI 图像生成模型,可以基于文本描述生成图像。网址:https://github.com/StabilityAI 2. Midjourney(MJ):另一个 AI 图像生成工具,适用于创建小说中的场景和角色图像。网址:https://www.midjourney.com 3. Adobe Firefly:Adobe 的 AI 创意工具,可以生成图像和设计模板。网址:https://www.adobe.com/products/firefly.html 4. Pika AI:文本生成视频的 AI 工具,适合动画制作。网址:https://pika.art/waitlist 5. Clipfly:一站式 AI 视频生成和剪辑平台。网址:https://www.aihub.cn/tools/video/clipfly/ 6. VEED.IO:在线视频编辑工具,具有 AI 视频生成器功能。网址:https://www.veed.io/zhCN/tools/aivideo 7. 极虎漫剪:结合 Stable Diffusion 技术的小说推文视频创作提效工具。网址:https://tiger.easyartx.com/landing 8. 故事 AI 绘图:小说转视频的 AI 工具。网址:https://www.aihub.cn/tools/video/gushiai/ 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。
2025-03-12
如何准确用Ai算八字
以下是关于用 AI 算八字的相关内容: 将千年传承的命理智慧与现代 AI 技术融合,通过代码排盘和 AI 解析八字中的玄机。详细分析报告包括八字基本信息及构成、命理详细分析(个性、事业、财运、婚姻、健康)、运势预测(短期、中期、长期)、人生总论及建议。 提示词方面,实现了精准八字四柱计算和模拟排盘,支持公历日期自动转换以及完整天干地支推算。输入公历年月日时,经过历法转换模块(公历→农历)、天干地支计算(年干支以立春为界、月干支以节气为界、日干支采用经典排盘法、时干支由日干推算),最终输出完整八字命盘。 有人尝试用 GPT4o 算面相,不仅能判断职业,还能对照片拍摄背景进行分析。但也有人认为这可能存在巧合或利用了人物库。 需要注意的是,用 AI 算八字等命理相关内容缺乏科学依据,建议您理性看待。
2025-03-12
我想通过学习ai的技能赚钱,是长久主义者
以下是为您提供的关于通过学习 AI 技能赚钱的相关信息: 首先,阳萌认为在 AI 学习中,最后还是走仿生的方法,即有一个足够长的 Context。这引发了关于记忆保存位置的探讨,比如手机适合收集信号产生本地 Context,阳萌赞成将训练好的模型部署在端侧,记录知识和记忆的 Context 不能跑到云端。同时,要抛开表面事实,回归基础原理,找到突破关键,追求长期全局最优解,相信长期主义,持续学习,自我觉察和自我进化,因为世界是参差的,唯有持续学习能抵御未来的变化。相关视频链接: 另外,关于如何靠 GPTs/GLMs 赚钱,OpenAI 推出 GPTs 时,有人将其比作苹果时代的 AppStore。产品的核心竞争力和护城河不在于 Prompt,而在于数据和服务(定制化 Tools)。传统 SaaS 的能力会被碎片化并整合到各种 GPTs 里,OpenAI 成为流量入口。例如,WebPilot 通过开发搜索接口提供服务接入 GPTs,小红书写作专家通过收集数据和规则包装成 GPTs。靠红利赚钱不是长久之计。
2025-03-12
请给我本科生写毕业论文向AI发送的指令
以下是一些本科生写毕业论文时向 AI 发送的指令示例: 1. “根据以下关于我的信息,写一篇四段的大学申请论文:我来自西班牙巴塞罗那。尽管我的童年经历了一些创伤性事件,比如我 6 岁时父亲去世,但我仍然认为我有一个相当快乐的童年。在我的童年时期,我经常换学校,从公立学校到非常宗教的私立学校。我做过的最‘异国情调’的事情之一是在爱达荷州的双子瀑布与我的大家庭一起度过六年级。我很早就开始工作了。我的第一份工作是 13 岁时的英语老师。在那之后,以及在我的学习过程中,我做过老师、服务员,甚至建筑工人。” 2. 请基于以下案例情况,给我推荐 5 个类似案例:某公司员工在公司内部网络中发布了一篇批评公司管理的文章,引起了公司高层的不满。公司以员工违反了公司的规章制度为由,将其解雇。员工认为公司的行为侵犯了他的权利,将公司告上法庭。 3. 【提炼的案例事实(也可以让 AI 先提炼总结)or 直接把案例直接发给 AI,让 AI 基于以上事实推荐类似案例】 4. 根据以下材料内容回答我的问题【每个材料内容都以数字序号+文件名开头】你需要尽可能的参考材料内容:【文档 1 内容】+【文档 2 内容】+...+【文档 n 内容】
2025-03-12
ai行业
AI 行业在过去 12 个月里流量增长显著。起始于 2022 年 9 月,分析的工具产生了 2.418 亿次访问,到 2023 年 8 月达到 28 亿次访问量,总流量增长了 10.7 倍,平均每月增加 2.363 亿次。流量的飞跃从去年 11 月 ChatGPT 成为最快达到 100 万用户的平台开始,2023 年 5 月达到峰值约 41 亿,之后虽有回落,但人们的兴趣仍巨大。 展望 2025 年,AI 行业有以下创新机会和发展要点: 1. 大型基座模型能力的优化与提升:通过创新技术强化复杂推理和自我迭代能力,推动在高价值领域应用,优化模型效率和成本,加速普及和商业化。 2. 世界模型与物理世界融合的推进:构建具备空间智能的世界模型,融入物理世界,推动机器人、自主驾驶和虚拟现实等领域发展。 3. AI 的多模态融合:整合多模态数据,提升内容生成多样性与质量,创造全新应用场景。 AI 已经在各行各业有广泛应用场景,包括: 1. 医疗保健:医学影像分析、药物研发、个性化医疗、机器人辅助手术等。 2. 金融服务:风控和反欺诈、信用评估、投资分析、客户服务等。 3. 零售和电子商务:产品推荐、搜索和个性化、动态定价、聊天机器人等。 4. 制造业:预测性维护、质量控制、供应链管理、机器人自动化等。 5. 交通运输:(此处未提及具体应用场景)
2025-03-12
普通人怎么用Ai
普通人使用 AI 可以从以下几个方面入手: 1. 基础使用:在日常使用软件和电子设备时,可能会不知不觉接触到 AI 功能,例如微信和百度中的 AI 自动搜索整理的答案。 2. 简单需求:对于常见需求如翻译,可使用现成的 AI 翻译工具。 3. 特定需求:若有特殊要求,如特定翻译风格,可自己撰写提示词给 AI 进行专门说明。 4. 高级定制: 若希望翻译输入能自动参考个人数据文档并输出到微信平台,需开发自己的智能体。 若希望智能体与其他智能体协作完成一系列工作,可搭建多智能体工作流系统。 若发现现有 AI 模型缺少专业词汇知识,可自己训练 AI 模型。 在使用 AI 时,最基础且重要的两点是: 1. 尽可能给它提供背景信息。 2. 尽可能让它自己去反思,以确保每次输出的内容都经过再次思考。 另外,普通人想利用 AI 提效,重点不是学会写提示词,而是将现有的 AI 工具融入到自己的工作流中。随着发展,一方面提示词门槛可能越来越高,另一方面 AIGC 产品会越来越多且细致,普通人可能只需在市面上找到对应产品填空就能解决需求。
2025-03-12
有没有大模型备案相关内容?
大模型备案是中国针对生成式人工智能服务的一项管理措施。根据《互联网信息服务深度合成管理规定》和《生成式人工智能服务管理暂行办法》,具有舆论属性或社会动员能力的深度合成服务提供者需履行备案手续。大模型备案是一个比较复杂的过程,涉及到多个方面的评估和材料准备。 备案的主要步骤和注意事项包括: 1. 大模型算法备案的强制性:根据相关法规,提供生成式人工智能服务前必须进行安全评估和算法备案。不履行这些义务可能会导致法律责任。 2. 生成式人工智能安全评估要点:这包括语料安全评估、模型安全措施评估、性能评估、稳定性评估、安全性评估等多个方面。例如,语料来源需进行审查,确保没有违法不良信息,同时也要考虑到知识产权的问题。 3. 大模型备案必备材料:包括《生成式人工智能 (大语言模型)上线备案申请表》、《安全自评估报告》、《模型服务协议》、《语料标注规则》、《关键词拦截列表》和《评估测试题集》等。 4. 大模型备案填报流程:备案流程包括了准备相关材料、提交申请、等待审核等步骤。这个过程可能需要一定的时间,并且要求材料准备得非常充分和规范。 5. 大模型备案时间成本对比:相对于算法备案,大模型备案更复杂,需要更多的时间和资源。 6. 备案建议:对于大模型备案,建议企业提前准备,充分了解相关法规和标准,确保材料齐全且符合要求。 综上所述,大模型备案是一个涉及多个方面的复杂过程,需要企业投入足够的时间和资源来确保合规。企业在进行大模型备案时,应仔细研究相关规定,准备充分的材料,并耐心等待审核过程。
2024-04-18
java程序员怎么转型大模型算法工程师
以下是为 Java 程序员转型大模型算法工程师提供的一些建议: 1. 学习相关理论知识:了解大模型的基本原理,包括模型架构、预训练及微调、部署及推理等。 2. 掌握技术工具:熟悉 LLM 相关技术,如 Transformer、Prompt Tuning、RLHF、Langchain、Agent、MOE、RAG 等。 3. 提升编程能力:熟悉算法和数据结构,具备扎实的编程基础,尤其是 Python 开发。 4. 积累项目经验: 可以参考大圣的全网最适合小白的 Llama3 部署和微调教程,该教程手把手教您下载并部署 Llama3 模型,使用甄嬛数据集微调模型,并了解微调的意义和概念。但需注意,此教程不会讲解微调的技术性原理及文中用到的 Python 代码。 关注招聘信息,例如序智科技和中国移动设计院的招聘需求,了解大模型算法工程师的职责和要求,针对性地提升自己的能力。 5. 增强相关技能: 对至少 2 个框架具备源码级别的理解和优化能力,包括但不限于 Langchain、XAgent、ChatDev、DsPy、AutoGPT、BabyAGI、MetaGPT。 熟悉 GPT Function Calling 原理,熟练掌握 Prompt Engineering。 对预训练/微调(尤其是微调)熟练,熟练掌握 huggingface/deepspeed(或其他框架)。 对多模态大模型有一定了解,精通低代码平台会是加分项。 您可以根据自身情况,有针对性地进行学习和实践,逐步实现从 Java 程序员向大模型算法工程师的转型。
2025-03-12
列举出不同的 embedding模型
以下是不同的 embedding 模型: 1. 词嵌入: Word2Vec:包括 CBOW(Continuous BagofWords)和 SkipGram 模型,由 Google 提出,用于学习单词之间的语义关系。 GloVe(Global Vectors for Word Representation):由斯坦福大学开发,旨在结合全局统计信息和局部上下文窗口的优势来生成单词嵌入。 FastText:由 Facebook AI 团队推出,不仅考虑单个单词,还考虑内部字符 ngram,对于罕见词汇有更好的表现。 ELMo(Embeddings from Language Models):利用双向 LSTM 对整个句子进行建模,产生上下文敏感的单词嵌入。 2. 情景化的词嵌入: BERT(Bidirectional Encoder Representations from Transformers):由 Google 推出,利用 Transformer 架构的预训练模型,能够根据上下文提供动态的单词嵌入。 GPT(Generative Pretraining Transformer)及其后续版本 GPT2/3/4:由 OpenAI 开发,也是基于 Transformer 的自回归模型,同样能产出上下文相关的嵌入。 XLNet、RoBERTa 等都是 BERT 之后改进或扩展的预训练模型。 3. 句子和文档嵌入: Doc2Vec:扩展了 Word2Vec,能够为整个文档生成统一的向量表示。 Average Word Embeddings:将一段文本中所有单词的嵌入取平均作为整体的文本表示。 Transformers Sentence Embeddings:如 BERT 的标记对应的向量,或者专门针对句子级别的模型如 SentenceBERT。 4. 实体/概念嵌入: Knowledge Graph Embeddings:如 TransE、DistMult、ComplEx 等,用于将知识图谱中的实体和关系嵌入到低维向量空间中。 5. 其他类型: 图像 Embeddings:使用卷积神经网络(CNN)进行图像特征提取,得到的特征向量即为图像嵌入。 音频 Embeddings:在语音识别和声纹识别中,将声音信号转化为有意义的向量表示。 用户/物品 Embeddings:在推荐系统中,将用户行为或物品属性映射到低维空间以进行协同过滤或基于内容的推荐。 图 Embeddings:是用于学习图结构的表示学习方法,将图中的节点和边映射到低维向量空间中。通过学习图嵌入,可以将复杂的图结构转化为向量表示,以捕捉节点之间的结构和关联关系。这些方法可以通过 DeepWalk、Node2Vec、GraphSAGE 等算法来实现。图嵌入在图分析、社交网络分析、推荐系统等领域中广泛应用,用于发现社区结构、节点相似性、信息传播等图属性。 此外,以 OpenAI 为例,第一代嵌入模型(不推荐)包括: 所有第一代模型(以001 结尾的模型)都使用 GPT3 分词器,最大输入为 2046 个分词。 第一代嵌入由五个不同的模型系列生成,这些模型系列针对三个不同的任务进行了调整:文本搜索、文本相似性和代码搜索。 相似性嵌入:textsimilaritybabbage001、textsimilaritycurie001、textsimilaritydavinci001。 文本搜索嵌入:textsearchadaquery001、textsearchbabbagedoc001、textsearchbabbagequery001、textsearchcuriedoc001、textsearchcuriequery001、textsearchdavincidoc001、textsearchdavinciquery001。 代码搜索嵌入:codesearchadatext001、codesearchbabbagecode001、codesearchbabbagetext001。 对于001 文本嵌入(不是002,也不是代码嵌入),建议将输入中的换行符替换为单个空格,因为当存在换行符时可能会有更糟糕的结果。
2025-03-12
分布式预训练模型并行
分布式预训练模型并行主要包括以下内容: 张量并行:当模型参数增大,除流水线并行外,还可用张量并行缓解,即以前的模型并行。以矩阵乘为例,对权重矩阵 B 有按列切分和按行切分两种方案。按列切分,A 不变,每一列独立计算后结果 concat 在一起;按行切分,A 对应列切分,两部分独立计算后结果 sum 在一起。 大模型发展历程:2017 年发布的 Attention Is All You Need 论文开启了相关研究。之后有多种预训练模型,如 2018 年 Google 提出的 BERT,创新性地双向预训练并行获取上下文语义信息和使用掩码语言建模;2018 年 OpenAI 提出的 GPT,开创仅用自回归语言建模作为预训练目标;2021 年 Meta 提出的首个开源模型 LLAMA,为构建更大规模、更通用的语言模型提供方法与工具。 分布式训练的其他方面: 分布式通信原语包括点对点通信和集合通信,集合通信包含多种方式。 3D 并行包括数据并行,各自有优势和问题。 ZeRO 针对数据并行显存占用大的问题提出优化,Alpa 借鉴 AI 编译器思路对 3D 并行建模并用自动化搜索方式得到并行策略。 如果想了解更多关于 transformer 在 NLP/多模态/AIGC 的算法知识、分布式训练知识,以及如何在 TVM 上做 PTQ 量化和部署,可以关注作者 aaronxic。
2025-03-12
你说什么模型
以下是关于模型的相关信息: 我调用的是抖音集团的云雀大模型。 OpenAI API 由具有不同功能和价位的多种模型提供支持,包括 GPT4、GPT3.5、DALL·E、Whisper、Embeddings、Codex、Moderation、GPT3 等,您还可以通过微调针对特定用例对原始基本模型进行有限的定制。 在 Cursor 中,使用光标聊天、Ctrl/⌘K 和终端 Ctrl/⌘K 可以轻松在不同模型之间切换。在 AI 输入框下方有下拉列表,允许选择要使用的模型,默认准备好的模型有 GPT4o、GPT4、Claude 3.5 Sonnet 以及 Cursor 的自定义模型 cursorsmall,cursorsmall 不如 GPT4 智能但速度更快且用户可无限制访问,还可以在 Cursor Settings>Models>Model Names 下添加其他模型。
2025-03-12
请帮我推荐优化大模型+知识库的提示词技巧,重点是解决将知识库配置给大模型做RAG后,召回率不高或者不遵循指令。
以下是关于优化大模型+知识库的提示词技巧,以解决将知识库配置给大模型做 RAG 后召回率不高或者不遵循指令的问题: 首先,了解 LLM 应用性能优化的推荐路径: 1. 从 prompt 工程开始把 LLM 应用快速跑起来。 2. 若遇到表现性能不足等问题,如结构化提示词占用上下文过长,可尝试精简提示词长度;若指令遵循度不足,则加强指令约束。 3. 若提示工程无法满足要求,分析问题,若缺失知识,先简单做知识库 RAG。 4. RAG 之后若想让模型表现更收敛更稳定,尝试微调模型。 5. 微调模型后,若模型表现变好,使用更多高级 RAG 技术,构造输入输出样本,进一步用于微调模型,构建正向迭代循环。 需要注意的是,该路径有个隐藏前提:该 LLM 应用依赖外部知识,需要 RAG。若不需要外部知识,则不需要使用 RAG,可以直接进入 prompt 工程与微调的正向迭代循环。 对于 RAG 流程中的检索有用信息部分,有以下改进策略: 1. 优化索引: 按照子部分索引:将文本块再拆分为较小的文本(例如单句),然后对这些小块进行多次索引。适用于有多个主题、有冲突信息的复杂长文本信息,确保与查询相关的上下文。 按照文本框可以回答的问题索引:让 LLM 生成与拆分的文本块相关的假设性问题,并将这些问题用于索引,适用于用户没有提出非常明确的问题,减少模糊性。 按照文本块的摘要进行索引:适用于文本框中有多余信息或者与用户查询无关细节的情况。 2. 重排 rerank:搜到相似信息后,选择策略,大部分场景下选择最相似的即可。 在从知识库中检索出内容后利用大模型进行总结时,有两点需要注意: 1. 优化 Prompt,但此处不展开,可参考相关文章。 2. 选择合适的大模型,考虑上下文长度、聪明度和生成速度。若回答场景是很长的文档,可能更关注上下文长度;大多数情况下,大模型越聪明,生成速度可能越慢。
2025-03-12
大模型企业落地方案有哪些
大模型企业落地方案主要包括以下几个方面: 1. 提高内容可信: 做具备通用能力的大模型,通过商业交付应用、反馈和评测来解决内容可信问题。 不断优化数据以解决实际应用问题,如自我学习能力等。 走向垂直化,结合场景用一个模型和框架提高内容精准度。 2. 解决算力成本高、训练重复和资源紧缺的问题: 以 GPT3 模型为例,现有千卡集群训练一个月,单次训练周期一个月,总成本超过 1200 万美金,且全行业训练卡持续涨价。 目前仍无人能用商业化的国产芯片做大模型训练。 3. 降低大模型价格或使用垂直领域模型落地。 4. 以百度智能云为例: 在 IaaS 层,百舸 AI 异构计算平台解决算力问题,提供从集群创建到模型训练、推理的完整算力管理方案,提升算力管理能力和模型训练效率,确保高达 99.5%的有效训练时间,为大模型应用落地提供强大算力支撑。 在 Paas 层,千帆大模型平台解决大模型的调用、开发和应用开发问题,支持调用文心大模型全系列模型,提供全面工具链,支持定制化模型开发,通过 AppBuilder 提供企业级 Agent 和企业级 RAG 开发能力,还能将企业应用数据反馈到模型中形成良性循环,持续优化模型性能。 在 SaaS 层,提供丰富的常用应用供客户选择,如数字人平台曦灵、智能客服应用客悦等。 此外,大模型在实际应用中存在一些问题,如知识的局限性、幻觉问题和数据安全性问题,而 RAG 是解决上述问题的一套有效方案,它可以让大模型从权威的、预先确定的知识来源中检索、组织相关信息,更好地控制大模型生成的文本输出,并且用户可以深入了解 LLM 如何生成最终的结果。RAG 可以和微调结合使用,两者并不冲突。
2025-03-12