直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

大模型有哪些前沿论文

回答

以下是一些关于大模型的前沿论文:

  • 2017 年发布的《Attention Is All You Need》,开启了大模型发展的序幕。
  • 2018 年 Google 提出的 BERT(Bidirectional Encoder Representations from Transformers),创新性地采用双向预训练并行获取上下文语义信息及掩码语言建模,参数规模在 110M 到 340M 之间。
  • 2018 年 OpenAI 提出的 GPT(Generative Pre-trained Transformer),开创了仅使用自回归语言建模作为预训练目标的方式,参数规模达 1750 亿。
  • 2021 年 Meta 提出的 Large LAnguage Model Approach(LLAMA),是首个开源模型,为构建更大规模、更通用的语言模型提供了方法与工具,参数规模在十亿到千亿之间。
  • 2024 年苹果公布的《MM1:Methods,Analysis & Insights from Multimodal LLM Pre-training》,这是一个具有高达 30B 参数的多模态 LLM 系列,探讨了不同架构组件和数据选择的重要性。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

大模型入门指南

这一切的起源是2017年发布的Attention Is All You Need([4])论文,之后基于大量语料的预训练模型百花齐放,比如:BERT(Bidirectional Encoder Representations from Transformers):Google在2018年提出,创新性的双向预训练并行获取上下文语义信息,以及掩码语言建模(MLM)让模型更好地推断语义信息。它开创了预训练语言表示范式,对自然语言处理产生了深远影响。参数规模:110M到340MGPT(Generative Pre-trained Transformer):OpenAI在2018年提出,开创了仅使用自回归语言建模作为预训练目标而无需额外监督信号。它展示了通过无监督大规模预训练获得的语言生成能力,对研究与应用都带来重大影响。参数规模:1750亿Large LAnguage Model Approach(LLAMA):Meta在2021年提出,首个开源模型。为构建更大规模、更通用的语言模型提供了系统化的方法与工具。参数规模:十亿到千亿

Ranger:【AI 大模型】非技术背景,一文读懂大模型(长文)

这个可能有些同学不怎么听过这个词,但这个是大模型里,我认为最核心的个概念。因为其实经上面的原理讲解,其实大家不难发现,这与目前大模型所表现出来的,仍然对不上啊。为什么只是在计算相关性和概率,就能让大模型表现出难以解释的表达?所以这就是涌现…也就是科学家们认为,当训练的数据到了一定程度后,模型的能力会涌现出很多难以用逻辑去解释的现象。说实话在我看来,因为本身模型的学习就是在一个降维的latentspace中进行的,那我们尝试去用三维世界中的if-else去解释其行为,似乎本身也不靠谱不是么。不过现在倒也有一些论文使用跟踪标注等的的方式来尝试解释大模型内部的行为,这个看看就好了

苹果大模型MM1杀入场:300亿参数、多模态、MoE架构,超半数作者是华人

原创关注大模型的机器之心2024-03-15 12:44北京原文地址:https://mp.weixin.qq.com/s/i9bx6M32uk4Jq2KSRhv4ng机器之心报道机器之心编辑部苹果也在搞自己的大型多模态基础模型,未来会不会基于该模型推出相应的文生图产品呢?我们拭目以待。今年以来,苹果显然已经加大了对生成式人工智能(GenAI)的重视和投入。此前在2024苹果股东大会上,苹果CEO蒂姆・库克表示,今年将在GenAI领域实现重大进展。此外,苹果宣布放弃10年之久的造车项目之后,一部分造车团队成员也开始转向GenAI。如此种种,苹果向外界传达了加注GenAI的决心。目前多模态领域的GenAI技术和产品非常火爆,尤以OpenAI的Sora为代表,苹果当然也想要在该领域有所建树。今日,在一篇由多位作者署名的论文《MM1:Methods,Analysis & Insights from Multimodal LLM Pre-training》中,苹果正式公布自家的多模态大模型研究成果——这是一个具有高达30B参数的多模态LLM系列。论文地址:https://arxiv.org/pdf/2403.09611.pdf该团队在论文中探讨了不同架构组件和数据选择的重要性。并且,通过对图像编码器、视觉语言连接器和各种预训练数据的选择,他们总结出了几条关键的设计准则。具体来讲,本文的贡献主要体现在以下几个方面。首先,研究者在模型架构决策和预训练数据选择上进行小规模消融实验,并发现了几个有趣的趋势。建模设计方面的重要性按以下顺序排列:图像分辨率、视觉编码器损失和容量以及视觉编码器预训练数据。

其他人在问
目前最前沿的应用在游戏领域的AI技术点是什么
目前在游戏领域最前沿的 AI 技术点包括以下方面: 1. 生成式 AI:这是一种机器学习类别,计算机能根据用户提示生成新内容,在文本和图像方面应用较为成熟,甚至可用于创造具有完整性格的虚拟角色。 2. 智能对手的进化:早期游戏中的虚拟对手只是简单脚本程序,如今借助更快的微处理器和云技术,可构建大型神经网络,实现更复杂的模式识别和表示,使对手具备学习能力。 3. 未来发展方向: 探索将游戏环境中的成果迁移至现实世界,虽然在特定游戏环境中成果显著,但推广到现实世界仍面临诸多挑战。 利用 AIGC 技术实现游戏产业的生产力革命,如生成新的游戏内容、驱动非玩家角色、改进图像和声音效果等。 为通用人工智能的孵化提供帮助,经复杂游戏训练后的人工智能体有望在通用人工智能领域发挥作用。 此外,狭义的游戏人工智能研究致力于创造类人水平的智能体在多种游戏中战胜人类玩家,广义的还包括探索用于设计和开发游戏的人工智能技术,如游戏图像生成、关卡生成等。随着深度学习技术的发展,人工智能不仅用于“玩游戏”,还用于游戏的设计、开发和测试等多个方面。
2024-12-22
AI领域最前沿技术的最核心的论文
以下是为您整理的关于 AI 领域最前沿技术核心论文的相关内容: 1. 《Attention is All You Need》:这篇由 Google Brain 团队撰写的论文介绍了 Transformer 架构,彻底改变了 AI 领域的格局。它能够处理未标记的、混乱的数据,并且比以前的方法更加高效。 2. 杰弗里·辛顿(Geoffrey E. Hinton)的相关论文: 描述极化子的“The Contribution of Excitons to the Complex Dielectric Constant of Crystals”(1958 年)。 描述长程电子转移量子力学的“Electron transfer between biological molecules by thermally activated tunneling”(1974 年)。 “Kinetic Proofreading:1974 年)。 “神经网络和具有突发性集体计算能力的物理系统”(1982 年)(被称为 Hopfield 网络)。 与 D.W.Tank 合著的“优化问题中决策的神经计算”(1985 年)。 在这篇文章中,作者分享了一份用于更深入了解现代 AI 的精选资源列表,称其为“AI 典藏”。这些论文、博客文章、课程和指南在过去几年中对该领域产生了巨大影响。同时,还介绍了 AI 技术的发展历程,如 2015 年 AI 系统的局限性,以及 Transformer 架构出现后为 OpenAI 发展带来的影响。
2024-12-19
当前AI绘图的前沿图景
当前 AI 绘图的前沿图景包括以下几个方面: 定义与发展: AI 绘画是利用人工智能技术,通过算法和模型让计算机生成具有一定艺术效果的图像。早期成果较为简单粗糙,随着技术进步,尤其是深度学习算法如卷积神经网络的应用,能生成更复杂、逼真和富有创意的图像,涵盖各种风格和题材,并在与人类艺术家的互动融合中不断创新,为艺术创作带来新的可能和挑战。 场景应用: 1. 广告设计:可快速生成各种创意概念图,为广告策划提供灵感和初稿。 2. 游戏开发:用于创建游戏场景、角色形象等,提高开发效率。 3. 影视制作:辅助生成特效场景、概念设计等。 4. 建筑设计:帮助设计师构想建筑外观和内部布局。 艺术与科技的融合: 艺术与科技的融合呈现出前所未有的奇妙景象,AI 绘画作为杰出代表,将二者完美结合,开启探索之旅,引领艺术界走向未来。艺术创作通常依赖手工技艺和个人感悟,而人工智能技术的发展使艺术创作经历革命性变革,AI 绘画利用机器学习和深度学习等技术,能模拟创作过程并生成令人惊叹的作品,为艺术家提供新工具,为观众带来新体验,也打破了传统创作的局限,为缺乏绘画技巧的人提供参与机会,使艺术更具民主化和包容性。 商业实战案例: 如 Midjourney 在概念篇中生成令人惊叹的宇宙星空、未来主题等超现实主义的图片,包括宇宙飞船、星系、行星、太空等元素,呈现出高度详细、动态、富有表现力的效果,具有逼真的灯光和阴影,应用于未来太空科技风格等领域,带来震撼的视觉体验。 您可以通过以下链接体验 AI 绘画助手: BotID:7387390303403671587
2024-12-03
ai绘画的最前沿技术以及效果
AI 绘画的最前沿技术及效果包括以下方面: 技术融合:将艺术与先进的机器学习、深度学习等技术完美结合,如利用卷积神经网络等算法模拟人类创作过程。 打破局限:不再局限于传统手工绘画技巧,通过编程、算法和数据分析等开拓全新创作领域,为艺术家提供灵感,为缺乏绘画技巧的人提供创作机会,使艺术更具民主化和包容性。 效果提升:能够生成更加复杂、逼真和富有创意的图像,涵盖各种风格和题材,从写实到抽象,从风景到人物。 应用广泛:在广告设计、游戏开发、影视制作、建筑设计等领域发挥作用,可快速生成创意概念图、创建场景和角色形象、辅助特效场景和概念设计、帮助构想建筑外观和内部布局等。 色彩与情感表达:着色画通过色彩的丰富性、情感表达、细节和纹理的突出以及创意发挥,增加作品的表现力和独特性。 关键词结构思路:包括基础描述、风格指定、色彩要求和细节强调等方面。 进阶玩法:如使用 MJ 的 Retexture 功能或即梦参考功能,通过写提示词或垫图功能给着色画上色。
2024-12-03
al的前沿在哪里
目前 AI 的前沿领域包括以下方面: 1. 生成式 AI 已从不受关注走向前沿,成为 AI 50 强榜单的重点。企业用户和消费者的 AI 生产力大幅提高,应用公司在 AI 50 强榜单中占据主导,众多公司将 AI 融入工作流程以扩张规模和降低成本,如 ServiceNow、Palo Alto Networks、Hubspot、Klarna 等。 2. 不远的将来,有望看到 UX 和 UI 围绕 AI 的功能进行重新设计,开发全新的用户界面以提供新体验。 3. OpenAI 作为一家重要的人工智能研究公司,成立于 2015 年,总部位于美国旧金山,其使命是推进人工智能技术发展。关于 OpenAI 的更多信息可参考相关时间线延伸阅读:Wiki:https://timelines.issarice.com/wiki/Timeline_of_OpenAI ,OpenAI Blog:https://openai.com/blog/ 。
2024-11-30
可以找到产品相关的前沿科技报道和论文 的AI工具
以下是一些可以帮助找到产品相关前沿科技报道和论文的 AI 工具: 文献管理和搜索: Zotero:结合 AI 技术,能自动提取文献信息,助您管理和整理参考文献。 Semantic Scholar:由 AI 驱动的学术搜索引擎,提供文献推荐和引用分析。 内容生成和辅助写作: Grammarly:通过 AI 技术提供文本校对、语法修正和写作风格建议,提升语言质量。 Quillbot:基于 AI 的重写和摘要工具,可精简和优化内容。 研究和数据分析: Google Colab:提供基于云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,便于数据分析和可视化。 Knitro:用于数学建模和优化,助力复杂数据分析和模型构建。 论文结构和格式: LaTeX:结合自动化和模板,高效处理论文格式和数学公式。 Overleaf:在线 LaTeX 编辑器,有丰富模板库和协作功能,简化编写过程。 研究伦理和抄袭检测: Turnitin:广泛使用的抄袭检测工具,确保论文原创性。 Crossref Similarity Check:通过与已发表作品比较,检测潜在抄袭问题。 使用这些工具时,应结合自身写作风格和需求,选择最合适的辅助工具。 此外,在“AI+教育”方面,也有一些相关案例和投稿,如: 《AI 洞察:一线医生如何实际使用 ChatGPT》:来自纽约时报最新报道,再现了 ChatGPT 在美国一流医院的实际场景。 《笔记:与 AI+教育前辈聊天》:亲测有效的让某人主动学习 AI 的方式。 《数学:OpenAI 发表论文大幅提高 ChatGPT 的数学准确性》:探讨了 ChatGPT 在数学方面的挑战和改进。 《书籍推荐:三本神经科学书籍》:强调多学科交叉对学习和运用 AI 的作用。
2024-10-30
我的论文aicg率太高了,我如何降低aigc率
以下是一些常用的 AIGC 论文检测网站和工具,以及它们的功能和使用方法,可帮助您降低论文的 AIGC 率: 1. Turnitin: 功能:是广泛使用的学术剽窃检测工具,最近增加了检测 AI 生成内容的功能。 使用方法:用户上传论文,系统自动分析文本并提供详细报告,标示出可能由 AI 生成的部分。 2. Copyscape: 功能:主要用于检测网络上的剽窃行为,虽不是专门的 AIGC 检测工具,但能发现可能被 AI 生成的重复内容。 使用方法:输入文本或上传文档,系统扫描网络以查找相似或重复内容。 3. Grammarly: 功能:提供语法检查和剽窃检测功能,剽窃检测部分可帮助识别可能由 AI 生成的非原创内容。 使用方法:将文本粘贴到 Grammarly 的编辑器中,选择剽窃检测功能,系统提供分析报告。 4. Unicheck: 功能:基于云的剽窃检测工具,适用于教育机构和学术研究,可检测 AI 生成内容的迹象。 使用方法:上传文档或输入文本,系统分析并生成报告,显示潜在的剽窃和 AI 生成内容。 5. : 功能:专门设计用于检测 AI 生成内容,使用先进算法分析文本,识别是否由 GPT3 或其他 AI 模型生成。 使用方法:上传文档或输入文本,系统提供详细报告,包括可能的 AI 生成内容。
2024-12-20
如何向chatgpt写一个优秀的关于论文修改的提示词
以下是一些关于向 ChatGPT 写优秀的论文修改提示词的建议: 1. 利用 ChatGPT 的对抗性演练生成提示词: 对指定文章进行改写。 对改写后的版本进行原创性检验。 根据检验结果,指导 ChatGPT 进一步优化。 重复上述过程,直至满足高度原创的标准。 采用逆向工程的方法,梳理 ChatGPT 的改写策略。 整合这些策略,形成一套提高文章原创性的高效提示词。 2. 对于文章修改的具体步骤: 先使用 ChatGPT 对一段文字进行改写。 对改写后的文字进行原创性检测。 把原创度检测工具的结果告诉负责二创的 ChatGPT 角色,让其继续改写。 不断重复上述步骤,让 ChatGPT 多次对文章进行二创。 让 ChatGPT 自己总结提示词。 整理 ChatGPT 返回结果,形成文字二次创作的通用提示词。 3. 对于 ChatGPT 给 DALL·E 3 优化提示词的元提示,需要注意: 不改变表情包、虚构角色的起源或未见过的人物,保持原始提示词的意图,优先考虑质量。 不创建任何具有冒犯性的图像。 对于传统上存在偏见的场景,确保指定关键特征,如性别和种族,且方式无偏见。 对于包含特定人物或名人的名字、暗示或参考的描述,进行谨慎的修改,用通用描述替代,不泄露其身份信息,除非是性别和体格。 对于提到的创意专业人士或工作室,用对其风格的描述替代名称,或在未知时删除该参考。 提示词必须详细、客观地描述图像的每个部分。思考描述的最终目标,并推断出能生成满意图像的内容。
2024-12-19
关于workflow有什么著名的论文
以下是一些关于 workflow 的著名论文或相关内容: 1. 5 月 9 日艾木分享的《Workflow》,其中包含关于 workflow 的理论探讨、对 AGI 的正确理解与思考、如何客观看待大语言模型的基础表现、人工智能在编程领域的应用及挑战、从提示词工程到 flow 工程:AI 在代码生成领域的研究与应用、人工智能在开源项目测试集中的表现与工作流的重要性、关于 workflow 的介绍与案例演示等内容。 2. 艾木的《如何用 Coze 制作一个信息检索 Bot(含 Workflow 的基础用法)》,提到 Coze 的 Workflow 为制作 Agents/Bots 提供很大的灵活性和便捷性,对 Workflow 中的函数进行了分类,并提出了超函数(Hyperfuction)的概念。 3. 2024 年 8 月 20 日的更新中,有《[AI Agent 产品经理血泪史(二)欲知方圆,则必规矩【Workflow 篇】》,聚焦于工作流(Workflow)在 AI 智能体中的重要性,回顾了集成平台的演变,探讨了工作流在自动化和手动编排中的应用以及如何提升灵活性以应对不断变化的需求。 4. 还有《[张梦飞:【全网最细】从 LLM 大语言模型、知识库到微信机器人的全本地部署教程》和《[ComfyUI 工作流:黑猴子悟空换脸报错解决大法》等相关内容。
2024-12-18
写论文
在论文写作方面,AI 技术的应用发展迅速,为写作者提供了多方面的辅助。以下是一些常用的 AI 工具和平台: 1. 文献管理和搜索: Zotero:结合 AI 技术,能自动提取文献信息,便于管理和整理参考文献。 Semantic Scholar:由 AI 驱动的学术搜索引擎,可提供文献推荐和引用分析。 2. 内容生成和辅助写作: Grammarly:通过 AI 技术进行文本校对、语法修正和写作风格建议,提升语言质量。 Quillbot:基于 AI 的重写和摘要工具,可精简和优化论文内容。 3. 研究和数据分析: Google Colab:提供基于云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,方便进行数据分析和可视化。 Knitro:用于数学建模和优化的软件,有助于复杂的数据分析和模型构建。 4. 论文结构和格式: LaTeX:结合自动化和模板,高效处理论文格式和数学公式。 Overleaf:在线 LaTeX 编辑器,有丰富模板库和协作功能,简化编写过程。 5. 研究伦理和抄袭检测: Turnitin:广泛使用的抄袭检测工具,确保论文原创性。 Crossref Similarity Check:通过与已发表作品比较,检测潜在抄袭问题。 使用 AI 写作论文时,可以这样做: 1. 草拟初稿:让 AI 生成博客文章、论文、宣传材料等的初稿。 2. 优化写作:将文本粘贴到 AI 中,要求其改进内容、提供针对特定受众的建议、创建不同风格的草稿、使内容更生动或添加例子,以激发自己写出更好的作品。 3. 完成任务:把 AI 当作实习生,让其帮忙写邮件、创建销售模板、提供商业计划的下一步等。 4. 保持动力:当在写作任务中遇到困难挑战而分心时,利用 AI 给自己提供动力。 此外,在撰写论文时,要从宏观上考虑将实验结果与领域背景相联系,确保论文结构清晰、逻辑流畅,遵循学术写作规范,使用清晰准确的语言,避免模糊或含糊的术语,并请同事或导师审查以获取反馈和改进建议,同时要保持耐心和恒心。在论文发表后,要通过在 Twitter 上宣传工作、发表演讲、在会议上发言、撰写后续论文、录制 YouTube 视频、撰写博客文章等方式最大化工作的影响力,开源代码、数据或模型也很重要。
2024-12-17
论文提示词
以下是关于论文提示词的相关信息: 论文内容总结: 阅读完整篇文章后总结和梳理文章内容费时费力,大模型结合有效的提示词可迅速概括,如 GLM4Plus 结合良好提示词能帮助学生快速总结,提高梳理效率,并有总结结果示例。 论文内容翻译: 学生阅读文献常因语言差异需依赖翻译工具,市面上翻译软件有字数限制,大模型可弥补不足,如 GLM 结合良好提示词能帮助快速翻译,提高阅读效率,并有翻译结果示例。 论文内容扩写润色: 可将论文内容转化为社交媒体的科普内容,把复杂学术知识普及化。精心设计的润色提示词能根据特定场景调整,如针对小红书的口语化、轻松愉快氛围,将论文结论部分润色成适合分享的生活化内容,并有润色结果示例。 论文关键信息抽取: 学生梳理文章引用文献通常较难,大模型结合合适提示词能帮助快速整理文献部分,获取引用文献相关信息,并给出文献提取结果。 个人类论文提示词示例: 如“学术论文阅读总结”,作者为“小七姐”,分类为“教育”,相关提示包括角色设定、目标、限制、技能和工作流程等,具体可参考链接
2024-12-17
推荐一个AI工具,帮助我每天自动执行以下步骤:从本地上传文件给大模型,该文件内含有新闻网页链接,大模型读取链接并汇总内容
以下为您推荐的 AI 工具可能有助于您实现每天自动执行从本地上传文件给大模型,并让大模型读取文件内新闻网页链接并汇总内容的需求: 1. AI 拍立得(Pailido): 特点:即拍即得,简化流程,操作直观高效。 体验方式:微信小程序搜索“Pailido”。 交互逻辑:用户选择拍摄场景类型并拍照,AI 自动识别和分析照片内容信息,依据预设场景规则迅速生成符合情境的反馈。 实现场景: 图片转成文本:用户上传图片后,大模型根据选择的场景生成相关文字描述或解说文本,可用于生成美食点评、朋友圈发布文案、闲鱼上架示例模版等。 图片转绘图片:用户上传图片后,大模型按照指定风格快速生成图像的转绘版本,适应不同风格和场景需求,如图片粘土风、图片积木风、图片像素风等。 2. 内容仿写 AI 工具: 秘塔写作猫:https://xiezuocat.com/ ,是 AI 写作伴侣,能推敲用语、斟酌文法、改写文风,实时同步翻译,支持全文改写、一键修改、实时纠错并给出修改建议,智能分析文章属性并打分。 笔灵 AI 写作:https://ibiling.cn/ ,是智能写作助手,支持多种文体写作,如心得体会、公文写作、演讲稿、小说、论文等,支持一键改写/续写/扩写,智能锤炼打磨文字。 腾讯 Effidit 写作:https://effidit.qq.com/ ,由腾讯 AI Lab 开发的智能创作助手,能提升写作者的写作效率和创作体验。 更多 AI 写作类工具可以查看:https://www.waytoagi.com/sites/category/2 。请注意,内容由 AI 大模型生成,请仔细甄别。
2024-12-21
如何利用AGI创建3D打印的模型
利用 AGI 创建 3D 打印模型的方法如下: 1. 将孩子的画转换为 3D 模型: 使用 AutoDL 部署 Wonder3D:https://qa3dhma45mc.feishu.cn/wiki/Pzwvwibcpiki2YkXepaco8Tinzg (较难) 使用 AutoDL 部署 TripoSR:https://qa3dhma45mc.feishu.cn/wiki/Ax1IwzWG6iDNMEkkaW3cAFzInWe (小白一学就会) 具体实物(如鸟/玩偶/汽车)的 3D 转换效果最佳,wonder3D 能智能去除背景(若效果不佳,需手动扣除背景) 对于一些非现实类玩偶类作品,wonder3D 识别效果不佳时,可先使用 StableDiffusion 将平面图转换为伪 3D 效果图再生成模型。以 usagi 为例,先通过 SD 生成 3D 的 usagi,再将 usagi 输入 wonder3D。 2. 生成特定模型,如创建一个乐高 logo 的 STL 文件: 设计乐高 logo:使用矢量图形编辑软件(如 Adobe Illustrator 或 Inkscape)创建或获取矢量格式的乐高 logo,确保符合标准。 导入 3D 建模软件:将矢量 logo 导入到 3D 建模软件(如 Blender、Fusion 360 或 Tinkercad)中。 创建 3D 模型:在 3D 建模软件中根据矢量图形创建 3D 模型,调整尺寸和厚度以适合打印。 导出 STL 文件:将完成的 3D 模型导出为 STL 文件格式。 以下是在 Blender 中使用 Python 脚本创建简单 3D 文本作为乐高 logo 并导出为 STL 文件的步骤: 打开 Blender,切换到“脚本编辑器”界面。 输入脚本,点击“运行脚本”按钮,Blender 将创建 3D 文本对象并导出为 STL 文件。 检查生成的 STL 文件,可根据需要调整脚本中的参数(如字体、位置、挤压深度等)以获得满意的乐高 logo 3D 模型。 此外,还有一些其他动态: 阿里妈妈发布了:https://huggingface.co/alimamacreative/FLUX.1TurboAlpha ,演示图片质量损失小,比 FLUX schell 本身好很多。 拓竹旗下 3D 打印社区 Make World 发布 AI:https://bambulab.com/zh/signin ,3D 生成模型找到落地和变现路径。 上海国投公司搞了一个:https://www.ithome.com/0/801/764.htm ,基金规模 100 亿元,首期 30 亿元,并与稀宇科技(MiniMax)、阶跃星辰签署战略合作协议。 智谱的:https://kimi.moonshot.cn/ 都推出基于深度思考 COT 的 AI 搜索。 字节跳动发布:https://mp.weixin.qq.com/s/GwhoQ2JCMQwtLN6rsrJQw ,支持随时唤起豆包交流和辅助。 :https://x.com/krea_ai/status/1844369566237184198 ,集成了海螺、Luma、Runway 和可灵四家最好的视频生成模型。 :https://klingai.kuaishou.com/ ,现在可以直接输入文本指定对应声音朗读,然后再对口型。
2024-12-20
如何通过提示词提高模型数据对比和筛选能力
以下是一些通过提示词提高模型数据对比和筛选能力的方法: 1. 选择自定义提示词或预定义话题,在网站上使用如 Llama3.1 8B Instruct 模型时,输入对话内容等待内容生成,若右边分析未刷新可在相关按钮间切换。由于归因聚类使用大模型,需稍作等待,最终结果可能因模型使用的温度等因素而不同。 2. 在写提示词时不能依赖直觉和偷懒,要实话实说,补充详细信息以避免模型在边缘情况上犯错,这样也能提高数据质量。 3. 在分类问题中,提示中的每个输入应分类到预定义类别之一。在提示末尾使用分隔符如“\n\n\n\n”,选择映射到单个 token 的类,推理时指定 max_tokens=1,确保提示加完成不超过 2048 个 token,每班至少有 100 个例子,可指定 logprobs=5 获得类日志概率,用于微调的数据集应在结构和任务类型上与模型使用的数据集相似。例如在确保网站广告文字正确的案例中,可微调分类器,使用合适的分隔符和模型。
2024-12-20
通过提示词可以提高模型的数学计算能力吗
通过提示词可以在一定程度上提高模型的数学计算能力。例如 PoT 技术,它是思维链技术的衍生,适用于数值推理任务,会引导模型生成一系列代码,再通过代码解释器工具进行运算,这种方式能显著提升模型在数学问题求解上的表现。PoT 作为 CoT 的衍生技术,遵循零样本和少样本的学习范式,零样本 PoT 与 CoT 方法相似,不需要大量样本即可进行有效推理,少样本 PoT 也通过较少样本优化模型表现。但需要注意的是,大模型在解决数学问题时可能存在不够可靠的情况。
2024-12-20
哪一个开源大语言模型对中文支持比较好?
以下是一些对中文支持较好的开源大语言模型: 1. OpenChineseLLaMA: 地址: 简介:基于 LLaMA7B 经过中文数据集增量预训练产生的中文大语言模型基座,对比原版 LLaMA,该模型在中文理解能力和生成能力方面均获得较大提升,在众多下游任务中均取得了突出的成绩。 2. BELLE: 地址: 简介:开源了基于 BLOOMZ 和 LLaMA 优化后的一系列模型,同时包括训练数据、相关模型、训练代码、应用场景等,也会持续评估不同训练数据、训练算法等对模型表现的影响。 3. Panda: 地址: 简介:开源了基于 LLaMA7B,13B,33B,65B 进行中文领域上的持续预训练的语言模型,使用了接近 15M 条数据进行二次预训练。 4. Llama2Chinese13bChat: 地址: 5. Gemma7bit: 地址: 此外,AndesGPT 在语言理解与抽取、角色扮演能力上排名国内前一,在代码、生成与创作、上下文对话能力上排名国内前三,各项能力较为均衡,聚焦在移动设备端的应用。Baichuan213BChat 是百川智能自主训练的开源大语言模型,是中文开源模型的主导力量。
2024-12-20
说明jetson orin nano可以使用什么模型?Grok-1模型可以吗?
目前没有关于 Jetson Orin Nano 是否可以使用 Grok1 模型的明确信息。但一般来说,Jetson Orin Nano 可以支持多种常见的深度学习模型,如基于 TensorFlow、PyTorch 框架开发的模型等。具体能够使用哪些模型,还需要考虑模型的计算需求、内存占用以及 Jetson Orin Nano 的硬件配置和性能限制等因素。
2024-12-20