Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

大模型辩论

Answer

在大模型的相关辩论中:

  • 邬嘉文认为在 CES 2024 上,李飞飞争论 LLM 和 AIGC 名称不能混用,吴恩达觉得在公众传播中没关系,李飞飞难以接受,可能是因为这模糊了大模型的本质。在公众传播层面,AIGC 指用 Stable Diffusion 或 Midjourney 生成图像内容,后来泛指用 AI 生成音乐、图像、视频等内容;LLM 指 NLP 领域的大语言模型,如 ChatGPT;GenAI 是生成式人工智能模型,国内官方政策文件使用这个词相对科学,涵盖了 LLM 和 AIGC;AGI 指通用人工智能,部分人觉得 LLM 具有 AGI 潜力,LeCun 反对。公众传播一般会混用上述名词,其底层是 Transformer 结构。Transformer 底层是 function loss 损失函数,是一个大参数(千亿级别)的回归方程,能在一定 prompt condition 情况下,repeat 曾经出现过的数据内容实现“生成”能力。大语言模型是一个 perfect memory,repeat 曾经出现的内容,与 Alpha Go 有差异,Alpha Go 是增强学习模型,有推理能力,而大语言模型这块很弱,Transformer 决定 LLM 是一个生成式模型。
  • Ranger 针对唱衰 AI 大模型的风潮指出,唱衰者认为大模型仅能实现如 chatbox、文生图等功能,难以找到商用场景且存在幻觉问题,同时算力有成本。但这种观点建立在大模型后续仅能用于特定功能且算力费用持续居高不下这两个前提上,而实际上,今年内算力成本问题将不再是难题,并且对于大模型能带来的改变,需要明晰其运作原理,期望通过简单描述帮助非技术人员理解大模型。
Content generated by AI large model, please carefully verify (powered by aily)

References

乌嘉文:大模型应用层

作者:Garman邬嘉文原文:https://mp.weixin.qq.com/s/b7Cctfgb4w5LCCBrSYIlrg[heading2]Transformer决定边界[content]在CES 2024,李飞飞在争论LLM和AIGC名称不能混用,吴恩达觉得在公众传播没关系。李飞飞觉得难以接受,个人猜测是它模糊了大模型的本质。在公众传播层面:AIGC:指用Stable Diffusion或Midjourney生成图像内容,后来泛指用AI生成音乐、图像、视频等内容。LLM:指NLP领域的大语言模型,如ChatGPT。GenAI:生成式人工智能模型,国内官方政策文件使用这个词相对科学,涵盖了LLM和AIGC。AGI:指通用人工智能,部分人觉得LLM具有AGI潜力,LeCun反对。公众传播一般会混用上述名词,但底层是transformer结构。(stable diffusion原采用LDM+UNet,后来改为DiT)而transformer底层是function loss损失函数Transformer是一个大参数(千亿级别)的回归方程。回归方程的Function loss拟合A to B mapping关系,实现数据集的压缩与还原。Transformer是在一定prompt condition情况下,repeat曾经出现过的数据内容,实现“生成”能力。大语言模型的智能体验在两个数据集压缩后,能解释两个数据集之间地带的“连续”能力。(Ilya)所以大语言模型是一个perfect memory,repeat曾经出现的内容。它与Alpha Go差异:Alpha Go是一个增强学习模型,学习结果会调整模型自身参数Alpha Go有推理能力,但大语言模型这块很弱。Transformer决定LLM是一个生成式模型。

邬嘉文:大模型应用层

作者:Garman邬嘉文原文:https://mp.weixin.qq.com/s/b7Cctfgb4w5LCCBrSYIlrg[heading2]Transformer决定边界[content]在CES 2024,李飞飞在争论LLM和AIGC名称不能混用,吴恩达觉得在公众传播没关系。李飞飞觉得难以接受,个人猜测是它模糊了大模型的本质。在公众传播层面:AIGC:指用Stable Diffusion或Midjourney生成图像内容,后来泛指用AI生成音乐、图像、视频等内容。LLM:指NLP领域的大语言模型,如ChatGPT。GenAI:生成式人工智能模型,国内官方政策文件使用这个词相对科学,涵盖了LLM和AIGC。AGI:指通用人工智能,部分人觉得LLM具有AGI潜力,LeCun反对。公众传播一般会混用上述名词,但底层是transformer结构。(stable diffusion原采用LDM+UNet,后来改为DiT)而transformer底层是function loss损失函数Transformer是一个大参数(千亿级别)的回归方程。回归方程的Function loss拟合A to B mapping关系,实现数据集的压缩与还原。Transformer是在一定prompt condition情况下,repeat曾经出现过的数据内容,实现“生成”能力。大语言模型的智能体验在两个数据集压缩后,能解释两个数据集之间地带的“连续”能力。(Ilya)所以大语言模型是一个perfect memory,repeat曾经出现的内容。它与Alpha Go差异:Alpha Go是一个增强学习模型,学习结果会调整模型自身参数Alpha Go有推理能力,但大语言模型这块很弱。Transformer决定LLM是一个生成式模型。

Ranger:【AI 大模型】非技术背景,一文读懂大模型(长文)

[heading2]一、写在前面[content]写这篇文章的初衷,源于近期涌起的唱衰AI大模型的风潮。不少人在对大模型的机制及当下的商业形态进行了初步了解后,便断言大模型是一场“骗局”,是资本操控的闹剧。同时,近来不管是投资领域还是各大厂,似乎都开始谨慎衡量做大模型这件事的投资回报率(ROI)。难道大模型当真不像去年众人所认定的那样,是一场所谓的“革命”吗?唱衰大模型的人,大多持有这样的观点:他们觉得大模型仅能实现像chatbox、文生图、图生图、生视频、生音频之类的功能,难以找到可商用的场景,更别说其中部分功能还可能存在幻觉问题。同时,大模型的算力也是有成本的,而且价格不低。所以问题就出现了,即我们做出了一个个看似出色的ai产品,用户日活量或许也很高,但高日活带来的是高机器算力费用,而这笔费用又无法从活跃用户身上获取,所以这个商业模式就难以形成闭环了。所以这种理解倒不能说是错误的,但这是建立在两个前提之上的。第一,大模型确实后续也仅能用在聊天以及生成图片、文字、视频了;第二,算力的费用会持续居高不下。但在我看来,这两点都是不成立的。首先关于第二点的算力的问题,已经有许多解决方案了,不论是模型蒸馏,还是苹果的端云方案等等,我认为今年内算力成本问题将不再是难题。那么第一点,其实也是今日的重点。而要知晓一个新事物究竟能够带来什么样的改变,我认为首先是先需要明晰其运作原理究竟是怎样的。实际上,我也看过市面上很多有关大模型的科普文章,坦白讲,对于非技术人员而言,理解起来颇具难度。所以,我期望这篇文章能通过最为直白、最为简单的描述,帮助各位产品同学,理解何为大模型,大模型是如何运作的,大模型究竟带来了什么,以及我们究竟该去怎么看待这次大模型的浪潮。

Others are asking
AI辩论
以下是关于 AI 辩论的相关内容: OpenAI 通用人工智能(AGI)的计划被揭露:一家公司正在建造强大的 AI,它具备诸多能力,工程师们在公司自助餐厅里辩论其意义,如它下周会学到什么、哪些工作可能会被其淘汰、是否应放慢或停止开发、是否有道德义务告知世界更多或更少信息等。您的工作是开发关于如何防止 AI 及其后继者造成破坏的数学理论。 A proinnovation approach to AI regulation:AI 概念并非新事物,但数据生成和处理的进步改变了该领域及其产生的技术。例如,生成式 AI 模型的能力发展带来机会的同时也引发了关于潜在风险的新辩论。有些 AI 风险并非源于恶意行为,而是意外后果或缺乏适当控制。已对 AI 特定风险及其潜在危害进行了初步评估,并确定了一系列高级风险,框架将寻求优先处理和减轻这些风险,例如安全风险包括对人类和财产的物理损害以及对心理健康的损害。 如何使用 AI 来做事:AI 容易“产生幻觉”并生成看似合理但错误的内容,需要检查其生成的所有东西。特别危险的是要求它为互联网提供参考等。GPT4 通常更扎实,Bing 的互联网连接可拉入相关事实,但幻觉无法完全消除。AI 不会真正解释自己,给出的解释可能是编造的,这使得理解系统中的偏见很困难,且它可能被不道德地用于操纵或作弊,使用者要对其输出负责。
2025-02-10
我想让chatgpt和豆包辩论,辩论的主题是勒布朗詹姆斯和迈克尔乔丹,谁是历史第一人?请帮我设计给豆包和gpt的指令,以及辩论的规则,规则让有可看性,激烈性
以下是为您设计的给豆包和 ChatGPT 的指令以及辩论规则: 指令: 豆包和 ChatGPT 需充分运用各自掌握的篮球知识和数据,对勒布朗·詹姆斯和迈克尔·乔丹谁是历史第一人的问题进行深入辩论。 要求从球员的个人能力、团队成就、影响力、比赛数据等多个方面进行分析和论证。 辩论规则: 每位参与者有固定的发言时间,例如每次发言不超过 3 分钟。 发言顺序交替进行,先由豆包开始第一轮发言。 辩论过程中,不得使用侮辱性或攻击性语言,保持理性和客观。 每轮发言结束后,另一方有 1 分钟的提问和反驳时间。 辩论共进行 5 轮,最后一轮为总结陈词,时间为 5 分钟。 观众可以在辩论结束后进行投票,选出他们认为表现更出色的一方。 希望这样的设计能让辩论具有可看性和激烈性!
2025-01-17
你是一名医疗器械销售,就职于一家跨国医疗企业。公司目前就“我们是否应该立刻全面拥抱人工智能技术”组织了一场辩论赛,你持反方论点,即“我们不应该立刻全面拥抱人工智能技术”。 请你结合社会时事热点,设计5个以上刁钻问题给对方,要求举出实例。 此次辩论赛的听众中有公司高层和全体同事,请注意避免不友好及不利于公司形象的言论。
以下是为您设计的一些刁钻问题: 1. 目前人工智能在医疗领域的误诊案例时有发生,比如某些智能诊断系统对复杂病症的判断失误,导致患者延误治疗,这难道还能让我们立刻全面拥抱它吗? 2. 人工智能技术在医疗数据安全方面存在诸多隐患,像近期发生的多起医疗数据泄露事件,给患者带来极大困扰,在这种情况下,怎么能立刻全面拥抱? 3. 人工智能在医疗器械的研发中,由于算法偏见,可能会导致某些特定人群无法受益,例如某些心脏起搏器的智能调控系统对特定体质患者效果不佳,这能说明应该立刻全面拥抱吗? 4. 当下人工智能技术的高昂成本使得许多医疗机构望而却步,比如一些小型医院根本无力承担智能医疗设备的购置和维护费用,这难道不影响全面拥抱的可行性吗? 5. 人工智能在医疗领域的法规和监管还不完善,比如某些智能手术机器人的操作规范尚未明确,一旦出现问题,责任难以界定,这样能立刻全面拥抱吗? 6. 虽然人工智能在某些方面提高了医疗效率,但也导致了部分医疗人员的失业,引发社会就业问题,这难道不是我们需要谨慎对待、不能立刻全面拥抱的原因吗?
2024-12-01
你是一名医疗器械销售,就职于一家跨国医疗企业。公司目前就“我们是否应该立刻全面拥抱人工智能技术”组织了一场辩论赛,你持反方论点,即“我们不应该立刻全面拥抱人工智能技术”。 请你结合社会时事热点,设计5个以上刁钻问题给对方。 此次辩论赛的听众中有公司高层和全体同事,请注意避免不友好及不利于公司形象的言论。
以下是为您设计的一些刁钻问题: 1. 当下人工智能技术在医疗领域的应用仍存在诸多伦理和法律争议,比如医疗数据的隐私保护问题尚未得到妥善解决,在这种情况下,如何能立刻全面拥抱? 2. 人工智能技术在医疗器械的诊断中可能会出现误判,而医疗事故往往关乎生命,如何确保在立刻全面拥抱的情况下避免这些严重后果? 3. 目前人工智能技术的发展还不够稳定,时常面临技术更新和升级的问题,这会导致医疗器械的频繁变动和成本增加,这一现实如何应对? 4. 社会时事热点中不乏人工智能技术被滥用的案例,比如虚假医疗信息的传播,如何保证在立刻全面拥抱人工智能技术时不出现此类问题? 5. 人工智能技术的广泛应用可能会导致部分医疗工作者失业,引发社会就业结构的不稳定,这一风险如何化解? 6. 近期有报道指出人工智能技术存在被黑客攻击的风险,从而威胁患者的医疗信息安全,在这种情况下立刻全面拥抱是否明智? 7. 人工智能技术在医疗器械中的应用需要大量的资金投入,而目前公司的财务状况是否能够支撑立刻全面的投入和应用? 8. 社会时事热点中,一些人工智能技术的应用缺乏人性化关怀,在医疗这种关乎人性和情感的领域,立刻全面拥抱是否合适?
2024-12-01
你是一名医疗器械销售,就职于一家跨国医疗企业。公司目前就“我们是否应该立刻全面拥抱人工智能技术”组织了一场辩论赛,你持反方论点,即“我们不应该立刻全面拥抱人工智能技术”。 请预想对方辩友可能会提出的5条以上反对意见,并给出对应答复。 此次辩论赛的听众中有公司高层和全体同事,请注意避免不友好及不利于公司形象的言论。
对方辩友可能提出的反对意见及我方答复如下: 反对意见 1:人工智能技术能够提高医疗器械的研发效率和精准度。 答复:虽然人工智能在某些方面可能有助于研发,但目前技术尚不成熟,存在误差风险。而且过度依赖可能导致研发人员忽视传统方法中的重要经验和细节。 反对意见 2:人工智能可以优化医疗器械的生产流程,降低成本。 答复:短期内,引入人工智能进行生产流程优化可能需要大量的资金投入用于技术改造和人员培训,成本未必能立刻降低。 反对意见 3:人工智能能够实现更精准的医疗诊断,提升医疗效果。 答复:诊断不仅仅依赖技术,还需要医生的综合判断和人文关怀。目前人工智能诊断存在误判的可能性,不能完全替代医生的经验和直觉。 反对意见 4:人工智能有助于医疗数据的管理和分析,为决策提供有力支持。 答复:数据的安全性和隐私性在人工智能应用中是重大挑战,一旦数据泄露,将对患者和公司造成严重影响。 反对意见 5:人工智能是未来医疗行业的趋势,不立刻全面拥抱会使公司落后于竞争对手。 答复:趋势并不意味着要立刻全面投入,盲目跟风可能导致资源浪费和战略失误。我们应在充分评估风险和自身实际情况的基础上,逐步、稳健地引入人工智能技术。 反对意见 6:人工智能能够提供个性化的医疗服务,满足患者多样化需求。 答复:个性化服务的实现需要大量准确的数据支持,而目前数据的质量和完整性难以保证,可能导致服务效果不佳。
2024-12-01
你是一名医疗器械销售,就职于一家跨国医疗企业。公司目前就“我们是否应该立刻全面拥抱人工智能技术”组织了一场辩论赛,你持反方论点,即“我们不应该立刻全面拥抱人工智能技术”。 如果对方提出“不能因为有风险就不做,我们也不是立即马上在所有场景中应用AI,而是在做好充分的准备后,应用AI”的论点,我方应当如何轻松幽默的反驳?
对方辩友,您说做好充分准备后应用 AI ,可问题是,这准备工作哪有那么容易呀!就像准备一场盛大的派对,您觉得把所有东西都准备齐全得花多少时间和精力?而且,就算准备得差不多了,谁能保证不会有意外情况发生呢?比如说,突然发现某个关键环节没考虑到,或者新的问题又冒出来了。再说了,这准备的过程中,我们得投入多少资源呀,万一投入了大量的人力、物力、财力,结果发现效果还不如传统方法,那岂不是亏大啦!所以呀,不能这么轻易地就觉得做好准备就能放心大胆地全面拥抱 AI 技术啦。
2024-12-01
你用的是什么ai模型
以下是关于所使用的 AI 模型的相关信息: 我使用的是 GPT4,其他模型的效果不太好。如果您使用 GPT4 总结的内容质量不行,可以点击“重试”按钮让其重新总结。 默认情况下,Cursor Chat 将 OpenAI 的 GPT4(具体为 GPT4Turbo 实例)用于其 AI 模型,您可以通过选择喜欢的 AI 模型,且为 Chat 选择的模型会保存供未来使用。 有实例中使用的是阿里千问模型。
2025-02-20
你是基于什么模型?
我调用的是抖音集团的云雀大模型。 Gemini 模型是基于 Transformer 解码器构建的,对模型结构进行了优化,主要为大规模稳定训练及在 Google 的 TPU 上推理优化。它能适应与各种音频和视觉输入交织的文本输入,并生成文本和图像输出,经过训练支持 32k 的上下文长度,采用高效的注意机制。 麦橘超然 MajicFlus 是一款基于 flux.dev 微调融合的模型,专注于高质量人像生成,尤其擅长亚洲女性,有卓越人像生成能力、广泛适用性、简单易用等特点。多位社区成员基于模型制作的 LoRA 一同发布,扩展了功能与表现力,但它对社区大部分的 lora 不完美兼容,需降低权重至 0.5 以下。
2025-02-20
模型微调是怎么实现的
模型微调是一种迁移学习技术,常用于深度学习中。其基本思路是先有一个在大量数据上预训练的模型,已学会一些基本模式和结构,然后在特定任务数据上继续训练以适应新任务。 以下是关于模型微调的具体实现步骤: 1. 准备和上传训练数据。 2. 训练新的微调模型: LoRA 微调: 脚本见:。 具体实现代码见。 单机多卡的微调可通过修改脚本中的include localhost:0 来实现。 全量参数微调: 脚本见:。 具体实现代码见。 3. 加载微调模型: LoRA 微调:基于 LoRA 微调的模型参数见基于 Llama2 的中文微调模型,LoRA 参数需和基础模型参数结合使用。通过加载预训练模型参数和微调模型参数。 全量参数微调:调用方式同模型调用代码示例,只需修改其中的模型名称或保存路径。 微调的优点包括: 1. 比即时设计更高质量的结果。 2. 能够训练比提示中更多的例子。 3. 由于更短的提示而节省了 Token。 4. 更低的延迟请求。 微调目前仅适用于以下基础模型:davinci、curie、babbage 和 ada。 以下是两个帮助理解微调概念的例子: 1. 情感分类:先使用大量语料库预训练模型,使其学会基本语法和单词语义,再收集标注过的电影评论(积极或消极)继续训练模型,使其学会判断评论情感。 2. 图像分类:先使用大量图片(如 ImageNet 数据集)预训练模型,使其学会识别图片中的基本形状和纹理,再收集标注过的猫和狗的图片继续训练模型,使其学会区分猫和狗。
2025-02-19
汇总一下现在的大语言模型都有哪些,国外和国内的模型分别列出来
以下是国内外的大语言模型汇总: 国外大语言模型: GPT4(OpenAI):目前最先进的自然语言生成模型,可用于回答问题、撰写文章等。 Gemini Ultra(Google):多模态人工智能模型,采用神经网络架构,对标 GPT4,可用于回答问题、生成代码、处理文本等。 Claude 3 Opus(Anthropic):多模态模型,能处理超过 1 百万 token 的输入,具有实时聊天、数据处理、分析预测等功能;实现了接近完美的召回率。 国内大语言模型: 文心一言(百度):大语言模型,可用以文学创作、商业文案创作、数理逻辑推算、中文理解、多模态生成。 讯飞星火:目前体验效果较好。 悟道・天鹰(北京智源人工智能研究院):首个具备中英文双语知识、支持商用许可协议、国内数据合规需求的开源语言大模型。 清华 ChatGLM 。 此外,国内还有通用模型如通用模型如文心一言、讯飞星火等,处理自然语言;还有垂直模型,专注特定领域如小语种交流、临床医学、AI 蛋白质结构预测等。
2025-02-19
0到1使用大语言模型
以下是关于 0 到 1 使用大语言模型的相关内容: Ollama 框架: 1. 支持多种大型语言模型,如通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 2. 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 CPU 和 GPU。 3. 提供模型库,用户可从中下载不同参数和大小的模型,通过 https://ollama.com/library 查找。 4. 支持用户自定义模型,例如修改温度参数调整创造性和连贯性,或设置特定系统消息。 5. 提供 REST API 用于运行和管理模型,以及与其他应用程序的集成选项。 6. 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 7. 安装完后,确保 ollama 后台服务已启动(在 mac 上启动 ollama 应用程序,在 linux 上通过 ollama serve 启动),可通过 ollama list 确认。 大模型安全: 1. 通过对齐(指令调优)使语言模型更好理解人类意图并增加安全保障,可拆解为监督微调、获取 reward model 和强化学习调整输出分布两部分。 2. LLAMA2 专门使用安全有监督微调确保语言模型安全。 3. 强化学习通过引入人类反馈数据调整模型输出分布,使模型面对训练分布外数据时能拒绝不当回答。 4. 但 Alignment 并不足以防护所有安全问题,存在越狱(Jailbreak)情况,导致模型对齐失效。 5. 还需关注隐私问题。 大模型架构与特点: 1. 包括 encoderonly、encoderdecoder 和 decoderonly 三种架构,目前熟知的 AI 助手多为 decoderonly 架构。 2. 大模型预训练数据量大,来自互联网,参数多,如 Open 在 2020 年发布的 GPT3 已达 170B 参数。 3. GPT3 可根据任务描述和示例完成任务,ChatGPT 则通过对话完成任务,二者在形式和安全性上有差别。
2025-02-19
deepseek的论文里面讲的混合专家模型怎么理解
混合专家(MoE)模型是一种在深度学习中提升计算效率的架构。以 DeepSeek 为例,其最新模型 V3 与 R1 采用了这种架构。 在 DeepSeek 的 V3 模型中,引入了多头潜注意力(MLA),将 KV 缓存压缩至新低,从而提升了计算性能。R1 模型则通过强化学习激活推理能力,首次验证无需监督微调即可实现推理。 DeepSeek 的 2360 亿参数的 DeepSeekV2 是 60 位专家混合开源模型,在数学、编码和推理方面表现出色,具有 236B 参数,21B 在生成过程中被激活,在 MTBench 上表现优异,中文能力强且性价比高。 您可以通过以下链接获取更详细的介绍:https://xiaohu.ai/p/7468 、https://zhuanlan.zhihu.com/p/21208287743 。
2025-02-19