Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

清华AI幻觉

Answer

以下是关于清华 AI 幻觉的相关信息:

在 AI 领域,特别是大型语言模型(LLM)中,幻觉是一个常见的问题。LLM 会产生幻觉,编造事实性信息,原因在于它们本质上是在模仿训练数据中的统计模式,而非真正理解或检索知识。例如,模型在训练数据中学习到“who is X”类型的问题通常有确定的答案,所以即使面对未知问题,也会倾向于编造答案以符合训练数据的风格。

对于幻觉问题,有一些研究和应对方法。牛津大学的研究重点关注了幻觉的一个分支——虚构症,通过生成一个问题的多个答案,并使用另一个模型根据相似含义分组来衡量 LLM 不确定性。Google DeepMind 推出了 SAFE,通过将 LLM 响应分解为单个事实、使用搜索引擎验证事实以及对语义相似的陈述进行聚类来评估 LLM 响应的真实性。同时,OpenAI 推出了 CriticGPT,它使用基于大量有缺陷输入数据集进行训练的 GPT 式 LLM 来发现其他 LLM 生成的代码中的错误。

此外,清华大学在这方面也有相关研究,如“DeepSeek 与 AI 幻觉”。但关于其具体内容,您可以通过相关链接进一步了解。

Content generated by AI large model, please carefully verify (powered by aily)

References

AI 大神Karpathy再发LLM入门介绍视频,入门必看!

幻觉(Hallucination)(01:20:32-01:24:45):LLM会产生幻觉,编造事实性信息,因为它们本质上是在模仿训练数据中的统计模式,而不是真正理解或检索知识。知识边界检测(01:25:49-01:26:51):通过提问和评估模型回答的一致性,判断模型是否了解某个事实。拒绝回答机制(01:30:41-01:31:38):对于模型不确定的问题,训练模型学会拒绝回答,或者声明“I don't know”。工具使用(Web Search)(01:31:38-01:35:47):允许模型使用外部工具(如网络搜索)检索信息,从而获取更准确和最新的知识。幻觉的根源(01:22:10-01:24:00):模型在训练数据中学习到“who is X”类型的问题通常有确定的答案,因此即使面对未知问题,也会倾向于编造答案以符合训练数据的风格。缓解幻觉的方法(01:24:45-01:31:38):知识的本质(01:49:42-01:50:33):LLM的知识存储在网络参数中,是对互联网信息的“模糊回忆”,而非精确记忆。这种知识是统计性的、概率性的,而非精确和可靠的。自我认知(Knowledge of Self)(01:41:42-01:45:42):LLM本身没有持久的自我意识,对自身模型的描述(例如“我是OpenAI GPT-3模型”)是基于训练数据的幻觉,而非真实的自我认知。可以通过硬编码或系统消息来引导模型进行自我描述。

2024人工智能报告|一文迅速了解今年的AI界都发生了什么?

LLM存在两个主要的可靠性错误:与其内部知识不一致的反应(幻觉)以及分享与既定的外部知识不一致的信息。牛津大学最近发表的一篇论文重点研究了幻觉的一个分支,即虚构症,其中LLM产生了不正确的概括。他们通过生成一个问题的多个答案,并使用另一个模型根据相似的含义将它们分组来衡量LLM不确定性。各组之间的熵值越高,则表明存在虚构行为。同时,Google DeepMind推出了SAFE,它通过将LLM响应分解为单个事实、使用搜索引擎验证事实以及对语义相似的陈述进行聚类来评估LLM响应的真实性。他们还策划了LongFact,这是一个用于评估38个主题的长篇教员的新基准数据集。LLM生成的批评是否可以提高准确性和一致性?“法学硕士作为评判者”的概念依然存在,各大实验室已将其扩展到简单的产出评估之外。OpenAI推出了CriticGPT,它使用基于大量有缺陷输入数据集进行训练的GPT式LLM来发现其他LLM生成的代码中的错误。它在发现错误方面的表现优于现实承包商公司,并且在63%的时间里,其评论比人类撰写的评论更受欢迎。该系统还能够发现被标记为“完美无缺”的训练数据中的错误。同时,Cohere还探索了使用LLM生成的评论可增强RLHF的奖励模型。他们使用一系列LLM为每个偏好数据对生成逐点评论,旨在让LLM评估提示完成对的有效性。他们发现,在较弱的基础模型中,或在低数据设置中,一个高质量的批评增强偏好对可以抵得上40个标准偏好对。RLHF不会很快消失

详解:DeepSeek深度推理+联网搜索 目前断档第一

|[heading2]名称|[heading2]链接|[heading2]团队简介|[heading2]类型|[content]|-|-|-|-||[heading6]DeepSeek与AI幻觉|[5️⃣DeepSeek与AI幻觉「清华大学」](https://bl7rsz9526.feishu.cn/wiki/Q4oHwS9qrigJIjk6UK4cGLf2nwf)|清华大学新闻与传播学院<br>新媒体研究中心人工智能学院<br>双聘教授@新媒沈阳团队<br>博士后张家铖|PPT课件|[content]|[heading6]证券机构文档|[content][AI大模型的突破与未来展望](https://bl7rsz9526.feishu.cn/wiki/MXHVwGwVciCRZykfeV0c8203nte)|国信证卷、华安证卷、中航证券、东兴证卷、浦银国际、开源证券...|PDF文档|

Others are asking
有什么免费开源的数字人AI工具
以下为您推荐一些免费开源的数字人 AI 工具: 1. Aigcpanel: 特点:开源且适合小白用户,具有一键安装包,无需配置环境,简单易用。 功能:能够生成数字人视频,支持语音合成和声音克隆,操作界面中英文可选。 系统兼容:支持 Windows、Linux、macOS。 模型支持:MuseTalk(文本到语音)、CosyVoice(语音克隆)。 使用步骤:下载 8G+3G 语音模型包,启动模型即可。 GitHub 链接: 官网: 2. Heygen: 优点:人物灵活,五官自然,视频生成很快。 缺点:中文的人声选择较少。 使用方法: 点击网址注册后,进入数字人制作,选择 Photo Avatar 上传自己的照片。 上传后效果如图所示,My Avatar 处显示上传的照片。 点开大图后,点击 Create with AI Studio,进入数字人制作。 写上视频文案并选择配音音色,也可以自行上传音频。 最后点击 Submit,就可以得到一段数字人视频。 3. DID: 优点:制作简单,人物灵活。 缺点:为了防止侵权,免费版下载后有水印。 使用方法: 点击上面的网址,点击右上角的 Create vedio。 选择人物形象,可以点击 ADD 添加自己的照片,或者使用 DID 给出的人物形象。 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 最后,点击 Generate vedio 就可以生成一段视频。 打开自己生成的视频,可以下载或者直接分享给朋友。 4. KreadoAI: 优点:免费(对于普通娱乐玩家很重要),功能齐全。 缺点:音色很 AI。 使用方法: 点击上面的网址,注册后获得 120 免费 k 币,这里选择“照片数字人口播”的功能。 点击开始创作,选择自定义照片。 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 打开绿幕按钮,点击背景,可以添加背景图。 最后,点击生成视频。
2025-02-24
AI变清晰
以下是关于让 AI 变清晰的相关内容: 对于老照片,可将其放入后期处理中,使用 GFPGAN 算法使人脸变清晰。具体可参考文章——。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免对原图产生干扰。 常见的 AI 画质增强工具包括:Magnific(https://magnific.ai/)、ClipDrop(https://clipdrop.co/imageupscaler)、Image Upscaler(https://imageupscaler.com/)、Krea(https://www.krea.ai/)。更多工具可查看网站的图像放大工具库:https://www.waytoagi.com/category/17 。这些工具具有不同特点和功能,可根据需求选择。
2025-02-24
请基于WHO提出的“健康老龄化”这个概念,论述AI和养老产业以及健康老龄化的关系,并举出在WHO、英国以及美国的实例
目前知识库中没有关于“基于 WHO 提出的‘健康老龄化’概念论述 AI 和养老产业以及健康老龄化关系,并列举 WHO、英国以及美国实例”的相关内容。但据现有知识,AI 在养老产业和健康老龄化方面具有重要作用。AI 可以通过智能监测设备实时收集老年人的健康数据,提前预警疾病风险;还能借助智能陪伴机器人为老年人提供心理支持和社交互动。 在 WHO 方面,可能尚未有明确的具体实例,但在理念倡导上可能会强调利用创新技术促进健康老龄化。 英国可能在一些养老机构中应用了 AI 技术来优化服务流程和提高护理质量。 美国或许在医疗保健领域利用 AI 辅助诊断和治疗,以更好地满足老年人的健康需求。但具体的实例还需要进一步查阅权威资料和最新研究。
2025-02-24
帮我找一些可以无损放大图片的ai 产品
以下是一些可以无损放大图片的 AI 产品: 本地工具放大:https://www.upscayl.org/download SD 放大:扩散模型可以增加更多细节 开源工作流: stability.ai 的 https://clipdrop.co/tools 画质增强 magnific 遥遥领先:https://magnific.ai/ Krea:https://www.krea.ai/apps/image/enhancer Image Upscaler:https://imageupscaler.com/ 佐糖:https://picwish.cn/photoenhancerapi?apptype=apsbdapi&bd_vid=8091972682159211710 腾讯 ARC:https://arc.tencent.com/zh/aidemos/humansegmentation?ref=88sheji.cn 腾讯开源的模型,能恢复老照片:https://github.com/TencentARC/GFPGAN 在线测试地址:https://replicate.com/tencentarc/gfpgan 美图老照片修复:https://www.xdesign.com/quality/?channel=sllbd90&bd_vid=11711254260543749686 Imglarger:https://imglarger.com/ Let's Enhance:https://letsenhance.io/ Waifu2x:http://waifu2x.udp.jp/ 此外,以下是图片增强方面的 AI 产品排名数据: 4 月访问量(万 Visit): 1. Cutout pro 图片增强 1608 相对 3 月变化 0.023 2. Upscale media 图片增强 432 相对 3 月变化 0.073 3. ZMO AI 图片增强 338 相对 3 月变化 0.161 4. Neural.love Art 图片增强 283 相对 3 月变化 0.072 5. Topaz Photo AI 图片增强 247 相对 3 月变化 0.047 6. VanceAI 图片增强 247 相对 3 月变化 0.078 7. bigjpgAI 图片无损放大 图片增强 203 相对 3 月变化 0.06 8. Img Upscaler 图片增强 203 相对 3 月变化 0.042 9. Let's Enhance 图片增强 167 相对 3 月变化 0.046 10. Akool 图片增强 122 相对 3 月变化 0.173 6 月访问量(万 Visit): 1. Cutout pro 图片增强 1408 相对 5 月变化 0.082 2. Upscale media 图片增强 433 相对 5 月变化 0.029 3. Neural.love Art 图片增强 253 相对 5 月变化 0.137 4. Img Upscaler 图片增强 244 相对 5 月变化 0.032 5. VanceAI 图片增强 239 相对 5 月变化 0.077 6. ZMO AI 图片增强 221 相对 5 月变化 0.153 7. bigjpgAI 图片无损放大 图片增强 180 相对 5 月变化 0.109 8. Topaz Photo AI/Topaz Video AI 图片增强 170 相对 5 月变化 0.224 9. Let's Enhance 图片增强 150 相对 5 月变化 0.102 10. Akool 图片增强 142 相对 5 月变化 0.193
2025-02-24
我要学习AIGC ,零基础,刚接触,请给我制定一个系统的学习清单
以下是为您制定的零基础学习 AIGC 的系统学习清单: 1. 阅读彭博社对谷歌 CEO Sundar Pichai 的访谈,了解关于搜索未来、Gemini 构建、与微软和 OpenAI 竞争、美中在 AI 方面的竞争以及谷歌文化挑战等内容,同时关注 Google 对 AI 技术未来包括 AGI 的承诺和看法。 2. 查看 Elicit 发布的机器学习必读清单,系统学习机器学习基础、Transformer 与基础模型、训练与微调、推理与运行策略等方面,从基础概念入门到深度强化学习和反向传播等进阶内容,深入了解 Transformer 架构以及训练和精调语言模型的方法与策略,分析大语言模型如何处理复杂推理和解决问题的任务。 3. 学习提示工程基础,掌握三种高级提示工程技巧,包括思维链(CoT)提示、思维树(ToT)提示和思维图(GoT)提示。 4. 观看【AI 学习笔记】小白如何理解技术原理与建立框架的相关内容,了解什么是 AI 大模型及其原理,包括生成式 AI 生成的内容(AIGC)、相关技术名词(如 AI、机器学习、监督学习、无监督学习、强化学习、深度学习、生成式 AI、LLM 等)以及技术里程碑(如谷歌团队发表的《Attention is All You Need》论文提出的 Transformer 模型)。
2025-02-24
适合做人文社科类学术研究的AI助手或工具有哪些?
以下是一些适合做人文社科类学术研究的 AI 助手或工具: 1. 文献管理和搜索: Zotero:结合 AI 技术,能自动提取文献信息,便于管理和整理参考文献。 Semantic Scholar:由 AI 驱动的学术搜索引擎,可提供文献推荐和引用分析。 2. 内容生成和辅助写作: Grammarly:通过 AI 技术进行文本校对、语法修正和写作风格建议,提升语言质量。 Quillbot:基于 AI 的重写和摘要工具,能精简和优化论文内容。 3. 研究和数据分析: Google Colab:提供基于云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,方便进行数据分析和可视化。 Knitro:用于数学建模和优化的软件,有助于复杂的数据分析和模型构建。 4. 论文结构和格式: LaTeX:结合自动化和模板,高效处理论文格式和数学公式。 Overleaf:在线 LaTeX 编辑器,有丰富模板库和协作功能,简化论文编写。 5. 研究伦理和抄袭检测: Turnitin:广泛使用的抄袭检测工具,确保论文原创性。 Crossref Similarity Check:通过与已发表作品比较,检测潜在抄袭问题。 此外,如果您有医学课题需要修改意见,以下工具可供选择: 1. Scite.ai:创新平台,提供引用声明搜索、自定义仪表板和参考检查等工具,增强对科学文献的洞察。 2. Scholarcy:能从文档提取结构化数据,生成文章概要,包含关键概念、摘要等板块内容。 3. ChatGPT:强大的自然语言处理模型,可提供修改意见和帮助。 常见的文章润色工具包括: 1. Wordvice AI:集校对、改写转述和翻译等功能于一体,基于大型语言模型提供全面的英文论文润色服务。 2. ChatGPT:由 OpenAI 开发的大型语言模型,用于多方面写作辅助。 3. Quillbot:人工智能文本摘要和改写工具,可快速筛选和改写文献资料。 4. HyperWrite:基于 AI 的写作助手和大纲生成器,帮助写作前的头脑风暴和大纲规划。 5. Wordtune:AI 驱动的文本改写和润色工具,优化文章语言表达。 6. Smodin:提供 AI 驱动的论文撰写功能,生成符合要求的学术论文。 在使用这些工具时,要结合自己的写作风格和需求,选择最合适的辅助工具。同时,请注意这些内容由 AI 大模型生成,请仔细甄别。
2025-02-24
AI幻觉
AI 幻觉是指 AI 在生成内容时出现的错误或与现实世界不符的情况。以下是关于 AI 幻觉的一些重要方面: 在写东西方面,AI 容易“产生幻觉”并生成看似合理但可能完全错误且令人信服的事实。例如,GPT4 通常更扎实,而 Bing 因互联网连接可拉入相关事实,但幻觉仍难以完全消除。同时,AI 不会真正解释自身,给出的解释可能是完全编造的。当被要求解释思考过程时,它只是生成听起来合理的文本,这使得理解系统中的偏见非常困难。 在艺术创作方面,许多 AI 工具会出现幻觉,如照片中突然出现第三只手臂,或者处理请求时间长。对于大多数消费者可能可接受,但对于试图通过内容盈利的用户可能更令人沮丧。 从技术真相角度来看,AI 幻觉本质上是对信息的扭曲。人类认知偏差是大脑处理信息时为节省认知资源采取“捷径”导致对信息的扭曲和误判,而 AI 幻觉是模型对训练数据中统计模式的过度依赖,在面对新情况时无法准确理解和生成信息。其表现形式多种多样且难以察觉,如生成不存在的人物、地点、事件或对已知事实错误描述。产生原因都与经验和知识有关,人类认知偏差与个人成长经历、文化背景、知识结构等有关,AI 幻觉则与训练数据质量、模型结构和训练策略有关。其影响可能导致错误决策,如投资者受偏差影响做出错误投资决策,也可能误导用户、传播虚假信息甚至引发安全事故,如用于医疗诊断的 AI 系统给出错误诊断结果延误患者治疗。 可参考进一步了解。
2025-02-24
AI幻觉
AI 幻觉是指 AI 在生成内容时出现的错误或与现实世界不符的情况。以下是关于 AI 幻觉的一些重要方面: 在写东西方面,AI 容易“产生幻觉”并生成看似合理但可能完全错误的内容,且非常令人信服。例如,当被要求为互联网提供参考、引用、引文和信息时(对于未连接到互联网的模型),风险尤其大。GPT4 通常更扎实,而 Bing 的互联网连接意味着它能引入相关事实,但幻觉仍无法完全消除。同时,AI 不会真正解释自己,对其思考过程的回答往往是编造的,这使得理解系统中的偏见非常困难。 在艺术创作方面,许多 AI 工具会出现幻觉,如照片中突然出现第三只手臂,或者处理请求时间长。对于大多数消费者可能可接受,但对于试图通过内容盈利的人可能更令人沮丧。为满足高级用户需求,预计很多公司会推出如 ChatGPT 那样的“专业版”套餐提供更高质量服务。 从技术真相角度来看,AI 幻觉本质上是对信息的扭曲。人类认知偏差源于大脑处理信息时为节省认知资源采取的“捷径”,易导致信息误判;AI 幻觉则是模型对训练数据中统计模式过度依赖,面对新情况无法准确理解和生成信息。其表现形式多种多样且难以察觉,如生成不存在的人物、地点、事件或对已知事实错误描述。产生原因都与经验和知识有关,人类认知偏差与个人成长经历、文化背景等有关,AI 幻觉与训练数据质量、模型结构和训练策略有关。其影响可能导致错误决策,如投资者受偏差影响做出错误投资决策;在 AI 领域,可能误导用户、传播虚假信息甚至引发安全事故,如用于医疗诊断的 AI 系统给出错误诊断结果延误治疗。
2025-02-24
AI 幻觉
AI 幻觉是指 AI 系统生成的信息与事实不符或与预期不符的现象。其表现形式多种多样,包括生成不存在的人物、地点、事件,对已知事实进行错误描述等。 产生的原因主要与经验和知识有关: 对于人类,认知偏差是大脑在处理信息时为节省认知资源而采取的“捷径”,容易导致对信息的扭曲和误判。 对于 AI,与训练数据的质量、模型的结构和训练策略有关。若训练数据存在偏差或错误,模型会学习到这些并体现在生成内容中。 AI 幻觉的影响可能很严重: 导致错误决策,例如投资者受偏差影响做出错误投资决策。 误导用户,如医疗 AI 助手给出错误诊断建议延误患者治疗。 传播虚假信息,用于政治宣传或商业炒作,影响社会稳定。 损害 AI 系统的可信度,降低用户信任度,阻碍 AI 技术推广和应用。 为避免 AI 幻觉,可参考,但无法完全消除。同时需注意,AI 不会解释自己,对其输出的内容需全部检查,且对工具的输出负责。
2025-02-21
AI 幻觉
AI 幻觉是指 AI 系统生成的信息与事实不符或与预期不符的现象。它不是 AI 故意为之,而是由技术局限性造成的错误。 其表现形式多种多样,例如生成不存在的人物、地点、事件,对已知事实进行错误描述等。产生的原因与训练数据的质量、模型的结构和训练策略有关,如果训练数据存在偏差或错误,模型就会学习到这些并体现在生成内容中。 AI 幻觉可能带来诸多风险: 1. 误导用户,导致用户获取错误信息从而做出错误判断,如医疗 AI 助手给出错误诊断建议延误患者治疗。 2. 传播虚假信息,用于制造和传播虚假新闻报道或社交媒体帖子,误导公众,影响社会稳定。 3. 损害 AI 系统的可信度,降低用户对其的信任度,阻碍 AI 技术的推广和应用。 为了避免 AI 幻觉,您可以参考,但需注意它们不可能完全消除。同时,使用 AI 生成内容时,您需要检查所有内容,因为 AI 可能会连续且良好地撒谎,给出完全编造的合理答案,且当被询问思考过程时,它只是生成听起来合理的文本,而非真正审查自身行动。另外,您对这些工具的输出负责,且要注意 AI 也可能被不道德地用来操纵或作弊。
2025-02-21
大模型和小模型区别是什么?是否大模型都属于生成式AI,小模型属于判别式AI,为什么大模型有幻觉小模型没有?
大模型和小模型的区别主要体现在以下几个方面: 1. 规模和参数数量:大模型通常具有更多的参数和更复杂的架构,能够处理更大量和更复杂的数据。 2. 能力和性能:大模型在语言理解、生成等任务上往往表现更出色,能够生成更准确、丰富和连贯的内容。 3. 应用场景:大模型适用于广泛的通用任务,而小模型可能更专注于特定的、较狭窄的领域。 并非大模型都属于生成式 AI,小模型都属于判别式 AI。生成式 AI 能够生成新的内容,如文本、图片等;判别式 AI 则主要用于对输入进行分类或判断。模型的分类与其大小并无直接的必然联系。 大模型出现幻觉的原因主要是其通过训练数据猜测下一个输出结果,可能会因错误或不准确的数据导致给出错误的答案。而小模型相对来说数据量和复杂度较低,出现幻觉的情况相对较少,但这并非绝对,还取决于模型的训练质量、数据的准确性等多种因素。优质的数据集对于大模型减少幻觉现象非常重要。
2025-02-21
大模型和小模型区别是什么?为什么大模型有幻觉,小模型没有?
大模型和小模型的区别主要体现在以下几个方面: 1. 规模和参数:大模型通常具有更多的参数和更复杂的架构,而小模型相对规模较小。 2. 能力和性能:在处理自然语言等任务时,大模型往往表现出更强的能力,例如更准确的理解和生成能力。 3. 应用场景:大模型适用于通用的、复杂的任务,小模型则更适合特定的、简单的场景。 关于大模型存在幻觉而小模型没有的原因: 1. 工作原理:大模型基于统计模型预测生成内容,通过训练数据猜测下一个输出结果,可能因错误数据导致给出错误答案。 2. 数据局限性:大模型的知识完全源于其训练数据,可能存在过时、不准确或不完整的信息。 3. 不可预测性:大模型的输出结果具有不可预测性,而小模型相对更稳定和可预测。
2025-02-20
清华大学出的deepseek系列教程
以下是关于清华大学出的 deepseek 系列教程的相关信息: 2024 人工智能报告中提到 DeepSeek 在编码任务中已成为社区的最爱,其组合了速度、轻便性和准确性而推出的 deepseekcoderv2。 2 月 7 日,《》是清华大学新闻与传播学院新媒体研究中心出品的指南,详细阐述了 DeepSeek 的功能及使用方法,包括智能对话、文本生成、代码生成、自然语言理解等,还介绍了提示语设计的核心技能、常见陷阱及应对方法。 2 月 18 日,清华大学沈少阳发布了《》
2025-02-24
清华 deepseek
以下是关于清华 deepseek 的相关信息: 1 月 8 日:《》DeepSeek 是一家位于杭州的人工智能创业公司,其大语言模型 DeepSeekV3 在全球引发广泛关注。该模型以 550 万美元和 2000 块低配版英伟达 H800 GPU 训练,超越了多个顶级模型,获得硅谷研究者的高度评价。DeepSeek 的成功被视为中国式创新的典范,但其独特之处在于其更像一个研究机构,注重技术创新而非商业化运作,吸引了大量年轻的顶尖研究人才。 1 月 9 日:清华大学计算机科学与技术系助理教授,KVCache.AI 团队负责人章明星从大模型当前的发展阶段出发,分享了他关于模型架构演进、大模型 Scaling Law 的发展趋势及相应趋势对系统层面影响的看法,并探讨了未来的发展方向。 2 月 18 日:清华大学沈少阳发布《》。 1 月 28 日:DeepSeek 以小成本实现媲美领先 AI 产品的性能,并在全球主要市场 App Store 登顶。高盛认为 DeepSeek 或改变科技格局,降低 AI 行业的进入门槛。中文场景表现优秀,日常写作和表达习惯贴近人类,但专业论文总结略弱。数学能力不错,编程能力逊于 GPT。采用 GRPO 算法替代传统 PPO,提升语言评价灵活性与训练速度。
2025-02-24
清华大学关于deepseek的研究
以下是关于清华大学与 deepseek 相关的研究信息: 在 2024 年的 AI 领域中,DeepSeek 在编码任务中已成为社区的最爱,其组合了速度、轻便性和准确性而推出的 deepseekcoderv2。在较小的一端,清华大学的自然语言处理实验室资助了 OpenBMB 项目,该项目催生了 MiniCPM 项目。这些是可以在设备上运行的小型<2.5B 参数模型。它们的 2.8B 视觉模型在某些指标上仅略低于 GPT4V。
2025-02-21
是否有《普通人如何抓住deepseek红利》清华大学链接
以下是关于《普通人如何抓住 DeepSeek 红利》的相关链接: 清华大学新闻与传播学院撰写的报告:https://waytoagi.feishu.cn/record/T2yDrJ4NjeJFmccnBgzc5A7InIq 相关 PPT 课件:https://bl7rsz9526.feishu.cn/wiki/Gec9wxIGhiqSsAkrqzPc3ObLnpb (由清华大学新闻与传播学院、新媒体研究中心、元宇宙文化实验室、@新媒沈阳团队的陶炜博士生团队制作)
2025-02-20
清华出品的deepseek应用手册在哪里下载
清华出品的 DeepSeek 相关应用手册的下载链接如下: 清华大学沈少阳:《 北航&清华大学:《 《 其它一些报告发布在 。
2025-02-20
清华大学deepseek赋能职场
以下是关于清华大学 DeepSeek 赋能职场的相关信息: 有多个与 DeepSeek 相关的课题和研究,如“DeepSeek——从入门到精通”“DeepSeek 如何赋能职场应用?——从提示语技巧到多场景应用”“普通人如何抓住 DeepSeek 红利”等。 相关资料的链接和团队简介有所不同,如“DeepSeek 从入门到精通「清华团队」”的链接为 https://bl7rsz9526.feishu.cn/wiki/JdqkwyhD7iE4IXkn5jPcmyEknjb ,团队来自清华大学新闻与传播学院、新媒体研究中心、元宇宙文化实验室。 2 月 15 日社区动态速览中提到 DeepSeek 可以作为赋能职场的多场景 AI 工具,支持从创意到实现的全流程智能化服务,能快速将创意转化为高质量视频,具备多种功能,提供不同模式,还能用于多种工作,如制作可视化图表、PPT 大纲及设计海报等,通过智能体框架实现人机高效协作。 其它一些相关报告发布在研究报告板块和知识星球,如 ARK Invest 的《ARK Big Ideas 2025》中文版、民生证券的《DeepSeek 系列报告之 AI+教育》、华创证券的《汽车行业深度研究报告:AI 时代,车企的升维之战》。
2025-02-18