Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

现在deepseek从普通用户的层面,相比于其他模型,优势有哪些

Answer

DeepSeek 对于普通用户的优势包括:

  1. 国产之光,在国内被广泛接入和使用。
  2. 生成代码的质量可与国外顶尖大模型媲美。
  3. 深度思考版本 DeepSeek R1 基于强化学习 RL 的推理模型,在回答用户问题前会先进行“自问自答”式的推理思考,提升回答质量。其“聪明”源于独特的“教育方式”,率先进入“自学成才”新阶段。
  4. 思考与表达能力出色,在思考过程和输出结果的语气、结构、逻辑上表现优秀,碾压其他模型。

然而,DeepSeek 也存在一些不足,例如对于协助编程,其最大的上下文长度只有 64k,较短,导致无法处理更长的上下文和更复杂的代码项目。

Content generated by AI large model, please carefully verify (powered by aily)

References

字节最新发布的AI编程工具Trae 的 Windows 版终于发布了,Claude免费无限量!4个案例带你快速上手

1.全中文界面,跨平台支持Trae提供完整的中文本地化界面,让国内用户使用无障碍。同时支持Windows和MacOS系统,满足不同用户的需求。操作界面简洁直观,即使是技术小白也能快速上手。2.顶级AI模型免费畅享内置Claude3.5和GPT-4o两大顶尖AI模型,完全免费且不限使用次数。相比其他平台高昂的订阅费用,Trae让每个用户都能无成本享受到最先进的AI技术支持。3.零门槛智能开发不懂编程也能轻松开发应用,通过中文对话即可让AI生成所需代码。系统还能自动识别和解决代码错误,大大降低了技术门槛,让人人都能参与到AI开发中来。最近你可能会觉得DeepSeek大模型那么火,为什么就不直接用它呢?是的,DeepSeek的确是我们的国产之光,现在全国、小到普通用户,大到政府、企业,都在接入和使用它。但是DeepSeek对于协助编程有一个先天不足的地方,就是它最大的上下文长度只有64k,有点短了!生成代码的质量固然可以和国外顶尖大模型媲美,但是因为上下文限制,导致它无法处理更长的上下文,也就无法理解和处理更复杂的代码项目了,所以Trae+Claude 3.5等的组合,是目前协助编程比较好的解决方案。不过还是非常期待DeepSeek出更适合编程的迭代模型版本,相信不会太久好了,知道大家都等不及了,接下来我就带大家来练练手,看看用Trae零代码能做出什么好玩又实用的东西来~

非技术人 10 分钟读懂 Deepseek R1|天才模型养成与 AI 超越人类的破晓时刻

就我观察而言,大多数人讨论的DeepSeek,基本指的是它的深度思考版本——DeepSeek R1。DeepSeek R1不同于先前的普通模型(如ChatGPT-4、Claude 3.5 sonnet、豆包、通义等),它与OpenAI现在最先进的模型o1、o3一样,同属于一条技术路线:基于强化学习RL的推理(Reasoning)模型。其标志性表现就是,在回答用户问题前,R1会先进行“自问自答”式的推理思考,凭此提升最终回答的质量。这种“自问自答”,并非简单的自言自语,而是AI在模拟人类的深度思考。从用户初始问题“先有鸡还是先有蛋”出发,AI唤醒解决该问题所需的推理逻辑与知识,对问题进行多步推导,为最终回答提供更加完备的思考准备。这种能力,并非凭空而来。如果把AI比作人类,那么DeepSeek R1的“聪明”,源于其背后独特的“教育方式”。——在许多其他的AI模型还在接受“填鸭式教育”时,DeepSeek R1已经率先进入了“自学成才”的新阶段。

详解:DeepSeek深度推理+联网搜索 目前断档第一

没有对比就没有伤害,可以看到,DeepSeek的思考与表达的确碾压了上述所有模型。它的思考过程细腻、自洽、深刻、全面,输出结果在语气、结构、逻辑上天衣无缝,让人服气。|GPT4o输出结果|Claude Sonnet3.5输出结果||-|-|||||“豆包”输出结果|“Kimi探索版”输出结果||||

Others are asking
如何让deepseek写论文
以下是关于如何让 DeepSeek 写论文的相关内容: DeepSeek 在写文方面全面领先,但长文会太发散,文风用力过猛,可能导致审美疲劳,且模型多样性不够,相同 prompt 提问多次答案雷同。 写理性文章时,可先与 DeepSeek 讨论思路,再用 Cloud 3.5 批量生成。 让 Deepseek 模仿特定小说家的文学方式创作小说,需在提示词中描述文风特征,如鲁迅的文风特点等。 用 O1 模型对 AI 创作的字数控制有一定效果,也可通过多轮对话让 AI 增删改查来调整字数。 旧模型在文学创作时有过度道德说教和正面描述趋势,会导致结果生硬死板,是一种对齐税,因人类复杂,仅正面故事难共鸣、人物单薄。还提到大语言模型做概率预测会使生成内容同质化严重,使用 Deepseek 时需在控制和自由间平衡,建议给 Deepseek 更多自由发挥空间。 DeepSeek 很火,在 Benchmark 表现出色,做数学和代码题达 O1 标准,处于国际领先。其真正火的原因是文风优秀,有哲学思考,能触动人情感,文创能力顶尖,与其他模型不同,甚至被认为因其“发疯”而在创作上更出色。 需要注意的是,DeepSeek 有钱,有不输于巨头、远多于创业公司的弹药。但并不是所有巨头都愿意有一个自己的 DeepMind。
2025-03-31
我是一名日语大四学生,我要利用我的开题报告结合deepseek完成一篇论文初稿,请问怎么向deepseek提问
要向 DeepSeek 提问以结合您的开题报告完成论文初稿,您可以遵循以下正确的提问模板: 1. 赋予角色(选填):对 DeepSeek 赋予一个特定的角色,以便它能更专业地回答您的问题。 2. 背景/现状(必填):提供尽可能详细的背景信息,例如您的开题报告的主题、研究目的、已有的研究进展等,以使 DeepSeek 更好地理解您的问题。 3. 需求/目标(必填):明确告诉 DeepSeek 您的需求,比如您希望它根据开题报告提供论文大纲、分析相关数据、提供文献综述等,提出的需求越明确获得的答案越有价值。 4. 补充要求:您还可以提出关于回答的格式、风格、字数等方面的要求。 例如:您可以这样提问“我赋予您论文撰写助手的角色,我的开题报告主题是关于日本文化在现代社会中的变迁,目前我已经完成了初步的文献收集和分析,我的目标是请您根据这份开题报告为我生成一个详细的论文大纲,要求大纲结构清晰,逻辑连贯,具有一定的创新性”。
2025-03-31
deepseek论文指令
以下是关于 Deepseek 论文指令的相关内容: 进阶控制技巧: 思维链引导:分步标记法,如请逐步思考“问题分析→方案设计→风险评估”;苏格拉底式追问,在得出最终结论前,先列举三个可能存在的认知偏差。 知识库调用:领域限定指令,如基于 2023 版中国药典,说明头孢类药物的配伍禁忌;文献引用模式,如以 Nature 2022 年发表的论文为参考,解释 CRISPRCas9 最新突破。 多模态输出。 高级调试策略: 模糊指令优化:包括宽泛需求添加维度约束,如原句“写小说”→修正“创作以 AI 觉醒为背景的悬疑短篇,采用多视角叙事结构”;主观表述量化标准,如原句“写得专业些”→修正“符合 IEEE 论文格式,包含 5 项以上行业数据引用”。 迭代优化法:首轮生成获取基础内容,然后特征强化、风格调整,最后进行最终校验。 高阶能力调用: 文风转换矩阵:如作家风格移植“用鲁迅杂文风格写职场 PUA 现象”;文体杂交“将产品说明书改写成《史记》列传格式”;学术口语化“把这篇论文摘要翻译成菜市场大妈能听懂的话”。 领域穿透技术:行业黑话破解,如“解释 Web3 领域的‘胖协议瘦应用’理论”;商业决策支持。 场景化实战策略: 创意内容生成。 技术方案论证。 效能增强技巧: 对话记忆管理:上下文锚定,如“记住当前讨论的芯片型号是麒麟 9010”;信息回溯,如“请复述之前确认的三个设计原则”;焦点重置,如“回到最初讨论的供应链问题”。 输出质量控制:针对过度抽象、信息过载、风格偏移等问题的修正指令。 特殊场景解决方案: 长文本创作:分段接力法,如“先完成故事大纲→逐章扩展→最后进行伏笔校验”“确保新章节与前文的三处细节呼应”。 敏感内容处理:概念脱敏法,如“用经济学原理类比说明网络审查机制”;场景移植法,如“假设在火星殖民地讨论该议题”。 此外,还提到了与 DeepSeek 相关的一些使用方法,如输入控制流程化、与 AI 沟通的新思维等,并给出了为中年人撰写包含特定角色的科幻纯爱小说的示例。
2025-03-31
我是一名日语大四学生,我要利用我的开题报告和文献综述结合deepseek完成一篇论文初稿,请问怎么向deepseek提问
向 DeepSeek 提问时,可遵循以下万能通用的提问公式:提示词=赋予角色+背景/现状+目标/需求+补充要求。 1. 赋予角色(选填):对 DeepSeek 赋予一个特定的角色,以便它能更专业地回答您的问题。 2. 背景/现状(必填):提供尽可能详细的背景信息,以使它更好地理解您的问题,并为您提供更准确的答案。例如您是日语大四学生,正在进行开题报告和文献综述相关工作。 3. 需求/目标(必填):明确告诉 DeepSeek 您的需求,比如完成一篇结合开题报告和文献综述的论文初稿。 4. 补充要求:例如指定写作风格要具有吸引力、友好性和幽默感等。 另外,在使用 DeepSeek 时还需注意: 对于像“仅通过东方集团的历年公开财务数据,分析这家公司的潜在投资机会和风险”这样的特定需求,可能需要进一步追问以获得更满意的结果。 与 DeepSeek 交流时,在其提供方法建议后,可以追问背后的方法论。 对于创作类的需求,如脱口秀段子,可以结合特定人物的特点和风格,并指定主题和字数等要求。
2025-03-31
deepseek api
Jina DeepSearch 是一项基于推理大模型的深度搜索服务,其 API 已上线且开源。它可以在搜索时进行不断推理、迭代、探索、读取和归纳总结,直到找到最优答案为止。与 OpenAI 和 Gemini 不同,Jina DeepSearch 专注于通过迭代提供准确的答案,而不是生成长篇文章。它针对深度网络搜索的快速、精确答案进行了优化,而不是创建全面的报告。 使用入口:官方深度搜索 API 与 OpenAI API 架构完全兼容,您可以前往官网(jina.ai/deepsearch)了解详情;或者前往应用页面(search.jina.ai)体验。 此外,北京时间 00:30 至 08:30 期间,DeepSeek API 价格大幅下调。DeepSeekV3 降至原价的 50%,DeepSeekR1 低至 25%,鼓励用户在夜间空闲时段调用 API,以更低成本享受服务。
2025-03-30
DEEPseek 教程
以下是为您整理的关于 DeepSeek 的教程相关信息: 有众多关于 DeepSeek 的学习资料,如《DeepSeek R1本地部署完全手册》.pdf、00 Deepseek 官方提示词.txt、普通人学 AI 指南.pdf、清华大学:DeepSeek 从入门到精通【高清版】.pdf 等。 火山方舟 DeepSeek 申请免费额度及 API 使用方法:包含飞书多维表格调用、Coze 智能体调用、浏览器插件调用等方式。可以使用邀请码 D3H5G9QA,邀请链接为 https://www.volcengine.com/activity/deepseek?utm_term=202502dsinvite&ac=DSASUQY5&rc=D3H5G9QA,邀请可拿 3000 万 tokens。 第三期「AI 实训营」手把手学 AI 中,有关于阿里云上 DeepSeek 玩法的教学,课程于 2025.02.25/26 日每晚 20:00 进行,讲师为许键,包括用 DeepSeek 搭建智能体、全网最简单的 DeepSeek 的部署和蒸馏手把手教程等内容,飞书会议链接为 https://vc.feishu.cn/j/254331715 ,共学文档链接为 。
2025-03-30
总结一下当前AI发展现状以及指导非开发者一类的普通用户如何使用及进阶使相关工具
当前 AI 发展现状: 涵盖了不同领域的应用和发展,如电子小说行业等。 包括了智能体的 API 调用、bot 串联和网页内容推送等方面。 对于非开发者一类的普通用户使用及进阶相关工具的指导: 可以先从国内模型工具入手,这些工具不花钱。 学习从提示词开始,与模型对话时要把话说清,强调提示词在与各类模型对话中的重要性及结构化提示词的优势。 对于技术爱好者:从小项目开始,如搭建简单博客或自动化脚本;探索 AI 编程工具,如 GitHub Copilot 或 Cursor;参与 AI 社区交流经验;构建 AI 驱动的项目。 对于内容创作者:利用 AI 辅助头脑风暴;建立 AI 写作流程,从生成大纲开始;进行多语言内容探索;利用 AI 工具优化 SEO。 若想深入学习美学概念和操作可报野菩萨课程。国内模型指令遵循能力较弱时,可使用 launch BD 尝试解决。
2025-01-31
对于大语言模型使用的未来趋势,是闭源云端还是开源本地部署,作为普通用户是否有必要了解本地部署知识,并且是否有必要自己搭建agent以及rag?
大语言模型的未来趋势在闭源云端和开源本地部署方面存在多种可能性。 对于开源本地部署,以下是一些相关信息: Ollama 是一个方便用户在本地运行和管理大型语言模型的框架,具有以下特点: 支持多种大型语言模型,如通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 CPU 和 GPU。 提供模型库,用户可从中下载不同模型,以满足不同需求和硬件条件,模型库可通过 https://ollama.com/library 查找。 支持用户自定义模型,例如修改温度参数调整创造性和连贯性,或设置特定系统消息。 提供 REST API 用于运行和管理模型,以及与其他应用程序的集成选项。 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 安装可访问 https://ollama.com/download/ 。 可以通过一些教程学习如何本地部署大模型以及搭建个人知识库,例如了解如何使用 Ollama 一键部署本地大模型、通过搭建本地聊天工具了解 ChatGPT 信息流转、RAG 的概念及核心技术、通过 AnythingLLM 搭建完全本地化的数据库等。 同时,采用开源或国内企业提供的 13B 级模型本地部署在内部系统中,虽需投入算力,但有其价值。智能客服的大量优质大客户可能会选择自己搭建智能客服平台,并结合大模型企业提供的技术服务,基于大模型搭建 LangChain、RAG 框架,实现 RPA 自动流程。 对于普通用户是否有必要了解本地部署知识以及是否有必要自己搭建 agent 以及 rag,这取决于个人需求和兴趣。如果您希望更深入了解大模型的工作原理和运行机制,或者有特定的个性化需求,那么了解和尝试本地部署可能是有意义的。但如果只是一般的使用需求,可能无需深入了解和自行搭建。
2024-09-03
我是小白,希望从头开始学agi,但是不需要特别专业的知识,只集中于应用层面就好
对于小白从头开始学习 AGI 并集中于应用层面,建议您按照以下步骤进行: 1. 记忆:先了解 AGI 的历史、基本术语、重要概念、方法和原理等。 2. 理解:进一步了解 AGI 领域的主要思想。 3. 应用:深入了解 Prompt,选择适合自己的 AI 对话(https://ywh1bkansf.feishu.cn/wiki/QddLw0teKi7nUCkDRIecskn3nuc )、绘画(https://ywh1bkansf.feishu.cn/wiki/Q5ddwxfkMiVUZBkQXN7cgXf4nOb )和语音(https://ywh1bkansf.feishu.cn/wiki/ZXPiw2OuLi2YsxkkmaLcPTyInrc )产品,每天使用它们来解决实际问题或提升效率(https://waytoagi.feishu.cn/wiki/A0Y0wpBOcig7HLkSFNcceTA6nwb )。 4. 分析:大量阅读各类文章(https://ywh1bkansf.feishu.cn/wiki/YjJgwbKnriZBZ0kVn6Kc1gSKnsf?table=tblsQKR3a22uFqsp )、视频(https://ywh1bkansf.feishu.cn/wiki/LEnvwwEy0iufT3k4kfVc8Ehenvf?table=tbllpoPWJn6MNOR6&view=vew68BlUHo )以及行业报告(https://ywh1bkansf.feishu.cn/wiki/FnXcwGrwSimQxnkNo1kcJzPYn7f ),理解各知识之间的关系。 此外,您还可以观看以下两个对建立框架有帮助的视频: 1. 【包教包会】一条视频速通 AI 大模型原理_哔哩哔哩_bilibili(https://www.bilibili.com/video/BV17t4218761/?vd_source=3cc4af77a2ef185635e8097d3326c893 ),由林粒粒呀(女神)主讲,和某知识 up 主 Genji 一起制作的免费公益课,新手友好,50 分钟速通 AI 大模型原理。 2. 用大模型保存你的全部人生,你会接受吗:专访安克创新 CEO 阳萌|大咖谈芯第 11 期_哔哩哔哩_bilibili(https://www.bilibili.com/video/BV1iT421Q7M1 ),某知识 up 主老石谈芯专访安克创新 CEO 阳萌的视频,一共两期,两期内容都值得观看。
2025-03-28
给我30份中央人民政府网站和工业和信息部网站2020~2023年期间发布的重要的国家层面与人工智能相关政策文件,列个清单
以下是中央人民政府网站和工业和信息部网站 2020 2023 年期间发布的部分重要的国家层面与人工智能相关政策文件清单: 1. 互联网信息服务算法推荐管理规定(算法推荐规定),于 2023 年 3 月 1 日生效。 2. 互联网信息服务深度合成管理规定(深度合成规定),于 2023 年 1 月 10 日生效。 3. 生成式人工智能服务管理暂行办法(生成式 AI 办法),于 2023 年 7 月 13 日公布并于 2023 年 8 月 15 日生效。 4. 生成式人工智能服务安全基本要求(征求意见稿),于 2023 年 10 月 11 日公开征求意见,意见反馈截止日期为 2023 年 10 月 25 日。 5. 科技伦理审查办法(试行)(征求意见稿)(伦理审查办法(草案)),于 2023 年 4 月 14 日公开征求意见,意见反馈截止时间为 2023 年 5 月 3 日。 6. 国家人工智能产业综合标准化体系建设指南(征求意见稿),于 2024 年 1 月 17 日公开征集意见,意见反馈截止时间为 2024 年 1 月 31 日。 由于未能获取到 30 份相关政策文件,建议您通过中央人民政府网站和工业和信息部网站的搜索功能,以获取更全面和准确的信息。
2025-02-25
现在有哪些在编曲、混音、配乐等音乐制作层面发挥作用的 AI 产品?
目前在音乐制作领域,有几款AI产品正在发挥重要作用,特别是在编曲、混音、配乐等方面: 1. Suno AI:用户可以通过简单的文本提示进行创作,生成多种音乐风格的高质量音乐和语音。Suno的独特之处在于它能够创作包含歌词和人声的完整歌曲,与Google的MusicFX以及Meta的AudioGen等竞争者显著区别开来。 2. 腾讯音乐的AI音乐产品:腾讯音乐推出了“TME Studio音乐创作助手”与“音色制作人”两款AI音乐产品。这些产品旨在协助音乐人在作词、作曲、音乐内容分析与剪辑等制作环节提高效率。 这些AI产品在音乐制作中的应用,不仅降低了音乐制作的门槛,还为音乐爱好者和专业人士提供了新的创作工具,推动了音乐创作的民主化。随着技术的不断进步,我们可以期待更多创新和高效的音乐制作工具的出现。
2024-04-19
你好,你是什么大模型
大模型通俗来讲,是输入大量语料,让计算机获得类似人类的“思考”能力,从而能够理解自然语言,并进行文本生成、推理问答、对话、文档摘要等工作。 大模型的训练和使用过程可以用“上学参加工作”来类比: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练自己的大模型。 2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:即用合适的算法讲述“书本”中的内容,让大模型更好理解 Token 之间的关系。 4. 就业指导:为了让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,正式干活,比如进行翻译、问答等,在大模型里称之为推导(infer)。 在 LLM 中,Token 被视为模型处理和生成的文本单位,可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。Token 是原始文本数据与 LLM 可以使用的数字表示之间的桥梁。在将输入进行分词时,会对其进行数字化,形成一个词汇表。 生成式 AI 生成的内容叫做 AIGC。相关技术名词包括: 1. AI 即人工智能。 2. 机器学习是电脑找规律学习,包括监督学习、无监督学习、强化学习。 监督学习是有标签的训练数据,算法目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习是学习的数据没有标签,算法自主发现规律,经典任务包括聚类。 强化学习是从反馈里学习,最大化奖励或最小化损失,类似训小狗。 3. 深度学习是一种参照人脑有神经网络和神经元的方法(因有很多层所以叫深度),神经网络可用于监督学习、无监督学习、强化学习。 4. 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 5. LLM 是大语言模型,对于生成式 AI,生成图像的扩散模型不是大语言模型;对于大语言模型,生成只是其中一个处理任务,比如谷歌的 BERT 模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制(SelfAttention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN)。
2025-04-01
罗列具体的AI模型产品和具体的AI技术创新点,并总结AI技术的发展趋势,并说明这些发展趋势为用户的交互体验带来了什么样的改变?按照时间线将以上内容梳理出来
以下是按照您的需求梳理的内容: 时间线 早期: 从图灵测试、早期的图灵机器人和 ELISA 开始,到 IBM 的语音控制打印机、完全由人工智能创作的小说、微软的同声传译系统。 近年来: OpenAI 发布 ChatGPT 模型,引发用户习惯从简单触控操作转向更复杂的长文本输入,未来可能延伸至长语音交互。 大模型创新方面,架构优化加速涌现,融合迭代成为趋势。Scaling Law 泛化,推理能力成为关键,倒逼计算和数据变革。AGI 探索中,视频生成点燃世界模型,空间智能统一虚拟和现实。 在应用方面,AI 在文科白领的个人助理、呼叫中心、文本处理和教育等领域表现出色,能完成 80%到 90%的工作;对于工科白领,特别是程序员,能简化代码检索和调整;在蓝领领域,自动驾驶取得显著进展。但在复杂任务方面仍有改进空间。 第一轮洗牌结束,聚焦 20 赛道 5 大场景,多领域竞速中运营大于技术,AI 助手成为竞争重点。AI+X 赋能类产品发展迅速,原生 AI 爆款难求。多模态上马,Agent 席卷一切,高度个性化呼之欲出。 人工智能发展经历了萌芽、积累沉淀到如今大模型和多模态模型百花齐放的阶段。大模型由数据、算法、算力构成,算法有技术架构的迭代,如英伟达的显卡辅助模型训练,数据质量对生成理想的大模型至关重要。 未来: 李沐预测技术发展可能催生出革命性的应用形态,但 AI 离真正变革世界还有一段距离。 预计 AI 在蓝领工作的初步应用至少需要 5 年时间。 AI 技术创新点: 大模型创新:架构优化加速涌现,融合迭代大势所趋。 Scaling Law 泛化:推理能力成皇冠明珠,倒逼计算和数据变革。 AGI 探索:视频生成点燃世界模型,空间智能统⼀虚拟和现实。 AI 技术的发展趋势: 模型架构不断优化和融合。 更加注重推理能力的提升。 探索 AGI 领域,实现虚拟和现实的统一。 应用格局不断洗牌,聚焦特定赛道和场景。 多模态和 Agent 技术的广泛应用。 对用户交互体验的改变: 用户习惯从简单触控操作转向更复杂的长文本输入,未来可能延伸至长语音交互。 AI 应用为用户提供辅助,在多个领域帮助完成任务。
2025-03-31
AI技术发展时间线,罗列具体的AI模型产品和具体的AI技术创新点,并总结AI技术的发展趋势,并说明这些发展趋势为用户的交互体验带来了什么样的改变?
以下是关于 AI 技术发展的相关内容: AI 技术发展时间线: 从图灵测试、早期的图灵机器人和 ELISA,到 IBM 的语音控制打印机、完全由人工智能创作的小说、微软的同声传译系统,再到 OpenAI 发布 ChatGPT 模型,经历了萌芽、积累沉淀到如今大模型和多模态模型百花齐放的阶段。 具体的 AI 模型产品: ChatGPT 改变了用户习惯,从简单触控操作转向更复杂的长文本输入,未来可能延伸至长语音交互。 具体的 AI 技术创新点: 大模型创新方面,架构优化加速涌现,融合迭代成为趋势。 Scaling Law 泛化,推理能力成为皇冠明珠,倒逼计算和数据变革。 AGI 探索中,视频生成点燃世界模型,空间智能统一虚拟和现实。 AI 技术的发展趋势: 大模型创新:架构优化加速涌现,融合迭代大势所趋。 应用格局:第一轮洗牌结束,聚焦 20 赛道 5 大场景。 应用竞争:多领域竞速运营大于技术,AI 助手兵家必争。 应用增长:AI+X 赋能类产品大干快上,原生 AI 爆款难求。 产品趋势:多模态上马,Agent 席卷一切,高度个性化呼之欲出。 智变千行百业:左手变革生产力,右手重塑行业生态。 行业渗透率:数据基础决定初速度,用户需求成为加速度。 创投:投融资马太效应明显,国家队出手频率提升。 对用户交互体验的改变: ChatGPT 使用户从简单触控操作转向更复杂的长文本输入,未来可能延伸至长语音交互。 在文科白领方面,AI 能完成 80%到 90%的工作,如个人助理、呼叫中心、文本处理和教育等领域。 对于工科白领,特别是程序员,AI 能简化代码检索和调整。 在蓝领领域,AI 在自动驾驶方面取得显著进展。
2025-03-31
3d模型
以下是关于 3D 模型生成的相关信息: Tripo AI: 文生 3D 模型: 在「Create」界面底部输入框输入提示词(不支持中文),不会写提示词可点击输入框左侧的</>按钮随机生成并自动填入。 填写好提示词后,点击右侧的「Create」生成 3D 模型,每次会生成 4 个基础模型,不满意可点击最下方白色的「Retry」按钮重新生成。 若有满意模型,点击单个模型下方黄色的「Refine」精修,在「My Models」中可查看精修进度,一般 5 分钟左右完成。 图生 3D 模型: 点击输入框右侧的图标上传图片生成 3D 模型,一次生成一个基础模型,支持Retry 重生成和 Refine 精修。 Rodin Gen 1: 输入文本后文生图,不满意可重复生成图片,图片满意后点击GENERATING 生成 3D。 很快获得一个快速生成的粗模,右上可选择是否对称、是锋利边缘还是光滑边缘、是否简单几何模式。 选择后查看模型是否满意,不满意可 redo,满意后选择 confirm 进行下一步,可先选择产出的面数(开始扣积分)。 下一步生成材质,可选材质的复杂度以及参考图片的影响,生成后在左边查看,满意点击 confirm。 左侧预览区可以选择多种形式查看,模型基本完成后可选择对应的格式规格下载,压缩包里会有 obj 格式和 PBR 材质,也可以发布到 sketchfab。 工具汇总: 从文本生成 3D: MakeACharacter:一键生成 3D 数字人,可自定义面部特征,生成逼真 3D 角色,基于真实人类扫描数据,使用 Unreal Engine 渲染,支持中英文提示,兼容多个行业应用。链接:https://x.com/xiaohuggg/status/1743986486780076279?s=20 Rodin Gen1:拥有 1.5B 参数,可实现 3Dto3D 生成,生成 3D 模型及物理基础渲染材质,支持 3D LoRA 技术,类似于 Stable Diffusion。链接:https://x.com/xiaohuggg/status/1743638052097184102?s=20 Skybox AI 0.9 版本更新:可以从文本提示或草图生成 360 度 3D 世界,使用 NeRF 技术,增强图像的空间深度和真实感,提供不同分辨率的 3D 网格下载。链接:https://x.com/xiaohuggg/status/1739926702158225859?s=20 扫描物体生成 3D 模型:使用 APP 扫描物体,完成 3D 全貌捕获,创建 AR QR 码,展示物体于任何地点,苹果新品官网展示中应用此技术。链接:https://x.com/xiaohuggg/status/1739259052448944139?s=20
2025-03-31
本地部署大模型硬件配置
本地部署大模型的硬件配置如下: 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型) 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 需要注意的是,最低配置可能运行速度非常慢。对于 SDXL 大模型的本地部署,其分为两个部分,base + refiner 是必须下载的,还有一个配套的 VAE 模型用于调节图片效果和色彩。要在 webUI 中使用 SDXL 的大模型,需在秋叶启动器中将 webUI 的版本升级到 1.5 以上,然后将模型放入对应的文件夹中。对于通义千问的 Qwen2.5 1M 模型的本地部署,使用以下命令启动服务时要根据硬件配置进行设置,如设置 GPU 数量、最大输入序列长度、Chunked Prefill 的块大小、限制并发处理的序列数量等。如果遇到问题,可参考相关的 Troubleshooting 内容。与模型交互可以使用 Curl 或 Python 等方法,对于更高级的使用方式,可以探索如 Qwen Agent 之类的框架。
2025-03-31
如何部署本地大模型
以下是本地部署大模型的一般步骤: 1. 部署大语言模型: 下载并安装 Ollama:根据您的电脑系统,从 https://ollama.com/download 下载。下载完成后,双击打开,点击“Install”。安装完成后,将 http://127.0.0.1:11434/ 复制进浏览器中,若出现相关字样则表示安装完成。 下载 qwen2:0.5b 模型(若设备充足可下载更大模型): Windows 电脑:点击 win+R,输入 cmd 点击回车。 Mac 电脑:按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 复制相关命令行并粘贴回车,等待自动下载完成。 2. 部署 SDXL 大模型: SDXL 的大模型分为 base+refiner(必须下载)和配套的 VAE 模型。 关注公众号【白马与少年】,回复【SDXL】获取下载链接。 在秋叶启动器中将 webUI 的版本升级到 1.5 以上。 将模型放入对应的文件夹:base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。 3. ComfyUI ollama 本地大模型部署: 先下载 ollama 安装,安装完成后可在电脑桌面右下角或隐藏图标里找到。 下载对应的模型,选择模型并复制对应的命令。 打开命令行界面,输入对应的模型获取命令,等待下载完成。 设置目录,下载的模型会保存到 D:\\ollama\\blobs。 进行 docker 安装,安装会下载一些文件,安装后更改目录,不要放在 C 盘。 进行 Open webui 安装,输入相关命令,安装成功后回到 docker,点击会自动打开网页,第一次使用需注册账号,选择下载好的模型即可开始使用。 4. 错误解决:端口占用问题,在 Windows 上可能出现,运行下面两条命令可以解决。 5. 相关链接: comfyuiollama:https://github.com/stavsap/comfyuiollama?tab=readmeovfile Ollama:https://ollama.com/ docker:https://www.docker.com/ Open webui:https://openwebui.com/
2025-03-31