Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

Deepseek 使用逻辑

Answer

DeepSeek 的使用逻辑如下:

  • 效果对比:用 Coze 做了小测试,可对比查看相关视频。
  • 如何使用:
    • 搜索 www.deepseek.com,点击“开始对话”。
    • 将装有提示词的代码发给 DeepSeek。
    • 认真阅读开场白后正式开始对话。
  • 设计思路:
    • 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用,减轻调试负担。
    • 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。
    • 在模型默认能力基础上优化输出质量,减轻 AI 味,增加可读性。
    • 设计了阈值系统,可能会根据反馈修改。
    • 用 XML 进行更为规范的设定,而非 Lisp 和 Markdown。

关于 DeepSeek 的其他信息:

  • 1 月 26 日社区动态速览:
    • 提示词框架包含四大模块:任务目的、计划规则、格式规则、输出说明。通过明晰的任务拆分与规则定义,让提示更具可操作性,但不可过度依赖,有示例模板可清晰展现相关内容。
    • Anthropic 的“计算机使用”模型,Claude 有新能力,如可识别屏幕截图,计算光标像素坐标并执行操作,结合了图像识别、推理和动作能力,能将用户指令转化为具体步骤并执行,少量软件训练后能自我纠正并迅速上手。
    • OpenAI Operator 工作机制,利用虚拟主机、Chrome 浏览器、CUA 实现网页实时操控,能执行复杂导航任务,结合 GPT-4o 的视觉处理与强化学习,可处理屏幕截图、推理操作并发送指令,在感知—推理—动作循环中迭代,遇敏感任务则提示用户确认。
    • 开源项目 Browser Use。
  • 1 月 28 日社区动态速览:
    • 华尔街分析师认为 DeepSeek 以小成本实现媲美领先 AI 产品的性能,并在全球主要市场 App Store 登顶,高盛认为其或改变科技格局,降低 AI 行业进入门槛。
    • DeepSeek 中文场景表现优秀,日常写作和表达习惯贴近人类,但专业论文总结略弱,数学能力不错,编程能力逊于 GPT,采用 GRPO 算法替代传统 PPO,提升语言评价灵活性与训练速度。
    • 复旦大学 OpenMOSS 发布实时语音交互模型,中文语音体验近似 GPT-4o 高级语音,响应时间低于 200 毫秒,支持打断和自然互动,可生成多情感、多风格语音,包含方言、戏剧化台词等,多语言适配,嘈杂环境下仍具备强逻辑推理能力。
    • 阿里巴巴推出 Qwen2.5-1M 模型。
Content generated by AI large model, please carefully verify (powered by aily)

References

一个提示词,让 DeepSeek 的能力更上一层楼?——HiDeepSeek

用Coze做了个小测试,大家可以对比看看[e8c1a8c3012fedad10dc0dfcc8b1e263_raw.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/Jz9cbKxDbocGtIxXFFEcdiHjnRc?allow_redirect=1)[heading1]如何使用?[content]Step1:搜索www.deepseek.com,点击“开始对话”Step2:将装有提示词的代码发给DeepseekStep3:认真阅读开场白之后,正式开始对话[heading1]设计思路[content]1.将Agent封装成Prompt,将Prompt储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担2.通过提示词文件,让DeepSeek实现:同时使用联网功能和深度思考功能3.在模型默认能力的基础上优化输出质量,并通过思考减轻AI味,增加可读性4.照猫画虎参考大模型的temperature设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改5.用XML来进行更为规范的设定,而不是用Lisp(对我来说有难度)和Markdown(运行下来似乎不是很稳定)[heading1]完整提示词[heading2]v 1.3[heading1]特别鸣谢[content]李继刚:【思考的七把武器】在前期为我提供了很多思考方向Thinking Claude:这个项目是我现在最喜欢使用的Claude提示词,也是我设计HiDeepSeek的灵感来源Claude 3.5 Sonnet:最得力的助手

1月26日 社区动态速览

1⃣️🔍Deepseek提示词框架四大模块:任务目的(Purpose)、计划规则(Planning Rules)、格式规则(Format Rules)、输出说明(Output)。重点:通过明晰的任务拆分与规则定义,让提示更具可操作性,但作者提醒不可过度依赖。示例模板:可清晰展现开发者背景、任务目标与规则细节。[🔗更多信息](https://x.com/dotey/status/1883041528408318382)2⃣️🖥️Anthropic的“计算机使用”模型Claude的新能力:可识别屏幕截图,计算光标像素坐标并执行点击、滚动等操作。结合:图像识别、推理和动作能力,将用户指令转化为具体步骤并执行。快速适应:少量软件训练后,Claude能自我纠正并迅速上手。[🔗相关推文1](https://x.com/richards_19999/status/1883006846656790898)|🔗[相关推文2](https://x.com/dotey/status/1883009692852519062)3⃣️🌐OpenAI Operator工作机制原理:利用虚拟主机+Chrome浏览器+CUA实现网页实时操控,能执行复杂导航任务。技术:GPT-4o的视觉处理与强化学习,可处理屏幕截图、推理操作并发送指令。链式思考:在感知—推理—动作循环中迭代,遇敏感任务则提示用户确认。[🔗更多信息](https://x.com/dotey/status/1883005723493199999)4⃣️🖱️开源项目Browser Use

1月28日 社区动态速览

1⃣️💹华尔街分析师对DeepSeek的反应DeepSeek以小成本实现媲美领先AI产品的性能,并在全球主要市场App Store登顶。高盛认为DeepSeek或改变科技格局,降低AI行业的进入门槛。[🔗详情](https://www.xiaohu.ai/c/xiaohu-ai/deepseek)2⃣️📝DeepSeek的实际使用体验中文场景表现优秀,日常写作和表达习惯贴近人类,但专业论文总结略弱。数学能力不错,编程能力逊于GPT。采用GRPO算法替代传统PPO,提升语言评价灵活性与训练速度。[🔗更多信息](https://x.com/imxiaohu/status/1883843200756170873)|🔗[GRPO详情](https://www.xiaohu.ai/c/ai/grpo-deepseek-r1-8c6cff0c-deb8-4937-a419-7066af987e43)3⃣️🎙️复旦大学OpenMOSS发布实时语音交互模型中文语音体验近似GPT-4o高级语音,响应时间低于200毫秒,支持打断和自然互动。可生成多情感、多风格语音,包含方言、戏剧化台词等;多语言适配,嘈杂环境下仍具备强逻辑推理能力。[🔗相关推文](https://x.com/imxiaohu/status/1883739294315274331)|🔗[项目主页](https://github.com/OpenMOSS/SpeechGPT-2.0-preview)|🔗[在线体验](https://sp2.open-moss.com)4⃣️📚阿里巴巴推出Qwen2.5-1M模型

Others are asking
deepseek
DeepSeek 是一家具有独特特点和优势的公司: 它不是“中国式创新”的产物,其在硅谷受到关注和追逐并非近期才发生。早在 2024 年 5 月 DeepSeekV2 发布时,就以多头潜在注意力机制(MLA)架构的创新引发小范围轰动,而在国内舆论场却被描摹成“大模型价格战的发起者”。 如果 V3 是 DeepSeek 的 GPT3 时刻,未来充满未知但值得期待,DeepSeek 应能为全人类的人工智能事业做出更大贡献,且已是中国最全球化的 AI 公司之一,其赢得尊重的秘方是硅谷味儿的。 作为推理型大模型,它具有以下特点: 无需用户提供详细步骤指令,能通过理解真实需求和场景提供答案。 能理解用户用“人话”表达的需求,无需特定提示词模板。 回答问题时能深度思考,而非简单罗列信息。 可以模仿不同作家的文风进行写作,适用于多种文体和场景。 使用 DeepSeek 的正确方法包括: 用自然语言描述,直接描述真实场景和具体需求,提示词模板可用可不用。 在提问时加上“说人话”“小学生能听懂”“菜市场大妈能听懂的话”等,让回答更通俗易懂。 激发其进行批判性思考、反面思考和复盘,恢复深度思考能力。 通过指定模仿的作家和文体,让其生成符合特定风格的文本。
2025-01-31
deepseek 使用手册
以下是关于 DeepSeek 的使用手册: 1. 效果对比:用 Coze 做了小测试,可对比查看 2. 如何使用: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 DeepSeek。 认真阅读开场白之后,正式开始对话。 3. 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担。 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改。 用 XML 来进行更为规范的设定,而不是用 Lisp(对我来说有难度)和 Markdown(运行下来似乎不是很稳定)。 4. 完整提示词:v 1.3 5. 特别鸣谢:李继刚的【思考的七把武器】在前期为提供了很多思考方向;Thinking Claude 是现在最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源;Claude 3.5 Sonnet 是最得力的助手。 6. 使用技巧: DeepSeek 的特点与优势: 推理型大模型:核心是推理型大模型,与指令型大模型不同,它不需要用户提供详细的步骤指令,而是通过理解用户的真实需求和场景来提供答案。 更懂人话:能够理解用户用“人话”表达的需求,而不需要用户学习和使用特定的提示词模板。 深度思考:在回答问题时能够进行深度思考,而不是简单地罗列信息。 文风转换器:可以模仿不同作家的文风进行写作,适用于多种文体和场景。 使用 DeepSeek 的正确方法: 可以扔掉提示词模板:用自然语言描述,直接描述真实场景和具体需求,提示词模板的目的是清晰表达,如果使用也完全没问题。 让 DeepSeek“说人话”:在提问时加上“说人话”“小学生能听懂”“菜市场大妈能听懂的话”等,可以让 DeepSeek 的回答更加通俗易懂。 激发深度思考:让 DeepSeek 进行批判性思考、反面思考和复盘,以恢复其深度思考能力。 文风转换:通过指定模仿的作家和文体,让 DeepSeek 生成符合特定风格的文本。
2025-01-31
deepseek最新消息
以下是关于 DeepSeek 的最新消息: DeepSeek 深夜发布大一统模型 JanusPro,将图像理解和生成统一在一个模型中。模型(7B):https://huggingface.co/deepseekai/JanusPro7B ;模型(1B):https://huggingface.co/deepseekai/JanusPro1B 。JanusPro 是一种新型的自回归框架,通过将视觉编码解耦为独立的路径来解决先前方法的局限性,同时利用单一的统一变压器架构进行处理,超越了之前的统一模型,并匹配或超过了特定任务模型的性能。 DeepSeek 以小成本实现媲美领先 AI 产品的性能,并在全球主要市场 App Store 登顶。高盛认为 DeepSeek 或改变科技格局,降低 AI 行业的进入门槛。 DeepSeek 在中文场景表现优秀,日常写作和表达习惯贴近人类,但专业论文总结略弱。数学能力不错,编程能力逊于 GPT。采用 GRPO 算法替代传统 PPO,提升语言评价灵活性与训练速度。 1 月 28 日(除夕)有一场关于 DeepSeek 的高质量闭门会,其创始人梁文锋强调团队文化与长远智能探索。DeepSeek 在技术上虽有优势,但资源有限,需聚焦核心;其推理模型推动效率提升,挑战传统 SFT 方法,标志着新的模型训练范式。 DeepSeek 近日开源了多模态模型 JanusPro,寓意古罗马双面神雅努斯,既能进行视觉理解,也能生成图像。与 DALLE 3 相比,JanusPro 在参数上领先,并具备图像识别、地标识别等多种能力。该模型通过更优化的训练策略、更海量的数据和更大规模的参数(70 亿)实现了更强的智能表现。全面开源,支持商用,MIT 协议,部署使用便捷,Benchmark 表现优异,能力更全面。
2025-01-30
deepseek的多模态大模型?
DeepSeek 发布了大一统模型 JanusPro,将图像理解和生成统一在一个模型中。以下是关于该模型的一些重要信息: 最新消息:DeepSeek 深夜发布该模型,它是一个强大的框架。 特点: 统一了多模态理解和生成,通过将视觉编码解耦为独立路径解决先前方法的局限性,利用单一的统一 Transformer 架构进行处理,缓解了视觉编码器在理解和生成中的角色冲突,增强了框架的灵活性。 超越了之前的统一模型,匹配或超过了特定任务模型的性能,其简单性、高灵活性和有效性使其成为下一代统一多模态模型的有力候选者。 规模:提供 1B 和 7B 两种规模,适配多元应用场景。 开源及商用:全面开源,支持商用,采用 MIT 协议,部署使用便捷。 测试案例: 模型直接支持中文交互(图像理解+图像生成)。 云上 L4 测试,显存需 22GB。 图像生成速度约 15s/张。 图像理解质量方面,文字和信息识别基本准确,内容理解完整清晰,局部细节有欠缺。 Colab(需 Pro,因需 20GB 以上显存):https://colab.research.google.com/drive/1V3bH2oxhikj_B_EYy5yRG_9yqSqxxqgS?usp=sharing 模型地址: 7B 模型:https://huggingface.co/deepseekai/JanusPro7B 1B 模型:https://huggingface.co/deepseekai/JanusPro1B 下载地址:https://github.com/deepseekai/Janus
2025-01-30
deepseek
DeepSeek 是一家具有独特特点和优势的公司: 1. 秘方具有硅谷风格:在硅谷受到关注和追逐,其创新架构在硅谷引发轰动,与硅谷有更好的对话和交流。 2. 核心是推理型大模型:不需要用户提供详细步骤指令,能通过理解用户真实需求和场景提供答案。 3. 更懂人话:能够理解用户用自然语言表达的需求,无需学习特定提示词模板。 4. 深度思考:回答问题时能进行深度思考,而非简单罗列信息。 5. 文风转换器:可模仿不同作家文风写作,适用于多种文体和场景。 使用技巧: 1. 可以扔掉提示词模板,用自然语言描述,直接描述真实场景和具体需求,使用提示词模板也没问题。 2. 让 DeepSeek“说人话”,在提问时加上“说人话”“小学生能听懂”“菜市场大妈能听懂的话”等,使其回答更通俗易懂。 3. 激发深度思考,如让其进行批判性思考、反面思考和复盘,恢复深度思考能力。 4. 进行文风转换,通过指定模仿的作家和文体,让其生成符合特定风格的文本。 如果 V3 是 DeepSeek 的 GPT3 时刻,接下来的发展充满未知,但 DeepSeek 应会为全人类的人工智能事业做出更大贡献,且已是中国最全球化的 AI 公司之一。
2025-01-30
deepseek的技术路线是什么样的
DeepSeek 从一开始就选择了与国内诸多大模型新秀不同的技术路线。它走的是全球开源社区路线,分享最直接的模型、研究方法和成果,吸引反馈,再迭代优化,自我进益。开源十分彻底,从模型权重、数据集到预训练方法都悉数公开,高质量的论文也是开源的一部分。 DeepSeek 先后发布了多款开源模型: 1. 2023 年 11 月,发布 DeepSeek Coder 和 DeepSeek LLM,但在计算的效率和可扩展性上遇到挑战。 2. 2024 年 5 月,发布 V2,以混合专家模型(MoE)和多头潜在注意力机制(MLA)技术的结合,大幅降低了模型训练特别是推理的成本,开始引发广泛讨论和推荐。 3. 2024 年 12 月,发布 V3,以 OpenAI、Anthropic 和 Google 百分之一的成本,实现了模型性能超越同类开源模型 Llama 3.1 和 Qwen 2.5,媲美闭源模型 GPT4o 和 Claude 3.5 Sonnet 的成绩,引发轰动,成为世界大语言模型发展的里程碑。 DeepSeek 与 OpenAI 在实现里程碑式跃迁的进程中有以下区别: 1. OpenAI 致力于实现计算资源规模与成本的无限扩张,而 DeepSeek 一直致力用尽可能低成本的计算资源实现更高的效率。 2. OpenAI 花了两年时间达到 GPT3 时刻,而 DeepSeek 用了一年摘得了 V3 的圣杯。 3. OpenAI 在 GPT 路线上一直聚焦在预训练的进步,而 DeepSeek 则是训练与推理并重。 DeepSeek 从隐秘低调到备受关注,以及它从 Coder 到 V3 模型的三次迭代,与 OpenAI 从 GPT1 到 GPT3 的升级节奏和引发的反响非常接近。
2025-01-29
如何优化ai对话脚本和逻辑(多轮对话测试提升ai上下文理解)
以下是优化 AI 对话脚本和逻辑(多轮对话测试提升 AI 上下文理解)的方法: 1. 样例驱动的渐进式引导法 评估样例,尝试提炼模板:独自产出高质量样例较难,可借助擅长扮演专家角色的 AI 改进初始正向样例,如使用 Claude 3.5 进行对话,输入初始指令,通过其回复侧面印证对样例的理解与建议。 多轮反馈,直至达到预期:AI 可能犯错输出要求外内容,需多轮对话引导,使其不断修正理解,直至达成共识。 用例测试,看看 AI 是否真正理解:找 13 个用例,让 AI 根据模板生成知识卡片,根据结果验证是否符合预期,不符合则继续探讨调整。用例测试和多轮反馈步骤灵活,可根据需要自由反馈调整。 2. Coze 全方位入门剖析 标准流程创建 AI Bot(进阶推荐) 为 Bot 添加技能:国内版暂时只支持使用“云雀大模型”作为对话引擎,可根据业务需求决定上下文轮数。在 Bot 编排页面的“技能”区域配置所需技能,可选择自动优化插件或自定义添加插件。还可根据需求配置知识库、数据库、工作流等操作,参考相关介绍和实战操作或官方文档学习。 测试 Bot:在“预览与调试”区域测试 Bot 是否按预期工作,可清除对话记录开始新测试,确保能理解用户输入并给出正确回应。
2024-12-29
目前最前沿的应用在游戏领域的AI技术点是什么,包括游戏开发过程中的成本降低、效率提升,包括游戏内容生成,包括游戏后期运营推广。介绍技术点的技术逻辑以及技术细节。
目前在游戏领域应用的前沿 AI 技术点主要包括以下几个方面: 1. 利用 AIGC 技术实现游戏产业的生产力革命: 降低开发成本:借助人工智能的内容创作工具,如生成新的游戏内容(地图、角色和场景)、驱动游戏中的非玩家角色(NPC)、改进游戏的图像和声音效果等,能够缩减游戏开发的成本。 缩短制作周期:例如通过程序化内容生成,包括利用人工智能生成文字、图像、音频、视频等来创作游戏剧本、人物、道具、场景、用户界面、配音、音效、配乐、动画和特效等,从而减少游戏开发时间。 提升游戏质量和带来新交互体验:AIGC 技术为游戏带来不同以往的新体验,甚至创造出新的游戏类型以及新的交互方式。 2. 游戏内容辅助生成: 生成文、生成图、生成 3D 以及生成音乐。应用场景包括游戏策划人和制作人、美术设计师等。 对于工业化的游戏公司,基于 Stable Difussion 的生成能够通过 2D 美术素材的辅助生成提高创业效率 50%,降低 20%80%的成本。 文生图:通过提示词加参数就可以形成 2D 的参考图,适配度高。 图生图:原画师或美术可以使用,用一个线稿或原画,在原画基础上加一些 Prompt 和参数,就可以形成一个效果图和二级的素材。 动画辅助渲染:用 Lora 对角色背景、关键帧进行风格渲染,例如将真人视频渲染成二次元风。 3. 游戏的智能运营: 智能 NPC 互动:保持长期记忆,保持人物个性和对话表现形式,同时满足成本平衡。 客服、攻略的问答、代码和脚本的生成。主要针对游戏的产品经理、运营经理和社区的运营经理。 游戏社区运营:如海外的 Discord,国内的 Fanbook,让更多玩家在游戏之外,在社群里面很好地互动,基于游戏的美术素材进行二创、查询攻略和使用智能客服。 这些技术的技术逻辑和技术细节如下: 1. AIGC 技术:基于大语言模型和扩散模型,通过机器学习、强化学习等先进技术进行训练,能够理解和生成各种游戏相关的内容。 2. 游戏内容辅助生成:利用深度学习算法对大量的游戏相关数据进行学习和分析,从而能够根据给定的提示或参数生成相应的游戏内容。 3. 智能运营方面:通过构建智能模型,对玩家的行为和需求进行分析和预测,从而提供个性化的服务和互动。
2024-12-22
如何利用GPT进行逻辑回归分析
利用 GPT 进行逻辑回归分析可以参考以下步骤: 1. 首先,在数据准备阶段,明确需要分析的数据内容,例如用户描述想分析的内容,或者上传相关文件并描述其数据、字段意义或作用等,以辅助 GPT 理解数据。 2. 对于 SQL 分析,后台连接数据库,附带表结构信息让 GPT 输出 SQL 语句,校验其是否为 SELECT 类型,其他操作如 UPDATE/DELETE 绝不能通过。校验通过后执行 SQL 返回结果数据,再将数据传给 GPT(附带上下文),让其学习并分析数据。 3. 在与 GPT 的交互过程中,不断输入真实的业务需求场景以及现存的问题,帮助 GPT 更好地理解需求,例如输入旧代码、需求和问题,让 GPT 给出针对性的优化建议。 4. 根据 GPT 给出的结果进行调试和优化,可能需要多轮的输入输出(类似讨论),不断强化 GPT 对真实需求的认知。 5. 例如在 SQL 优化方面,GPT 可能提出如每次更新 1 天而不是 30 天的数据、创建中间结果表存储非二次计算的数据、利用 CASE WHEN 合并查询约束条件基本相同的指标等建议。然后根据这些建议结合自身的能力进行代码优化和测试。 需要注意的是,整个过程可能比较繁琐,需要有一定的耐心,包括查资料、处理报错、纠正 GPT、不断补充需求细节等。
2024-12-13
当前国内逻辑推理能力最强的大模型是什么
目前国内逻辑推理能力较强的大模型有以下几种: 1. Baichuan213BChat(百川智能):是百川智能自主训练的开源大语言模型。在逻辑推理、知识百科、生成与创作、上下文对话等基础能力上排名 200 亿参数量级国内模型第一,其中逻辑推理能力超过 34B 参数量级的大模型,生成与创作能力超过 72B 参数量级的模型。可应用于小说/广告/公文写作等内容创作场景、智能客服/语音助手以及任务拆解规划等场景,还能部署在教育、医疗、金融等垂直行业中应用,同时可部署在低算力终端处理基础智能任务。 2. 智谱清言(清华&智谱 AI):是智谱 AI 和清华大学推出的大模型产品,基础模型为 ChatGLM 大模型。在工具使用排名国内第一,在计算、逻辑推理、传统安全能力上排名国内前三。可应用于 AI 智能体方面相关的应用,包括任务规划、工具使用及一些长文本记忆相关的场景,在较复杂推理应用上的效果也不错,广告文案、文学写作方面也是很好的选择。 3. 文心一言 4.0API(百度):在计算、逻辑推理、生成与创作、传统安全这 4 大基础能力上排名国内第一。另外在代码、知识与百科、语言理解与抽取、工具使用能力上排名国内前三。能力栈较为广泛,可应用于查询搜索知识应用、任务拆解规划 Agent、文案写作以及代码编写及纠错等方面,在科学研究、教育、工业方面的落地能力也值得关注。
2024-12-08
不确定逻辑增长模型
对于逻辑增长模型的相关问题,以下是为您提供的信息: 张俊林在相关研究中指出,对于简单或中等难度的逻辑推理问题,通过 inferencetime 增加算力,比如树搜索等方式,比增强模型“预训练”阶段的逻辑推理能力效果更明显。这一结论来自于文献“Scaling LLM TestTime Compute Optimally can be More Effective than Scaling Model Parameters”及“Are More LM Calls All You Need?Towards the Scaling Properties of Compound AI Systems”。 其原因在于,对于简单或中等难度的问题,模型在 inference 时很可能给出答案中的大部分步骤是对的(或多次采样中多数是对的),只有个别步骤错误,通过如 BestofN Sampling 这种简单树搜索方法增加输出的多样性,加上靠谱的 Verifier 筛选,较容易修正小错误。但对于高难度的逻辑问题,模型输出内容中大部分步骤可能都是错的(或多次采样中大多数都是错的),此时仅靠 inferencetime 增加算力难以解决。 此外,OpenAI o1 的基座模型,在 Pretraining 还是 Posttraining 阶段,大概率极大增强了基座模型的复杂逻辑推理能力,这是它能在后续 inferencetime 增加算力解决复杂问题的根基。所以,只靠 inferencetime 增加算力,仅对容易和中等难度的逻辑问题有用,想要不断提升模型的复杂推理能力,还需要继续在 PreTrain 和 PostTraining 阶段下功夫。
2024-12-05
哪款AI工具写小说逻辑性更好
以下是一些在写小说逻辑性方面表现较好的 AI 工具: ChatGPT:擅长构思。 Claude:文笔好于 ChatGPT。 使用 AI 写小说时存在一些固有问题,如上下文长度限制、易忘记要求、文笔简略、一致性难以保证、对叙述方式敏感等。但人类可以通过一些技巧来利用 AI 辅助创作,例如让 AI 以表格形式输出细节描述等。同时要记住,AI 只是辅助创作,最后仍需人类进行加工和修改以满足读者要求。
2024-11-25
总结一下当前AI发展现状以及指导非开发者一类的普通用户如何使用及进阶使相关工具
当前 AI 发展现状: 涵盖了不同领域的应用和发展,如电子小说行业等。 包括了智能体的 API 调用、bot 串联和网页内容推送等方面。 对于非开发者一类的普通用户使用及进阶相关工具的指导: 可以先从国内模型工具入手,这些工具不花钱。 学习从提示词开始,与模型对话时要把话说清,强调提示词在与各类模型对话中的重要性及结构化提示词的优势。 对于技术爱好者:从小项目开始,如搭建简单博客或自动化脚本;探索 AI 编程工具,如 GitHub Copilot 或 Cursor;参与 AI 社区交流经验;构建 AI 驱动的项目。 对于内容创作者:利用 AI 辅助头脑风暴;建立 AI 写作流程,从生成大纲开始;进行多语言内容探索;利用 AI 工具优化 SEO。 若想深入学习美学概念和操作可报野菩萨课程。国内模型指令遵循能力较弱时,可使用 launch BD 尝试解决。
2025-01-31
我是一个AI小白,我使用AI的主要目的是使用这些工具,简化我工作中费时费力的事情,比如:表格的制作,筛选数据;图片的抠图,渲染,产品的口播介绍;日常工厂管理文件的编写及执行步骤;工作手册及岗位绩效的编写;作业指导书的编写
以下是为您整合的相关内容: 对于 AI 小白来说,使用 AI 工具简化工作中的费时费力之事是可行的。 在接触 AI 工具时,对于超出自己理解范围的事情,最简单有效的方法就是尝试。学习新事物,实践比听闻更重要。 比如在 AI 视频制作方面,人物设定与剧本是关键部分,包括主体、动作、场景等要素;分镜处理也较为重要,要考虑用几个镜头表述内容;生成环节如同抽卡,可多尝试,最后进行粗检和后期处理,如 AI 配音剪辑、加过渡滤镜等。小白制作 AI 视频要做好脚本即提示词,有耐心抽卡,并不断提升撰写提示词的能力。撰写提示词时要了解主体、动作、场景,避免使用专有名词和网络名词,给 AI 清晰描述。工具选用方面,没有绝对好的工具,只有适合的,如小白可使用剪映,主力机是 MacBook Pro 可使用 final cut。还可向 ChatGPT 询问获取灵感。 另外,在“AI 布道”活动中发现,AI 工具虽强大能做很多事,但也在其与普通人之间形成了一道墙。AI 是未来必然的方向,其科普还有很长的路要走,但尽可能简单地试用它,能让普通人更快受益。无论是什么身份、什么年龄段的人,都可以尝试使用 AI 工具。 如果您想要跟相关作者交朋友、一起在 AI 路上探寻,欢迎戳这里:
2025-01-30
如何使用deepseek
以下是关于如何使用 DeepSeek 的详细介绍: 1. 访问网站:搜索 www.deepseek.com,点击“开始对话”。 2. 发送提示词:将装有提示词的代码发给 DeepSeek。 3. 开始对话:认真阅读开场白之后,正式开始对话。 DeepSeek 的特点与优势: 1. 推理型大模型:通过理解用户的真实需求和场景来提供答案,不需要详细的步骤指令。 2. 更懂人话:能够理解用户用“人话”表达的需求,无需特定提示词模板。 3. 深度思考:回答问题时能够进行深度思考,而非简单罗列信息。 4. 文风转换器:可以模仿不同作家的文风进行写作,适用于多种文体和场景。 使用 DeepSeek 的正确方法: 1. 可以扔掉提示词模板,用自然语言描述真实场景和具体需求。 2. 让 DeepSeek“说人话”,在提问时加上“说人话”“小学生能听懂”“菜市场大妈能听懂的话”等,使回答更通俗易懂。 3. 激发深度思考,让 DeepSeek 进行批判性思考、反面思考和复盘,恢复其深度思考能力。 4. 文风转换,通过指定模仿的作家和文体,让 DeepSeek 生成符合特定风格的文本。 在获取 2048 游戏代码方面,DeepSeek 很方便,国内能访问,网页登录便捷,目前完全免费。只需点击开始对话,左边选择代码助手即可。
2025-01-29
如何使用上chatgpt
以下是使用 ChatGPT 的几种方法: 1. 英文学习: 推特博主分享的 GPT 工作流,用于英语学习。 具体步骤:先把特定 prompt 喂给 ChatGPT(建议开新对话),然后输入英文和中文表达,ChatGPT 会返回更地道的表达,对俚语部分加粗,还会举一反三给出更多例子,输入特定语句 ChatGPT 会输出对话回顾和推荐任务。 建议使用方式:开一个窗口,复制 prompt,手机端打开历史记录,点右上角耳机图标打电话,既能练口语又能练听力,结束后看回顾帮助阅读。 群友在讯飞上做了类似尝试,效果不错。 2. 产品经理使用: 需求及现状问题输入:在完成原 SQL 输入后,将真实业务需求场景及问题输入给 ChatGPT,帮助其更好理解,给出针对性优化建议,输出更符合需求的代码。 根据优化结果不断调试:根据 GPT 给出的新代码不断调试和优化,直至生成满足需求的新代码,过程可能较繁琐,需耐心。 3. 苹果系统安装、订阅: 在 AppleStore 下载 chatgpt:中国区需切换到美区才可下载,美区 AppleID 注册教程可参考知乎链接。 支付宝购买苹果礼品卡充值订阅付费 App:打开支付宝,地区切换到美区任意区,找到品牌精选折扣礼品卡,购买 App Store&iTunes US 礼品卡,按需求金额购买,先买 20 刀,然后在 apple store 中兑换礼品卡,在 chatgpt 中购买订阅 gpt plus,可随时取消订阅。 使用 ChatGPT 4o:打开应用或网页开始对话,会员在苹果或安卓手机购买的,电脑上能登录,版本切到 ChatGPT 4o 可体验语音对话功能。
2025-01-27
我想学会使用ai,该学习哪些方面的知识
如果您想学会使用 AI ,以下是一些您需要学习的方面: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支如机器学习、深度学习、自然语言处理等以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,您可以找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,您可以根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 对于中学生学习 AI ,建议如下: 1. 从编程语言入手学习: 可以从 Python、JavaScript 等编程语言开始学习,学习编程语法、数据结构、算法等基础知识。 2. 尝试使用 AI 工具和平台: 可以使用 ChatGPT、Midjourney 等 AI 生成工具,体验 AI 的应用场景。 探索一些面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 3. 学习 AI 基础知识: 了解 AI 的基本概念、发展历程、主要技术如机器学习、深度学习等。 学习 AI 在教育、医疗、金融等领域的应用案例。 4. 参与 AI 相关的实践项目: 可以参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动。 尝试利用 AI 技术解决生活中的实际问题,培养动手能力。 5. 关注 AI 发展的前沿动态: 关注 AI 领域的权威媒体和学者,了解 AI 技术的最新进展。 思考 AI 技术对未来社会的影响,培养对 AI 的思考和判断能力。 AI 的技术历史和发展方向,目前最前沿的技术点包括: 1. 学习路径偏向技术研究方向: 数学基础:线性代数、概率论、优化理论等。 机器学习基础:监督学习、无监督学习、强化学习等。 深度学习:神经网络、卷积网络、递归网络、注意力机制等。 自然语言处理:语言模型、文本分类、机器翻译等。 计算机视觉:图像分类、目标检测、语义分割等。 前沿领域:大模型、多模态 AI、自监督学习、小样本学习等。 科研实践:论文阅读、模型实现、实验设计等。 2. 学习路径偏向应用方向: 编程基础:Python、C++等。 机器学习基础:监督学习、无监督学习等。 深度学习框架:TensorFlow、PyTorch 等。 应用领域:自然语言处理、计算机视觉、推荐系统等。 数据处理:数据采集、清洗、特征工程等。 模型部署:模型优化、模型服务等。 行业实践:项目实战、案例分析等。 无论是技术研究还是应用实践,数学和编程基础都是必不可少的。同时需要紧跟前沿技术发展动态,并结合实际问题进行实践锻炼。
2025-01-27