Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

low cost of Deepseek AI

Answer

关于 DeepSeek AI 的低成本相关信息如下:

  • 在设计思路方面,将 Agent 封装成 Prompt 并储存在文件,以保证最低成本的人人可用,同时减轻调试负担。通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能,在模型默认能力基础上优化输出质量,增加可读性,并设计了阈值系统,用 XML 进行规范设定。
  • 存在对 DeepSeek 的“低成本”AI 的批评声音,如被讽刺为空洞的营销噱头,无法与国际大作相比,甚至被用洋垃圾作比喻,被指“崇洋媚外”。
Content generated by AI large model, please carefully verify (powered by aily)

References

一个提示词,让 DeepSeek 的能力更上一层楼?——HiDeepSeek

用Coze做了个小测试,大家可以对比看看[e8c1a8c3012fedad10dc0dfcc8b1e263_raw.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/Jz9cbKxDbocGtIxXFFEcdiHjnRc?allow_redirect=1)[heading1]如何使用?[content]Step1:搜索www.deepseek.com,点击“开始对话”Step2:将装有提示词的代码发给DeepseekStep3:认真阅读开场白之后,正式开始对话[heading1]设计思路[content]1.将Agent封装成Prompt,将Prompt储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担2.通过提示词文件,让DeepSeek实现:同时使用联网功能和深度思考功能3.在模型默认能力的基础上优化输出质量,并通过思考减轻AI味,增加可读性4.照猫画虎参考大模型的temperature设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改5.用XML来进行更为规范的设定,而不是用Lisp(对我来说有难度)和Markdown(运行下来似乎不是很稳定)[heading1]完整提示词[heading2]v 1.3[heading1]特别鸣谢[content]李继刚:【思考的七把武器】在前期为我提供了很多思考方向Thinking Claude:这个项目是我现在最喜欢使用的Claude提示词,也是我设计HiDeepSeek的灵感来源Claude 3.5 Sonnet:最得力的助手

2月2日 社区动态速览

1⃣️💥批评Deepseek的“低成本”AI有评论讽刺Deepseek宣称的“低成本高效率”是空洞的营销噱头,批评其无法与国际大作相比,甚至讽刺其“崇洋媚外”现象。🔗[详情](https://x.com/dotey/status/1885557681223852208)2⃣️💼谷歌提供自愿离职选项谷歌为美国平台与设备部门员工提供“自愿离职”选项,目的是让员工更专注使命。如果自愿离职人数不足,谷歌可能考虑裁员。部分员工已发起请愿。🔗[详情](https://x.com/dotey/status/1885544437498974338)🔗[来源](https://www.theverge.com/news/603432/google-voluntary-exit-platforms-devices-team)3⃣️🔄o3-mini-high每周限制50次Plus用户每周只能使用50次o3-mini-high,而Pro用户可享受无限次使用权限,每日使用额度分开计算。🔗[详情](https://x.com/dotey/status/1885521209703411871)4⃣️🔮OpenAI AMA重点:未来展望与新功能OpenAI AMA提到将推出高级语音模式、图像生成及o3系列模型(如o3-mini-high)的重大更新,Plus订阅可能降价,Pro用户享受无限次使用权限。🔗[详情](https://mp.weixin.qq.com/s/G-An7MTgroAxQDFTZxGbFQ?token=592505423&lang=zh_CN)

宝玉 日报

🫧宝玉日报「2月1日」✨✨✨✨✨✨✨✨1⃣️💥批评Deepseek的“低成本”AI用洋垃圾比喻Deepseek,讽刺其“低成本高效率”是空洞的营销噱头。嘲讽其无法与国际大作相比,提出“崇洋媚外”只会让人丢脸。🔗[https://x.com/dotey/status/1885557681223852208](https://x.com/dotey/status/1885557681223852208)2⃣️💼谷歌提供自愿离职选项谷歌为美国平台与设备部门员工提供“自愿离职”选项,欲让员工更专注使命。若自愿离职人数不够,谷歌可能会考虑裁员,部分员工已联合发起请愿。🔗[https://x.com/dotey/status/1885544437498974338](https://x.com/dotey/status/1885544437498974338)🔗来源:[https://www.theverge.com/news/603432/google-voluntary-exit-platforms-devices-team](https://www.theverge.com/news/603432/google-voluntary-exit-platforms-devices-team)3⃣️🔄o3-mini-high每周限制50次Plus用户每周只能使用50次o3-mini-high,每天150次o3-mini。Pro用户无限次使用o3-mini-high,且额度分开计算。🔗[https://x.com/dotey/status/1885521209703411871](https://x.com/dotey/status/1885521209703411871)4⃣️🔮OpenAI AMA重点:未来展望与新功能

Others are asking
如何在DEEPSEEK里创建一个专门用于”爆款文案二创“的智能体?
在 DEEPSEEK 里创建一个专门用于“爆款文案二创”的智能体,您可以按照以下步骤进行操作: 1. 添加工作流:将已经发布的工作流添加到创建好的智能体。 2. 设定人设与回复逻辑:设定与“爆款文案二创”相关的人设和回复逻辑。 3. 测试:对设定好的智能体进行测试。 4. 发布智能体:选择右上角,填写发布信息,选择发布渠道,确认发布,等待审核完成,发布成功。发布成功之后,点击分享,复制访问链接给朋友。 需要注意的是,以上步骤仅供参考,具体操作可能因 DEEPSEEK 平台的更新而有所变化。
2025-02-06
linux 下部署deepseek
在 Linux 下部署 DeepSeek 的步骤如下: 1. 下载代码仓库。 2. 安装依赖(注意有两个依赖未放在 requirements.txt 里)。 3. 启动 webui 的 demo 程序,然后用浏览器登陆服务器的 ip:8080 就能试玩。此 demo 提供了 3 个参数: server_name:服务器的 ip 地址,默认 0.0.0.0。 servic_port:即将开启的端口号。 local_path:模型存储的本地路径。 4. 第一次启动后生成语音时,需查看控制台输出,它会下载一些模型文件,因此比较慢,且可能因网络问题失败。但第一次加载成功后,后续会顺利。 5. 基于此基础可进行拓展,比如集成到 agent 的工具中,或结合 chatgpt 做更拟人化的实时沟通。 webui 上可设置的几个参数说明: text:指需要转换成语音的文字内容。 Refine text:选择是否自动对输入的文本进行优化处理。 Audio Seed:语音种子,是一个数字参数,用于选择声音类型,默认值为 2,是很知性的女孩子的声音。 Text Seed:文本种子,是一个正整数参数,用于 refine 文本的停顿。实测文本的停顿设置会影响音色、音调。 额外提示词(可写在 input Text 里):用于添加笑声、停顿等效果。例如,可以设置为 。 使用 DeepSeek 的步骤: 1. 搜索 www.deepseek.com,点击“开始对话”。 2. 将装有提示词的代码发给 Deepseek。 3. 认真阅读开场白之后,正式开始对话。 DeepSeek 的设计思路: 1. 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻调试负担。 2. 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 3. 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。 4. 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改。 5. 用 XML 来进行更为规范的设定,而不是用 Lisp(有难度)和 Markdown(运行不太稳定)。 关于 DeepSeek 的评论: 游戏科学创始人、黑神话悟空制作人冯骥称:年前还是认真推下 DeepSeek 吧。V3 已经用了一个月,但 R1 仅仅用了 5 天。DeepSeek 可能是个国运级别的科技成果。它具备强大的推理能力,比肩 O1;参数少,训练开销与使用费用小;开源,任何人均可自行下载与部署;免费,官方目前提供的服务完全免费;支持联网搜索,是暂时唯一支持联网搜索的推理模型;由没有海外经历甚至没有资深从业经验的本土团队开发完成。如果这都不值得欢呼,还有什么值得欢呼?看到这条微博的您应直接访问网页链接马上用起来,也有移动 APP。
2025-02-06
deepseek
DeepSeek 是一家成立于 2023 年,总部位于中国杭州,专注于人工智能基础技术研究的科技公司。其致力于探索 AGI(通用人工智能)的实现路径,定位为聚焦大模型研发与应用,提供高效、安全、可控的 AI 技术解决方案。 将 DeepSeek 比喻成“AI 界的拼多多”是偏颇的,认为其秘方是多快好省也不全面。早在 2024 年 5 月 DeepSeekV2 发布时,就以多头潜在注意力机制(MLA)架构的创新在硅谷引发小范围轰动,V2 的论文也在 AI 研究界引发广泛分享和讨论。当时在国内舆论场,DeepSeek 被描摹成“大模型价格战的发起者”。 如果 V3 是 DeepSeek 的 GPT3 时刻,接下来会如何发展无人知晓,但有趣的事还在后头。DeepSeek 应不会永远是“计算机系 Pro”的存在,它应为全人类的人工智能事业做更大贡献,且已成为中国最全球化的 AI 公司之一,赢得全球同行甚至对手尊重的秘方是硅谷味儿的。 使用地址:https://chat.deepseek.com/(有手机客户端) 模型下载地址:https://github.com/deepseekai/DeepSeekLLM?tab=readmeovfile API 文档地址:https://apidocs.deepseek.com/zhcn/ DeepSeek 的提示词使用方法比较长,单独列了一篇
2025-02-06
deepseek与大健康如何落地
DeepSeek 与大健康的落地可以从以下几个方面考虑: 1. 提示词应用: 可以通过搜索 www.deepseek.com 并点击“开始对话”来使用 DeepSeek。 将装有提示词的代码发给 DeepSeek,认真阅读开场白后正式开始对话。 提示词的设计思路包括将 Agent 封装成 Prompt 并存储在文件中,以实现同时使用联网和深度思考功能,优化输出质量等。 2. 联网版实现: 通过工作流 + DeepSeek R1 大模型,实现联网版的 R1 大模型。 拥有扣子专业版账号,开通 DeepSeek R1 大模型,包括访问特定地址、在火山方舟中进行开通管理等操作,添加在线推理模型。 创建智能体,点击创建完成智能体的创建。 3. 开源策略: DeepSeek 选择走全球开源社区路线,分享模型、研究方法和成果,吸引反馈并迭代优化。开源包括模型权重、数据集、预训练方法和高质量论文等。 需要注意的是,目前提供的内容中未直接提及 DeepSeek 与大健康落地的具体关联,您可以根据以上 DeepSeek 的相关特点和技术,结合大健康领域的需求和场景,进一步探索落地的可能性。
2025-02-06
deepseek适合做ai知识库检索工具吗
DeepSeek 是基于 AI 模型的产品,只是品牌名,需要搭配具体模型,如 DeepSeek V3(类 GPT4o)和 DeepSeek R1(类 OpenAI o1)。 文本嵌入可用于实现高效的知识检索,相似或相关的字符串在嵌入空间中靠得更近,利用快速向量搜索算法,一个文本语料库可以被分割成块,给定的查询被嵌入后,能进行向量搜索找到最相关的嵌入文本块。 知识库就像 AI 的“活字典”,可以随时更新,例如包含最新新闻、科技发展、法律法规等内容,AI 遇到不确定问题时可从中检索相关信息给出更准确回答,像很火的 AI 搜索就是将整个互联网实时数据作为知识库。 但仅根据上述信息,不能明确判断 DeepSeek 是否适合做 AI 知识库检索工具,还需要综合考虑其具体性能、与您需求的匹配度等多方面因素。
2025-02-06
deepseek
DeepSeek 是一家成立于 2023 年,总部位于中国杭州,专注于人工智能基础技术研究的科技公司。其致力于探索 AGI(通用人工智能)的实现路径,定位为聚焦大模型研发与应用,提供高效、安全、可控的 AI 技术解决方案。 将 DeepSeek 比喻成“AI 界的拼多多”是偏颇的,认为其秘方是多快好省也不全面。早在 2024 年 5 月 DeepSeekV2 发布时,它就以多头潜在注意力机制(MLA)架构的创新在硅谷引发小范围轰动,V2 的论文引发了 AI 研究界的广泛分享和讨论。当时在国内舆论场,DeepSeek 被描摹成“大模型价格战的发起者”。 如果 V3 是 DeepSeek 的 GPT3 时刻,接下来会怎样没人知道,但有意思的事还在后头。DeepSeek 应会为全人类的人工智能事业做出更大贡献,且已是中国最全球化的 AI 公司之一,其赢得尊重的秘方是硅谷味儿的。 使用地址:https://chat.deepseek.com/(有手机客户端) 模型下载地址:https://github.com/deepseekai/DeepSeekLLM?tab=readmeovfile API 文档地址:https://apidocs.deepseek.com/zhcn/ DeepSeek 的提示词使用方法比较长,单独列了一篇
2025-02-06
介绍一下flowith
Flowith 是一款创新的 AI 交互式搜索和对话工具: 基于节点式交互方式,支持多种 AI 模型和图像生成技术,提供插件系统和社区功能。 作为一款出海应用,上周发布了 2.0 版本,展现出成为订阅制 AI 知识社区的野心。 具备 Refly 几乎所有功能,并有独特设计,如允许自行上传制作并发布知识库,还能自由添加或购买他人的知识库,这是 AI 付费订阅知识社区的雏形。 内容编辑器有多种模式,包括 Markdown、图片编辑器、代码编辑器、实时语音聊天等。 继承并优化了 1.0 版本的交互设计,强化了 Agent 功能,包括 Project 功能、Oracle 模式、Agent Community 等,对话模式也依旧流畅酷炫,包括插件模式、比较模式、图片/视频生成模式等。 支持团队协作,可邀请外部协作者评论、共同编辑当前 Flow。
2025-01-21
flowith这个网站怎么样?
Flowith 是一款表现出色的 AI 相关网站。 它是一款创新的 AI 交互式搜索和对话工具,基于节点式交互方式,支持多种 AI 模型和图像生成技术,还提供插件系统和社区功能。 在生成式 UI 的探索上较为领先,很好地结合了无线画布和思维导图的优势,用卡片来承接不同数据格式的展示,卡片样式适配多,输入时会利用光效对用户进行引导。 同时,它也是一个不错的 Prompt 网站,在 AI 原生产品的 UI 和交互方面有深入思考。
2025-01-16
comfyui workflow
ComfyUI 的工作流主要包括以下内容: 低显存运行工作流:目的是让 FLUX 模型能在较低显存情况下运行。分阶段处理思路为,先在较低分辨率下使用 Flux 模型进行初始生成,然后采用两阶段处理,即先用 Flux 生成,后用 SDXL 放大,有效控制显存使用,最后使用 SD 放大提升图片质量。工作流流程包括初始图像生成(Flux)阶段的 UNETLoader 加载 flux1dev.sft 模型、DualCLIPLoader 加载 t5xxl 和 clip_l 模型、VAELoader 加载 fluxae.sft 等步骤,以及图像放大和细化(SDXL)阶段的 CheckpointLoaderSimple 加载 SDXL 模型、UpscaleModelLoader 加载 RealESRGAN_x4.pth 用于放大等步骤。 工作流相关网站: Openart.ai:流量较高,支持上传、下载、在线生成,免费账户有 50 个积分,加入 Discord 可再加 100 积分,开通最低每月 6 美元套餐后每月有 5000 积分。 ComfyWorkflows 网站:支持在线运行工作流,实际下载量和访问量略少于 openart。 Flowt.ai:https://flowt.ai/community 提示词自动生成 ComfyUI 工作流:英伟达整了个花活,通过画图提示词自动生成匹配的 ComfyUI 工作流,命名为 ComfyGen(comfy 生成器),目前仅支持文生图模型。英伟达称其可以生成高质量的图并泛化到其他领域,做了对比测试,效果基本一致甚至更符合人类对提示词的判断和理解,与 C 站上人类写的提示词对比效果略胜一筹,但项目未开源。
2025-01-09
关于workflow有什么著名的论文
以下是一些关于 workflow 的著名论文或相关内容: 1. 5 月 9 日艾木分享的《Workflow》,其中包含关于 workflow 的理论探讨、对 AGI 的正确理解与思考、如何客观看待大语言模型的基础表现、人工智能在编程领域的应用及挑战、从提示词工程到 flow 工程:AI 在代码生成领域的研究与应用、人工智能在开源项目测试集中的表现与工作流的重要性、关于 workflow 的介绍与案例演示等内容。 2. 艾木的《如何用 Coze 制作一个信息检索 Bot(含 Workflow 的基础用法)》,提到 Coze 的 Workflow 为制作 Agents/Bots 提供很大的灵活性和便捷性,对 Workflow 中的函数进行了分类,并提出了超函数(Hyperfuction)的概念。 3. 2024 年 8 月 20 日的更新中,有《[AI Agent 产品经理血泪史(二)欲知方圆,则必规矩【Workflow 篇】》,聚焦于工作流(Workflow)在 AI 智能体中的重要性,回顾了集成平台的演变,探讨了工作流在自动化和手动编排中的应用以及如何提升灵活性以应对不断变化的需求。 4. 还有《[张梦飞:【全网最细】从 LLM 大语言模型、知识库到微信机器人的全本地部署教程》和《[ComfyUI 工作流:黑猴子悟空换脸报错解决大法》等相关内容。
2024-12-18
flowgpt的网站是什么
FlowGPT 的网站是:https://flowgpt.com/ ,它是国外做的最大的 prompt 站,内容超全面,更新快。
2024-11-22
FlowGpt这款应用现在发展得如何了
FlowGPT 是一个发展较为出色的应用。 在 2023 年,02 年出生的党嘉成(Jay)在伯克利大二辍学后,于 1 月初创建了 FlowGPT 这一全球最大的开源 AI 应用平台。在零广告投放的情况下,实现了超过 300 万的月活跃用户和 10 万个 AI 应用。 FlowGPT 是一个聊天 GPT 提示和 AI 提示社区,旨在改善人与人之间的沟通。它提供了一系列精心设计的聊天 GPT 提示,还提供了一个可视化界面以多线程方式展示对话流程,能帮助用户优化工作流程、提高生产力,用户可在其社区中分享、发现和学习有用的 ChatGPT 提示。 其网站为:https://flowgpt.com/
2024-11-19
多模态是什么?如何使用多模态模型构建 AI 智能体
多模态是指对同一概念的多维度理解,例如人类可以边看、边交谈,还能同时听着背景音乐和察觉危险,而仅靠语言来描述和理解世界是远远不够的。拥有多模态能力的模型可以更全面地学习世界,理解人类的行为和需求,提高任务解决能力,并克服单一模态的局限性,是让 AI 能在现实世界中运行极为重要的一环。 2023 年 9 月 GPT4v 的发布把大语言模型的竞赛带入了多模态模型(LMM Large Multimodal Models)的时代,如 ChatGPT 可以看图说话,还能通过内置的 DallE 3 直接画图;几个月后 Google 的 Gemini 正式推出,直接支持了文本、视频和声音多种模态。今年 5 月,OpenAI 完成了 GPT4 的实时听说和视频模态输入,发布了 GPT4o,向智能体方向迈进了一大步。 多模态大模型由解码器、backbone、Generator 等部件组成,左侧多模态理解,右侧生成输出。其架构基于大圆模型,能识别页面组件结构和位置绝对值信息,并与组件、文本映射。 在应用方面,多模态模型有着广泛的用途。例如 Stable Diffusion 模型可用于带货商品图生成、模特服装展示、海报生成、装修设计等。吉梦 AI 提供 AI 视频生成等能力,吐司是类似的在线生成平台,具备多种 AI 能力。 关于模型训练,需要大量图像数据和标签化处理。AI 视频生成原理主要基于特定架构,如基于 Sara 的整体架构,采用 diffusion Transformer 架构,以扩散模型通过随机造点、加噪和去噪得到连续图像帧,输入视频可看成若干帧图片,经处理后生成视频。Meta 的视频生成模型能生成视频和声音,可替换视频中的物体和人脸,其把 diffusion 架构换成纯 transformer 架构,基于 LLAMA3 训练,与 diffusion 在 CLIP 等方面有区别。 要使用多模态模型构建 AI 智能体,需要考虑实时性,保持模型能力不变的情况下缩小参数规模,升级架构来提升性能,最好让终端也参与进来分担一部分模型的计算量。同时,让科技变简单,设计出从未有过的硬件产品或重新设计现有的产品,以适应这种毫无机械感、完全类人化的交互方式。
2025-02-06
批改作文时使用什么ai
在批改作文时,可以利用以下 AI 技术和方案: 1. 抓取错词错句: 依赖模型深厚的语言处理能力和对长文本的细致分析能力,精确定位每一个错误,并在理解上下文的基础上提出修改建议。 具备深层次语义理解,能在复杂语境中辨识不恰当词汇和错误句子构造。 基于大规模数据识别,辨别出罕见的词汇或句子搭配。 能够基于上下文相关性评估,有效识别语法正确但语境不适宜的用词。 吸收众多语法规则知识,检测句子是否遵守语法标准。 2. 好词好句识别评测: 模型能模拟一定水平的文学素养,辨别出具有表现力、形象生动或富含智慧的词汇和句子。 有能力辨识不同的写作风格和修辞技巧,挑选出提升文章感染力的佳词妙句。 能够对句子的情感倾向和语气进行解析,识别出有效表达作者意图和情感的优质语句。 3. 作文综合评价评分: 可以综合考虑文章的内容、结构、语言等多个维度,给出全面细致的评价。 按照预定的评分标准,如内容完整性、逻辑性、语言准确性等,进行客观评分。 能够根据学生的写作特点和水平提供个性化的评价和建议。 保证评价标准的一致性,减少主观差异带来的评分不公。
2025-02-06
作文批改ai
以下是关于作文批改 AI 的相关内容: 在评价作文时,需要考虑多个因素,包括错别字、词、标点识别,好词好句识别、内容评价、逻辑结构评价、语言表达评价、段落评价等。我们可以利用大模型高效、准确、丰富知识的优秀特点,对学生作文进行综合打分。 场景一:抓取错词错句 在作文批改过程中,识别错词错句及优化病句的建议,依赖于模型深厚的语言处理能力和对长文本的细致分析能力。该模型能够精确地定位每一个错误,并在理解上下文的基础上,提出符合学生年级和作文主题的修改建议。其具备以下能力: 1. 深层次语义理解:大型语言模型具备深入理解句子内涵的能力,即便处于复杂语境,也能有效辨识出不恰当的词汇和错误的句子构造。 2. 大规模数据识别:这些模型在训练过程中接触了巨量的文本资源,这让它们能够辨别出哪些词汇或句子搭配在正式书面语中较为罕见,进而准确标出错词错句。 3. 上下文相关性评估:模型有能力基于上下文来判定词语和句子的恰当性,即便是语法正确但语境不适宜的用词也能被有效识别。 4. 语法规则习得:在训练过程中,模型吸收了众多的语法规则知识,这使其能够检测句子是否遵守了语法标准。 场景二:好词好句识别评测 在运用修辞技巧方面,学生作文中的隐喻、双关等深层次含义,对解读能力提出了更为严峻的挑战。GLM4Plus 模型具备洞悉这些弦外之音的能力,能够挖掘作文背后的深层思想。具体表现为: 1. 文学素养模拟:经过训练,大型模型能够模仿一定水平的文学品质,辨别出那些具有表现力、形象生动或富含智慧的词汇和句子。 2. 风格与修辞的辨识:该模型有能力辨别不同的写作风格和修辞技巧,进而挑选出那些能够提升文章感染力的佳词妙句。 3. 情感与语气的解析:模型能够对句子的情感倾向和语气进行解析,识别出那些能有效表达作者意图和情感的优质语句。 场景三:作文综合评价评分 作文的内容往往涉及特定的文化背景和历史知识,这对于评价者来说是一个挑战。GLM4Plus 模型凭借其丰富的知识库,能够精准把握这些文化细节,确保评价的准确性。逻辑结构和论证分析是评价作文不可或缺的部分。具体特点如下: 1. 综合评价能力:大型模型可以综合考虑文章的内容、结构、语言等多个维度,给出全面而细致的评价。 2. 标准化的评分系统:模型可以根据预定的评分标准,如内容完整性、逻辑性、语言准确性等,对作文进行客观评分。 3. 个性化反馈:模型能够根据学生的写作特点和水平提供个性化的评价和建议,帮助学生有针对性地提高。 4. 一致性保证:与人工评分相比,模型评分可以保证评价标准的一致性,减少主观差异带来的评分不公。 此外,如果担心 AI 削弱孩子思考力,正确的用法能助力拓展思维边界。比如将任务改成让孩子提交一份他和 AI 共同完成作文的聊天记录,作文需要由 AI 来写,孩子要对 AI 的作文进行点评批改、让 AI 迭代出更好地文章。对话记录里孩子能否说清楚 AI 写的作文哪里好哪里不好、要怎么改(孩子可能还得给 AI 做示范),才是评价的关注点。
2025-02-06
作文批改ai
以下是关于作文批改 AI 的相关内容: 在评价作文时,需要考虑多个因素,包括错别字、词、标点识别,好词好句识别、内容评价、逻辑结构评价、语言表达评价、段落评价等。我们可以利用大模型高效、准确、丰富知识的优秀特点,对学生作文进行综合打分。 场景一:抓取错词错句 在作文批改过程中,识别错词错句及优化病句的建议,依赖于模型深厚的语言处理能力和对长文本的细致分析能力。该模型能够精确地定位每一个错误,并在理解上下文的基础上,提出符合学生年级和作文主题的修改建议。其具备以下能力: 1. 深层次语义理解:大型语言模型具备深入理解句子内涵的能力,即便处于复杂语境,也能有效辨识出不恰当的词汇和错误的句子构造。 2. 大规模数据识别:这些模型在训练过程中接触了巨量的文本资源,这让它们能够辨别出哪些词汇或句子搭配在正式书面语中较为罕见,进而准确标出错词错句。 3. 上下文相关性评估:模型有能力基于上下文来判定词语和句子的恰当性,即便是语法正确但语境不适宜的用词也能被有效识别。 4. 语法规则习得:在训练过程中,模型吸收了众多的语法规则知识,这使其能够检测句子是否遵守了语法标准。 场景二:好词好句识别评测 在运用修辞技巧方面,学生作文中的隐喻、双关等深层次含义,对解读能力提出了更为严峻的挑战。GLM4Plus 模型具备洞悉这些弦外之音的能力,能够挖掘作文背后的深层思想。具体表现为: 1. 文学素养模拟:经过训练,大型模型能够模仿一定水平的文学品质,辨别出那些具有表现力、形象生动或富含智慧的词汇和句子。 2. 风格与修辞的辨识:该模型有能力辨别不同的写作风格和修辞技巧,进而挑选出那些能够提升文章感染力的佳词妙句。 3. 情感与语气的解析:模型能够对句子的情感倾向和语气进行解析,识别出那些能有效表达作者意图和情感的优质语句。 场景三:作文综合评价评分 作文的内容往往涉及特定的文化背景和历史知识,这对于评价者来说是一个挑战。GLM4Plus 模型凭借其丰富的知识库,能够精准把握这些文化细节,确保评价的准确性。逻辑结构和论证分析是评价作文不可或缺的部分。GLM4Plus 模型能够识别并评估论点的合理性,确保作文的逻辑性和论证的有效性得到恰当的评价。具有以下特点: 1. 综合评价能力:大型模型可以综合考虑文章的内容、结构、语言等多个维度,给出全面而细致的评价。 2. 标准化的评分系统:模型可以根据预定的评分标准,如内容完整性、逻辑性、语言准确性等,对作文进行客观评分。 3. 个性化反馈:模型能够根据学生的写作特点和水平提供个性化的评价和建议,帮助学生有针对性地提高。 4. 一致性保证:与人工评分相比,模型评分可以保证评价标准的一致性,减少主观差异带来的评分不公。 此外,如果担心 AI 削弱孩子思考力,正确的用法能助力拓展思维边界。比如将任务改成让孩子提交一份他和 AI 共同完成作文的聊天记录,作文需要由 AI 来写,孩子要对 AI 的作文进行点评批改、让 AI 迭代出更好地文章。对话记录里孩子能否说清楚 AI 写的作文哪里好哪里不好、要怎么改(孩子可能还得给 AI 做示范),才是评价的关注点。
2025-02-06
怎么开始学习AI使用课程?
以下是关于如何开始学习 AI 使用课程的建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,您将找到一系列为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛(比如图像、音乐、视频等),您可以根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 6. 微软相关课程: 如需了解云计算中的人工智能主题,可以考虑参加《》课程。 人工智能的商业应用案例方面,可以学习《》(和欧洲工商管理学院 INSEAD 共同开发)。 经典机器学习可参考《》。 使用 Azure 认知服务(Azure Cognitive Services)来创建实用的人工智能应用,可从《》等微软课程开始学习。
2025-02-06
怎么学习使用AI课程
以下是关于如何学习使用 AI 课程的建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,可根据自己的兴趣选择特定模块深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库中有很多大家实践后的作品、文章分享,欢迎实践后分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解其工作原理和交互方式,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 此外,微软也提供了一些 AI 初学者入门课程: 1. 如需了解云计算中的人工智能主题,可以考虑参加《》课程。 2. 人工智能的商业应用案例: 可以考虑学习《》(和欧洲工商管理学院 INSEAD 共同开发)。 3. 经典机器学习:在《》中有详细介绍。 4. 使用 Azure 认知服务(Azure Cognitive Services)来创建实用的人工智能应用: 建议从以下微软课程开始学习:《》等。
2025-02-06
costar 框架
COSTAR 框架是一个获奖的提示词框架,由 Sheila Teo 开发。作者在新加坡首届 GPT4 Prompt Engineering 大赛中使用该框架并获得冠军。此框架由新加坡政府科技署(GovTech)组织的大赛中产生,汇聚了超过 400 位优秀的参与者。 COSTAR 框架涵盖以下要素: 1. Context(上下文):提供必要的背景信息,帮助大型语言模型(LLM)理解对话或请求的环境和条件。没有足够的上下文,LLM 可能会误解问题或给出不相关的信息。明确的上下文有助于确保 LLM 的回答既准确又相关。例如,如果文章是为一个特定的行业会议撰写,那么上下文中应该包含会议的主题、参与者的背景信息以及任何相关的行业趋势。 2. Objective(目标):明确说明希望从 LLM 那里得到的具体结果或行动。清晰的目标可以帮助 LLM 集中精力解决问题,并减少无关的回答。例如,如果目标是撰写一篇文章,那么应具体说明文章的目的(比如介绍新技术、分析市场趋势等)以及期望达到的效果(比如提高品牌知名度、激发行业讨论等)。 3. Style(风格):明确您期望的写作风格。您可以指定一个特定的著名人物或某个行业专家的写作风格,如商业分析师或 CEO。这将指导 LLM 以一种符合您需求的方式和词汇选择进行回应。 4. Tone(语气):设置回应的情感调。设定适当的语气,确保 LLM 的回应能够与预期的情感或情绪背景相协调。可能的语气包括正式、幽默、富有同情心等。 5. Audience(受众):识别目标受众。针对特定受众定制 LLM 的回应,无论是领域内的专家、初学者还是儿童,都能确保内容在特定上下文中适当且容易理解。 6. Response(回复):规定输出的格式。确定输出格式是为了确保 LLM 按照您的具体需求进行输出,便于执行下游任务。常见的格式包括列表、JSON 格式的数据、专业报告等。对于大部分需要程序化处理 LLM 输出的应用来说,JSON 格式是理想的选择。 在使用大语言模型时,有效的提示构建至关重要。COSTAR 框架,由新加坡政府科技局数据科学与 AI 团队创立,是一个实用的提示构建工具。它考虑了所有影响大语言模型响应效果和相关性的关键因素,帮助您获得更优的反馈。 应用 COSTAR 框架时: 1. (C)上下文:为任务提供背景信息。通过为大语言模型(LLM)提供详细的背景信息,可以帮助它精确理解讨论的具体场景,确保提供的反馈具有相关性。 2. (O)目标:明确您要求大语言模型完成的任务。清晰地界定任务目标,可以使大语言模型更专注地调整其回应,以实现这一具体目标。 3. (S)风格:明确您期望的写作风格。您可以指定一个特定的著名人物或某个行业专家的写作风格,如商业分析师或 CEO。 4. (T)语气:设置回应的情感调。设定适当的语气,确保大语言模型的回应能够与预期的情感或情绪背景相协调。 5. (A)受众:识别目标受众。针对特定受众定制大语言模型的回应,无论是领域内的专家、初学者还是儿童,都能确保内容在特定上下文中适当且容易理解。 6. (R)响应:规定输出的格式。确定输出格式是为了确保大语言模型按照您的具体需求进行输出,便于执行下游任务。常见的格式包括列表、JSON 格式的数据、专业报告等。对于大部分需要程序化处理大语言模型输出的应用来说,JSON 格式是理想的选择。
2024-12-23