Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

0到1使用大语言模型

Answer

以下是关于 0 到 1 使用大语言模型的相关内容:

Ollama 框架

  1. 支持多种大型语言模型,如通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。
  2. 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 CPU 和 GPU。
  3. 提供模型库,用户可从中下载不同参数和大小的模型,通过 https://ollama.com/library 查找。
  4. 支持用户自定义模型,例如修改温度参数调整创造性和连贯性,或设置特定系统消息。
  5. 提供 REST API 用于运行和管理模型,以及与其他应用程序的集成选项。
  6. 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。
  7. 安装完后,确保 ollama 后台服务已启动(在 mac 上启动 ollama 应用程序,在 linux 上通过 ollama serve 启动),可通过 ollama list 确认。

大模型安全

  1. 通过对齐(指令调优)使语言模型更好理解人类意图并增加安全保障,可拆解为监督微调、获取 reward model 和强化学习调整输出分布两部分。
  2. LLAMA2 专门使用安全有监督微调确保语言模型安全。
  3. 强化学习通过引入人类反馈数据调整模型输出分布,使模型面对训练分布外数据时能拒绝不当回答。
  4. 但 Alignment 并不足以防护所有安全问题,存在越狱(Jailbreak)情况,导致模型对齐失效。
  5. 还需关注隐私问题。

大模型架构与特点

  1. 包括 encoder-only、encoder-decoder 和 decoder-only 三种架构,目前熟知的 AI 助手多为 decoder-only 架构。
  2. 大模型预训练数据量大,来自互联网,参数多,如 Open 在 2020 年发布的 GPT-3 已达 170B 参数。
  3. GPT-3 可根据任务描述和示例完成任务,ChatGPT 则通过对话完成任务,二者在形式和安全性上有差别。
Content generated by AI large model, please carefully verify (powered by aily)

References

本地部署资讯问答机器人:Langchain+Ollama+RSSHub 实现 RAG

1.支持多种大型语言模型:Ollama支持包括通义千问、Llama 2、Mistral和Gemma等在内的多种大型语言模型,这些模型可用于不同的应用场景。2.易于使用:Ollama旨在使用户能够轻松地在本地环境中启动和运行大模型,适用于macOS、Windows和Linux系统,同时支持cpu和gpu。3.模型库:Ollama提供了一个模型库,用户可以从中下载不同的模型。这些模型有不同的参数和大小,以满足不同的需求和硬件条件。Ollama支持的模型库可以通过https://ollama.com/library进行查找。4.自定义模型:用户可以通过简单的步骤自定义模型,例如修改模型的温度参数来调整创造性和连贯性,或者设置特定的系统消息。5.API和集成:Ollama还提供了REST API,用于运行和管理模型,以及与其他应用程序的集成选项。6.社区贡献:Ollama社区贡献丰富,包括多种集成插件和界面,如Web和桌面应用、Telegram机器人、Obsidian插件等。7.总的来说,Ollama是一个为了方便用户在本地运行和管理大型语言模型而设计的框架,具有良好的可扩展性和多样的使用场景。后面在捏Bot的过程中需要使用Ollama,我们需要先安装,访问以下链接进行下载安装。https://ollama.com/download/安装完之后,确保ollama后台服务已启动(在mac上启动ollama应用程序即可,在linux上可以通过ollama serve启动)。我们可以通过ollama list进行确认,当我们还没下载模型的时候,正常会显示空:可以通过ollama命令下载模型,目前,我下载了4个模型:几个模型简介如下:

从 0 到 1 了解大模型安全,看这篇就够了

这张图来自于OpenAI()于2022年发布的论文,正是这篇论文造就了我们所熟知的ChatGPT。通过对齐,也叫做指令调优,使得语言模型更好的理解人类意图,同时也对语言模型增加了安全保障,确保语言模型不会输出有害的内容和信息。对于对齐任务来说,我们可以拆解为两部分第一个部分是图中的Step-1.监督微调第二个部分则是图中的二和三,通过Step2获取reward model与通过Step3进行强化学习,调整语言模型的输出分布。这两种方法都能用于保证语言模型的安全LLAMA2()是当前使用最广泛的开源大型语言模型,在其技术报告中提到他们专门使用了安全有监督微调用于确保语言模型的安全.通过给定危险的问题和拒绝的回答,语言模型就像背诵一样,学会了对危险的查询生成拒绝的响应强化学习通过引入带有人类反馈的数据对模型进行强化学习,根据人类的偏好和反馈,语言模型在调整分布的过程中,需要更细粒度的思考,究竟什么样的答案是更好的,更安全的.并且由于引入了类似思考的过程,语言模型在面对训练分布外的数据,也有可能学会举一反三的拒绝掉不该回答的内容,更少的胡编乱造,产生幻觉性的输出那么Alignment就足够防护所有的安全问题了吗?毕竟现在的大型语言模型如GPT-4和Claude()等已经几乎不会回复危险的问题了.不,并不安全,就像测试工程师经常苦恼的问题一样,用户们的创造力是无穷的.,他们会用各种各样难以想象的方法试图得到他们想要的”不受束缚的”AI这种技术被统称为越狱,Jailbreak!通过Jailbreak,模型的对齐基本失效,重新变为一个回答各种问题的模型关于越狱部分,我将在文章的后半部分中专门详细讲解。在这里,我们先来讲讲隐私问题。

从 0 到 1 了解大模型安全,看这篇就够了

encoder-only:这些模型通常适用于可以自然语言理解任务,例如分类和情感分析.最知名的代表模型是BERTencoder-decoder:此类模型同时结合了Transformer架构的encoder和decoder来理解和生成内容。该架构的一些用例包括翻译和摘要。encoder-decoder的代表是google的T5decoder-only:此类模型更擅长自然语言生成任务。典型使用包括故事写作和博客生成。这也是我们现在所熟知的众多AI助手的结构我们目前耳熟能详的AI助手基本都来自左侧的灰色分支,当然也包括ChatGPT。这些架构都是根据谷歌2017年发布的论文“attention is all you need”中提出的transformer衍生而来的,在transformer中,包括Encoder,Decoder两个结构目前的大型语言模型就是右侧只使用Decoder的Decoder-only架构的模型大模型又大在哪呢?第一,大模型的预训练数据非常大,这些数据往往来自于互联网上,包括论文,代码,以及可进行爬取的公开网页等等,一般来说,现在最先进的大模型一般都是用TB级别的数据进行预训练。第二,参数非常多,Open在2020年发布的GPT-3就已经达到170B的参数在GPT3中,模型可以根据用户输入的任务描述,或给出详细的例子,完成任务但这与我们熟知的ChatGPT仍然有着很大的差距,使用ChatGPT只需要像和人类一样对话,就可以完成任务。除了形式上的不同之外,还有一个更加重要的差距,那就是安全性上的差别。

Others are asking
大模型时代组织和个人面临的挑战和应对策略是什么?
在大模型时代,组织和个人面临着以下挑战和应对策略: 挑战: 1. 算力投资风险:大规模算力投资使公司转变为重资产模式,可能影响公司估值和投资人收益。获取高性能算力成本高昂,包括 GPU 价格及后续部署、运营、调试和使用成本。 2. 估值泡沫风险:创业公司为抬高估值规避算力风险,可能成为突破的绊脚石,类似荷兰郁金香泡沫,当风口过去,真实收入将成为关键指标。 应对策略: 1. 对于创业公司: 挖掘新的价值点,如探索大模型在不同领域的应用,或开发中间层服务,如训练、数据处理、算力服务等。 避免盲目追逐原创大模型,根据自身情况选择合适的发展路径,如套壳开源大模型或拼装大模型时注重创新和突破。 2. 对于投资人: 保持独立判断,不人云亦云,吸取以往经验教训,专注于更有创意和机会的公司或项目。
2025-03-28
当前所有大模型的能力排行
目前大模型的能力排行情况较为复杂,以下为您提供部分相关信息: 8 月正式上线的国内大模型包括北京的百度(文心一言)https://wenxin.baidu.com 、抖音(云雀大模型)https://www.doubao.com 、智谱 AI(GLM 大模型)https://chatglm.cn 、中科院(紫东太初大模型)https://xihe.mindspore.cn 、百川智能(百川大模型)https://www.baichuanai.com/ ,上海的商汤(日日新大模型)https://www.sensetime.com/ 、MiniMax(ABAB 大模型)https://api.minimax.chat 、上海人工智能实验室(书生通用大模型)https://internai.org.cn 。在聊天状态下,能生成 Markdown 格式的有智谱清言、商量 Sensechat、MiniMax ;目前不能进行自然语言交流的有昇思、书生;受限制使用的有 MiniMax 。特色功能方面,昇思能生图,MiniMax 能语音合成。阿里通义千问、360 智脑、讯飞星火等不在首批获批名单中,广东地区获批公司分别为华为、腾讯,科大讯飞系其他地区获批产品。 2023 年度中文大模型基准测评报告显示,在语言与知识的测评中,GPT4 Turbo 依然领先,是唯一超过 90 分的大模型。国内大模型也表现相对较好,有 14 个模型的得分高于 GPT3.5,有 9 个模型的得分高于 GeminiPro。其中 OPPO 的 AndesGPT、阿里云的通义千问 2.0、月之暗面的 Moonshot 分列国内 13 位,较为接近 GPT4。在开源模型中,零一万物的 Yi34BChat、阿里云的 Qwen72BChat、百川智能的 Baichuan213BChat 取得了不错的成绩,均超过了 50 分,分列国内模型的 13 名。总体来看,在中文语言与知识能力上,国内大模型已基本追赶上国外头部大模型。 关于大模型的评测榜单还有: Open LLM Leaderboard:地址 ,由 HuggingFace 组织,目前已评估了较多主流的开源 LLM 模型,评估主要包括 AI2 Reasoning Challenge,HellaSwag,MMLU,TruthfulQA 四个数据集上的表现,主要以英文为主。 chinesellmbenchmark:地址 ,覆盖百度文心一言、chatgpt、阿里通义千问、讯飞星火、belle/chatglm6b 等开源大模型,多维度能力评测,不仅提供能力评分排行榜,也提供所有模型的原始输出结果。 SafetyPrompts:地址 ,由清华大学提出,是一个关于 LLM 安全评测 benchmark,包括安全评测平台等,用于评测和提升大模型的安全性,囊括了多种典型的安全场景和指令攻击的 prompt。
2025-03-28
世界模型
世界模型是一种用于强化学习和模型类强化学习的模型,能够模拟和交互整个物理世界。 Sora 被称为世界模型,原因在于其能模拟和交互整个物理世界,具有模拟三维空间连贯性、数字世界、长期连续性和物体持久性并与世界互动的能力。其名称源于日文“空”,以示无限创造潜力。这种模型在机器人领域(包括自动驾驶)常见,通常由多模态输入、感知、世界模型、未来预测和规划控制等步骤组成。 谷歌发布的世界模型 Genie 是一个 110 亿参数的基础世界模型,可通过单张图像提示生成可玩的交互式环境。它由潜在动作模型、视频 tokenizer 和动态模型组成,能从各种图像生成无穷无尽的可玩世界,其学到的潜在动作还可转移到真实的人类设计环境中。 对于 OpenAI 能跑通所有 AGI 技术栈,从世界模型的角度来看,大量数据来自世界本身,世界产生的数据是 AGI 所需数据的最小集合,OpenAI 未来会执着于持续获得或构造数据。为有效利用数据,需要模拟和生成整个世界的任务,OpenAI 未来会在更多模态和数据上做生成模型,如 Sora 就是其中之一。
2025-03-28
本地用Ollama部署模型,使用哪个ChatBox客户端好?
目前在本地使用 Ollama 部署模型时,没有特别突出或被广泛推荐的特定 ChatBox 客户端。不同的客户端可能在功能、界面和兼容性方面存在差异,您可以根据自己的需求和使用习惯进行选择和尝试。常见的一些客户端包括但不限于 Web 端的简单界面工具,或者一些具有特定功能扩展的桌面应用程序。但具体哪个最适合您,还需要您亲自测试和评估。
2025-03-27
大模型训练师
以下是关于大模型训练师的相关信息: 招聘信息: 中国移动设计院正在招聘大模型开发工程师,办公地点在北京海淀中关村。 数量:1 名 学历:本科及以上 资历:5 年及以上 岗位要求: 参与大模型技术研究、大模型微调、大模型智能体研发、基于大模型的应用研发等工作。 大模型相关的数据工程,包括预训练数据、微调数据、行业数据挖掘等。 大模型相关的落地实现:如推理优化、部署、AIAgent、工具学习、领域大模型等。 技能要求: 了解大模型基本原理,包括不限于模型架构、模型预训练及微调、模型部署及推理。 熟悉 LLM 相关技术,如 transformer,prompt tuning,RLHF,langchain,Agent,MOE,RAG 等。 熟悉算法和数据结构,熟悉常用的编程语言,有较好的 Python 开发经验,编程基础扎实。 了解或掌握机器学习、深度学习基本算法原理,熟悉 AI 建模流程,在 NLP 领域有开发经验优先。 了解熟悉大模型常用训练框架、推理架构;了解分布式计算、并行计算。 联络方式:飞书与@史鹏飞联系 大模型入门指南: 通俗来讲,大模型就是输入大量语料,来让计算机获得类似人类的“思考”能力,使之能够理解自然语言,能够进行『文本生成』、『推理问答』、『对话』、『文档摘要』等工作。可以用『上学参加工作』这件事来类比大模型的训练、使用过程: 1. 找学校:训练 LLM 需要大量的计算,因此 GPU 更合适,只有购买得起大量 GPU 的贵族学校才有资本训练自己的大模型。 2. 确定教材:大模型顾名思义就是大,需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:即用什么样的算法讲述“书本”中的内容,让大模型能够更好理解 Token 之间的关系。 4. 就业指导:学完书本中的知识后,为了让大模型能够更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,下面就要正式干活了,比如进行一次翻译、问答等,在大模型里称之为推导(infer)。 在 LLM 中,Token 被视为模型处理和生成的文本单位。它们可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。Token 是原始文本数据与 LLM 可以使用的数字表示之间的桥梁。在将输入进行分词时,会对其进行数字化,形成一个词汇表。 2024 年人工智能现状: More Money,More Problems: 预计明年会有团队花费超过 10 亿美元训练单个大规模模型。GenAI 的热潮不会消退,只是会变得更加昂贵。 Compute Squeeze: 政府和大型科技公司都将继续感受到计算需求的压力,其增长速度超过了电网的支持能力。这就像一个健美运动员增长得太快,健身房都快承受不住了——在某个时候,天花板可能会坍塌。 AI Enters Elections: 预期的 AI 对选举和就业的影响尚未显现,但这并不意味着我们可以放松警惕。记住,AI 的影响就像闪光粉:一旦出现,多年来你会在各处发现它。 人工智能仍然是令人兴奋的突破、未解决的伦理问题和无数万亿美元赌注的混合体。随着 OpenAI 在某些领域领先,Meta 在其他领域崛起,以及中国实验室不受制裁影响而上升,2024 年的 AI 舞台感觉更像是一个拥挤的拳击台,而不是一个和平的会议室。所以准备好爆米花,准备好 GPU——我们将迎来又一年的 AI 突破边界、测试极限,并可能改写一些定义。
2025-03-27
最近新出的大模型有哪些
最近新出的大模型有: 1. 通义千问推出的 Qwen2.5Max 大型专家模型,通过 SFT 和 RLHF 策略后训练,性能与顶尖模型竞争,在多个基准测试中超越了 DeepSeek V3,引发了 AI 社区对大规模专家模型的高度关注。相关链接: Blog: Qwen Chat: (选择 Qwen2.5Max 模型) API: HF Demo: 2. 阿里云发布的 Qwen2.5VL 新一代视觉语言模型。
2025-03-27
flowith根据自然语言构建一个直接使用的工作流吗,如何向flowith提出要求
Flowith 可以根据自然语言构建工作流。即使没有专业编程技能,只要能用清晰的自然语言描述出想要的各个 Agents 具备的行为和功能,就可以快速制作多 Agents 应用或创建代理式工作流。 使用工作流的步骤如下: 1. 配置工作流: 在 Code 节点内使用 IDE 工具,通过 AI 自动生成代码或编写自定义代码逻辑,来处理输入参数并返回响应结果。 该节点支持 JavaScript、Python 运行时,需注意不同运行时的特定事项。 可在 IDE 底部单击尝试 AI,并输入自然语言设定代码逻辑,也可选中代码片段通过快捷键唤起 AI 并输入自然语言让其修改代码。 2. 通过工作流数据库节点操作数据表: 在工作流中添加数据库节点对数据表进行操作,可通过 NL2SQL 方式和代码方式进行调用,支持完整读写模式。 参考以下操作添加并配置工作流节点: 单击页面顶部的工作流页签,然后单击创建工作流。 输入工作流名称和使用描述,然后单击确认。 在基础节点页签下,将数据库节点拖入到工作流配置画布区域。 根据相关信息配置数据库节点,包括输入添加 SQL 执行中需要的参数,输入要执行的 SQL 语句,可单击自动生成使用大模型生成 SQL。 需注意不支持 Select语法、多表 Join 操作,最多返回 100 行数据。在配置数据库节点前,要确保已经搭建了一个 Bot,并在这个 Bot 中创建好了数据表。
2025-03-26
好用的大语言模型
目前好用的大语言模型有以下几种: 1. OpenAI 的 GPT4:是最先进和广泛使用的大型语言模型之一,在多种任务上表现卓越,包括文本生成、理解、翻译以及各种专业和创意写作任务。 2. Anthropic 公司的 Claude 3:在特定领域和任务上表现出色。 3. 谷歌的 Gemini。 4. 百度的文心一言。 5. 阿里巴巴的通义大模型:通义千问 2.0 在代码、上下文对话基础能力上排名国内第一,各项能力较为均衡,位于国内大模型第一梯队。适用于金融、医疗、汽车等垂直专业场景,以及代码生成与纠错、实时搜索信息、通用工具调用、办公等场景。 6. OPPO 的 AndesGPT:具有对话增强、个性专属和端云协同三大技术特征,已接入 OPPO 智能助理新小布,可用于用机助手、内容创作、超级问答、专属 AI、日程管理等全新能力,聚焦在移动设备端的应用。 7. 百川智能的 Baichuan213BChat:在逻辑推理、知识百科、生成与创作、上下文对话等基础能力上排名 200 亿参数量级国内模型第一,可应用场景广泛且可以私有化部署。 如果想了解国内的大模型效果,可以参考第三方基准评测报告: 。请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-03-26
国内主流的大语言模型公司有哪几家
国内主流的大语言模型公司主要有以下几家: 1. 百度:其文心一言大语言模型可用以文学创作、商业文案创作、数理逻辑推算、中文理解、多模态生成等。 2. 阿里巴巴:拥有通义大模型。 3. 北京智源人工智能研究院:推出了“悟道・天鹰”,是首个具备中英文双语知识、支持商用许可协议、国内数据合规需求的开源语言大模型。
2025-03-20
国内的大语言模型清单
以下是一些国内的大语言模型: 1. 文心一言:可用于文学创作、商业文案创作、数理逻辑推算、中文理解、多模态生成等。 2. 讯飞星火:通用模型,处理自然语言。 3. “悟道・天鹰”(北京智源人工智能研究院):首个具备中英文双语知识、支持商用许可协议、国内数据合规需求的开源语言大模型。 此外,如果想了解国内大模型的效果,可以参考第三方基准评测报告:
2025-03-20
我想在飞书里面将一段话批量翻译成不同国家的语言 该 怎么做
目前飞书中可能没有直接将一段话批量翻译成不同国家语言的内置功能。但您可以借助一些第三方的翻译工具或软件来实现,比如谷歌翻译、百度翻译等。您将需要翻译的段落复制到这些工具中,然后选择您想要翻译的目标语言进行批量翻译。
2025-03-19
我想用使用AsrTools,用于语言转文字,如何使用
AsrTools 是一款批量语音转文字工具。但关于其具体的使用方法,目前所提供的信息中并未有详细描述。您可以通过以下常规步骤来尝试使用类似工具:首先,获取 AsrTools 软件并进行安装;然后,打开软件,查找导入语音文件的入口,将您需要转换的语音文件导入;接下来,根据软件界面的提示或设置选项,选择合适的转换参数,如语言类型、识别精度等;最后,点击开始转换按钮,等待转换完成并获取转换后的文字结果。您还可以查看该工具的官方文档或帮助说明,以获取更准确和详细的使用指导。
2025-03-19
我想用ai生成网站的特效,应该使用哪些ai产品
以下是一些可以用于生成网站特效的 AI 产品: 1. Looka:在线 Logo 设计平台,使用 AI 理解用户品牌信息和设计偏好,生成多个 Logo 设计方案供选择和定制。 2. Tailor Brands:AI 驱动的品牌创建工具,通过用户回答问题生成 Logo 选项。 3. Designhill:其 Logo 制作器使用 AI 技术创建个性化 Logo 设计,用户可选择元素和风格。 4. LogoMakr:提供简单易用的 Logo 设计工具,用户可拖放设计并利用 AI 建议。 5. Canva:广受欢迎的在线设计工具,提供 Logo 设计模板和元素,有 AI 辅助设计建议。 6. LogoAI by Tailor Brands:Tailor Brands 推出的 AI Logo 设计工具,根据输入快速生成方案。 7. 标小智:中文 AI Logo 设计工具,利用人工智能技术帮助创建个性化 Logo。 另外,以下产品也可能对生成网站特效有帮助: 1. Dora AI:可以通过一个 prompt,借助 AI 3D 动画生成强大网站,支持文字转网站、生成式 3D 互动、高级 AI 动画。 2. Magic Editor for Google Photos:可对照片进行局部修改。 3. MusicLM:文本生成音乐,当前可在 AI Test Kitchen with Google 试用。 4. Gen AI for Android Magic Compose:自动回复信息;Gen AI for Wallpaper 可生成手机壁纸。 5. ML Hub for Developers:提供 ML 模型训练与部署一站式服务。 6. Immersive View for Google Map:仿真 3D 沉浸式地图。 7. 「Help me write」in Gmail:电子邮件写作助手(文字生成)。 您可以访问相关网站获取更多详细信息和试用这些产品。
2025-03-27
ai每次使用都要打开一个新对话吗,日常怎么管理ai的对话,让内容不凌乱
在使用 AI 时,开启新对话在大部分情况下几乎是必然的。为了让新对话中的内容尽量准确还原之前的风格,您可以采取以下方式来管理对话,避免内容凌乱: 1. 让 AI 总结当前的美学风格,并记录下来。这可以是一段文字,也可以同时生成一个 CSS 样式并保存。例如记录颜色、布局、字体等方面的信息。 2. 在多次会话中完成一个项目时,保持代码风格和架构的一致性是一个挑战。这可能需要定期回顾和总结已完成的部分,为 AI 提供清晰的编码指南,并在每次新会话开始时重申项目的整体结构。 3. 与 AI 沟通时,要像管理员工一样,前期投入精力清晰简洁地描述具体要求。例如在生成 PPT 样式时,尽量在 5 次对话内得到理想模板,若超过 5 次效果仍差很远,可考虑清除上下文或重新开启新对话。 4. 对于生成的 PPT 模板风格,您可以选择让 AI 记住直接进入下一阶段,或者让其抽象成一种它能理解的风格。前者速度快,适用于临时出几页 PPT;后者能在一定程度上保证风格的精确性,但在单次对话下多次生成对 token 的消耗较大。
2025-03-26
deepseek的使用技巧
以下是关于 DeepSeek 的使用技巧: 1. 了解其特点与优势: 核心是推理型大模型,无需用户提供详细步骤指令,能通过理解真实需求和场景提供答案。 能够理解用户用“人话”表达的需求,无需特定提示词模板。 在回答问题时能深度思考,而非简单罗列信息。 可以模仿不同作家的文风进行写作,适用于多种文体和场景。 2. 更多提示词技巧请查看 3. 活动中的使用方法技巧: 分享使用 DeepSeek 在工作生活上的案例。 分享 DeepSeek 输出“超预期结果”的惊艳场景。 分享 DeepSeek 与其他工具的协同方案。 分享模型微调/部署的技巧方法。 分享用 DeepSeek 获取流量/客户等。 4. 具体使用步骤: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 DeepSeek。 认真阅读开场白之后,正式开始对话。 5. 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用,减轻调试负担。 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 在模型默认能力基础上优化输出质量,减轻 AI 味,增加可读性。 设计阈值系统,后续可能根据反馈修改。 用 XML 进行更为规范的设定。
2025-03-26
ai大模型和工具组合使用技巧
以下是关于 AI 大模型和工具组合使用的技巧: 1. 在 Obsidian 中的使用: 简单方法:通过命令面板打开创建的页面(默认快捷键 Ctrl+P),在弹出的搜索框中输入插件名称(如 custom frames),选择 OpenKimi 并打开设置好的窗口。 进阶配置:包括笔记仓库嵌入大模型(Copilot)、笔记内容作为 RAG 嵌入大模型(Smart Conections)、笔记内使用大模型编写内容。 2. 利用大模型与工具的典型例子:如使用 Kimi Chat 查询问题时,它会在互联网上检索相关内容并总结分析给出结论,同时还有很多不同领域类型的工具为大模型在获取、处理、呈现信息上做补充。 3. Agentic Workflow 方面: Agent 通过自行规划任务执行的工作流路径,面向简单或线性流程的运行。 多 Agent 协作:吴恩达通过开源项目 ChatDev 举例,让大语言模型扮演不同角色相互协作开发应用或复杂程序。 AI Agent 基本框架:OpenAI 的研究主管 Lilian Weng 提出“Agent=LLM+规划+记忆+工具使用”的基础架构,其中大模型 LLM 扮演“大脑”,规划包括子目标分解、反思与改进。 4. 从提示词优化到底层能力提升: 任务拆解:将复杂任务的提示词拆解成若干步骤的智能体,每个智能体负责特定子任务。 工作流构建:组合多个提示词或 AI 工具搭建高频重复工作的工作流。 创作场景的灵活应用:在创作过程中使用简单提示词和连续追问调整大模型回答。 深度思考辅助:将大模型用于辅助深度思考,从居高临下的指挥变为伙伴式的协作和相互学习,关注利用大模型训练和增强认知能力。
2025-03-26
deepseek的使用技巧
以下是关于 DeepSeek 的使用技巧: 1. 了解其特点与优势: 推理型大模型:核心是推理型大模型,通过理解用户真实需求和场景提供答案,无需详细步骤指令。 更懂人话:能理解用户用“人话”表达的需求,无需特定提示词模板。 深度思考:回答问题时能深度思考,非简单罗列信息。 文风转换器:可模仿不同作家文风写作,适用于多种文体和场景。 2. 更多提示词技巧可查看。 3. 使用方法: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 Deepseek。 认真阅读开场白之后,正式开始对话。 4. 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用,减轻调试负担。 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 在模型默认能力基础上优化输出质量,减轻 AI 味,增加可读性。 设计阈值系统,后续可能根据反馈修改。 用 XML 进行更为规范的设定。 5. 在 AI 切磋大会中,分享了使用 DeepSeek 的技巧,包括方法论碰撞,如使用 DeepSeek 的技巧、与其他工具的协同方案、模型微调/部署的技巧方法、获取流量/客户等,还包括应急预案。同时,活动中还涉及分城市各自案例分享、Workshop 自由探讨等环节。
2025-03-26