Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

我想知道大模型厂商内置的提示词一般都有多少个字比较合理?并给出数据来源

Answer

大模型厂商内置的提示词字数并没有一个固定的标准,其合理性取决于多种因素。

一般来说,提示词的字数可能寥寥无几,但更多时候需要提供详尽的上下文和相关细节。例如,在要求 GPT 删除个人信息的官方示例中,提示词包括背景、定义术语、给出模型应如何完成任务的具体细节等多个方面。

在一些经验分享中提到,提示词中的示例 5 - 6 个效果最佳。同时,提示词的整体结构需要调整和优化,除了技能外还应有完整的工作流程设定,角色信息中的人设应特点鲜明,避免同质化。还需注意避免矛盾和重复的提示词内容,可通过调整提示词顺序的方法提高重要指令的权重。

数据来源包括胡凯翔基于阅读 Claude Cookbook 的思考和测试、Agent 共学“谁是人类”活动参赛心得分享等。

Content generated by AI large model, please carefully verify (powered by aily)

References

胡凯翔:构建提示词的方法——基于阅读 Claude Cookbook 的思考和测试

本身用于“提示”的提示词字数寥寥无几,大部分都是基于“上下文”的对招标文件和项目方案的拆解。注意:如果你指望GPT给出的内容不是空口白话,首先需要给它足以发挥的资料,就像领导找你写材料的时候,我们多么希望领导同时给出相关的资料,最好能把相关资料的重点都提炼出来,层级分清楚,打好关键词,一眼明了(做个梦)。提供的上下文越详尽,与需要完成任务的相关性越强,则大语言模型给予的反馈下限越高;提示词的技巧则更多地挖掘大语言模型的潜力,发挥其上限。双向奔赴才是最优选择。讲回CookBook,官方示例中就是遵循以上的条件给出的提示词。接下来我会提供一个官方的示例:一个用户要求GPT删除个人信息,官方的prompt中提供了:1、背景;(例如,我们为什么希望完成任务)2、定义术语:(个人信息=姓名、电话号码、地址)3、给出模型:应该如何完成任务的具体细节(用XXX代替个人信息)更多的细节,有利于Claude更好地完成任务,让我们来看一下官方的好例子:

血与泪的教训!!!千万不要让微信机器人和你的老婆/女朋友聊天--Agent 共学"谁是人类"活动参赛心得分享

提示词的整体结构需要调整和优化,除了技能外还应该有完整的工作流程设定(逻辑链路),提高输出质量角色信息中的人设应该特点鲜明,具备人类的真实性格,避免同质化输出真实想法,其实有些对话大模型输出的已经符合人类的特征了,只是在比赛时一旦同质化就直接GG。所以只要再解决同质化的问题,你的BOT将无往不胜增加情绪变化或者心情的设定,提高回复内容的拟人程度可通过提示词增加Bot的短期记忆提示词中的示例5-6个效果最佳,其它QA可通过知识库补充避免矛盾和重复的提示词内容,如果部分提示词不生效应该检查是否有矛盾的地方,或者是否过于冗长。可通过调整提示词顺序的方法提高重要指令的权重利用大模型反推回复内容是学习大模型输出逻辑的好习惯建议多参加比赛,以赛代练,绝对收获良多,就算比赛失利,经验也宝贵使用的大模型:通义千问Plus,通义千问开源72b温度设置:推荐0.35-0.45之间,如果调太高,大概率会不遵从提示词的字数限制

小七姐:文心一言4.0、智谱清言、KimiChat 小样本测评

目标模型表现回溯一下本轮测试目的:根据提供的范本让大模型总结结构化提示词的特征有点并生成类似提示词“根据用户输入的主题,生成幽默且有病毒传播特点的短视频的脚本”这个需求的难点在于对于“幽默”和“病毒式传播”的理解。从生成结果看来,大语言模型显然对于“病毒式传播”的理解还没有过于深入的提炼,只有MoonShot AI在最后一段给出了“提供短视频制作建议,帮助用户实现病毒式传播”的进一步提示,其他大语言模型都只是提到了这么一个词。值得注意的是,所有大模型对关键信息的提炼都非常准确。智谱清言70文心一言75Moonshot AI 80

Others are asking
请罗列一些内置大模型的手机产品
以下是一些内置大模型的手机产品: 华为、荣耀、小米、OPPO、VIVO、三星等品牌都已宣布会在手机端侧搭载大模型。 三星 S24 搭载了 Google Gemini Nano。 Vivo 推出了五个大型自研模型,宣称在中文能力方面达到行业第一。 目前这些手机搭载大模型还存在一些问题,如只能用最新的骁龙 8Gen3 旗舰处理器,且耗能散热都是问题。短期内的端上智能仍有诸多限制。
2024-11-29
国内做视觉理解的大模型厂商有哪些
国内做视觉理解的大模型厂商有以下这些: 北京: 百度(文心一言):https://wenxin.baidu.com 抖音(云雀大模型):https://www.doubao.com 智谱 AI(GLM 大模型):https://chatglm.cn 中科院(紫东太初大模型):https://xihe.mindspore.cn 百川智能(百川大模型):https://www.baichuanai.com 上海: 商汤(日日新大模型):https://www.sensetime.com MiniMax(ABAB 大模型):https://api.minimax.chat 上海人工智能实验室(书生通用大模型):https://internai.org.cn 此外,在 0 基础手搓 AI 拍立得的模型供应商选择中,还有以下视觉类大模型厂商: 智谱 GLM4V:通用视觉类大模型,拍立得最早使用的模型,接口响应速度快,指令灵活性差一些,一个接口支持图片/视频/文本,视频和图片类型不能同时输入,调用成本为 0.05 元/千 tokens, 阿里云百炼 qwenvlplus:通用视觉类大模型,拍立得目前使用的模型,指令灵活性比较丰富,接口调用入门流程长一些,密钥安全性更高,调用成本为¥0.008/千 tokens,训练成本为¥0.03/千 tokens, 阶跃星辰:通用视觉类大模型,响应速度快,支持视频理解,输入成本为¥0.005~0.015/千 tokens,输出成本为¥0.02~0.07/千 tokens, 百度 PaddlePaddle:OCR,垂直小模型,文本识别能力补齐增强,私有化部署服务费,API 调用在¥0.05~0.1/次,
2024-12-19
WayToAGI是什么?是哪家厂商做的?
WaytoAGI 直译就是通往 AGI 之路,它是一个自组织的AI社区,发起人是 AJ 和轻侯。AGI 指通用人工智能。
2024-09-29
国内大模型厂商对比
以下是国内大模型厂商的相关情况: 8 月正式上线的国内大模型: 北京的五家企业机构: 百度(文心一言):https://wenxin.baidu.com 抖音(云雀大模型):https://www.doubao.com 智谱 AI(GLM 大模型):https://chatglm.cn 中科院(紫东太初大模型):https://xihe.mindspore.cn 百川智能(百川大模型):https://www.baichuanai.com/ 上海的三家企业机构: 商汤(日日新大模型):https://www.sensetime.com/ MiniMax(ABAB 大模型):https://api.minimax.chat 上海人工智能实验室(书生通用大模型):https://internai.org.cn 聊天状态下能生成 Markdown 格式的:智谱清言、商量 Sensechat。 目前不能进行自然语言交流的:昇思(可以对文本进行是否由 AI 生成的检测,类似论文查重,准确度不错)。 受限制使用的:MiniMax(无法对生成的文本进行复制输出,且只有 15 元的预充值额度进行体验,完成企业认证后可以进行充值)。 特色功能:昇思——生图,MiniMax——语音合成。 中文大模型基准测评 2023 年度报告中的情况: 从大厂和创业公司的平均成绩来看,大厂与创业公司差值约 6.33 分,较 11 月份差距在增大,说明大厂在大模型竞争中长期资源投入方面有一定优势。 过去八个月国内模型在 SuperCLUE 基准上的前三名: 12 月:文心一言 4.0 11 月:文心一言 4.0 10 月:BlueLM 9 月:SenseChat3.0 通过 SuperCLUE 测评结果发现,国内大模型的第一梯队有了更多新的模型加入。头部模型如文心一言 4.0、通义千问 2.0 引领国内大模型的研发进度,部分高质量大模型紧追不舍,分别在闭源应用和开源生态中形成自己独特的优势。 从国内 TOP19 大模型的数量来看,创业公司和大厂的占比几乎持平。
2024-08-30
智谱跟其他厂商的差异和优势是什么
智谱与其他厂商的差异和优势主要体现在以下几个方面: 1. 模型研发:一年间推出了 4 代 GLM,一直是国内能力最好的模型之一。22 年就和清华一起自研了 GLM130B。 2. 技术来源:由清华大学计算机系技术成果转化而来,背后有清华大学研发团队的科研成果支持。 3. 产品设计:以 ChatGPT 为对标,努力打造类似的用户体验。 4. 智能体应用:是国内首批开放智能体应用的 AI 公司之一,在智能体开发和模型优化方面积累了丰富经验和技术。 5. 性能表现:在逻辑推理和处理复杂提示词方面表现出明显优势,在处理需要深度思考和分析的任务时表现出色。 6. 产品体系:合作研发了双语千亿级超大规模预训练模型 GLM130B,并构建了高精度通用知识图谱,形成数据与知识双轮驱动的认知引擎。基于此模型打造了 ChatGLM,还推出了认知大模型平台 Bigmodel.ai,包括 CodeGeeX 和 CogView 等产品,提供智能 API 服务。
2024-08-30
ai模型chatglm,百川大模型,通义千问,yi系列的模型厂商和团队背景,ai产品调用api的成本
以下是关于您提到的 AI 模型的厂商和团队背景以及 AI 产品调用 API 成本的相关信息: 厂商和团队背景: 通义千问:由阿里开发,接口可在 https://dashscope.console.aliyun.com/ 创建 API key。 智谱 AI(ChatGLM):由智谱 AI 开发,相关网址为 https://chatglm.cn 。 百川大模型:由百川智能开发,网址为 https://www.baichuanai.com/ 。 关于 AI 产品调用 API 的成本: 目前国内的大模型大多限制一定免费额度的 Token,各平台 API 调用计费是按计算 token 费率定价,具体收费标准不同,需自行留意对应官网。例如 GPT3.5、GPT4、文心一言、讯飞星火、通义千问、mimimax 等,收费标准不一,不做统一赘述。
2024-08-20
ai模型chatglm,百川大模型,通义千问,yi系列的模型厂商和团队背景,ai产品调用api的成本
以下是关于您提到的 AI 模型的厂商和团队背景以及 AI 产品调用 API 成本的相关信息: 厂商和团队背景: 通义千问:由阿里开发,接口可在 https://dashscope.console.aliyun.com/ 创建 API key。 智谱 AI(ChatGLM):由智谱 AI 开发,相关网址为 https://chatglm.cn 。 百川大模型:由百川智能开发,网址为 https://www.baichuanai.com/ 。 关于 AI 产品调用 API 的成本: 目前国内的大模型大多限制一定免费额度的 Token,各平台 API 调用计费是按计算 token 费率定价,具体收费标准不同,需自行留意对应官网。例如 GPT3.5、GPT4、文心一言、讯飞星火、通义千问、mimimax 等,收费标准不一,不做统一赘述。
2024-08-20
怎样利用AI进行广州小学语文数学英文各科的学习辅导,请给出具体可操作方案,及安排一个学期的日程。
目前没有关于利用 AI 进行广州小学语文、数学、英语各科学习辅导的具体可操作方案及学期日程的相关内容。但一般来说,可以考虑以下步骤: 首先,确定学习目标和重点。针对每门学科,明确本学期需要掌握的知识点和技能。 然后,选择适合的 AI 学习工具。例如,有一些在线学习平台或教育类的 APP ,它们可能提供课程讲解、练习题、智能辅导等功能。 在日程安排方面,可以每周安排一定的时间使用 AI 工具进行学习。比如,周一至周五每天晚上安排 12 小时,分别用于语文、数学、英语的学习。周末可以进行复习和总结。 具体到每天,可以先通过 AI 工具进行知识点的学习,然后做相关的练习题进行巩固,最后利用工具的智能辅导功能解决疑难问题。 需要注意的是,AI 只是辅助工具,不能完全替代教师和家长的指导与监督。
2025-02-17
天工AI和秘塔AI哪个更好一些,你给出的选择建议
天工 AI 和秘塔 AI 各有特点。 秘塔 AI 搜索由秘塔科技开发,提供多模式搜索、无广告干扰、结构化展示和信息聚合等功能,旨在提升用户的搜索效率和体验。 天工 AI 搜索采用生成式搜索技术,支持自然语言交互和深度追问,未来还将支持图像、语音等多模态搜索。在搜索时直接上传文件,就能实现“定制 AI 搜索信息源”的效果。目前支持对话追问,支持脑图的图片下载。但天工 AI 目前仍处于早期版本的状态,一些功能如原文的对应、文本编辑、笔记、下钻探索等还不支持,也没有打通一些出彩的板块,没有跟音乐创作、图片创作等功能连接起来形成完整的“AIGC 工作流”。 综合来看,选择哪个更好取决于您的具体需求。如果您更注重成熟的功能和搜索体验,秘塔 AI 可能更适合;如果您对未来的多模态搜索和发展潜力有期待,且能接受当前一些功能的不完善,天工 AI 也是一个选择。
2025-02-15
我几乎是一个AI小白,只能日常跟AI对话,让AI回答我的问题,我希望能系统的了解AI,认识AI,学会正确使用AI,让AI帮助我提高效率,希望你能给出学习建议
以下是为您提供的系统学习 AI 的建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,如图像、音乐、视频等,您可以根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 6. 与大语言模型交流的技巧: 对话尽量具体、丰富、少歧义,多说有用的。 假想特定场景,明确希望获得的内容。 把大模型当作大学生,指明方向,拆解任务,教其一步一步操作。 7. AI 教育方面: 以 Khanmigo AI 为例,AI 教师应具有友善和支持的性格,语言简明,不直接给答案,而是通过适当提问帮助学生独立思考,根据学生知识水平调整问题,检查学生是否理解,警惕学生滥用帮助等。
2025-02-10
请给出10个 有关 AI 的概念的 知识点 并用150字 进行介绍
以下是 10 个有关 AI 的概念知识点及介绍: 1. 人工智能(AI):目标是让机器展现智慧,是一个广泛的领域。 2. 生成式人工智能(GenAI):旨在让机器产生复杂有结构的内容。 3. 机器学习:使机器能自动从资料中找到公式的手段。 4. 深度学习:基于类神经网络,具有大量参数的更强大手段。 5. 大语言模型(LLMs):具有大量参数的深度学习模型。 6. ChatGPT:基于大型语言模型的对话机器人,能根据输入生成文本回复。 7. AIGC:利用人工智能技术生成包括文本、图像等多种内容的新型生产方式。 8. 统计学基础:包含均值、中位数、方差等统计概念,是 AI 的重要基础。 9. 监督学习:如线性回归、决策树等常用算法。 10. 无监督学习:如聚类、降维等算法。
2025-02-08
想要对deepseek进行提问需要什么技巧吗?有没有什么高校组织给出的方案?
对 DeepSeek 进行提问时,以下是一些技巧: 1. 身份定位技巧:目的是让 AI 理解您的背景和专业水平。例如,差的表述是“帮我写一篇营销方案”,好的表述是“作为一名刚入职的电商运营,需要为天猫美妆店铺制定 618 活动方案”。 2. 场景描述技巧:提供具体的应用场景和限制条件。比如,差的表述是“写一篇新品发布文案”,好的表述是“为新上市的儿童智能手表写一篇朋友圈文案,目标用户是 25 35 岁的年轻父母,预算 3000 以内,需强调安全定位功能”。 3. 结构化输出技巧:指定具体的输出格式和内容结构。例如,差的表述是“分析最近的新能源汽车销量数据”,好的表述是“请用表格对比 2024 年 Q1 特斯拉、比亚迪的销量数据,包含以下维度:月度销量、同比增长、市场份额,并在表格下方总结三个关键发现”。 4. 分步骤提问技巧:将复杂问题拆解为可管理的小任务。比如,差的表述是“怎么做短视频运营?”,好的表述是“请分三步指导新手做美食短视频:前期准备:需要哪些设备和技能 拍摄阶段:关键场景和机位选择 后期制作:剪辑节奏和音乐配合建议”。 5. 反馈优化技巧:通过追问获得更精准的答案。例如,第一轮“帮我做一份产品分析报告”,追问 1:“内容太专业了,能用更通俗的语言解释吗?”追问 2:“可以增加一些具体的用户案例来支撑观点吗?” 6. 深度思考引导技巧:目的是获得更深入的分析和见解。
2025-02-07
我是科研人员,有什么方法能构建自己专业领域的知识库吗?请给出详细的操作步骤,并说明需要什么样的软硬件设备?预算多少?
构建自己专业领域的知识库可以按照以下步骤进行: 步骤一:明确知识库的目标和范围 首先,确定您想要涵盖的专业领域的具体范围和知识库的主要目标,例如是为了内部研究使用、对外分享知识还是其他特定用途。 步骤二:收集和整理资料 收集相关的文献、研究报告、实验数据、案例等各种资料,并对其进行分类和整理。 步骤三:选择合适的技术架构 1. 考虑使用数据库管理系统,如 MySQL、Oracle 等。 2. 或者采用知识图谱技术来构建更直观的知识关系。 步骤四:确定软硬件设备 1. 硬件方面,需要一台性能较好的计算机,具备足够的内存和存储空间。预算大约在 5000 10000 元,具体取决于配置要求。 2. 软件方面,需要操作系统(如 Windows 或 Linux)、数据库管理软件、文本编辑工具等。 步骤五:设计知识库的结构 规划好知识的分类体系、标签系统和索引方式,以便于快速检索和查找。 步骤六:数据录入和维护 将整理好的资料录入到知识库中,并定期更新和维护,确保知识的准确性和时效性。 步骤七:测试和优化 在初步构建完成后,进行测试,检查检索功能是否正常,知识的展示是否清晰,并根据测试结果进行优化。 需要注意的是,实际的预算和设备需求可能会因具体情况而有所不同,您可以根据自己的需求和资源进行调整。
2025-02-06
怎么用大模型构建一个属于我自己的助手
以下是用大模型构建属于自己的助手的几种方法: 1. 在网站上构建: 创建百炼应用获取大模型推理 API 服务: 进入百炼控制台的,在页面右侧点击新增应用,选择智能体应用并创建。 在应用设置页面,模型选择通义千问Plus,其他参数保持默认,也可以输入一些 Prompt 来设置人设。 在页面右侧提问验证模型效果,点击右上角的发布。 获取调用 API 所需的凭证: 在我的应用>应用列表中查看所有百炼应用 ID 并保存到本地。 在顶部导航栏右侧,点击人型图标,点击 APIKEY 进入我的 APIKEY 页面,创建新 APIKEY 并保存到本地。 2. 微信助手构建: 搭建,用于汇聚整合多种大模型接口,并获取白嫖大模型接口的方法。 搭建,作为知识库问答系统,将大模型接入用于回答问题,若不接入微信,搭建完成即可使用其问答界面。 搭建接入微信,配置 FastGpt 将知识库问答系统接入微信,建议先用小号以防封禁风险。 3. 基于 COW 框架构建: COW 是基于大模型搭建的 Chat 机器人框架,可将多模型塞进微信。 基于张梦飞同学的更适合小白的使用教程:。 实现功能包括打造属于自己的 ChatBot(文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等)、常用开源插件的安装应用。 注意事项: 微信端因非常规使用有封号危险,不建议主力微信号接入。 只探讨操作步骤,请依法合规使用。 大模型生成的内容注意甄别,确保操作符合法律法规要求。 禁止用于非法目的,处理敏感或个人隐私数据时注意脱敏,以防滥用或泄露。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等。 支持多模型选择,如 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等。 支持多消息类型,能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能。 支持多部署方法,如本地运行、服务器运行、Docker 的方式。
2025-02-17
怎么用大模型构建一个属于我自己的助手
以下是用大模型构建属于自己的助手的几种方法: 1. 在网站上构建: 创建百炼应用获取大模型推理 API 服务: 进入百炼控制台的,在页面右侧点击新增应用,选择智能体应用并创建。 在应用设置页面,模型选择通义千问Plus,其他参数保持默认,也可以输入一些 Prompt 来设置人设。 在页面右侧提问验证模型效果,点击右上角的发布。 获取调用 API 所需的凭证: 在我的应用>应用列表中查看所有百炼应用 ID 并保存到本地。 在顶部导航栏右侧,点击人型图标,点击 APIKEY 进入我的 APIKEY 页面,创建新 APIKEY 并保存到本地。 2. 微信助手构建: 搭建,用于汇聚整合多种大模型接口,并获取白嫖大模型接口的方法。 搭建,作为知识库问答系统,将大模型接入用于回答问题,若不接入微信,搭建完成即可使用其问答界面。 搭建接入微信,配置 FastGpt 将知识库问答系统接入微信,建议先用小号以防封禁风险。 3. 基于 COW 框架构建: COW 是基于大模型搭建的 Chat 机器人框架,可将多模型塞进微信。 基于张梦飞同学的更适合小白的使用教程:。 实现功能包括打造属于自己的 ChatBot(文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等)、常用开源插件的安装应用。 注意事项: 微信端因非常规使用有封号危险,不建议主力微信号接入。 只探讨操作步骤,请依法合规使用。 大模型生成的内容注意甄别,确保操作符合法律法规要求。 禁止用于非法目的,处理敏感或个人隐私数据时注意脱敏,以防滥用或泄露。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等。 支持多模型选择,如 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等。 支持多消息类型,能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能。 支持多部署方法,如本地运行、服务器运行、Docker 的方式。
2025-02-17
语文教学如何使用大模型
在语文教学中使用大模型,可以参考以下方面: 1. 提示词设置: Temperature:参数值越小,模型返回结果越确定;调高参数值,可能带来更随机、多样化或具创造性的产出。对于质量保障等任务,可设置低参数值;对于诗歌生成等创造性任务,可适当调高。 Top_p:与 Temperature 类似,用于控制模型返回结果的真实性。需要准确答案时调低参数值,想要更多样化答案时调高。一般改变其中一个参数即可。 Max Length:通过调整控制大模型生成的 token 数,有助于防止生成冗长或不相关的响应并控制成本。 Stop Sequences:指定字符串来阻止模型生成 token,控制响应长度和结构。 Frequency Penalty:对下一个生成的 token 进行惩罚,减少响应中单词的重复。 2. 了解大模型: 大模型通俗来讲是输入大量语料,让计算机获得类似人类的“思考”能力,能进行文本生成、推理问答、对话、文档摘要等工作。 训练和使用大模型可类比上学参加工作:找学校(需要大量 GPU 计算)、确定教材(大量数据)、找老师(算法)、就业指导(微调)、搬砖(推导)。 Token 是模型处理和生成的文本单位,在将输入进行分词时会形成词汇表。 需要注意的是,在实际应用中,可能需要根据具体的教学需求和场景进行调整和实验,以找到最适合的设置和方法。
2025-02-17
如何利用大模型写教案
利用大模型写教案可以参考以下要点: 1. 输入的重要性:要输出优质的教案,首先要有高质量的输入。例如,写商业分析相关的教案,如果没有读过相关权威书籍,输入的信息缺乏信息量和核心概念,大模型给出的结果可能就很平庸。所以,脑海中先要有相关的知识概念,这来自于广泛的阅读和学习。 2. 对大模型的理解:大模型通过输入大量语料获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。其训练和使用过程可以类比为上学参加工作,包括找学校(需要大量计算资源)、确定教材(大量数据)、找老师(合适的算法)、就业指导(微调)、搬砖(推导)等步骤。 3. 与大模型的交互: 提示词工程并非必须学习,不断尝试与大模型交互是最佳方法。 交互时不需要遵循固定规则,重点是是否达成目的,未达成可锲而不舍地尝试或更换模型。 用 Markdown 格式清晰表达问题,它具有结构清晰、能格式化强调关键部分、适用性广等优点,有助于大模型更好地理解用户意图。
2025-02-17
大模型评测
以下是关于大模型评测的相关信息: FlagEval(天秤)大模型评测体系及开放平台: 地址: 简介:旨在建立科学、公正、开放的评测基准、方法、工具集,协助研究人员全方位评估基础模型及训练算法的性能,同时探索利用 AI 方法实现对主观评测的辅助,大幅提升评测的效率和客观性。创新构建了“能力任务指标”三维评测框架,细粒度刻画基础模型的认知能力边界,可视化呈现评测结果。 CEval:构造中文大模型的知识评估基准: 地址: 简介:构造了一个覆盖人文,社科,理工,其他专业四个大方向,52 个学科(微积分,线代…),从中学到大学研究生以及职业考试,一共 13948 道题目的中文知识和推理型测试集。此外还给出了当前主流中文 LLM 的评测结果。 SuperCLUElyb:SuperCLUE 琅琊榜 地址: 简介:中文通用大模型匿名对战评价基准,这是一个中文通用大模型对战评价基准,它以众包的方式提供匿名、随机的对战。他们发布了初步的结果和基于 Elo 评级系统的排行榜。 此外,还有小七姐对文心一言 4.0、智谱清言、KimiChat 的小样本测评,测评机制包括: 测评目标:测评三家国产大模型,以同组提示词下 ChatGPT 4.0 生成的内容做对标参照。 能力考量:复杂提示词理解和执行(结构化提示词)、推理能力(CoT 表现)、文本生成能力(写作要求执行)、提示词设计能力(让模型设计提示词)、长文本归纳总结能力(论文阅读)。 测评轮次:第一轮是复杂提示词理解和执行,包括 Markdown+英文 title 提示词测试、Markdown+中文 title 提示词测试、中文 title+自然段落提示词测试;第二轮是推理能力(CoT 表现);第三轮是文本生成能力(写作要求执行);第四轮是提示词设计能力(让模型设计提示词);第五轮是长文本归纳总结能力(论文阅读)。 测试大模型质量好坏时,常用的问题包括检索和归纳、推理性、有日期相关历史事件等。以下是几个专业做模型测评的网站:
2025-02-17
ai大模型
AI 大模型是一个复杂但重要的概念。以下为您详细介绍: 1. 概念:生成式 AI 生成的内容称为 AIGC。 2. 概念与关系: AI 即人工智能。 机器学习是电脑找规律学习,包括监督学习、无监督学习、强化学习。 监督学习使用有标签的训练数据,目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习的数据没有标签,算法自主发现规律,经典任务如聚类。 强化学习从反馈中学习,以最大化奖励或最小化损失,类似训小狗。 深度学习是一种参照人脑有神经网络和神经元的方法(因层数多而称深度),神经网络可用于监督学习、无监督学习、强化学习。 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 LLM 是大语言模型,对于生成式 AI,生成图像的扩散模型不是大语言模型;对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型可用于语义理解(不擅长文本生成),像上下文理解、情感分析、文本分类。 3. 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出 Transformer 模型,它完全基于自注意力机制处理序列数据,不依赖循环神经网络或卷积神经网络。
2025-02-17