以下是为您推荐的能够根据会议内容生成会议纪要的国产大模型:文心一言、讯飞星火等。
为了实现您的想法,您应该提供给大模型以下信息:
[heading2]总结大语言模型的介绍与原理国内大模型的分类:国内大模型有通用模型如文心一言、讯飞星火等,处理自然语言;还有垂直模型,专注特定领域如小语种交流、临床医学、AI蛋白质结构预测等。大模型的体验:以‘为什么我爸妈结婚的时候没有邀请我参加婚礼’和‘今天我坐在凳子上’为例,体验了Kimi、通义千问、豆包等大模型的回答和续写能力,发现回复有差异,且大模型基于统计模型预测生成内容。大语言模型的工作原理:大语言模型工作原理包括训练数据、算力、模型参数,在训练数据一致情况下,模型参数越大能力越强,参数用b链形容大小。Transformer架构:Transformer是大语言模型训练架构,17年出现用于翻译,具备自我注意力机制能理解上下文和文本关联,其工作原理是单词预测,通过嵌入、位置编码、自注意力机制生成内容,模型调教中有控制输出的temperature。关于大语言模型的原理、应用及相关概念Transformer模型原理:通过不断检索和匹配来寻找依赖关系,处理词和词之间的位置组合,预测下一个词的概率,是一个偏向概率预测的统计模型。大模型幻觉:大模型通过训练数据猜测下一个输出结果,可能因错误数据导致给出错误答案,优质数据集对其很重要。Prompt的分类和法则:分为system prompt、user prompt和assistant prompt,写好prompt的法则包括清晰说明、指定角色、使用分隔符、提供样本等,核心是与模型好好沟通。Fine tuning微调:基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。RAG概念:未对RAG的具体内容进行详细阐述,仅提出了这个概念。
[heading2]智能章节本章节主要提到一个有意思的活动,可以看到一些出题海报且银海有参与。活动的出题来源是弱智巴的题目,会建微信群让群里bot变为大语言模型回复问题,真人混在机器人中,让人分辨。还提到去年国内大模型回答这些题多失败,今年有很大改进,最后提议用几个大模型产品测试问题反应。[10:48](https://waytoagi.feishu.cn/minutes/obcn8c6pm95g22581ei4p1l4?t=648000)大语言模型的早期特点及通用、垂类模型的介绍本章节主要讲述大语言模型相关内容。提到早期大模型存在缺乏情感、一本正经胡说八道的情况。还介绍了国内去年7月大模型百花齐放,包含通用模型(如文心一言等)和垂直模型,垂直模型针对特定领域,如小语种、临床医学、AI蛋白质结构预测等。[13:38](https://waytoagi.feishu.cn/minutes/obcn8c6pm95g22581ei4p1l4?t=818000)对比不同大模型对趣味问题的回应及续写差异本章节先提出让大家用大模型体验回答“为什么爸妈结婚没邀请我”的问题,展示了Kimi、通义千问的回答情况并期待豆包的回答。还提到让大模型续写“今天我坐在凳子上”,发现各模型回复有差异。最后指出大模型是统计模型,会根据概率预测并返回信息,所以每次续写内容都不同。[17:13](https://waytoagi.feishu.cn/minutes/obcn8c6pm95g22581ei4p1l4?t=1033000)大语言模型工作原理:训练数据、算力GPU、模型参数的作用
[heading2]总结关于大语言模型提示词的介绍与应用欢迎上传PPT供参考:在公司写报告或讲解时可参考他人上传的PPT,但直接使用可能有问题。学习投资费用:学习大语言模型可不花一分钱,从国内模型工具入手,若想更深入学习,如报野菩萨课程或使用GPT、cloud等可能有费用支出。提示词的重要性:与大语言模型对话基础认知是提示词,通过详细结构化的提示词能获得更优质的解释内容。最佳实践中的提示词:最佳实践收录了很多写好的提示词,如李继刚老师将提示词玩到新高度,可复制使用,还能通过改变形成自己的见解和应用。提示词的创作思路:李继刚老师会在13号带领大家学习提示词的创作思路。让输出更拟人化:介绍了如何让大语言模型的输出更加拟人化,但有些可能不适合发在社交媒体上。提示词的应用场景:涵盖产品经理、工程、游戏等领域,可用提示词写游戏、做互动游戏等。利用提示词做小项目:AIPO项目不要求宏大,可做小项目,如用提示词做油猴脚本代码的小插件,也可尝试写化妆机等小方案做线下路演。多模态识别与测试:很多大语言模型可多模态识别,如测试两人是否有夫妻相,准确率较高。学习提示词的资源:包括方法论、论文精读、博主的6大策略、社区共学课程及直播回放等。