以下是为您推荐的一些通过通用语言大模型能直接输出思维导图的 AI 智能体:
需要注意的是,AI 领域发展迅速,新的产品和服务不断涌现,您可以持续关注相关领域的最新动态以获取更多更好的选择。
[heading2]总结关于大模型的思考与探讨大模型中文表达:李继刚认为作为普通用户,语言在大模型中不是关键,核心是向量空间中的游走脉络,输出时的语言翻译是次要的,且训练语料的中英文差异在于embedding环节。垂类模型与大模型公式:Olivia提出通过合适的模型、prompt和test入口表达,用大模型公式调试出好效果以替代垂类模型,李继刚认为微调垂类模型可能使大模型泛化能力下降,需分场景看待。提示词的挖掘:李继刚认为写提示词未挖掘出大模型的天花板,还有提升空间。读书方法与提示词相关书籍推荐:李继刚认为读书最有效的是笨方法,不取巧,花时间读。并推荐了从数学、作家、代码、原理角度写大模型的四本书。内置思维链提示词:李继刚认为针对小技巧类的思维链提示词有新模型能力涌现和大模型内置两个趋势,但对于某些如COT这类的内置可能会改变大模型的原味,对此存疑。关于编写提示词的经验与思考原汁原味与生效元素的平衡:为得到原汁原味的效果,需考虑是否反刻某些元素;生效的小技巧大模型可能会内置,如指定角色效果有变化。压缩与歧义的处理:找到凝练的核心概念(a)后,根据对象用不同方式(b)表达,核心在于找到准确的a,而寻找a的方法目前主要是多读多泡在相关领域。持续学习与输出:通过阅读吸收输入,转换为自己的语言输出,与大模型交互提炼精华,多输出促进吸收输入。
[heading2]总结AI技术的发展与应用流式训练方式提升训练速度和质量:将孔明灯换成泡泡,通过流式训练方式提高了整体训练的过程速度和质量,基于Transformer模型进行流匹配,这种方式优于扩大模型。多种AI生成工具:如输入简单提示词就能创作音乐的so no音频生成工具,能创建个人AI智能体的豆包,输入文本可生成播客的Notebook LN。端侧大模型的特点:端侧大模型能部署在手机端等设备,参数量小,可利用手机自带芯片或处理器运算,主要通过压缩来解决存储和性能问题,如减少模型参数量和计算复杂度,知识蒸馏模型有教师模型和学生模型。AI工程平台:AI工程平台对模型和应用有要求,像define是典型的工程平台,涉及数据清洗管道、数据存储和检索、编辑生成平台、构建prompt技巧、智能体概念、插件调用、运维平台、模型层和缓存机制等,还能接入多家大模型。AI工程平台coach的应用:coach平台新版本有很多模板,如名画照相馆,有众多插件工具,包括必应搜索、链接读取、代码执行器等,还有工作流,可创建应用APP。AI相关工具与平台的介绍及应用coach平台的使用:介绍了coach平台的新手教程和文档,可创建智能体,通过工作流节点调用和prompt构建提示词,还能调用插件、图像流、知识库等,商城中有各种智能体和插件模板,知识库可添加多种格式内容。模型社区介绍:提到魔搭社区等几个为大模型提供数据、企业模型和算力服务的平台,有按任务划分的模型库、数据集和在线应用供体验。AI建站预告:为后续AI建站做预告,需要在今明两天安装vs code等基础软件,以简单步骤帮助文科生和无基础人员完成建站,获得正反馈。
纯靠词生卡Prompt完成卡片样式输出,固然是非常灵活的AI智能体方案。但倘若在最终落地产品中,还是每次都依赖大模型重新生成卡片的样式代码,反而会消耗大量的输出token,耗时且不经济。此外,在实际使用中,用户通常只固定使用一到两个常用模板,对自定义样式的需求并不频繁。所以在开发AI Share Card插件的过程中,我选择将模板生成功能设计为固定的代码组件,而让大模型专注于内容总结的功能。如果用户需要选择其他模板,则通过增加更多模板选项or自定义模板代码功能实现。如此一来,对AI大模型的要求就不会动辄需要像Claude 3.5 sonnet那样高不可攀的顶级模型。处理纯文本总结任务,仅需13B或更小参数的模型,加上精调的提示词,就能产生很好的结果。一旦明确模型的任务,AI API服务的选型要求就清晰了:1.较长的上下文窗口:内容总结类任务需要较大的上下文长度;2.响应速度要快、并发支持要高:以便在多人使用插件时,保持良好的性能表现;3.免费或尽量低价:减少模型token费用。经过简单调研后,AI Share Card选用的是GLM-4-flash(没恰饭。截至2024-12,长达128k的上下文窗口,完全免费的调用价格,200 RPM高并发支持,还要什么自行车🚲~)