直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

大模型测试开发的知识梳理

回答

以下是关于大模型测试开发的知识梳理:

  • 《Perplexity 指标究竟是什么?》:作者小 A 从自身经验出发,总结梳理新手友好的 transformer 入坑指南,计划从算法 1(NLP 中的 transformer 网络结构)、算法 2(CV 中的 transformer 网络结构)、算法 3(多模态下的 transformer 网络结构)、训练(transformer 的分布式训练)、部署(transformer 的 tvm 量化与推理)五个方面介绍。
  • 《初探 LLM 基座模型》:主要介绍 LLM 基座模型里常见的 3 种 transformer 架构,包括 encoder-only、encoder-decoder 和 decoder-only。
  • 《从 0 到 1 了解大模型安全,看这篇就够了》:介绍了 transformer 的架构,如 encoder-only 适用于自然语言理解任务,encoder-decoder 用于理解和生成内容,decoder-only 擅长自然语言生成任务;还提到大模型的特点,如预训练数据大(来自互联网,包括论文、代码、公开网页等,常以 TB 级别计)、参数多(如 GPT-3 已达 170B)。
  • 《开发:产品视角的大模型 RAG 应用》:从产品视角分享大模型 RAG 应用,包括 LangChain 初体验,预计分成 3 篇分享,分别是项目背景、初步体验和评测结果,调优思路分享,如何测评。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

小A-技术开发/大模型

|标题|备注|作者|链接|发布日期|附件(1)|单选|<br>|-|-|-|-|-|-|-|<br>|Perplexity指标究竟是什么?|笔者小A从自己实际入坑的经验出发,尝试总结梳理出新手友好的transformer入坑指南。一方面能倒逼自己理清知识脉络,另一方面希望能让后面的新同学少走弯路,更快拿到自己想要的知识。<br>本系列计划从以下五个方面对transformer进行介绍<br>算法1:NLP中的transformer网络结构<br>算法2:CV中的transformer网络结构<br>算法3:多模态下的transformer网络结构<br>训练:transformer的分布式训练<br>部署:transformer的tvm量化与推理|[aaronxic](https://www.zhihu.com/people/aaronxic)|[(1)Perplexity指标究竟是什么?](https://ywh1bkansf.feishu.cn/wiki/E1pjwy9OMirKTdkFQDEcDDlfnTh)|2023/07/05|||<br>|初探LLM基座模型|本篇内容主要介绍LLM基座模型里常见的3种transformer架构,encoder-only,encoder-decoder和decoder-only|[aaronxic](https://www.zhihu.com/people/aaronxic)|[(2)初探LLM基座模型](https://ywh1bkansf.feishu.cn/wiki/UU9pwtOFtiKIqAkQiSVc3Zdun7e)|2023/07/06|||

从 0 到 1 了解大模型安全,看这篇就够了

encoder-only:这些模型通常适用于可以自然语言理解任务,例如分类和情感分析.最知名的代表模型是BERTencoder-decoder:此类模型同时结合了Transformer架构的encoder和decoder来理解和生成内容。该架构的一些用例包括翻译和摘要。encoder-decoder的代表是google的T5decoder-only:此类模型更擅长自然语言生成任务。典型使用包括故事写作和博客生成。这也是我们现在所熟知的众多AI助手的结构我们目前耳熟能详的AI助手基本都来自左侧的灰色分支,当然也包括ChatGPT。这些架构都是根据谷歌2017年发布的论文“attention is all you need”中提出的transformer衍生而来的,在transformer中,包括Encoder,Decoder两个结构目前的大型语言模型就是右侧只使用Decoder的Decoder-only架构的模型大模型又大在哪呢?第一,大模型的预训练数据非常大,这些数据往往来自于互联网上,包括论文,代码,以及可进行爬取的公开网页等等,一般来说,现在最先进的大模型一般都是用TB级别的数据进行预训练。第二,参数非常多,Open在2020年发布的GPT-3就已经达到170B的参数

开发:产品视角的大模型 RAG 应用

最近接触了大模型+本地知识库的问答应用实践。从0到1开始做的过程中,参考了很多网上的教程和分享文章,其中绝大部分都是技术向的分享。感谢各位热爱总结和分享的开发大佬,让我在没有太多技术背景的情况下快速补齐了项目落地实践所需的基础知识。同时,也想从产品视角出发,分享我所理解的大模型RAG应用,以及我作为产品这一角色,在实践过程中的经验(坑)。因为篇幅问题,这一系列的分享,预计会分成3篇:1、LangChain框架初体验:项目背景,初步体验和评测结果2、调优思路分享:基于公开资料和实践的Langchain调优思路分享3、如何测评:如何基于业务场景构建测试集和测评标准,并开展测评,以及过程中踩过的坑今天来分享第一部分—LangChain框架初体验。

其他人在问
我是一个程序员,我想快速且有一点深度的重头梳理AGI的原理与自定义AGI应用的开发流程与方法, 请帮我梳理一下AGI学习的路线
以下是为您梳理的 AGI 学习路线: 1. 应用方面: 深入了解 Prompt,选择适合自己的 AI 对话、绘画和语音产品,每天使用并用于解决实际问题或提升效率。 2. 分析方面: 大量阅读各类文章、视频以及行业报告,理解各知识之间的关系。 3. 学习路径方面: 关键词:少就是多、先有个初识、目录索引推荐、兴趣最重要、先动手。 学习路径如同主线+支线的游戏通关。 学以致用,通过学习分享不断填补知识的缝隙来成长。 4. 分类学习方面: 对 AI 学习路径进行了重构,分为了初学者、面向开发应用者、面向使用模型者三个部分。 将课程目录从文章中单独独立出来,并按照初学者、进阶者进行分类。 同时,还可以参考以下个人心得: YoYo 作为文科生,在学习前不理解 AI 和提示词工程,通过不断尝试各种 AI 工具,走了不少弯路。学习后能够搓多 Agent 的智能体,进行营销文案 demo、SQL 代码进阶学习应用,创建多个智能体,并在公司中实践智能客服从创建到应用的过程。 希望以上内容对您有所帮助。
2024-10-08
我想要AI工具帮我快速梳理出这10个左右PDF文档/PDF文档链接中我想要的关键信息,并且整理成表格,请推荐可以实现相关功能、支持自主阅读多个篇幅10页以上文档并且能快速响应的工具给我
以下是一些可以帮助您快速梳理 PDF 文档关键信息并整理成表格的工具推荐: 1. Inhai: Agentic Workflow:能够重塑获取信息的方式,辅助高效处理信息,实现信息表达更简便。 2. 彩云小译(App):下载后点击「文档翻译」,可导入多种格式文档并翻译,但有免费次数限制且进阶功能需付费。 3. 微信读书(App):下载 App 后将 PDF 文档添加到书架,打开并点击相关操作可进行翻译。 4. DeepL(网站):,点击页面「翻译文件」按钮,上传相应格式文件即可。 5. 沉浸式翻译(浏览器插件):,安装插件后按相关操作进行。 6. Calibre(电子书管理应用):,下载安装并安装翻译插件「Ebook Translator」。 7. 谷歌翻译(网页):,需先将 PDF 转成 Word 再上传。 8. 百度翻译(网页):,点击导航栏「文件翻译」上传相应格式文件,支持选择领域和导出格式,但进阶功能基本需付费。
2024-09-25
帮我梳理目前AI方向产品 的竞品
以下是目前一些 AI 方向的产品竞品: 健身领域: 1. Keep:中国最大的健身平台,为用户提供全面的健身解决方案,以帮助用户实现其健身目标。网址:https://keep.com/ 2. Fiture:沸彻魔镜由核心 AI 技术打造,集硬件、丰富课程内容、明星教练和社区于一体。网址:https://www.fiture.com/ 3. Fitness AI:利用人工智能进行锻炼,增强力量和速度。网址:https://www.fitnessai.com/ 4. Planfit:健身房家庭训练与 AI 健身计划,AI 教练是专门针对健身的生成式人工智能,使用 800 多万条文本数据和 ChatGPT 实时提供指导。网址:https://planfit.ai/ 国内总榜 Top80 中的 AI 产品: 1. Kimi 智能助手:AI ChatBots,4 月访问量 1957 万 Visit,相对 3 月变化 0.607。 2. 百度文心一言:AI ChatBots,4 月访问量 1683 万 Visit,相对 3 月变化 0.138。 3. 360AI 搜索(接 GA):搜索,4 月访问量 1134 万 Visit,相对 3 月变化 13。 4. 秘塔 Metaso:搜索,4 月访问量 1009 万 Visit,相对 3 月变化 0.508。 5. 阿里通义千问:AI ChatBots,4 月访问量 677 万 Visit,相对 3 月变化 0.327。 6. 昆仑万维天工 AI 搜索:搜索,4 月访问量 400 万 Visit,相对 3 月变化 1.22。 7. 抖音豆包 AI:AI ChatBots,4 月访问量 343 万 Visit,相对 3 月变化 0.266。 8. 火山方舟:AI 训练模型,4 月访问量 335 万 Visit,相对 3 月变化 0.037。 9. ChatGLM 智谱清言:AI ChatBots,4 月访问量 284 万 Visit,相对 3 月变化 0.044。 10. 讯飞星火:AI ChatBots,4 月访问量 269 万 Visit,相对 3 月变化 0.049。 11. 稿定设计:设计工具,4 月访问量 264 万 Visit,相对 3 月变化 0.078。 12. processon:思维导图,4 月访问量 220 万 Visit,相对 3 月变化 0.048。 12. bigjpgAI 图片无损放大:图片增强,4 月访问量 203 万 Visit,相对 3 月变化 0.06。 此外,360AI 浏览器也是一款强大的产品,官网:ai.se.360.cn。它不仅在搜索方面表现出色,还被认为是对标 Arc 的 AI 原生浏览器,具有安全高效、好看好用等特点。其功能拆解可通过 360AI 搜索总结得出,还包含追问、相关内容、延伸阅读、参考资料等部分,右侧还有相关图片和视频资料。
2024-08-28
产品梳理框架
产品市场契合度(PMF)框架是每个早期阶段创业公司的中心任务。红杉提供了三种基本原型,每种都有其独特的客户与产品之间的关系动态。这些框架可以帮助创始人理解产品在世界中的位置,以及客户如何与产品解决的问题产生关联。在寻找产品市场契合度时,关注客户与问题的关联是最佳方法之一。红杉的 Arc 构建沉浸式课程中也引导初创公司的创始人理解这些框架,该课程针对前种子和种子阶段的公司。红杉现在决定将这些框架公开分享给更广泛的创业社区,以增加创始人在其产品市场契合度(PMF)旅程中可以借鉴的资源库。
2024-07-10
AI的技术历史和发展方向,目前最前沿的技术点有哪些,请以列表的方式梳理;并给出偏向技术研究以及应用的个人的学习路径
AI技术的发展历程和前沿技术点可以概括如下: AI技术发展历程 1. 早期阶段: 专家系统、博弈论、机器学习初步理论 2. 知识驱动时期: 专家系统、知识表示、自动推理 3. 统计学习时期 4. 深度学习时期: 深度神经网络、卷积神经网络、循环神经网络等 当前AI前沿技术点 1. 大模型: GPT、Gemini等 2. 多模态AI: 视觉语言模型、多模态融合 3. 自监督学习: 自监督预训练、对比学习、掩码语言模型等 4. 小样本学习: 元学习、一次学习、提示学习等 5. 可解释AI: 模型可解释性、因果推理、符号推理等 6. 机器人学: 强化学习、运动规划、人机交互等 7. 量子AI: 量子机器学习、量子神经网络等 8. AI芯片和硬件加速 学习路径 偏向技术研究方向 1. 数学基础: 线性代数、概率论、优化理论等 2. 机器学习基础: 监督学习、无监督学习、强化学习等 3. 深度学习: 神经网络、卷积网络、递归网络、注意力机制等 4. 自然语言处理: 语言模型、文本分类、机器翻译等 5. 计算机视觉: 图像分类、目标检测、语义分割等 6. 前沿领域: 大模型、多模态AI、自监督学习、小样本学习等 7. 科研实践: 论文阅读、模型实现、实验设计等 偏向应用方向 1. 编程基础: Python、C++等 2. 机器学习基础: 监督学习、无监督学习等 3. 深度学习框架: TensorFlow、PyTorch等 4. 应用领域: 自然语言处理、计算机视觉、推荐系统等 5. 数据处理: 数据采集、清洗、特征工程等 6. 模型部署: 模型优化、模型服务等 7. 行业实践: 项目实战、案例分析等 无论是技术研究还是应用实践,数学和编程基础都是必不可少的。同时需要紧跟前沿技术发展动态,并结合实际问题进行实践锻炼。
2024-04-17
提示词测试有哪些插件
以下是一些与提示词测试相关的插件: 景淮在制作成语小游戏时,使用了成语搜索的 Web 插件,但有时会出现不触发或内容不够准确的情况。 小七姐在实验中,利用了强大的 ChatGPT 插件和 GPT4、AI Agents³进行提示词优化。 【SD】中的 One Button Prompt 插件,可帮助自动写提示词。安装方式可在扩展面板中搜索直接安装,或放在指定路径文件夹下,安装完成后重启 webUI 即可在脚本下拉菜单中找到。使用时可设置大模型、采样方法、采样步骤、CFG 比例等参数,还能选择主题、艺术和图像类型,也可添加提示词增加控制。
2024-12-19
AI应用于测试领域 哪些有比较成熟的、稳定的应用
目前在测试领域,AI 有一些较为成熟和稳定的应用。例如,利用机器学习算法进行自动化测试用例生成,能够提高测试效率和覆盖度;基于深度学习的图像识别技术可用于界面测试,检测界面元素的准确性和一致性;还有自然语言处理技术在测试文档的自动分析和理解方面发挥作用,帮助快速提取关键信息。但整体而言,AI 在测试领域的应用仍在不断发展和完善中。
2024-12-13
AI应用在测试领域的案例
以下是 AI 应用在测试领域的一些案例: 基于模型的测试生成: 状态模型: GraphWalker:基于状态模型生成测试用例,适用于复杂系统的行为测试。 Spec Explorer:微软开发的模型驱动测试工具,通过探索状态模型生成测试用例。 场景模拟: Modelbased Testing:基于系统模型自动生成测试用例,覆盖各种可能的操作场景和状态转换。 Tosca Testsuite:基于模型的测试工具,自动生成和执行测试用例,适用于复杂应用的端到端测试。 实践中的应用示例: Web 应用测试:使用 Testim 分析用户行为和日志数据,自动生成高覆盖率的测试用例,检测不同浏览器和设备上的兼容性问题。 移动应用测试:利用 Test.ai 从需求文档中提取测试用例,确保覆盖关键功能和用户路径,提高测试效率和质量。 复杂系统测试:采用 GraphWalker 基于系统状态模型生成测试用例,确保覆盖所有可能的状态和操作场景,检测系统的边界情况和异常处理能力。 工具和平台: Testim:AI 驱动的自动化测试平台,生成和管理测试用例。 Test.ai:基于 NLP 技术的测试用例生成工具,适用于移动应用和 Web 应用。 DeepTest:利用深度学习生成自动驾驶系统测试用例。 GraphWalker:基于状态模型生成测试用例,适用于复杂系统的行为测试。 Pex:微软开发的智能测试生成工具,自动生成高覆盖率的单元测试。 基于规则的测试生成: 测试用例生成工具: Randoop:基于代码路径和规则生成测试用例,适用于 Java 应用程序。 Pex:微软开发的智能测试生成工具,自动生成高覆盖率的单元测试,适用于.NET 应用。 模式识别: Clang Static Analyzer:利用静态分析技术识别代码模式和潜在缺陷,生成相应的测试用例。 Infer:Facebook 开发的静态分析工具,自动生成测试用例,帮助发现和修复潜在错误。 基于机器学习的测试生成: 深度学习模型: DeepTest:利用深度学习模型生成自动驾驶系统的测试用例,模拟不同驾驶场景,评估系统性能。 DiffTest:基于对抗生成网络(GAN)生成测试用例,检测系统的脆弱性。 强化学习: RLTest:利用强化学习生成测试用例,通过与环境交互学习最优测试策略,提高测试效率和覆盖率。 A3C:基于强化学习的测试生成工具,通过策略梯度方法生成高质量测试用例。 基于自然语言处理(NLP)的测试生成: 文档驱动测试生成: Testim:AI 驱动的测试平台,通过分析文档和用户故事自动生成测试用例,减少人工编写时间。 Test.ai:利用 NLP 技术从需求文档中提取测试用例,确保测试覆盖业务需求。 自动化测试脚本生成: Selenium IDE + NLP:结合 NLP 技术扩展 Selenium IDE,从自然语言描述中生成自动化测试脚本。 Cucumber:使用 Gherkin 语言编写的行为驱动开发(BDD)框架,通过解析自然语言描述生成测试用例。 总结:AI 在生成测试用例方面具有显著的优势,可以自动化和智能化生成高覆盖率的测试用例,减少人工编写测试用例的时间和成本。通过合理应用 AI 工具,前端开发工程师可以提高测试效率、增强测试覆盖率和发现潜在问题,从而提升软件质量和用户体验。但请注意,内容由 AI 大模型生成,请仔细甄别。
2024-12-13
那么有什么工具吗可以生成测试用例吗
以下是一些可以生成测试用例的工具: 1. 基于规则的测试生成: Randoop:基于代码路径和规则生成测试用例,适用于 Java 应用程序。 Pex:微软开发的智能测试生成工具,自动生成高覆盖率的单元测试,适用于.NET 应用。 Clang Static Analyzer:利用静态分析技术识别代码模式和潜在缺陷,生成相应的测试用例。 Infer:Facebook 开发的静态分析工具,自动生成测试用例,帮助发现和修复潜在错误。 2. 基于机器学习的测试生成: DeepTest:利用深度学习模型生成自动驾驶系统的测试用例,模拟不同驾驶场景,评估系统性能。 DiffTest:基于对抗生成网络(GAN)生成测试用例,检测系统的脆弱性。 RLTest:利用强化学习生成测试用例,通过与环境交互学习最优测试策略,提高测试效率和覆盖率。 A3C:基于强化学习的测试生成工具,通过策略梯度方法生成高质量测试用例。 3. 基于自然语言处理(NLP)的测试生成: Testim:AI 驱动的测试平台,通过分析文档和用户故事自动生成测试用例,减少人工编写时间。 Test.ai:利用 NLP 技术从需求文档中提取测试用例,确保测试覆盖业务需求。 Selenium IDE + NLP:结合 NLP 技术扩展 Selenium IDE,从自然语言描述中生成自动化测试脚本。 Cucumber:使用 Gherkin 语言编写的行为驱动开发(BDD)框架,通过解析自然语言描述生成测试用例。 4. 基于模型的测试生成: GraphWalker:基于状态模型生成测试用例,适用于复杂系统的行为测试。 Spec Explorer:微软开发的模型驱动测试工具,通过探索状态模型生成测试用例。 Modelbased Testing:基于系统模型自动生成测试用例,覆盖各种可能的操作场景和状态转换。 Tosca Testsuite:基于模型的测试工具,自动生成和执行测试用例,适用于复杂应用的端到端测试。 在实践中的应用示例包括: 1. Web 应用测试:使用 Testim 分析用户行为和日志数据,自动生成高覆盖率的测试用例,检测不同浏览器和设备上的兼容性问题。 2. 移动应用测试:利用 Test.ai 从需求文档中提取测试用例,确保覆盖关键功能和用户路径,提高测试效率和质量。 3. 复杂系统测试:采用 GraphWalker 基于系统状态模型生成测试用例,确保覆盖所有可能的状态和操作场景,检测系统的边界情况和异常处理能力。 AI 在生成测试用例方面具有显著的优势,可以自动化和智能化生成高覆盖率的测试用例,减少人工编写测试用例的时间和成本。通过合理应用 AI 工具,前端开发工程师可以提高测试效率、增强测试覆盖率和发现潜在问题,从而提升软件质量和用户体验。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-12-09
有没有关于软件测试的ai工具,可以辅助我测试web网页
目前在 AI 领域中,专门用于辅助测试 Web 网页的工具相对较少。但一些通用的 AI 工具和技术可能会对软件测试有所帮助,例如利用自然语言处理技术来分析测试需求和报告,或者使用机器学习算法来预测可能出现的错误类型。不过,这些应用可能需要一定的定制和整合才能更好地适应 Web 网页测试的特定需求。
2024-12-09
ai 自动化测试
以下是关于 AI 自动化测试的相关内容: AI 生成测试用例的方法和工具: 1. 基于规则的测试生成: 测试用例生成工具: Randoop:基于代码路径和规则生成测试用例,适用于 Java 应用程序。 Pex:微软开发的智能测试生成工具,自动生成高覆盖率的单元测试,适用于.NET 应用。 模式识别: Clang Static Analyzer:利用静态分析技术识别代码模式和潜在缺陷,生成相应的测试用例。 Infer:Facebook 开发的静态分析工具,自动生成测试用例,帮助发现和修复潜在错误。 2. 基于机器学习的测试生成: 深度学习模型: DeepTest:利用深度学习模型生成自动驾驶系统的测试用例,模拟不同驾驶场景,评估系统性能。 DiffTest:基于对抗生成网络(GAN)生成测试用例,检测系统的脆弱性。 强化学习: RLTest:利用强化学习生成测试用例,通过与环境交互学习最优测试策略,提高测试效率和覆盖率。 A3C:基于强化学习的测试生成工具,通过策略梯度方法生成高质量测试用例。 3. 基于自然语言处理(NLP)的测试生成: 文档驱动测试生成: Testim:AI 驱动的测试平台,通过分析文档和用户故事自动生成测试用例,减少人工编写时间。 Test.ai:利用 NLP 技术从需求文档中提取测试用例,确保测试覆盖业务需求。 自动化测试脚本生成: Selenium IDE + NLP:结合 NLP 技术扩展 Selenium IDE,从自然语言描述中生成自动化测试脚本。 Cucumber:使用 Gherkin 语言编写的行为驱动开发(BDD)框架,通过解析自然语言描述生成测试用例。 AI Prompts 测试框架: 1. Langfuse:网站为,是一个提供全面 AI Prompts 测试解决方案的平台,允许用户设计和测试 Prompts,比较不同 Prompts 的效果,并评估 AI 模型的性能。 2. Langsmith:网站为,是一个提供全面 AI Prompts 测试解决方案的平台。允许用户设计和测试 Prompts、比较和评估不同 Prompts 的效果、集成和自动化 Prompts 测试到开发流程中。 AI 大模型在游戏中的应用: 1. 游戏的 Agent 和智能体可以对数值平衡、玩法平衡、对战机器人以及玩家模拟做很多事情。 2. 数值策划方面,通过强化学习可以进行自动化的数值和玩法平衡,用 AI 测试替代人工测试,例如卡牌游戏中,AI 测试 1000 局仅需 17 分钟,而人工需要 50 个小时,且可在测试过程中调整战斗值、防御值。 3. 玩家行为模拟方面,在自博弈的训练中让机器代表攻击方和防守方,模拟玩家的行为,最终提升玩家的留存率、在线时长、活跃度和付费率,可使用深度强化学习 DRL 训练不同等级的 AI bot 模拟玩家。
2024-12-03
推荐一个AI工具,帮助我每天自动执行以下步骤:从本地上传文件给大模型,该文件内含有新闻网页链接,大模型读取链接并汇总内容
以下为您推荐的 AI 工具可能有助于您实现每天自动执行从本地上传文件给大模型,并让大模型读取文件内新闻网页链接并汇总内容的需求: 1. AI 拍立得(Pailido): 特点:即拍即得,简化流程,操作直观高效。 体验方式:微信小程序搜索“Pailido”。 交互逻辑:用户选择拍摄场景类型并拍照,AI 自动识别和分析照片内容信息,依据预设场景规则迅速生成符合情境的反馈。 实现场景: 图片转成文本:用户上传图片后,大模型根据选择的场景生成相关文字描述或解说文本,可用于生成美食点评、朋友圈发布文案、闲鱼上架示例模版等。 图片转绘图片:用户上传图片后,大模型按照指定风格快速生成图像的转绘版本,适应不同风格和场景需求,如图片粘土风、图片积木风、图片像素风等。 2. 内容仿写 AI 工具: 秘塔写作猫:https://xiezuocat.com/ ,是 AI 写作伴侣,能推敲用语、斟酌文法、改写文风,实时同步翻译,支持全文改写、一键修改、实时纠错并给出修改建议,智能分析文章属性并打分。 笔灵 AI 写作:https://ibiling.cn/ ,是智能写作助手,支持多种文体写作,如心得体会、公文写作、演讲稿、小说、论文等,支持一键改写/续写/扩写,智能锤炼打磨文字。 腾讯 Effidit 写作:https://effidit.qq.com/ ,由腾讯 AI Lab 开发的智能创作助手,能提升写作者的写作效率和创作体验。 更多 AI 写作类工具可以查看:https://www.waytoagi.com/sites/category/2 。请注意,内容由 AI 大模型生成,请仔细甄别。
2024-12-21
如何利用AGI创建3D打印的模型
利用 AGI 创建 3D 打印模型的方法如下: 1. 将孩子的画转换为 3D 模型: 使用 AutoDL 部署 Wonder3D:https://qa3dhma45mc.feishu.cn/wiki/Pzwvwibcpiki2YkXepaco8Tinzg (较难) 使用 AutoDL 部署 TripoSR:https://qa3dhma45mc.feishu.cn/wiki/Ax1IwzWG6iDNMEkkaW3cAFzInWe (小白一学就会) 具体实物(如鸟/玩偶/汽车)的 3D 转换效果最佳,wonder3D 能智能去除背景(若效果不佳,需手动扣除背景) 对于一些非现实类玩偶类作品,wonder3D 识别效果不佳时,可先使用 StableDiffusion 将平面图转换为伪 3D 效果图再生成模型。以 usagi 为例,先通过 SD 生成 3D 的 usagi,再将 usagi 输入 wonder3D。 2. 生成特定模型,如创建一个乐高 logo 的 STL 文件: 设计乐高 logo:使用矢量图形编辑软件(如 Adobe Illustrator 或 Inkscape)创建或获取矢量格式的乐高 logo,确保符合标准。 导入 3D 建模软件:将矢量 logo 导入到 3D 建模软件(如 Blender、Fusion 360 或 Tinkercad)中。 创建 3D 模型:在 3D 建模软件中根据矢量图形创建 3D 模型,调整尺寸和厚度以适合打印。 导出 STL 文件:将完成的 3D 模型导出为 STL 文件格式。 以下是在 Blender 中使用 Python 脚本创建简单 3D 文本作为乐高 logo 并导出为 STL 文件的步骤: 打开 Blender,切换到“脚本编辑器”界面。 输入脚本,点击“运行脚本”按钮,Blender 将创建 3D 文本对象并导出为 STL 文件。 检查生成的 STL 文件,可根据需要调整脚本中的参数(如字体、位置、挤压深度等)以获得满意的乐高 logo 3D 模型。 此外,还有一些其他动态: 阿里妈妈发布了:https://huggingface.co/alimamacreative/FLUX.1TurboAlpha ,演示图片质量损失小,比 FLUX schell 本身好很多。 拓竹旗下 3D 打印社区 Make World 发布 AI:https://bambulab.com/zh/signin ,3D 生成模型找到落地和变现路径。 上海国投公司搞了一个:https://www.ithome.com/0/801/764.htm ,基金规模 100 亿元,首期 30 亿元,并与稀宇科技(MiniMax)、阶跃星辰签署战略合作协议。 智谱的:https://kimi.moonshot.cn/ 都推出基于深度思考 COT 的 AI 搜索。 字节跳动发布:https://mp.weixin.qq.com/s/GwhoQ2JCMQwtLN6rsrJQw ,支持随时唤起豆包交流和辅助。 :https://x.com/krea_ai/status/1844369566237184198 ,集成了海螺、Luma、Runway 和可灵四家最好的视频生成模型。 :https://klingai.kuaishou.com/ ,现在可以直接输入文本指定对应声音朗读,然后再对口型。
2024-12-20
如何通过提示词提高模型数据对比和筛选能力
以下是一些通过提示词提高模型数据对比和筛选能力的方法: 1. 选择自定义提示词或预定义话题,在网站上使用如 Llama3.1 8B Instruct 模型时,输入对话内容等待内容生成,若右边分析未刷新可在相关按钮间切换。由于归因聚类使用大模型,需稍作等待,最终结果可能因模型使用的温度等因素而不同。 2. 在写提示词时不能依赖直觉和偷懒,要实话实说,补充详细信息以避免模型在边缘情况上犯错,这样也能提高数据质量。 3. 在分类问题中,提示中的每个输入应分类到预定义类别之一。在提示末尾使用分隔符如“\n\n\n\n”,选择映射到单个 token 的类,推理时指定 max_tokens=1,确保提示加完成不超过 2048 个 token,每班至少有 100 个例子,可指定 logprobs=5 获得类日志概率,用于微调的数据集应在结构和任务类型上与模型使用的数据集相似。例如在确保网站广告文字正确的案例中,可微调分类器,使用合适的分隔符和模型。
2024-12-20
通过提示词可以提高模型的数学计算能力吗
通过提示词可以在一定程度上提高模型的数学计算能力。例如 PoT 技术,它是思维链技术的衍生,适用于数值推理任务,会引导模型生成一系列代码,再通过代码解释器工具进行运算,这种方式能显著提升模型在数学问题求解上的表现。PoT 作为 CoT 的衍生技术,遵循零样本和少样本的学习范式,零样本 PoT 与 CoT 方法相似,不需要大量样本即可进行有效推理,少样本 PoT 也通过较少样本优化模型表现。但需要注意的是,大模型在解决数学问题时可能存在不够可靠的情况。
2024-12-20
哪一个开源大语言模型对中文支持比较好?
以下是一些对中文支持较好的开源大语言模型: 1. OpenChineseLLaMA: 地址: 简介:基于 LLaMA7B 经过中文数据集增量预训练产生的中文大语言模型基座,对比原版 LLaMA,该模型在中文理解能力和生成能力方面均获得较大提升,在众多下游任务中均取得了突出的成绩。 2. BELLE: 地址: 简介:开源了基于 BLOOMZ 和 LLaMA 优化后的一系列模型,同时包括训练数据、相关模型、训练代码、应用场景等,也会持续评估不同训练数据、训练算法等对模型表现的影响。 3. Panda: 地址: 简介:开源了基于 LLaMA7B,13B,33B,65B 进行中文领域上的持续预训练的语言模型,使用了接近 15M 条数据进行二次预训练。 4. Llama2Chinese13bChat: 地址: 5. Gemma7bit: 地址: 此外,AndesGPT 在语言理解与抽取、角色扮演能力上排名国内前一,在代码、生成与创作、上下文对话能力上排名国内前三,各项能力较为均衡,聚焦在移动设备端的应用。Baichuan213BChat 是百川智能自主训练的开源大语言模型,是中文开源模型的主导力量。
2024-12-20
说明jetson orin nano可以使用什么模型?Grok-1模型可以吗?
目前没有关于 Jetson Orin Nano 是否可以使用 Grok1 模型的明确信息。但一般来说,Jetson Orin Nano 可以支持多种常见的深度学习模型,如基于 TensorFlow、PyTorch 框架开发的模型等。具体能够使用哪些模型,还需要考虑模型的计算需求、内存占用以及 Jetson Orin Nano 的硬件配置和性能限制等因素。
2024-12-20
如何系统学习AI知识
以下是系统学习 AI 知识的方法: 1. 编程语言基础:从 Python、JavaScript 等编程语言开始学习,掌握编程语法、数据结构、算法等基础知识,为后续的 AI 学习打下基础。 2. 工具和平台体验:使用 ChatGPT、Midjourney 等 AI 生成工具,体验 AI 的应用场景。探索面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 3. 基础知识学习: 了解 AI 的基本概念、发展历程、主要技术如机器学习、深度学习等。 学习 AI 在教育、医疗、金融等领域的应用案例。 4. 实践项目参与:参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动,尝试利用 AI 技术解决生活中的实际问题,培养动手能力。 5. 关注前沿动态:关注 AI 领域的权威媒体和学者,了解 AI 技术的最新进展,思考 AI 技术对未来社会的影响,培养对 AI 的思考和判断能力。 对于新手学习 AI,还可以: 1. 了解基本概念:阅读「」部分,熟悉 AI 的术语和基础概念,浏览入门文章了解其历史、应用和发展趋势。 2. 开始学习之旅:在「」中找到为初学者设计的课程,推荐李宏毅老师的课程,通过在线教育平台(如 Coursera、edX、Udacity)按自己节奏学习并获取证书。 3. 选择感兴趣模块深入:AI 领域广泛,可根据兴趣选择特定模块(如图像、音乐、视频等)深入学习,掌握提示词技巧。 4. 实践和尝试:理论学习后通过实践巩固知识,尝试使用各种产品并分享实践成果。 5. 体验 AI 产品:与 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人互动,了解其工作原理和交互方式。
2024-12-20
在WAY TO AGI 知识库有没有适合老师备课用的AI?请推荐
以下是为老师备课推荐的一些 AI 相关内容: B 站 up 主 Nally 的课程,免费且每节 15 分钟,内容很棒。 14、15 号左右白马老师和麦菊老师将带大家用 AI 做生图、毛毡字、光影字、机甲字等。 16 号晚上中老师将带大家动手操作炼丹,炼丹可能需要准备一些图,后续会让中老师提前发布内容方便大家准备。 工程生产有很多可控性,AI 视频相关内容丰富,文档会列出工具优劣及操作。很多工具每天有免费积分,共学课程基本不用花钱。每周有 AI 视频挑战赛。 有 AI 音乐的流派和 prompt 电子书,格林同学做了翻译。 此外,还有以下相关信息: 高效 PB 及相关案例:高效 PB 投入力度大,有厉害的伙伴,案例在社区,有多种 battle 方式,会有菩萨老师专门介绍。 11 月 2 号左右将开展博物馆奇妙日主题活动,在各地博物馆进行新创意。 关于 AI 知识库及学习路径的介绍,包括时代杂志评选的领军人物、AI 相关名词解释、知识库的信息来源、社区共创项目、学习路径、经典必读文章、初学者入门推荐、历史脉络类资料等。
2024-12-20
我想用coze搭建一个智能体,关于自然语言课程的期末复习指南,要将我的教材导入扣子作为知识库,智能体支持用户提问,搜索知识点,结合知识库和互联网搜索的内容给出问答,需要使用多智能体或工作流,使用卡片功能进行显示,请给出我搭建这个智能体的步骤
以下是使用 Coze 搭建一个关于自然语言课程期末复习指南智能体的步骤: 1. 访问 Coze 官网(https://www.coze.cn),注册并登录。 2. 点击页面左上角的⊕,通过【标准创建】填入智能体的基本信息。 3. 了解 Bot 开发调试界面: 人设与回复逻辑(左侧区域):设定智能体的对话风格、专业领域定位,配置回复的逻辑规则和限制条件,调整回复的语气和专业程度。 功能模块(中间区域): 技能配置: 插件:扩展智能体的专业能力,如计算器、日历等工具。 工作流:设置固定的处理流程和业务逻辑。 图像流:处理和生成图像的相关功能。 触发器:设置自动化响应条件。 知识库管理: 文本:存储文字类知识材料。 表格:结构化数据的存储和调用。 照片:图像素材库。 记忆系统: 变量:存储对话过程中的临时信息。 数据库:管理持久化的结构化数据。 长期记忆:保存重要的历史对话信息。 文件盒子:管理各类文档资料。 交互优化(底部区域): 开场白:设置初次对话的问候语。 用户问题建议:配置智能推荐的后续问题。 快捷指令:设置常用功能的快速访问。 背景图片:自定义对话界面的视觉效果。 预览与调试(右侧区域):实时测试智能体的各项功能,调试响应效果,优化交互体验。 4. 设定智能体的人设与回复逻辑后,为智能体配置对应的技能,以保证其可以按照预期完成目标任务。例如,以获取 AI 新闻的智能体为例,需要为它添加一个搜索新闻的接口来获取相关新闻。具体操作如下: 在智能体编排页面的技能区域,单击插件功能对应的+图标。 在添加插件页面,选择相关功能,然后单击新增。 修改人设与回复逻辑,指示智能体使用相应插件来搜索所需内容。 (可选)为智能体添加开场白,让用户更好地了解智能体的功能。开场白功能目前支持豆包、微信公众号(服务号)。 5. 配置好智能体后,在预览与调试区域中测试智能体是否符合预期。可单击清除图标清除对话记录。 6. 完成测试后,将智能体发布到社交渠道中使用。具体操作如下: 在智能体的编排页面右上角,单击发布。 在发布页面输入发布记录,并勾选发布渠道。 单击发布。 更多内容,请访问 Coze 官方文档: 英文版:https://www.coze.com/docs/welcome.html 中文版:https://www.coze.cn/docs/guides/welcome
2024-12-20
怎么学习ai知识
以下是新手学习 AI 知识的方法: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,如图像、音乐、视频等,可根据兴趣选择特定模块深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解其工作原理和交互方式。 对于中学生学习 AI,建议如下: 1. 从编程语言入手学习: 可以从 Python、JavaScript 等编程语言开始学习,学习编程语法、数据结构、算法等基础知识,为后续的 AI 学习打下基础。 2. 尝试使用 AI 工具和平台: 可以使用 ChatGPT、Midjourney 等 AI 生成工具,体验 AI 的应用场景。 探索一些面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 3. 学习 AI 基础知识: 了解 AI 的基本概念、发展历程、主要技术如机器学习、深度学习等。 学习 AI 在教育、医疗、金融等领域的应用案例。 4. 参与 AI 相关的实践项目: 参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动。 尝试利用 AI 技术解决生活中的实际问题,培养动手能力。 5. 关注 AI 发展的前沿动态: 关注 AI 领域的权威媒体和学者,了解 AI 技术的最新进展。 思考 AI 技术对未来社会的影响,培养对 AI 的思考和判断能力。 总之,无论是新手还是中学生,都可以从编程基础、工具体验、知识学习、实践项目等多个方面入手,全面系统地学习 AI 知识和技能,为未来的 AI 发展做好准备。
2024-12-19
知识图谱
知识图谱: 知识图谱是一种揭示实体之间关系的语义网络,能够对现实世界的事物及其相互关系进行形式化描述。它于 2012 年 5 月 17 日由 Google 正式提出,初衷是提高搜索引擎能力,增强用户搜索质量和体验,实现从网页链接到概念链接的转变,支持按主题检索和语义检索。 关键技术包括: 1. 知识抽取:通过自动化技术抽取可用的知识单元,包含实体抽取(命名实体识别)、关系抽取、属性抽取。 2. 知识表示:如属性图、三元组。 3. 知识融合:在同一框架规范下进行异构数据整合、消歧、加工、推理验证、更新等,包括实体对齐、知识加工、本体构建、质量评估、知识更新,以形成高质量知识库。 4. 知识推理:在已有知识库基础上挖掘隐含知识。 在 AI Agent 系列中,外置知识包括向量数据库、关系型数据库和知识图谱。知识图谱以图的形式组织数据,强调实体之间的关系,适合复杂的语义分析和知识推理。在实际应用中,外置知识的集成和管理常采用 RAG 架构,允许智能体实时检索和整合最新外部信息。 知识表示方面,知识是存在于我们脑海中、代表对世界理解的东西,通过活跃学习过程获得,将接收到的信息碎片整合进世界模型。知识与信息、数据等概念不同,在 DIKW 金字塔中,数据独立存在可传递,信息是头脑中解释数据的方式,知识是融入世界模型的信息,智慧是更高层次的理解。知识表示的问题是找到以数据形式在计算机中表示知识并能自动化使用的有效方法。
2024-12-19
怎么构建个人本地知识库
构建个人本地知识库可以按照以下步骤进行: 1. 了解 RAG 技术: 利用大模型的能力搭建知识库是 RAG 技术的应用。 大模型训练数据有截止日期,RAG 可解决依靠不在训练集中的数据的问题。 RAG 应用包括文档加载、文本分割、存储、检索和输出 5 个过程。 文档加载可从多种来源加载,如 PDF 等非结构化数据、SQL 等结构化数据和代码等。 文本分割将文档切分为指定大小的块。 存储涉及将文档块嵌入转换为向量形式并存储到向量数据库。 检索通过算法找到与输入问题相似的嵌入片。 输出是将问题和检索出的嵌入片提交给 LLM 生成答案。 文本加载器将用户提供的文本加载到内存以便后续处理。 2. 准备软件: 需要一个额外的软件 AnythingLLM,它包含所有 Open WebUI 的能力,并额外支持选择文本嵌入模型和向量数据库。 3. 安装和配置: 安装地址:https://useanything.com/download 。 安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。 4. 构建本地知识库: 在 AnythingLLM 中创建自己独有的 Workspace 与其他项目数据隔离。 首先创建一个工作空间。 上传文档并在工作空间中进行文本嵌入。 选择对话模式,AnythingLLM 提供 Chat 模式(大模型根据训练数据和上传文档综合给出答案)和 Query 模式(大模型仅依靠文档中的数据给出答案)。 完成配置后进行测试对话。 本文的思路来源于视频号博主黄益贺,作者按照其视频进行了实操并附加了一些关于 RAG 的额外知识。
2024-12-19