直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

帮我找知识库里和「评估」相关的内容或文章

回答

以下是知识库里与“评估”相关的内容:

提示工程

  • 评估程序在优化系统设计时很有用。好的评估程序需要具备以下特点:
    • 具有代表性:能够代表真实世界的使用场景,或者至少包含多样化的测试用例。
    • 样本量充足:拥有足够的测试用例,以保证统计结果的可靠性。
    • 易于自动化:可以自动运行或重复执行。
    • 评估工作可以由计算机、人类或两者协作完成。计算机可以使用客观标准以及一些主观或模糊标准自动执行评估,其中模型输出由其他模型查询评估。OpenAI Evals是一个开源软件框架,提供了创建自动评估程序的工具。
    • 基于模型的评估在评估具有多种可能答案的问题时非常有用,模型可以根据预定义的标准对不同的答案进行评分,帮助我们选择最佳答案。可以用模型进行评估和需要人工评估之间的界限是模糊的,并且随着模型变得越来越强大而不断变化。

OpenAI 官方指南

  • 评估程序(或称为“Evals”)对于优化系统设计非常有用。良好的评估:
    • 代表现实世界的使用(或至少是多样化的)。
    • 包含许多测试用例以获得更大的统计能力。
    • 易于自动化或重复。
    • 输出的评估可以由计算机、人类或混合来完成。计算机可以使用客观标准以及一些主观或模糊标准来自动评估,其中模型输出由其他模型查询评估。OpenAI Evals是一个开源软件框架,提供用于创建自动评估的工具。
    • 当存在一系列可能被认为质量相同的输出时,基于模型的评估可能很有用。使用基于模型的评估可以实际评估的内容与需要人工评估的内容之间的界限是模糊的,并且随着模型变得更强大而不断变化。

Gemini 报告

  • 为了评估 Gemini 模型在政策领域和其他在影响评估中确定的关键风险领域中的表现,在模型开发的整个生命周期中开展了一系列评估。
    • 在训练和优化 Gemini 模型过程中,会进行开发评估以进行“hill-climbing”。这些评估是由 Gemini 团队设计的,或者是针对外部学术基准的评估。评估考虑诸如有用性(指令遵循和创造力)、安全性和事实性等问题。
    • 保证评估是为了治理和审查而进行的,通常在关键里程碑或培训运行结束时由模型开发团队之外的团队进行。保证评估按照模态进行标准化,数据集严格保密。只有高层次的见解被反馈到训练过程中,以协助缓解工作。保证评估包括对 Gemini 政策的测试,并包括对潜在生物危害、说服力和网络安全等危险能力的持续测试。
    • 外部评估由谷歌之外的合作伙伴进行,以发现盲点。外部团体对模型进行了一系列问题的压力测试,包括白宫承诺书中列出的领域,测试通过结构化评估和非结构化的红队测试进行。这些评估的设计是独立的,并且结果定期报告给 Google DeepMind 团队。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

提示工程: 如何与大型语言模型高效沟通【OpenAI官网翻译】

[title]提示工程:如何与大型语言模型高效沟通【OpenAI官网翻译】[heading1]写在前面[heading2]策略:系统地测试更改有时很难分辨出更改——例如,新的指令或新的设计——是使你的系统变得更好还是更糟。查看几个示例可能会暗示哪个更好,但由于样本量小,很难区分真正的改进还是随机运气。也许更改在某些输入上有助于性能,但在其他输入上则损害性能。评估程序(或“评估”)在优化系统设计时很有用。好的评估程序需要具备以下特点:具有代表性:能够代表真实世界的使用场景,或者至少包含多样化的测试用例。样本量充足:拥有足够的测试用例,以保证统计结果的可靠性(参考下表)。易于自动化:可以自动运行或重复执行。|需要检测的差异|95%置信度所需的样本量|<br>|-|-|<br>|30%|~10|<br>|10%|~100|<br>|3%|~1,000|<br>|1%|~10,000|评估工作可以由计算机、人类或两者协作完成。计算机可以使用客观标准(例如,针对单一正确答案的问题)以及一些主观或模糊标准自动执行评估,其中模型输出由其他模型查询评估。[OpenAI Evals](https://github.com/openai/evals)是一个开源软件框架,提供了创建自动评估程序的工具。基于模型的评估在评估具有多种可能答案的问题时非常有用,例如开放性问题。模型可以根据预定义的标准对不同的答案进行评分,帮助我们选择最佳答案。可以用模型进行评估和需要人工评估之间的界限是模糊的,并且随着模型变得越来越强大而不断变化。我们鼓励你进行实验,找到最适合你的用例的评估方法。

目录:OpenAI 官方指南

[title]目录:OpenAI官方指南[heading1]二、战术[heading2]策略:系统地测试变化有时候,很难判断一个变化(例如,新的指令或新的设计)是否使你的系统变得更好或更差。看几个例子可能会暗示哪个更好,但如果样本量很小,很难区分真正的改进或是随机运气。也许这个改变在一些输入上有助于提高性能,但在其他输入上却降低了性能。评估程序(或称为"Evals")对于优化系统设计非常有用。良好的评估:代表现实世界的使用(或至少是多样化的)包含许多测试用例以获得更大的统计能力(有关指南,请参见下表)易于自动化或重复|要检测的差异|95%置信度所需的样本量|<br>|-|-|<br>|0.3|~10|<br>|0.1|~100|<br>|0.03|~1,000|<br>|0.01|~10,000|输出的评估可以由计算机、人类或混合来完成。计算机可以使用客观标准(例如,具有单一正确答案的问题)以及一些主观或模糊标准来自动评估,其中模型输出由其他模型查询评估。[OpenAI Evals](https://github.com/openai/evals)是一个开源软件框架,提供用于创建自动评估的工具。当存在一系列可能被认为质量相同的输出时(例如,对于答案很长的问题),基于模型的评估可能很有用。使用基于模型的评估可以实际评估的内容与需要人工评估的内容之间的界限是模糊的,并且随着模型变得更强大而不断变化。我们鼓励实验来找出基于模型的评估在你的用例中可以工作得多好。

Gemini report 中文翻译

为了评估Gemini模型在政策领域和其他在影响评估中确定的关键风险领域中的表现,我们在模型开发的整个生命周期中开展了一系列评估。在训练和优化Gemini模型过程中,会进行开发评估以进行“hill-climbing”。这些评估是由Gemini团队设计的,或者是针对外部学术基准的评估。评估考虑诸如有用性(指令遵循和创造力)、安全性和事实性等问题。请参阅第5.1.6节和下一节的mitigations的样本结果。保证评估是为了治理和审查而进行的,通常在关键里程碑或培训运行结束时由模型开发团队之外的团队进行。保证评估按照模态进行标准化,数据集严格保密。只有高层次的见解被反馈到训练过程中,以协助缓解工作。保证评估包括对Gemini政策的测试,并包括对潜在生物危害、说服力和网络安全等危险能力的持续测试(Shevlane等,2022年)以修订回应并在多个回应候选项之间进行选择。外部评估由谷歌之外的合作伙伴进行,以发现盲点。外部团体对我们的模型进行了一系列问题的压力测试,包括白宫承诺书中列出的领域,测试通过结构化评估和非结构化的红队测试进行。这些评估的设计是独立的,并且结果定期报告给Google DeepMind团队。

其他人在问
知识库都有哪些提示词框架
以下是一些常见的提示词框架: ICIO 框架:包括 Instruction(指令)、Context(背景信息)、Input Data(输入数据)、Output Indicator(输出引导)。 CRISPE 框架:涵盖 Capacity and Role(能力和角色)、Insight(见解)、Statement(声明)、Personality(个性)、Experiment(实验)。 BROKE 框架:包含 Background(背景)、Role(角色)、Objectives(目标)、Key Result(关键结果)。 TRACE 框架:有 TASK(任务)、REQUEST(请求)、ACTION(行动)、CONTEXT(上下文)、EXAMPLE(示例)。 ERA 框架:包括 EXPECTATION(期望)、ROLE(角色)、ACTION(行动)。 CARE 框架:由 CONTEXT(上下文)、ACTION(行动)、RESULT(结果)、EXAMPLE(示例)组成。 ROSES 框架:包含 ROLE(角色)、OBJECTIVE(目的)、SCENARIO(方案)。 Evolve 框架:包括试验并改进,通过改进输入、改进答案、重新生成等方法。 APE 框架。 COAST 框架:包含 CONTEXT(上下文背景)、OBJECTIVE(目的)、ACTION(行动)、SCENARIO(方案)、TASK(任务)。 TAG 框架:包括 TASK(任务)、ACTION(行动)、GOAL(目标)。 RISE 框架。
2024-10-17
基于飞书的知识库RAG的搭建,需要什么接口进行全文搜索
基于飞书的知识库 RAG 搭建,可用于全文搜索的接口方式主要有以下几种: 1. 语义检索:语义匹配关注查询和文档内容的意义,而非仅仅表面的词汇匹配。通过向量的相似性来判断语义的相似性。 2. 全文检索:这是基于关键词的检索方式。例如,对于句子“猫的饮食习惯包括吃鱼和鸡肉”,输入“猫”“饮食”“猫的饮食习惯”“吃鱼”等关键词可搜索到该句子,但输入“猫喜欢吃什么呀”则无法搜索到。 3. 混合检索:结合了语义匹配和全文检索的优点,通常系统先进行全文检索获取初步结果,然后再对这些结果进行语义匹配和排序。 此外,在本地部署资讯问答机器人实现 RAG 时,会涉及加载所需的库和模块,如 feedparse 用于解析 RSS 订阅源,ollama 用于在 python 程序中跑大模型。还会为文档内容生成向量,如使用文本向量模型 bgem3 等。 在开发 LangChain 应用开发指南中,实现 LangChain 和 RAG 的结合时,需要加载数据、分割文档、转换嵌入并存储到向量存储器、创建检索器以及聊天模型等步骤。
2024-10-17
推荐一些知识库系统
以下为您推荐一些知识库系统: 1. 专家系统: 是符号人工智能的早期成就之一,为充当有限问题领域的专家而设计。 包含从人类专家提取的知识库、推理引擎以及问题记忆。 推理引擎协调问题状态空间的搜索过程,必要时向用户提问。 例如根据动物物理特征判断动物的专家系统,可通过绘制 ANDOR 树或使用规则来表示知识。 2. AI Agent 中的外置知识: 由外部数据库提供,特点是能够动态更新和调整。 涉及多种数据存储和组织方式,包括向量数据库、关系型数据库和知识图谱。 实际应用中常采用 RAG 架构,结合检索和生成,增强模型的生成能力。 3. 知识管理体系: 是组织和管理信息、数据和知识的方法,帮助个人或组织有效捕捉、组织、访问和使用知识,提高效率、创新能力和决策质量。 包括收集信息、整理知识、分享经验、促进学习和创新等流程,以及分类、标签和索引等组织方式。 关键组成部分有知识的捕捉、组织、分享和应用。 创建知识管理体系可提高效率、增强决策能力、促进创新和增强适应能力。
2024-10-16
如何创建知识库?
创建知识库主要有以下两种方式: 1. 创建并上传表格数据: 在页面顶部进入知识库页面,并单击创建知识库。 在弹出的页面配置知识库名称、描述,并单击确认。需注意一个团队内的知识库名称不可重复,必须是唯一的。 在单元页面,单击新增单元。 在弹出的页面,选择表格格式,然后选择一种上传方式完成数据上传。 2. 创建并上传文本内容: 登录。 在左侧导航栏的工作区区域,选择进入指定团队。 在页面顶部进入知识库页面,并单击创建知识库。 在弹出的页面配置知识库名称、描述,并单击确认。同样一个团队内的知识库名称不可重复,必须是唯一的。 在单元页面,单击新增单元。 在弹出的页面选择要上传的数据格式,默认是文本格式,然后选择一种文本内容上传方式完成内容上传。 此外,还可以参考以下文章获取更详细的信息:
2024-10-15
你好,你的知识库管理采用的大模型流程是什么,请勇mermaid说明一些
以下是关于大模型流程的详细说明: RAG(Retrieval Augmented Generation,检索增强生成)技术应用于利用大模型能力搭建知识库,其流程主要包括以下 5 个过程: 1. 文档加载(Document Loading):从多种不同来源加载文档,如 PDF 等非结构化数据、SQL 等结构化数据以及 Python、Java 之类的代码等。LangChain 提供了 100 多种不同的文档加载器。 2. 文本分割(Splitting):文本分割器把文档切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储: 将切分好的文档块进行嵌入(Embedding)转换成向量的形式。 将 Embedding 后的向量数据存储到向量数据库。 4. 检索(Retrieval):通过某种检索算法从向量数据库中找到与输入问题相似的嵌入片。 5. 输出(Output):把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。 从用户提出问题开始,还经历了以下流程: 1. 用户问题的理解。 2. 根据用户问题进行路由。 3. 进行初步的检索。 4. 对初步检索的结果进行重排序。 5. 将重排序后的结果和用户的查询意图组合成上下文输入给大模型。 6. 大模型通过指定的提示词生成输出结果。 需要注意的是,重排序的结果通常不会都被用作大模型的上下文,因为大模型的上下文有限制。可以设置一个阈值进行截断,比如只使用前 3 5 个文档;也可以设置一个相关性分数的阈值,只取相关性分数大于某个值的文档。一些先进的 RAG 系统会对选中的文档进行摘要或压缩,以在有限的空间内包含更多相关信息。 在大模型输出结果后还有后置处理,可能包括敏感内容检测和移除、格式化输出等。 LLM 的工作原理可以这样理解:以“我今天吃了狮子头和蔬菜”这句话为例,在 Transformer 中,会由 Attention 层对这句话加入更多的信息来补充,比如补充“狮子头是一道菜”“今天是星期六”等等。这些补充信息,会作为输入给到下一个 Attention 层进行补充。最终层与层之间,哪些信息需要补充,哪些信息需要保留,哪些信息传递,均由模型自主学习完成。总结起来就是大模型以词向量和 Transformer 的模型学习了海量的知识,把知识作为向量空间中的一种关系网进行存储,并在接受输入时,通过向量空间中的一系列匹配进行输出。这就像人脑在阅读学习的过程,记忆的不是点状的知识,而是网状的经验。
2024-10-15
如何通过ollama 搭建本地知识库
以下是通过 Ollama 搭建本地知识库的步骤: 1. 了解背景:本文思路来源于视频号博主黄益贺,旨在分享如何部署本地大模型及搭建个人知识库,让您了解相关核心技术及流程。 2. Ollama 简介:Ollama 是一个开源框架,用于简化本地运行大型语言模型的过程,是轻量级、可扩展的,提供简单 API 和预构建模型库,适合初学者和非技术人员,能推动大型语言模型的发展和应用。 3. 安装 Ollama:官方下载地址为 https://ollama.com/download ,安装完成后可通过访问特定链接判断是否安装成功。 4. 运行本地大模型:安装完成后,在命令行中运行相应命令,模型名称可通过查看,如选择 llama2 大模型,可根据机器配置选择合适参数的模型,运行时 Ollama 会自动下载大模型到本地。 此外,还有关于本地部署资讯问答机器人:Langchain + Ollama + RSSHub 实现 RAG 的相关内容,包括加载所需库和模块、从订阅源获取内容、为文档内容生成向量等步骤。
2024-10-12
怎么评估提示词的效果?
评估提示词的效果可以从以下几个方面进行: 1. 模型的准确率:观察模型生成的回答与预期结果的匹配程度。 2. 流畅度:检查生成的文本在语言表达上是否通顺、自然。 3. 相关性:判断生成的内容与提示词所表达的意图和需求的关联程度。 提示词工程师在评估提示词效果时,通常会采取以下步骤和方法: 1. 设计提示:根据用户需求和模型能力,精心考虑提示的长度、结构、措辞和信息量等因素,以清晰传达用户意图。 2. 优化提示:通过收集用户反馈、分析模型结果和实验不同的提示策略等方式,不断改进提示。 3. 实际测试:包括对基础提示词模板的测试,确保其能兼容国内外各种模型,并生成拟人化的提示词,然后将其应用于不同模型中评估实际应用效果和适应性。 此外,提示工程有几项核心原则: 1. 编写清晰的指令。 2. 将复杂任务分解为简单任务。 3. 给模型一定的时间空间思考。 4. 系统地测试性能变化。 要提高提示技巧,应多学习和实践。同时,可以参考大模型厂商的提示工程指南,以及 LangGPT 结构化提示词知识库中的相关资料,如:
2024-10-15
如何自动化 RAG bot 的测试评估工作流?
以下是一个关于自动化 RAG bot 测试评估工作流的参考方案: 首先,对于 RAG bot 的工作流,主要包括以下关键步骤: 1. 开始节点:接收用户选择的小说人物角色名称或向小说人物角色提问的问题。 2. 知识库节点:将输入的角色名称或问题作为查询,在知识库中检索该角色的性格特点、经典台词或相关的上下文信息。 3. 大模型节点:让大模型对检索到的信息进行筛选和处理,并以特定格式(如 JSON 格式)输出结果,或者根据问题和检索到的上下文信息生成答案。 4. 代码节点:对上游输入的数据进行规整和格式化输出。 5. Text2Image 节点:引用上一步输出的用于描述人物性格和特点的特征,作为提示生成人物的角色照。 6. 结束节点:输出人物台词、角色照或答案。 要实现自动化测试评估工作流,可以考虑以下几个方面: 1. 制定明确的测试用例:包括各种类型的输入,如不同的角色名称、问题类型和复杂程度等,以全面覆盖各种可能的情况。 2. 建立监控机制:实时监测工作流中各个节点的运行状态、数据传输和处理时间等关键指标。 3. 数据验证:在每个节点的输出端,验证数据的准确性、完整性和格式的正确性。 4. 性能评估:分析工作流的整体性能,如响应时间、资源利用率等,以优化工作流的效率。 5. 错误处理和恢复测试:模拟各种可能的错误情况,测试工作流的错误处理和恢复能力。 6. 定期回归测试:确保工作流在经过修改或优化后,仍然能够正常运行并满足预期。 通过以上的步骤和方法,可以有效地实现 RAG bot 测试评估工作流的自动化,提高其可靠性和性能。
2024-09-22
大模型评估
大模型评估是当前热门领域,以下是一些常见的评估方法和相关资源: 测试问题类型: 检索和归纳。 推理性。 有日期相关历史事件等。 专业测评网站: https://lmsys.org/blog/20230503arena/ (系统自带翻译不太友好,可点进去仔细阅读)。 中文语言理解测评基准:https://www.cluebenchmarks.com/index.html ,介绍:https://mp.weixin.qq.com/s/6CDnyvMsEXtmsJ9CEUn2Vw 。 斯坦福团队的 AlpacaEval:项目链接:https://github.com/tatsulab/alpaca_eval ,排行榜链接:https://tatsulab.github.io/alpaca_eval/ 。 FlagEval(天秤)大模型评测体系及开放平台:地址:https://github.com/FlagOpen/FlagEval ,简介:旨在建立科学、公正、开放的评测基准、方法、工具集,协助研究人员全方位评估基础模型及训练算法的性能,同时探索利用 AI 方法实现对主观评测的辅助,大幅提升评测的效率和客观性。FlagEval(天秤)创新构建了“能力任务指标”三维评测框架,细粒度刻画基础模型的认知能力边界,可视化呈现评测结果。 CEval:地址:https://github.com/SJTULIT/ceval ,简介:构造了一个覆盖人文,社科,理工,其他专业四个大方向,52 个学科(微积分,线代…),从中学到大学研究生以及职业考试,一共 13948 道题目的中文知识和推理型测试集。此外还给出了当前主流中文 LLM 的评测结果。 SuperCLUElyb:地址:https://github.com/CLUEbenchmark/SuperCLUElyb ,简介:中文通用大模型匿名对战评价基准,这是一个中文通用大模型对战评价基准,它以众包的方式提供匿名、随机的对战。他们发布了初步的结果和基于 Elo 评级系统的排行榜。 对比不同大语言模型性能的方法: 自定义任务:根据特定需求设计任务,以评估模型在特定领域的表现。 人类评估:结合人类评估者的主观评价,特别是在评估文本质量和伦理问题时。 A/B 测试:在实际应用场景中,通过 A/B 测试比较不同模型的表现。 性能指标:使用包括准确率、召回率、F1 分数、BLEU 分数等在内的性能指标来量化比较。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-08-15
Fine-Tuning是什么,如何评估一个Fine-Tuning的大赛
FineTuning(微调)是一种迁移学习技术,常用于深度学习中。其基本思路是:先有一个在大量数据上训练过的预训练模型,该模型已学会一些基本模式和结构(如在自然语言处理中学会基本语法和单词语义),然后在特定任务数据上继续训练该模型,使其适应新任务。 以下是两个例子帮助您理解: 例子 1:情感分类。假设构建一个判断电影评论积极或消极的模型,先使用大量语料库(如维基百科)预训练模型,使其学会基本语法和单词语义,再收集标注过的电影评论(部分积极,部分消极),在这些评论上继续训练模型,使其学会判断评论情感。 例子 2:图像分类。假设构建一个识别猫和狗图片的模型,先使用大量图片(如 ImageNet 数据集)预训练模型,使其学会识别图片中的基本形状和纹理,再收集标注过的猫和狗的图片,在这些图片上继续训练模型,使其学会区分猫和狗。 对于评估一个 FineTuning 的大赛,需要注意以下几点: 1. 对于需要快速迭代新用例的场景,微调作用较小。 2. 要实现微调功能,需创建包含至少数百个优质示例的大型训练数据集,按格式要求整理数据集,并启动微调自定义 LLM 的训练任务,评估微调性能。 3. 为实现良好微调,要建立模型改进工作流程,不断监控模型性能变化,获得反馈并依据反馈改进模型。 4. 通过记录所有生成的模型,以及评分指标(隐性和显性用户的反馈,以及人类和人工智能的评估),为下一版本创建的训练数据集进行调整。 5. 许多 LLM Ops 平台能自动收集和显示最佳数据,方便进行微调。
2024-08-13
请你结合大疆服务业务的具体场景,设计两个AI的应用落地场景,请从AI在此场景中应该发挥什么作用、怎样和业务场景做耦合、怎样评估AI的落地效果等多个方面进行阐述。
以下为结合大疆服务业务设计的两个 AI 应用落地场景: 场景一:无人机故障预测与维护 AI 发挥的作用: 通过对无人机飞行数据、传感器数据和零部件使用情况的分析,预测可能出现的故障。 与业务场景的耦合: 与大疆的售后服务系统集成,实时获取无人机的运行数据。利用机器学习算法建立故障预测模型,提前通知用户进行维护保养,减少因故障导致的飞行事故和损失。 落地效果评估: 1. 降低无人机故障率,通过对比使用 AI 预测维护前后的故障发生频率来评估。 2. 提高用户满意度,通过用户反馈和满意度调查来衡量。 3. 减少维修成本,统计维修费用和零部件更换成本的变化。 场景二:个性化飞行方案推荐 AI 发挥的作用: 根据用户的飞行历史、偏好、地理环境等因素,为用户生成个性化的飞行方案。 与业务场景的耦合: 在大疆的应用程序中,用户输入相关信息后,AI 系统自动分析并推荐合适的飞行路线、拍摄角度、飞行速度等。 落地效果评估: 1. 增加用户飞行活跃度,通过统计用户的飞行次数和时长来评估。 2. 提升用户对推荐方案的采纳率,通过用户实际采用推荐方案的比例来衡量。 3. 促进产品销售,对比使用个性化推荐功能前后的产品销售数据。
2024-08-11
请你结合大疆服务业务的具体场景,设计两个AI的应用落地场景,请从AI在此场景中应该发挥什么作用、怎样和业务场景做耦合、怎样评估AI的落地效果等多个方面进行阐述。
以下为结合大疆服务业务设计的两个 AI 应用落地场景: 场景一:无人机故障预测与维护 AI 发挥的作用: 通过对无人机运行数据的实时监测和分析,利用机器学习算法预测可能出现的故障。 与业务场景的耦合: 与大疆的无人机飞行数据采集系统相结合,获取各类传感器数据,如电机转速、电池状态、飞行姿态等。 评估落地效果: 1. 降低无人机故障率,减少因故障导致的飞行事故和设备损坏。 2. 提高维护效率,缩短维修时间,降低维修成本。 3. 提升用户对产品的满意度和信任度。 场景二:个性化飞行方案推荐 AI 发挥的作用: 根据用户的飞行历史、偏好以及地理环境等因素,为用户生成个性化的飞行方案。 与业务场景的耦合: 整合大疆的用户数据库和地理信息系统,获取用户的飞行习惯和所在地的地理特征。 评估落地效果: 1. 增加用户的飞行体验,满足不同用户的需求。 2. 促进无人机的使用频率和用户的活跃度。 3. 有助于新产品的推广和销售,根据用户需求推荐适配的新机型和配件。
2024-08-11
推荐一些不错的AI翻译相关文章
以下为您推荐一些与 AI 翻译相关的文章和资源: 关于 PDF 翻译的 AI 产品: DeepL(网站):点击页面「翻译文件」按钮,上传 PDF、Word 或 PowerPoint 文件即可。 沉浸式翻译(浏览器插件):安装插件后,点击插件底部「更多」按钮,选择「制作双语 BPUB 电子书」、「翻译本地 PDF 文件」、「翻译 THML / TXT 文件」、「翻译本地字幕文件」。 Calibre(电子书管理应用):下载并安装 calibre,并安装翻译插件「Ebook Translator」。 谷歌翻译(网页):使用工具把 PDF 转成 Word,再点击谷歌翻译「Document」按钮,上传 Word 文档。 百度翻译(网页):点击导航栏「文件翻译」,上传 PDF、Word、Excel、PPT、TXT 等格式的文件,支持选择领域和导出格式(不过进阶功能基本都需要付费了)。 彩云小译(App):下载后点击「文档翻译」,可以直接导入 PDF、DOC、DOCX、PPT、PPTX、TXT、epub、srt 等格式的文档并开始翻译(不过有免费次数限制且进阶功能需要付费)。 微信读书(App):下载 App 后将 PDF 文档添加到书架,打开并点击页面上方「切换成电子书」,轻触屏幕唤出翻译按钮。 相关文章: 《翻译:怎么把一份英文 PDF 完整地翻译成中文?》,这里介绍了 8 种方法,作者:ShowMeAI,分类:教育, 《入门经典必读》,作者: 内容由 AI 大模型生成,请仔细甄别。
2024-10-18
需要AI协助完成工作中的文章写作,应该用什么工具?
在工作中需要 AI 协助完成文章写作时,以下是一些可用的工具: 1. 文献管理和搜索: Zotero:结合 AI 技术,能自动提取文献信息,便于管理和整理参考文献。 Semantic Scholar:由 AI 驱动的学术搜索引擎,可提供文献推荐和引用分析。 2. 内容生成和辅助写作: Grammarly:通过 AI 技术进行文本校对、语法修正和写作风格建议,提升语言质量。 Quillbot:基于 AI 的重写和摘要工具,可精简和优化内容。 3. 研究和数据分析: Google Colab:提供基于云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,方便进行数据分析和可视化。 Knitro:用于数学建模和优化的软件,有助于复杂数据分析和模型构建。 4. 论文结构和格式: LaTeX:结合自动化和模板,高效处理论文格式和数学公式。 Overleaf:在线 LaTeX 编辑器,有丰富模板库和协作功能,简化编写过程。 5. 研究伦理和抄袭检测: Turnitin:广泛使用的抄袭检测工具,确保论文原创性。 Crossref Similarity Check:检测潜在抄袭问题。 此外,常见的文章润色 AI 工具包括: 1. Wordvice AI:集校对、改写转述和翻译等功能于一体,基于大型语言模型提供全面的英文论文润色服务。 2. ChatGPT:由 OpenAI 开发的大型语言模型,可用于多方面写作辅助。 3. Quillbot:人工智能文本摘要和改写工具,可快速筛选和改写文献资料。 4. HyperWrite:基于 AI 的写作助手和大纲生成器,帮助写作前头脑风暴和大纲规划。 5. Wordtune:AI 驱动的文本改写和润色工具,优化语言表达。 6. Smodin:提供 AI 驱动的论文撰写功能,生成符合要求的学术论文。 AI 文章排版工具方面: 1. Grammarly:不仅是语法和拼写检查工具,还提供排版功能,改进文档风格和流畅性。 2. QuillBot:AI 驱动的写作和排版工具,改进文本清晰度和流畅性。 3. Latex:广泛用于学术论文排版,使用标记语言描述格式,有许多 AI 辅助的编辑器和插件简化排版。 4. PandaDoc:文档自动化平台,使用 AI 帮助创建、格式化和自动化文档生成,适合商业和技术文档。 5. Wordtune:重新表述和改进文本,使其更清晰专业。 6. Overleaf:在线 Latex 编辑器,提供丰富模板和协作工具,适合学术写作和排版。 选择工具时需根据具体需求,如文档类型、出版标准和个人偏好。学术论文常选 Latex 和 Overleaf,一般文章和商业文档则 Grammarly 和 PandaDoc 等可能更适用。请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-10-18
如何用大模型写公众号文章
以下是使用大模型写公众号文章的步骤: 1. 搭建工作流: 大模型批量总结文章内容: 模型选择:默认的豆包 32k 够用,怕上下文长度不够可选择更大的模型,如 kimi128k。 配置参数:选择批处理,批处理输入参数包括读取的文章内容正文、代码处理后的 url 链接和标题。下方的输入参数选择大模型节点输出的 content 正文、title 标题、url 文章链接、author 作者。提示词输入相关内容,将这四部分内容一起送给大模型进行总结,最终拼接成 markdown 格式输出。 汇总格式化最终输出内容:使用代码节点,将大模型输出的内容进行最终输出的格式化。参数配置包括输入选择上一步输出的 outputList,在 IDE 中编辑选择 Python 并输入相关代码,配置输出项为 result。 公众号总结推送到微信:根据 Server 酱的 API 文档,自建插件实现把格式化好的内容推送到用户微信。配置包括 title 为汇总公众号总结页面的标题,参数值选择“输入”并起名;desp 为页面主体内容,选择上一步最终输出内容;key 引用开始节点的 key。 2. 获取指定网站内容:比如获取 36kr 网站 AI 频道资讯:https://36kr.com/information/AI/ ,并在 Coze 中设置提示词和输出结果。 3. 使用工作流重写: 工作流思路:将获取的新闻让大模型重新按照自己的风格创作新闻内容,如搞笑、严肃、中二风格等,甚至加入个人元素。 搭建工作流:使用 GetToutiaoNews、大模型等组件,配置 GetToutiaoNews 和大模型。 4. 使用 Webpilot 插件:省去工作流获取新闻列表,让 Webpilot 去分析,思考是否可增加大模型重写及相关配置。 5. 同步飞书:将数据同步到飞书,可变为训练数据。 此外,还有关于【SD】大模型/Lora 触发词插件 loraprompttool 的介绍,安装该插件后可直接看到官方例图并一键拷贝提示词和设置参数,有助于学习关键提示词写法。若想要该插件,可添加公众号【白马与少年】,回复【SD】获取。
2024-10-17
有没有能将提供的文章内容改写合并的提示词?
以下是一些能够将提供的文章内容改写合并的提示词示例: 对于政府机关材料写作者的提示词: Role:人物精神写作笔杆子,Profile 包含作者、版本、语言、描述等信息,Goals 是根据提供的材料生成完整文体,Constrains 有对未知信息的处理、调用数据库等,Skills 包括文章撰写和排版审美,Workflows 有具体步骤。 对于联网的科普作者的提示词: Role:科普作者,Profile 包含作者、版本、语言等信息,Goals 是根据关键词解读新闻,Constrains 有准确性、清晰性、公正性和及时性要求。 对于新闻文章的事实核查员的提示词:角色为新闻文章的事实核查员,个人信息包含作者等,目标是区分事实和观点等,约束有对事实和观点的处理方式,Skills 包括区分能力和使用格式化技术,工作流程分多步进行。
2024-10-15
今日头条仿写爆款文章提示词
以下是关于今日头条仿写爆款文章的提示词相关知识: Prompt 技巧: 趣闻:鼓励包含有趣或令人惊讶的事实,例如在谈论巧克力时,分享一些有趣的巧克力制作过程的事实。 关键词:列出需要包含的重要关键词或短语,如请在回答中包含“可再生能源”和“碳足迹”。 小贴士:鼓励 AI 分享与主题相关的小窍门和技巧,比如分享几个关于照顾室内植物的小贴士。 保密性:说明保密要求或限制,例如在回答关于保险方案的问题时,不要泄露客户的个人信息。 格式化:指定所需的格式元素,如在写关于节能设备的文章时,使用列表来呈现节能设备的种类。 敏感性:提及需要谨慎处理或避免的敏感主题或问题,比如请谨慎讨论涉及宗教信仰的问题。 伦理考虑:提及要遵循的道德准则,例如在讨论基因编辑技术时,探讨伦理和道德问题。 修订要求:提及修订或编辑指南,如请根据 MLA 格式对这篇文章进行编辑和修订。 未来影响:鼓励讨论潜在的未来影响或趋势,例如在谈论虚拟现实技术时,探讨其未来在教育领域的应用前景。 视觉元素:询问是否包括图表、图形或图像,比如请在关于人口老龄化的报告中包含相关的图表。 截止日期:提及时间敏感回应的截止日期或时间范围,例如请在明天中午前给我一篇关于节能措施的文章。 文化参考:鼓励包含相关的文化参考,比如在关于法国美食的文章中谈论法国的餐桌礼仪。 语气:指定所需语气,如请用正式语气编写一篇关于气候变化的文章。 格式:定义格式或结构,例如请为我提供一个关于健康饮食的要点清单。 限制:指定约束条件,如请提供一个关于太阳能的 100 字简介。 引用:要求包含引用或来源以支持信息,比如请在关于全球变暖的文章中引用权威研究。 语言:如果与提示不同,请指明回应的语言,例如请用法语回答关于巴黎旅游景点的问题。 反驳:要求解决潜在的反驳论点,比如针对抵制疫苗接种的观点提出反驳。 术语:指定要使用或避免的行业特定或技术术语,例如请用通俗易懂的语言解释区块链技术。 类比:要求 AI 用类比或示例阐明概念,比如请用一个类比解释黑洞的概念。 引述:要求包含专家的相关引言或陈述,比如在关于疫苗安全的文章中引用著名免疫学家的观点。 幽默:表明是否应融入幽默,比如在一篇关于减压方法的文章中加入一些幽默元素。 轶事:要求包含相关轶事,比如在关于跑步的文章中,分享一则有趣的关于马拉松选手的轶事。 隐喻:鼓励使用隐喻使复杂观点更具亲和力,比如在讨论人工智能的复杂性时,用“AI 像洋葱一样有很多层次”这样的隐喻。 利用 AI 生产文章时,关键在于提供清晰且具有指导性的提示词。一个好的提示词能帮助 AI 更准确地理解需求并生成符合预期的内容。若已有基本提示词,AI 可生成基础文章;若想提升质量,可提供更详细、具创意的提示词,设定文章的语气、风格和重点,如“请根据我们收集的关于 OpenAI 回应马斯克言论的资讯,创作一篇既深入又易于理解的科技资讯文章。文章应该有一个吸引人的标题,开头部分要概述事件的背景和重要性,主体部分详细分析 OpenAI 的回应内容及其可能产生的影响,结尾处提出一些引人深思的问题或观点。”最终产出的内容可能需要微调以符合预期和公众号风格。
2024-10-14
有针对单篇文章的总结分析引导学习的工具推荐么
以下是一些针对单篇文章总结分析引导学习的工具推荐: 大模型工具方面,推荐顺序依次为:chatGPT 4.0、kimichat、智谱清言 4。 文本纠错方面,飞书文档自带纠错功能。若用 prompt 纠错,文本量不能太大,可直接告诉大模型:检查下列文本中的错别字、语法错误和格式错误,指出并改正,重新生成新的文本。 国产大模型中,智谱和文心在文生图方面有一定能力。 需要注意的是,关于让 AI 自己根据文章写 prompt 以及学习工具对手机和显卡的要求等问题,上述内容未给出确切答案。
2024-10-13