Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

摘要总结作为 llm 训练的下游任务,一般的训练流程是怎样的

Answer

作为 LLM 训练的下游任务,一般的训练流程如下:

  1. 首先从大量文本数据中训练出一个基础 LLM。
  2. 随后使用指令和良好尝试的输入和输出来对基础 LLM 进行微调和优化。
  3. 接着通常使用称为“人类反馈强化学习”的技术进行进一步细化,以使系统更能够有帮助且能够遵循指令。

在训练过程中,会涉及到一些相关的理论探讨和评价指标:

  • 理论探讨方面,如在推理阶段对 In-Context Learning 能力的运行分析,将其视为隐式微调,通过前向计算生成元梯度并通过注意力机制执行梯度下降,且实验表明 LLM 中的某些注意力头能执行与任务相关的操作。
  • 评价指标方面,entropy-like 指标(如 cross-entropy 指标)常用于表征模型的收敛情况和测试集的简单评估(如 Perplexity 指标),但对于复杂的下游应用,还需更多指标,如正确性(Accuracy)、信息检索任务中的 NDCG@K 指标、摘要任务中的 ROUGE 指标、文本生成任务中的 Bits-per-Byte 指标、不确定性中的 ECE 指标、鲁棒性(包括 invariance 和 equivariance)、公平性、偏见程度和有毒性等。
Content generated by AI large model, please carefully verify (powered by aily)

References

融合RL与LLM思想,探寻世界模型以迈向AGI/ASI的第一性原理反思和探索「RL×LLM×WM>AI4S>AGI>ASI」

问题一:为什么「In-Context Learning」或相关的「few-shot」「zero-shot」「prompt e与gineering」等思想能打破传统训练范式并建立新的技术路径进行模型下游任务的SFT,而不用在调整模型任何参数的情况下,在实现传统模型精调后的目标及Benchmark测试中,已经媲美或超越相当一部分的原有模型微调任务的SOTA(当然这里离不开LLM所采用的海量训练数据Pre-training下习得、压缩的广泛而通用知识)。问题二:LLM与传统模型的任务有哪些差异和相同的点?问题三:是否所有传统模型下的任务都能很好的尝试用LLM来有效解决?针对问题一,在学术界和产业界一直有着相关理论上探讨和争论:如在推理阶段,研究人员专注于基于给定的演示来分析In-Context Learning-ICL能力是如何运行的,因为不涉及显式学习和参数更新,通常从梯度下降的角度进行分析,并将ICL视为隐式微调。在这个思想框架下,ICL过程可解释如下:通过前向计算,LLM生成关于演示的元梯度,并通过注意力机制隐式地执行梯度下降。实验也表明,LLM中的某些注意力头能够执行与任务无关的原子操作(例如复制和前缀匹配),这与ICL能力密切相关。

1.课程简介

基于互联网上的文章,基础LLM有可能会回答法国的最大城市是什么,法国的人口是多少等等。因为互联网上的文章很可能是关于法国的问答列表。相比之下,指令调整后的LLM更接受人们的指令。因此,如果你问它法国的首都是什么,它很可能会输出法国的首都是巴黎。指令调整后的LLM的研究和实践的动量更大。因此,指令调整后的LLM通常是这样训练的:首先,你从大量文本数据中训练出一个基础LLM,随后使用指令和良好尝试的输入和输出来对其进行微调和优化,然后通常使用称为“人类反馈强化学习”的技术进行进一步细化,以使系统更能够有帮助且能够遵循指令。因为指令调整后的LLM被训练成有用、诚实和无害的,所以它们输出有害文本(如毒性输出)的可能性比基础LLM更小。很多实际的应用场景已开始向指令调整后的LLM转移,而一些在互联网上查到的最佳实践则可能更适用于基础LLM。对于大多数今天的实际应用,我们建议大多数人应该专注于经过调整的指令语言模型。这些模型更易于使用,而且由于OpenAI和其他LLM公司的工作,它们变得更加安全和更加符合要求。因此,本课程将专注于经过调整的指令语言模型的最佳实践,这是我们建议大多数应用程序使用的模型。在继续之前,我只想感谢OpenAI和DeepLearning.ai团队为我们提供的材料做出的贡献。我非常感谢OpenAI的Andrew Main、Joe Palermo、Boris Power、Ted Sanders和Lillian Weng。他们与我们一起进行了头脑风暴,对材料进行了审核,为这个短期课程的课程设置拼凑了课程计划。我也感谢深度学习方面Geoff Ladwig、Eddy Shyu和Tommy Nelson的工作。

(2)初探LLM基座模型

从上一篇可以知道,entropy-like指标(如cross-entropy指标)常常运用在训练过程中,表征模型的收敛情况,同时也可以用于测试集的简单评估(如Perplexity指标等)。但对于丰富复杂的下游应用来说,这几个指标远远不能满足需求。如果想从第一性原理出发推导出所有指标,这并不现实。下面参考HELM论文的中内容,简单列举了NLP中的指标,大家不必深究,有个简单印象即可。正确性Accuracy。信息检索任务。NDCG@K指标,核心衡量最相关文档是否排序足够靠前的指标。摘要任务。一般用ROUGE指标,ROUGE是个指标体系,有4个大类,其中最简单的为2-gram的方式,即ROUGE-2。就是把两个sequence按2-gram的方式做切分做频次统计,然后计算pred和gt之间的召回率文本生成任务。Bits-per-Byte,类似于Perplexity指标不确定性Calibration and Uncertainty。针对二分类任务,一般用ECE指标(Expected Calibration Error)。核心是度量模型输出概率p的时候,最终正确率真的为p的一致性。鲁棒性Robustness。分为两种invariance。加入不改变语义的噪声,如果大小写变换,加入错别字typo等equivariance。利用contrast set,做语义改变,例如修改关键单词和短语把一个正面的评论改成负面的评论公平性Fairness。看模型输出是否公平,例如把性别和人种等换一下,看输出是否有变化偏见程度Bias and stereotypes。看模型有没有偏见和刻板的印象,例如看模型对亚洲人是否存在“学习好并且会谈钢琴”的偏见有毒性Toxicity。看模型输出是否有毒。

Others are asking
大语言模型、多模态、数据、算力、算法、预训练、微调、RAG、自注意力机制、transformer、token、神经网络、向量、scaling law这些内容的含义
以下是对您所提到的这些内容含义的解释: 大语言模型:是一种基于大量文本数据进行训练的语言处理模型,其工作原理包括训练数据、算力、模型参数等。在训练数据一致的情况下,模型参数越大能力越强。 多模态:指能够处理多种不同类型的数据模态,如文本、图像、音频等,并将它们融合进行理解和生成。 数据:是大语言模型训练和应用的基础,包括各种文本、图像、音频等信息。 算力:指用于支持大语言模型训练和运行的计算能力。 算法:是大语言模型实现各种功能的数学和逻辑方法。 预训练:在大语言模型中,先在大规模数据上进行无特定任务的初步训练。 微调:基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。 RAG:检索增强生成,通过引用外部数据源为模型做数据补充,适用于动态知识更新需求高的任务。其工作流程包括检索、数据库索引、数据索引、分块、嵌入和创建索引、增强、生成等步骤。 自注意力机制:是 Transformer 架构中的重要部分,能理解上下文和文本关联,通过不断检索和匹配来寻找依赖关系,处理词和词之间的位置组合,预测下一个词的概率。 Transformer:是大语言模型训练架构,用于翻译等任务,具备自注意力机制。 Token:在自然语言处理中,是文本的基本单位。 神经网络:是大语言模型的基础架构,模拟人脑神经元的连接和信息处理方式。 向量:在大语言模型中,用于表示文本等数据的数学形式。 Scaling Law:关于大语言模型规模和性能之间关系的规律。
2025-02-18
大语言模型、多模态、数据、算力、算法、预训练、微调、RAG、自注意力机制、transformer、token、神经网络、向量、scaling law这些内容的含义
以下是对您所提到的这些内容含义的解释: 大语言模型:是一种基于大量文本数据进行训练的语言处理模型,其工作原理包括训练数据、算力、模型参数等。在训练数据一致的情况下,模型参数越大能力越强。 多模态:指能够处理多种不同类型的数据模态,如文本、图像、音频等,并将它们融合进行理解和生成。 数据:是大语言模型训练和应用的基础,包括各种文本、图像、音频等信息。 算力:指用于支持大语言模型训练和运行的计算能力。 算法:是大语言模型实现各种功能的数学和逻辑方法。 预训练:在大语言模型中,先在大规模数据上进行无特定任务的初步训练。 微调:基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。 RAG:检索增强生成,通过引用外部数据源为模型做数据补充,适用于动态知识更新需求高的任务。其工作流程包括检索、数据库索引、数据索引、分块、嵌入和创建索引、增强、生成等步骤。 自注意力机制:是 Transformer 架构中的重要部分,能理解上下文和文本关联,通过不断检索和匹配来寻找依赖关系,处理词和词之间的位置组合,预测下一个词的概率。 Transformer:是大语言模型训练架构,用于翻译等任务,具备自注意力机制。 Token:在自然语言处理中,是文本的基本单位。 神经网络:是大语言模型的基础架构,模拟人脑神经元的连接和信息处理方式。 向量:在大语言模型中,用于表示文本等数据的数学形式。 Scaling Law:关于大语言模型规模和性能之间关系的规律。
2025-02-18
主流的LORA 训练工具是什么?
主流的 LORA 训练工具包括: 1. B 站 UP 主“朱尼酱”的赛博丹炉,其界面友好、美观,适合新手入门。 2. 训练器,支持 Kolors 开源模型。 3. Kolors+Refiner,由 AIKSK 开发的工作流应用。 4. Kolors可图大模型XL 精修工作流,由@AiARTiST 非人类开发。 5. kolors+SDXL 细节修复+instant+ipa,由@谷尘 DesignDog 开发。 6. kolors 一键设计中文海报,由亦诚视觉开发。 7. ,魔搭社区官方模型。 8. InstantIDKolors 专属模型,由 InstantX 开发。
2025-02-18
flux lora训练
以下是关于 Flux 的 Lora 模型训练的详细步骤: 模型准备: 1. 下载所需模型:t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。 注意:不使用时存放位置不限,只要知晓路径即可。训练时建议使用 flux1dev.safetensors 版本的模型和 t5xxl_fp16.safetensors 版本的编码器。 下载脚本: 1. 网盘链接: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 安装虚拟环境: 1. 下载完脚本并解压。 2. 在文件中找到 installcnqinglong.ps1 文件,右键选择“使用 PowerShell 运行”。 3. 新手在此点击“Y”,然后等待 1 2 小时的下载过程。下载完成后会提示是否下载 hunyuan 模型,选择“n”不用下载。 数据集准备: 1. 进入厚德云 模型训练 数据集:https://portal.houdeyun.cn/sd/dataset 2. 创建数据集:在数据集一栏中,点击右上角创建数据集,输入数据集名称。 可以上传包含图片 + 标签 txt 的 zip 文件,也可以上传只有图片的文件(之后可在 c 站使用自动打标功能),或者一张一张单独上传照片。建议提前将图片和标签打包成 zip 上传,Zip 文件里图片名称与标签文件应当匹配,例如:图片名“1.png”,对应的达标文件就叫“1.txt”。 上传 zip 以后等待一段时间,确认创建数据集。返回到上一个页面,等待一段时间后上传成功,可以点击详情检查,可预览到数据集的图片以及对应的标签。 Lora 训练: 1. 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 2. 选择数据集,点击右侧箭头,会跳出所有上传过的数据集。 3. 触发词可有可无,取决于数据集是否有触发词。模型效果预览提示词则随机抽取一个数据集中的标签填入即可。 4. 训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数。如果不知道如何设置,可以默认 20 重复次数和 10 轮训练轮数。 5. 可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力。 6. 等待训练,会显示预览时间和进度条。训练完成会显示每一轮的预览图。鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 数据集存放位置:.Flux_train_20.4\\train\\qinglong\\train 运行训练:约 1 2 小时即可训练完成。 验证和 lora 跑图:有 ComfyUI 基础的话,直接在原版工作流的模型后面,多加一个 LoraloaderModelOnly 的节点就可以,自行选择您的 Lora 和调节参数。
2025-02-17
LLM 训练推理模型有哪些
以下是一些常见的 LLM 训练推理模型: 1. FengshenbangLM: 地址: 简介:是 IDEA 研究院认知计算与自然语言研究中心主导的大模型开源体系,开源了姜子牙通用大模型 V1,是基于 LLaMa 的 130 亿参数的大规模预训练模型,具备翻译、编程、文本分类、信息抽取、摘要、文案生成、常识问答和数学计算等能力。除姜子牙系列模型之外,还开源了太乙、二郎神系列等模型。 2. BiLLa: 地址: 简介:开源了推理能力增强的中英双语 LLaMA 模型。较大提升 LLaMA 的中文理解能力,并尽可能减少对原始 LLaMA 英文能力的损伤;训练过程增加较多的任务型数据,利用 ChatGPT 生成解析,强化模型理解任务求解逻辑;全量参数更新,追求更好的生成效果。 3. Moss: 地址: 简介:支持中英双语和多种插件的开源对话语言模型,MOSS 基座语言模型在约七千亿中英文以及代码单词上预训练得到,后续经过对话指令微调、插件增强学习和人类偏好训练具备多轮对话能力及使用多种插件的能力。 此外,Andrej Karpathy 的相关介绍中提到了 LLM 训练的一些情况,如训练过程涉及大约 10TB 的文本,通常来源于互联网的抓取,需要大量的互联网资源和一个 GPU 集群,费用大约 200 万美元。Karpathy 的视频还详细介绍了 LLM 训练的全部过程,包括预训练、有监督微调和强化学习等。
2025-02-16
RVC声音模型训练
RVC 声音模型训练是将输入音频转换为训练的声音,即变声。它对训练素材量级要求较高,最少需要 20 分钟的素材才能达到理想效果,并且可以选择是否关联音高,以区分说话和唱歌两个不同场景。 在节目《马上封喉》中,负责马季老师语音生成部分的人员提到,AI 语音主要涉及 TTS(文本转语音)和 RVC 两项技术。此次的 AI 马季主要以 gptsovits 为主。 在 AI 春晚《西游不能停》的创作过程中,尝试了用 RVC 进行 vocal 变声的两种办法,但效果均不理想。第一种方法是训练声音模型后直接变声,存在变声后 AI 味儿太重、丢失原有强调的问题;第二种方法是训练声音模型,自己录 rap 后再变声,但需要在录音时尽量模仿还原出特点和感觉,这涉及到专业配音技巧,超出了能力范围。此外,八戒和沙僧声音的训练文件丢失,效果也不理想。
2025-02-13
我怎样用低代码工具去构建我的AI智能体?LLM应用?
以下是关于如何用低代码工具构建 AI 智能体和 LLM 应用的一些建议: 在构建基于 LLM 的应用时,Anthropic 建议先寻找最简单的解决方案,只在必要时增加复杂度。智能系统通常会以延迟和成本为代价来换取更好的任务表现,开发者需要考虑这种权衡是否合理。当需要更复杂的解决方案时,工作流适合需要可预测性和一致性的明确任务,而智能体则更适合需要灵活性和模型驱动决策的大规模场景。不过,对于许多应用来说,优化单个 LLM 调用(配合检索和上下文示例)通常就足够了。 目前有许多框架可以简化智能系统的实现,例如: 1. LangChain 的 LangGraph。 2. 亚马逊 Bedrock 的 AI Agent 框架。 3. Rivet(一个拖放式 GUI 的 LLM 工作流构建器)。 4. Vellum(另一个用于构建和测试复杂工作流的 GUI 工具)。 这些框架通过简化标准的底层任务(如调用 LLM、定义和解析工具、链接调用等)使入门变得容易,但它们往往会创建额外的抽象层,可能会使底层提示词和响应变得难以调试,也可能诱使开发者在简单设置就足够的情况下增加不必要的复杂性。建议开发者先直接使用 LLM API,许多模式只需要几行代码就能实现。如果确实要使用框架,请确保理解底层代码。 此外,还有以下相关工具和应用: 1. VectorShift:能在几分钟内构建和部署生成式人工智能应用程序,利用大型语言模型(例如 ChatGPT)构建聊天机器人、文档搜索引擎和文档创建工作流程,无需编码。 2. Unriddle:帮助更快阅读、写作和学习的工具,能简化复杂的主题,找到信息,提问并立即获得答案。 工具使用或函数调用通常被视为从 RAG 到主动行为的第一个半步,为现代人工智能栈增加了一个新的层。一些流行的原语如网页浏览(Browserbase、Tiny Fish)、代码解释(E2B)和授权+认证(Anon)已经出现,它们使 LLM 能够导航网络、与外部软件(如 CRM、ERP)交互并运行自定义代码。Omni 的计算 AI 功能体现了这种方法,它利用 LLM 直接输出适当的 Excel 函数到电子表格中,然后执行计算并自动生成复杂查询供用户使用。 详细示例请参考:https://github.com/anthropics/anthropiccookbook/tree/main/patterns/agents
2025-02-17
类似于ollama和vllm这样的LLM 框架有哪些
以下是类似于 ollama 和 vllm 的 LLM 框架: 1. Encoderonly 框架(也叫 AutoEncoder),典型代表如 BERT 等。 2. Encoderdecoder 框架,典型代表如 T5 和 GLM 等。 3. Decoderonly 框架(也叫 AutoRegressive),典型代表如 GPT 系列、LLaMa、PaLM 等。 此外,还有一些在 LLM 应用中发挥重要作用的框架,如: 1. LangChain:是当前大模型应用开发的主流框架之一,提供了一系列工具和接口,其核心在于“链”概念,包括 Model I/O、Retrieval、Chains、Agents、Memory 和 Callbacks 等组件,生态系统还包括 LangSmith、LangGraph 和 LangServe 等工具。 2. LlamaIndex:在促进 LLM 和整合上下文数据方面表现出色,抽象出许多提示链的细节,与外部 API 的接口,从向量数据库检索上下文数据,并在多个 LLM 调用中维持内存。
2025-02-17
大型语言模型(LLM)基于Transformer架构的模型的优缺点是什么,有什么局限性
大型语言模型(LLM)基于 Transformer 架构的模型具有以下优点: 1. 在大量数据集上进行预训练,展现出卓越的语言处理能力,能预测接下来的 Token。 然而,也存在一些缺点和局限性: 1. 瞬态状态:天生缺乏持久的记忆或状态,需要额外的软件或系统来保留和管理上下文。 2. 概率性质:随机性导致响应的不确定性,对相同提示词可能产生不同回答。 3. 过时信息:依赖预训练数据,只能访问历史知识,无法获取实时更新。 4. 内容制造:可能生成看似合理但不准确的信息,即“幻觉”。 5. 资源密集:巨大规模意味着显著的计算和财务成本,影响可扩展性和可访问性。 6. 领域特定性:本质上通用,但通常需要特定领域数据才能在专业任务中表现出色。 7. 缺乏创造性:像一个高性能的知识检索工具,超出检索范围时表现差,甚至出现“幻觉”。面对复杂逻辑推导和新的知识推演能力不足,无法基于新的语料推演出新知识。 8. 对于特定领域或高度专业化的查询,容易产生错误信息或“幻觉”,特别是当查询超出训练数据或需要最新信息时。
2025-02-13
anythingllm安装包
以下是关于 AnythingLLM 安装包的相关信息: 安装地址:https://useanything.com/download 。 安装完成后会进入配置页面,主要分为三步: 第一步:选择大模型。 第二步:选择文本嵌入模型。 第三步:选择向量数据库。 在 AnythingLLM 中有 Workspace 的概念,可以创建自己独有的 Workspace 与其他项目数据进行隔离。配置流程包括: 首先创建一个工作空间。 上传文档并且在工作空间中进行文本嵌入。 选择对话模式,提供了 Chat 模式和 Query 模式。Chat 模式大模型会根据训练数据和上传的文档数据综合给出答案,Query 模式大模型仅依靠文档中的数据给出答案。 完成上述配置后,即可与大模型进行对话。 此外,在 GitHubDaily 开源项目列表 2023 年复盘的 AIGC 部分中, 是一个可打造成企业内部知识库的私人专属 GPT,能将任何文档、资源或内容转换为大语言模型(LLM)知识库,在对话中引用其中内容。
2025-02-06
AnythingLLM 怎么用,好用吗
AnythingLLM 是一款功能强大的软件,具有以下特点和使用方法: 功能:包含了所有 Open WebUI 的能力,并且额外支持选择文本嵌入模型和向量数据库。 安装和配置:安装地址为 https://useanything.com/download 。安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。 构建本地知识库:其中有 Workspace 的概念,可以创建自己独有的 Workspace 与其他项目数据隔离。首先创建工作空间,然后上传文档并进行文本嵌入,接着选择对话模式,提供了 Chat 模式(大模型根据训练数据和上传文档数据综合给出答案)和 Query 模式(大模型仅依靠文档中的数据给出答案),最后进行测试对话。 相关评价:被认为是一个可打造成企业内部知识库的私人专属 GPT,能将任何文档、资源或内容转换为大语言模型(LLM)知识库,支持多用户使用,可设权限,兼容多种 LLM 和数据库。 总的来说,AnythingLLM 的使用效果因人而异,需要您亲自实践和体验来判断其是否好用。
2025-02-04
使用飞书机器人(如Coze智能体)自动抓取外部链接(如网页、公众号文章),通过多维表格存储为“稍后读”清单,并自动提取关键信息(标题、摘要、标签)
以下是使用飞书机器人(如 Coze 智能体)自动抓取外部链接(如网页、公众号文章),通过多维表格存储为“稍后读”清单,并自动提取关键信息(标题、摘要、标签)的相关内容: 前期准备: 1. 简化“收集”: 实现跨平台收集功能,支持电脑(web 端)、安卓、iOS 多端操作。 输入一个 URL 即可完成收集,借鉴微信文件传输助手的方式,通过聊天窗口输入更符合用户习惯。 2. 自动化“整理入库”: 系统在入库时自动整理每条内容的关键信息,包括标题、摘要、作者、发布平台、发布日期、收集时间和阅读状态。 阅读清单支持跨平台查看。 3. 智能“选择”推荐: 根据当前收藏记录和用户阅读兴趣进行相关性匹配,生成阅读计划。 使用步骤: 1. 设置稍后读存储地址: 首次使用,访问。 点击「更多创建副本」,然后复制新表格的分享链接。 将新链接发送到智能体对话中。 还可以发送“查询存储位置”、“修改存储位置”来更换飞书多维表格链接,调整稍后读存储位置。 2. 收藏待阅读的页面链接: 在对话中输入需要收藏的页面链接,第一次使用会要求授权共享数据,授权通过后再次输入即可完成收藏。 目前部分页面链接可能小概率保存失败。 3. 智能推荐想看的内容: 在对话中发送“我想看 xx”、“xx 内容”,即可按个人兴趣推荐阅读计划。 通过飞书机器人与 Coze 搭建的智能体进行对话,在聊天窗口中完成链接输入和阅读计划输出,由 Coze 调用大模型、插件完成内容的整理、推荐,利用飞书多维表格存储和管理稍后读数据,理论上无需开发任何插件、APP,就能实现跨平台的稍后读收集与智能阅读计划的推荐。部署完成后,您可以在电脑、手机端通过飞书机器人与稍后读助手进行对话,也可以直接在 Coze 商店中与 bot 进行对话,如果部署到微信服务号、订阅号,还可以通过这些渠道调用 bot。
2025-02-16
生成文章摘要及框架的提示词
以下是关于生成文章摘要及框架的提示词相关内容: 办公通用场景: 总结助手:请帮我总结以下文章,将以下文本总结为 100 个单词,使其易于阅读和理解。摘要应简明扼要,并抓住文本的要点。避免使用复杂的句子结构或技术术语。 周报生成器:根据日常工作内容,提取要点并适当扩充,以生成周报。 相关链接: Chain of Density:为给定文章生成越来越精简且信息丰富的摘要,重复两个步骤 5 次。步骤 1 找出 1 3 项先前摘要中遗漏的信息实体“informative entity”,步骤 2 生成新的更紧凑的摘要,涵盖先前所有信息实体及缺失实体。回复格式为 JSON,包含“Missing_Entities”和“Denser_Summary”两个键值。 利用 AI 打造爆款公众号文章:关键在于提供清晰且具指导性的提示词,好的提示词能让 AI 更准确理解需求并生成符合预期的内容。可从基础提示词进阶到更详细、具创意的提示词,为 AI 设定文章语气、风格和重点,最终产出内容可能需微调以符合预期和公众号风格。
2024-12-05
你会写论文摘要
以下是关于论文写作和摘要相关的综合信息: 1. 利用连锁密度法撰写摘要的方法:向您索取文章后,通过重复两个步骤共五次来撰写逐渐简洁、重点突出的文章摘要。步骤包括从文章中找出 1 3 个关键要素并编写新的更精炼的摘要,要遵循相关原则,最终以 JSON 格式(包含“Missing_Entities”和“Denser_Summary”两个键值)回答。 2. 提示工程中与论文写作相关的策略和技巧:使用分隔符(如三重引号、XML 标签、章节标题等)清晰区分输入的不同部分,例如总结、翻译等文本内容。 3. 论文写作的 AI 产品: 文献管理和搜索:Zotero 可自动提取文献信息,Semantic Scholar 是 AI 驱动的学术搜索引擎。 内容生成和辅助写作:Grammarly 提供文本校对等,Quillbot 可重写和摘要。 研究和数据分析:Google Colab 支持数据分析,Knitro 用于数学建模和优化。 论文结构和格式:LaTeX 处理论文格式,Overleaf 是在线 LaTeX 编辑器。 研究伦理和抄袭检测:Turnitin 和 Crossref Similarity Check 检测抄袭。使用时要结合自身需求选择合适工具,并仔细甄别生成内容。
2024-11-20
推荐一个免费的ai写摘要软件
以下为您推荐一些免费的 AI 写摘要软件: Bing(https://www.bing.com/search?q=Bing+AI&showconv=1&FORM=hpcodx) Claude 2(https://claude.ai/) 此外,还有一些在其他写作方面表现出色的 AI 工具: 简历写作: Kickresume 的 AI 简历写作器:使用 OpenAI 的 GPT4 语言模型自动生成简历,包括摘要、工作经验和教育等专业部分,并保持一致语调。 Rezi:受到超过 200 万用户信任的领先 AI 简历构建平台,能自动化创建简历的各个方面。 Huntr 的 AI 简历构建器:提供免费简历模板,以及 AI 生成的总结、技能、成就生成器和工作匹配。更多 AI 简历产品可查看:https://www.waytoagi.com/category/79 论文写作: 文献管理和搜索:Zotero 可自动提取文献信息;Semantic Scholar 是 AI 驱动的学术搜索引擎,提供文献推荐和引用分析。 内容生成和辅助写作:Grammarly 提供文本校对、语法修正和写作风格建议;Quillbot 可重写和摘要,优化内容。 研究和数据分析:Google Colab 支持 AI 和机器学习研究,便于数据分析和可视化;Knitro 用于数学建模和优化。 论文结构和格式:LaTeX 结合自动化和模板处理格式和数学公式;Overleaf 是在线 LaTeX 编辑器,提供模板库和协作功能。 研究伦理和抄袭检测:Turnitin 和 Crossref Similarity Check 检测抄袭,确保原创性。 需要注意的是,这些内容由 AI 大模型生成,请仔细甄别。
2024-11-20
用50个字概括AI如何会议记录&摘要
AI 进行会议记录和摘要可涵盖会议主题、人员、议题等要素,借助相关工具和工作流,如飞书妙记、Kimichat 等,按流程生成和完善。
2024-11-13
用20个字概括AI会议记录&摘要
AI 会议记录与摘要涵盖多场景多领域内容
2024-11-13
我该怎么学习ai?帮我组织一个流程,能很好的利用你的资源。
以下是为您组织的学习 AI 的流程: 一、了解 AI 基本概念 建议阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能的定义、主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。同时,浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 二、开始 AI 学习之旅 在「」中,您将找到一系列为初学者设计的课程。特别推荐李宏毅老师的课程。您还可以通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 三、选择感兴趣的模块深入学习 AI 领域广泛,涵盖图像、音乐、视频等方面。您可以根据自己的兴趣选择特定的模块进行深入学习,同时一定要掌握提示词的技巧,它上手容易且很有用。 四、实践和尝试 理论学习之后,实践是巩固知识的关键。尝试使用各种产品做出您的作品,在知识库中也有很多大家实践后的作品、文章分享,欢迎您实践后也进行分享。 五、体验 AI 产品 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式,获得对 AI 在实际应用中表现的第一手体验,并激发您对 AI 潜力的认识。 另外,费曼学习法也是一种有效的学习方式。它强调通过教授他人来深化个人理解和知识的掌握,基本步骤包括选择一个概念、教给他人、回顾和简化、组织和比较。其应用场景包括个人学习、教学和培训、知识分享等。 WaytoAGI(通往 AGI 之路)是一个致力于人工智能学习的中文知识库和社区平台,汇集了上千个人工智能网站和工具,提供最新的 AI 工具、AI 应用、AI 智能体和行业资讯,还有丰富的学习资源、实践活动,并倡导开放共享的知识体系。在没有任何推广的情况下,WaytoAGI 一年时间已有超过 100 万用户和超千万次的访问量,目前合作过众多公司和产品。
2025-02-17
wps怎么接入deepseek 流程
以下是 WPS 接入 DeepSeek 的流程: 1. 注册并登录火山引擎,点击立即体验进入控制台。链接:https://zjsms.com/iP5QRuGW/ (火山引擎是字节跳动旗下的云服务平台,在 AI 领域最为大众所熟知的应该是“豆包大模型”,这里就是源头) 2. 创建一个接入点:点击在线推理创建推理接入点 3. 为接入点命名为 DeepSeekR1。然后可能会提示:“该模型未开通,开通后可创建推理接入点”。如果有提示,就点击“立即开通”,开通一下就可以了。如果无提示则直接到第 5 步,点击确认接入。 4. 点击“立即开通”跳转到此页面,勾选全部模型和协议,一路点击开通即可。(这里是免费的) 5. 确认以下无误后,点击“确认接入”按钮。 6. 自动返回创建页面。发现多出一行接入点名是“DeepSeekR1”(我们刚才自己设置的命名)。重点来了:这个就是推理点的 ID,复制他放到您的微信里,发给自己保存一下。 7. 保存后再点击【API 调用】按钮,进入后点击【选择 API Key 并复制】 8. 如果您已经有 API key 了,就直接查看并复制。如果没有,则点击【创建 API key】 9. 把这个复制好之后,也放到您自己微信里,保存好。到这一步,我们已经完成拿到了模型的密钥。接着,就可以去把它配置到网页聊天里使用。
2025-02-17
wps接入deepseek 的流程
以下是 WPS 接入 DeepSeek 的流程: 1. 注册并登录火山引擎,点击立即体验进入控制台。链接:https://zjsms.com/iP5QRuGW/ (火山引擎是字节跳动旗下的云服务平台,在 AI 领域最为大众所熟知的应该是“豆包大模型”,这里就是源头) 2. 创建一个接入点:点击在线推理创建推理接入点 3. 为接入点命名为 DeepSeekR1。然后可能会提示:“该模型未开通,开通后可创建推理接入点”。如果有提示,就点击“立即开通”,开通一下即可。如果无提示则直接到第 5 步,点击确认接入。 4. 点击“立即开通”跳转到此页面,勾选全部模型和协议,一路点击开通(这里是免费的) 5. 确认以下无误后,点击“确认接入”按钮。 6. 自动返回创建页面。发现多出一行接入点名是“DeepSeekR1”(我们刚才自己设置的命名)。重点来了:这个就是推理点的 ID,复制他放到您的微信里,发给自己保存一下。 7. 保存后再点击【API 调用】按钮,进入后点击【选择 API Key 并复制】 8. 如果您已经有 API key 了,就直接查看并复制。如果没有,则点击【创建 API key】 9. 把这个复制好之后,也放到您自己微信里,保存好。到这一步,我们已经完成拿到了模型的密钥。接着,就可以去把它配置到网页聊天里使用。
2025-02-17
可以根据制度梳理流程的AI
以下是关于可以根据制度梳理流程的 AI 的相关信息: 基于 Agent 的创造者学习方向:以大语言模型为大脑,串联所有已有的工具和新造的 AI 工具,着重关注在创造能落地 AI 的 agent 应用。 Agent 工程(基础版)的迭代范式: 梳理流程:梳理工作流程 SOP,并拆解成多个单一「任务」和多个「任务执行流程」。 「任务」工具化:自动化每一个「任务」,形成一系列的小工具,让机器能完成每一个单一任务。 建立规划:串联工具,基于 agent 框架让 bot 来规划「任务执行流程」。 迭代优化:不停迭代优化「任务」工具和「任务执行流程」规划,造就能应对实际场景的 Agent。 关于 AI 在 DevOps 流程中的作用:AI 可以在 DevOps 中承担指定计划、拆分任务和调用工具的角色,但目前无法完全评定任务结果的正确性和质量。现阶段更靠谱的方式是让 AI 辅助完成部分任务(如画原型图、设计表结构、写自动化测试代码),但需要人类验证后才能进行下一步操作。完全依赖 AI 可能带来风险,如生产环境出错或被黑客恶意利用漏洞。 关于 ChatGPT 的记忆能力:ChatGPT 支持记忆功能,可通过摘要保存对话内容以延续角色和对话风格,但新开会话可能在高推理任务中效果更好。建议将角色设定和部分对话作为样例(fewshot)放入提示词中,以优化生成质量。 学习 GPT 的妙招:结合视频教程、文字转录和基础资料,通过 ChatGPT 讲解学习内容。更好的方式是角色反转,自己当老师,ChatGPT 当学生,通过提问互动和查漏补缺能有效提升学习效果。
2025-02-12
能生成流程图吗
生成流程图有以下几种方式: 1. 可视化拖拽: 代表产品有:(web 工具)、visio(本地软件)。 优点:直观。 缺点:需要花时间在布局上。 2. 语法渲染成图形: 代表语法:。 优点: 只用关注逻辑,文本即图形,方便直接嵌入在 markdown 文件中,比如在用 tyora、markdown 写文档时。 多样性,不同渲染引擎可渲染成多种样式。 缺点:有点抽象。 可以用 ChatGPT 来帮忙,通过自然语法转成图形语法,生成流程如下: 1. 确定制作目标。 2. 通过自然语法描述逻辑。 3. 在线校验测试是否成功。 此外,还有“超级微信机器人”可以通过 GPT4 tubro(128k)大模型、Dalle 3 绘画、智能 Bing&Google 搜索、谷歌搜图、GPT4v 识图、B站 等各大网站专用搜索、Generate MindMap 生成流程图来支撑其强大的能力,但使用微信机器人存在封号危险,且操作需依法合规,注意数据处理等问题。
2025-02-11
企业准备把钉钉迁移打企业微信,智能人事 审批流程 考勤打卡这些都能依靠企业微信达到吗
企业微信具备智能人事、审批流程和考勤打卡等功能。但具体能否完全满足您企业从钉钉迁移过来后的需求,还需要根据您企业的业务特点和具体要求进行评估和适配。一般来说,企业微信在这些方面提供了较为全面的解决方案,但在实际应用中可能会存在一些差异和需要调整的地方。
2025-02-10