Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

大模型 关键性能指标

Answer

对比不同大模型的性能需要考虑多个维度,包括但不限于以下方面:

  1. 理解能力:评估对语言的语法、语义、上下文和隐含意义的理解程度。
  2. 生成质量:检查生成文本的流畅性、相关性和准确性。
  3. 知识广度和深度:掌握广泛主题的知识程度,以及对特定领域或话题的理解深度。
  4. 泛化能力:测试处理未见过任务或数据时的表现。
  5. 鲁棒性:应对错误输入、对抗性输入或模糊不清指令的能力。
  6. 偏见和伦理:生成文本时是否存在偏见,是否遵循伦理标准。
  7. 交互性和适应性:在交互环境中的表现,包括对用户反馈的适应性和持续对话能力。
  8. 计算效率和资源消耗:考虑模型大小、训练和运行所需的计算资源。
  9. 易用性和集成性:是否易于集成到不同应用和服务中,提供的 API 和工具的易用性。

为了进行有效的比较,可以采用以下方法:

  1. 标准基准测试:使用如 GLUE、SuperGLUE、SQuAD 等标准的语言模型评估基准,它们提供统一的测试环境和评分标准。
  2. 自定义任务:根据特定需求设计任务,评估在特定领域的表现。
  3. 人类评估:结合人类评估者的主观评价,特别是在评估文本质量和伦理问题时。
  4. A/B 测试:在实际应用场景中,通过 A/B 测试比较不同模型的表现。
  5. 性能指标:使用准确率、召回率、F1 分数、BLEU 分数等量化比较。

例如,通义千问开源的 Qwen2.5-1M 大模型,推出 7B、14B 两个尺寸,在处理长文本任务中稳定超越 GPT-4o-mini,同时开源推理框架,在处理百万级别长文本输入时可实现近 7 倍的提速,首次将开源 Qwen 模型的上下文扩展到 1M 长度。在上下文长度为 100 万 Tokens 的大海捞针任务中,Qwen2.5-1M 能够准确地从 1M 长度的文档中检索出隐藏信息。

Google DeepMind 的 Gemini 2.0 Flash 多模态大模型支持图像、视频、音频等多模态输入,可生成图文混合内容和多语言 TTS 音频。模型原生支持 Google 搜索、代码执行及第三方 API 调用等工具链能力,处理速度较 Gemini 1.5 Pro 提升一倍,关键性能指标已超越前代产品。作为 Gemini 2.0 系列首发模型,在多模态理解与生成方面实现重要突破。产品入口目前通过 Google AI Studio 和 Vertex AI 平台提供实验版 API 接口,预计 2025 年 1 月起全面商用,并将陆续发布 Gemini 2.0 系列其他版本。

Content generated by AI large model, please carefully verify (powered by aily)

References

问: 如何对比不同大语言模型的性能

对比不同大型语言模型的性能需要考虑多个维度,包括但不限于以下几个方面:1.理解能力:评估模型对语言的理解程度,包括对语法、语义、上下文和隐含意义的理解。2.生成质量:检查模型生成的文本的质量,包括文本的流畅性、相关性和准确性。3.知识广度和深度:评估模型对广泛主题的知识掌握程度,以及它对特定领域或话题的理解深度。4.泛化能力:测试模型在处理未见过的任务或数据时的表现,这反映了模型的泛化能力。5.鲁棒性:检查模型对错误输入、对抗性输入或模糊不清的指令的应对能力。6.偏见和伦理:评估模型生成文本时是否存在偏见,以及模型是否遵循伦理标准。7.交互性和适应性:评估模型在交互环境中的表现,包括对用户反馈的适应性和持续对话的能力。8.计算效率和资源消耗:考虑模型的大小、训练和运行所需的计算资源。9.易用性和集成性:评估模型是否易于集成到不同的应用和服务中,以及提供的API和工具的易用性。为了进行有效的比较,可以采用以下方法:标准基准测试:使用标准的语言模型评估基准,如GLUE、SuperGLUE、SQuAD等,这些基准提供了统一的测试环境和评分标准。自定义任务:根据特定需求设计任务,以评估模型在特定领域的表现。人类评估:结合人类评估者的主观评价,特别是在评估文本质量和伦理问题时。A/B测试:在实际应用场景中,通过A/B测试比较不同模型的表现。性能指标:使用包括准确率、召回率、F1分数、BLEU分数等在内的性能指标来量化比较。

通义千问发布一个模型开源两个模型-一个AI视觉智能体能力大幅增强,一个百万Tokens处理速度提升近7倍

本次开源的Qwen2.5-1M大模型,我们推出7B、14B两个尺寸,均在处理长文本任务中稳定超越GPT-4o-mini;同时开源推理框架,在处理百万级别长文本输入时可实现近7倍的提速。这也是我们首次将开源Qwen模型的上下文扩展到1M长度。1M长度≈100万个单词≈150万个汉字≈2部《红楼梦》[heading2]长文本处理能力[content]在上下文长度为100万Tokens的大海捞针(Passkey Retrieval)任务中,Qwen2.5-1M能够准确地从1M长度的文档中检索出隐藏信息,仅有7B模型出现了少量错误。对于更复杂的长上下文理解任务,通义官方选择了[RULER](https://github.com/hsiehjackson/RULER)、[LV-Eval](https://github.com/infinigence/LVEval)和[LongbenchChat](https://github.com/THUDM/LongAlign),这些测试集也在[此博客](https://qwenlm.github.io/zh/blog/qwen2.5-turbo/#more-complex-long-text-tasks)中进行了介绍。从这些结果中,我们可以得出以下几点关键结论:1.显著超越128K版本:Qwen2.5-1M系列模型在大多数长上下文任务中显著优于之前的128K版本,特别是在处理超过64K长度的任务时表现出色。2.性能优势明显:Qwen2.5-14B-Instruct-1M模型不仅击败了Qwen2.5-Turbo,还在多个数据集上稳定超越GPT-4o-mini,因此可以作为现有长上下文模型的优秀开源替代。

赛博月刊@24年12月:AI行业大事记

Gemini 2.0 Flash支持图像、视频、音频等多模态输入,可生成图文混合内容和多语言TTS音频。模型原生支持Google搜索、代码执行及第三方API调用等工具链能力。模型处理速度较Gemini 1.5 Pro提升一倍,关键性能指标已超越前代产品。作为Gemini 2.0系列首发模型,在多模态理解与生成方面实现重要突破。产品入口:目前通过Google AI Studio和Vertex AI平台提供实验版API接口。预计2025年1月起全面商用,并将陆续发布Gemini 2.0系列其他版本。补充信息:Google Gemini模型家族发展历史:2023年12月发布Gemini 1.0(包含Nano、Pro、Ultra三个版本),2024年2月推出Gemini 1.5(Flash和Pro版本)。2024年模型性价比No.1?https://blog.google/technology/google-deepmind/google-gemini-ai-update-december-2024

Others are asking
(二) 性能指标(包括服务性能指标、网络性能指标、云性能指标)
对比不同大语言模型的性能需要从多个维度进行考量,具体包括: 1. 理解能力:评估模型对语言的理解程度,涵盖语法、语义、上下文及隐含意义的理解。 2. 生成质量:检查生成文本的质量,如流畅性、相关性和准确性。 3. 知识广度和深度:衡量模型对广泛主题的知识掌握情况,以及对特定领域或话题的理解深度。 4. 泛化能力:测试模型处理未见过任务或数据时的表现,反映其泛化能力。 5. 鲁棒性:查看模型对错误输入、对抗性输入或模糊指令的应对能力。 6. 偏见和伦理:评估生成文本是否存在偏见,以及是否遵循伦理标准。 7. 交互性和适应性:评估在交互环境中的表现,包括对用户反馈的适应性和持续对话能力。 8. 计算效率和资源消耗:考虑模型大小、训练和运行所需的计算资源。 9. 易用性和集成性:评估是否易于集成到不同应用和服务中,以及提供的 API 和工具的易用性。 为了进行有效的比较,可以采用以下方法: 1. 标准基准测试:使用标准的语言模型评估基准,如 GLUE、SuperGLUE、SQuAD 等,这些基准提供统一的测试环境和评分标准。 2. 自定义任务:根据特定需求设计任务,评估模型在特定领域的表现。 3. 人类评估:结合人类评估者的主观评价,特别是在评估文本质量和伦理问题时。 4. A/B 测试:在实际应用场景中,通过 A/B 测试比较不同模型的表现。 5. 性能指标:使用包括准确率、召回率、F1 分数、BLEU 分数等在内的性能指标来量化比较。
2024-12-26
AI 评估 GPU 大模型的性能指标,包括输入 token 和输出 token 能力的区分。
以下是关于 AI 评估 GPU 大模型性能指标中输入 token 和输出 token 能力区分的相关内容: 大模型是通过输入大量语料进行训练,从而获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。在大模型的训练和使用过程中: 1. 训练需要大量计算,GPU 更合适,只有具备大量 GPU 的才有资本训练大模型。 2. 大模型需要大量数据量,几千亿序列(Token)的输入基本是标配。 3. 要用合适的算法让大模型更好理解 Token 之间的关系。 4. 为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 完成上述步骤后,大模型就可以进行如翻译、问答等推导(infer)工作。 Token 是大模型语言体系中的最小单元,人类语言发送给大模型时,会先转换为其自身语言,推理生成答案后再翻译输出。不同厂商的大模型对中文的文本切分方法不同,通常 1Token 约等于 1 2 个汉字。大模型的收费计算方法以及对输入输出长度的限制,都是以 token 为单位计量的。 在评估 GPU 大模型性能时,显卡的常规指标很重要。大部分模型默认采用 FP16 的加载方式,因此显卡的性能指标主要关注 FP16 的算力和显存大小。算力影响推理速度,包括输入数据处理和持续吐出数据的速度,会体现在从提示词输入后到第一个输出的 token 的等待时间间隔,以及流式输出下每秒吐字的字数,通常每秒 10 token 以上能获得较好的用户体验。显存大小影响能否装载模型,可通过“参数大小乘 2”简化判断所需显存大小,但实际显存需求还会受其他因素影响。
2024-12-05
大模型的系统提示词
大模型的系统提示词主要包括以下方面: 1. 在“五津:一键生成‘摸鱼打工猫’视频”中,针对用户选择的主题和回答,总结用户的创作意图,如“打工猫摸鱼的 2 小时,在巴厘岛能看一场日落”,并根据此生成 4 组体现幽默风趣、以宫崎骏风格描绘主角为摸秋刀鱼橘猫的绘图提示词,以数组形式输出到“tishici”,将用户意图输出到“biaoti”。 2. 在“云中江树:智能对决:提示词攻防中的 AI 安全博弈”中,系统提示词的相关防御措施分为输入侧、模型侧和输出侧三个部分。输入侧可进行意图识别、语义匹配等综合判断用户输入是否恶意;模型侧对于有能力的厂商应增强安全性并平衡性能,开发者则要在开发中带着安全意识优化系统提示词,加入安全引导和禁止内容等;输出侧可使用传统防御和内容过滤手段,并针对大模型特点进行私有数据泄露等检查。此外,还提到间接注入和提示词泄露的情况,间接注入常发生在应用获取依赖外部数据资源时,攻击者通过隐藏恶意指令完成攻击;提示词泄露指试图操纵模型输出获取部分或全部系统提示词,大模型输出内容可分为系统提示词、用户提示和助手提示词三段,通过攻击手段可获取系统提示词。
2025-04-18
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
目前全世界最厉害的视觉理解大模型是哪个
目前在视觉理解大模型方面,较为突出的有 DeepSeek 的 JanusPro 模型,它将图像理解和生成统一在一个模型中;还有通义千问的视觉理解模型,其价格有较大降幅。此外,Pixverse V3.5 是全球最快的 AI 视频生成模型,在某些方面也展现出了出色的能力。但很难确切地指出全世界最厉害的视觉理解大模型,因为这取决于不同的评估标准和应用场景。
2025-04-15
大模型对话产品的优劣
大模型对话产品具有以下优点: 1. 具有强大的语言理解和生成能力。 2. 能够提供类似恋爱般令人上头的体验,具有一定的“想象力”和“取悦能力”。 3. 可以通过陪聊建立人和 AI 之间的感情连接,产品粘性不完全依赖技术优越性。 4. 能够为用户提供产品咨询服务,适用于有企业官网、钉钉、微信等渠道的客户。 5. 具有多种应用场景,如私有领域知识问答、个性化聊天机器人、智能助手等。 大模型对话产品也存在一些缺点: 1. 存在记忆混乱的问题。 2. AI 无法主动推动剧情,全靠用户脑补,导致用户上头期短,疲劳度高,长期留存低。 3. 无法回答私有领域问题(如公司制度、人员信息等)。 4. 无法及时获取最新信息(如实时天气、比赛结果等)。 5. 无法准确回答专业问题(如复杂数学计算、图像生成等)。
2025-04-14
问题定义: 1. 核心问题陈述:创作一份个人参赛的、以光伏业务中财务工作与AI结合进行业务赋能为主题的展示类参赛方案框架。 2. 关键上下文信息:公司举办AI创新大赛,个人参赛,主题方向为工作和AI结合限定在业务赋能,公司业务是光伏领域。 3. 问题的具体范围界定:聚焦光伏业务中财务工作与AI结合进行业务赋能的展示方案框架创作。 答案要求: 1. 内容范围: - 必须包含:整体参赛方案思路、光伏财务业务与AI结合的具体方向、展示方案大致框架。
很抱歉,您提供的知识库内容中没有与光伏业务中财务工作与 AI 结合进行业务赋能的参赛方案框架相关的信息。但以下是为您生成的一个可能的参赛方案框架示例: 一、整体参赛方案思路 本次参赛方案旨在探索如何将 AI 技术应用于光伏业务中的财务工作,以实现更高效、精准和智能化的业务赋能。通过深入分析光伏行业的特点和财务工作的需求,结合先进的 AI 技术,提出创新的解决方案,提升财务工作的效率和质量,为公司的光伏业务发展提供有力支持。 二、光伏财务业务与 AI 结合的具体方向 1. 财务预测与分析 利用机器学习算法对光伏项目的成本、收益进行预测,为投资决策提供数据支持。 分析市场趋势和政策变化对财务状况的影响,提前制定应对策略。 2. 风险评估与管理 运用大数据和人工智能技术,对光伏项目的风险进行实时监测和评估。 建立风险预警模型,及时发现潜在的财务风险。 3. 成本优化与控制 通过智能算法优化供应链管理,降低采购成本。 分析生产过程中的能耗数据,实现成本的精细化控制。 4. 财务报表自动化生成与审计 利用自然语言处理技术自动生成财务报表,提高工作效率。 运用 AI 辅助审计,提高审计的准确性和效率。 三、展示方案大致框架 1. 项目背景与目标 介绍光伏行业的发展现状和公司的业务情况。 阐述将财务工作与 AI 结合的目标和意义。 2. 技术方案与实现 详细介绍所采用的 AI 技术和算法。 展示技术方案的实现过程和关键步骤。 3. 应用案例与效果 分享实际应用案例,展示 AI 在财务工作中的具体应用场景。 分析应用效果,如成本降低、效率提升、风险控制等方面的成果。 4. 未来展望与挑战 展望 AI 在光伏财务领域的未来发展趋势。 探讨可能面临的挑战及应对策略。 5. 总结与结论 总结方案的核心内容和创新点。 强调对公司光伏业务的价值和贡献。 以上框架仅供参考,您可以根据实际情况进行进一步的细化和完善。
2025-03-28
使用coze提取包含我指定的几个关键词的小红书内容数据进行汇总及分析
以下是关于使用 Coze 提取包含指定关键词的小红书内容数据进行汇总及分析的相关内容: 首先,在“一枚扣子:Coze 应用+多维表格的高速数据分析”中提到: 1. 需求是根据博主链接获取笔记并自动写入多维表格,然后进行批量分析。 2. 完成后端准备工作后,需找到博主地址,批量读取笔记并写入多维表格的 note_url 列。 3. 打开 Coze 创建应用,可选择 PC 模式,需要几个参数如多维表格地址、数据表名、小红书博主首页地址。 4. 设计读取博主笔记列表的工作流,包括创建应用、开发工作流等步骤。工作流实际上只有读取、转换、写入三步,开始节点设置三个参数,第二步需进行数据转换,添加代码节点,最后在插件市场选择多维表格插件并配置参数。 其次,在“舆情管理大师汽车 bot 小队.pptx”中: 1. 提到采集结果实时更新、智能总结链接内容、智能打分辅助判断等功能。 2. 构建高效数据流转体系,包括数据入表、关键词库等。 3. 任意关键词的工作流都适配,只需要调整 prompt。 最后,在“一枚扣子:2.0Coze 应用+多维表格+数据分析”中: 1. 介绍了配置管理,通过用户变量保存设置用于其他工作流。 2. 编排工作流,在开始节点添加变量接收 UI 输入的配置参数。 3. 包括账号分析、关键词/赛道分析等工作流,基础工作流用于查询,同步数据工作流涉及代码节点。 综上所述,使用 Coze 提取小红书内容数据进行汇总及分析需要创建应用、配置参数、设计工作流,并结合多维表格等工具实现相关功能。
2025-03-25
我要写论文,想看看知网有哪些关键词应该怎么样提问ai
以下是关于知网关键词提问以及相关 AI 应用的一些信息: 知网关键词提问: 对于论文写作,在知网中提问关键词时,可以参考以下方面:书籍、报告、文件、详细信息、查询、主题、作者、出版日期、出版社、问题、方面、原则、方法、概括、主要观点、解释。 提问模板: 第一步:输入信息。向 ChatGPT 提供您要查询的书籍、报告或文件的详细信息,提供越详细,越能针对问题提供准确答案。例如:书籍:(书名)+(作者)+(出版日期)+(出版社);报告:(时间)+(主题);文件:(名称)。 第二步:提出问题。例如:这本书当中提到了关于 XXX 的哪些方面/原则/方法?根据 XXX 报告,XXX 行业的增长趋势是怎样的?请给我一个关于《XXX》报告的简要概括等。 AI 应用: 在图片生成方面,为了生成想要的图片,一般图片内容会分为二维插画以及三维立体两种主要表现形式。生成图片时,主题描述可以包括场景、故事、物体、人物的细节和搭配等。设计风格可以通过找风格类的关键词参考或垫图/喂图让 AI 生成相应风格的图片。但一个大场景中有多个角色的细节不太容易通过关键词生成。 开搜 AI 搜索是一款免费无广告、直达结果的搜索工具,具有以下应用场景: 帮助在校学生快速搜集专业领域的学术资料,智能总结关键信息,助力撰写论文和报告,同时支持查看来源出处,参考价值高。 方便教育教师群体获取丰富的教学资源,自动生成教案和课题研究报告,提高教学内容的准备效率。 助力职场办公人群高效查找工作所需信息,简化文案撰写、PPT 制作和工作汇报的准备工作。 为学术研究人员提供深入的行业分析,通过 AI 技术整合和总结大量数据,形成有深度的研究报告。
2025-03-21
快速帮我补充下大模型的发展时间线和关键节点,以及当前最前沿的新闻
大模型的发展时间线和关键节点如下: 2017 年:发布《Attention Is All You Need》论文。 2018 年: Google 提出 BERT,创新性地采用双向预训练并行获取上下文语义信息及掩码语言建模。 OpenAI 提出 GPT,开创仅使用自回归语言建模作为预训练目标的方式。 2021 年:Meta 提出 Large LAnguage Model Approach(LLAMA),成为首个开源模型。 2022 年 11 月 30 日:ChatGPT 发布,在全球范围内掀起人工智能浪潮。 2022 年 12 月:字节云雀大模型等出现。 2023 年: 国内大模型发展大致分为准备期(国内产学研迅速形成大模型共识)、成长期(数量和质量逐渐增长)、爆发期(开源闭源大模型层出不穷,形成百模大战态势)。 关键进展包括:Meta 开源 Llama2、OpenAI 发布多模态 GPT4V 及 GPT4 Turbo、百川智能开源 Baichuan7B 及 Baichuan2、百度升级文心一言 4.0、清华&智谱 AI 开源 ChatGLM2 及清华开源 ChatGLM3、腾讯发布混元助手等。 当前最前沿的新闻包括:过去半年,国内领军大模型企业实现了大模型代际追赶的奇迹,从 7 月份与 GPT3.5 的 20 分差距,到 11 月份测评时已在总分上超越 GPT3.5。
2025-03-14
怎么学ai关键词
学习 AI 关键词可以从以下几个方面入手: 1. 主题描述: 可以描述场景、故事、元素、物体或人物的细节和搭配。 对于场景中的人物,要进行独立描述,避免用一长串文字,将其拆分为多个部分,如“一个男孩、穿着红色盔甲、站在山顶”,这样更易接近想要的场景。但大场景中多个角色的细节不太容易通过关键词生成。 2. 设计风格: 设计师可能难以直接表达设计风格,可找风格类关键词参考或用垫图/喂图的方式,让 AI 根据给出的图片风格结合主题描述生成相应风格的图片。 研究特定材质如玻璃、透明塑料、霓虹色彩等的关键词,某些情况下可能需要加入设计师风格,单纯控制材质较难达到要求。 3. 视频镜头: 例如黑白镜头,提示词可为“黑白镜头,展示一个老街区的复古场景,增强怀旧感”。 特写镜头,如“特写镜头展示一双男性眼睛”。 微距镜头,如“微距镜头,超近距离拍摄一个蚂蚁的触角,背景虚化,增强画面的细腻感和真实感”。 掌握并理解提示词中的核心关键词并不困难,只要方法正确,就能独立还原并创新创作过程。大家可以一起收集和测试适用 AI 绘画提示词中的核心关键词,根据关键词做创意,收录不错的作品。
2025-03-10
正在搭建客户CRM系统,对于客户拜访跟进记录表格,希望平衡销售人员的录入便捷性和信息完整性,如何通过多维表格接入的AI功能来简化信息录入,比如通过语音录音,直接解析内容。推荐我具体方法,包括怎么解析语音,输出的关键字段,以及提示词
以下是一种通过多维表格接入的 AI 功能来简化客户拜访跟进记录信息录入的方法: 1. 定义任务目标:让 AI 成为您的私人 CRM,即客户管理系统。 2. 编写指令: 定义角色:希望 AI 作为一名顶级的客户服务与销售总监,负责记住客户的爱好与信息。 提供背景信息:简单描述自己的身份,例如负责什么产品的销售。 明确任务目标和输出要求:在每次拜访客户后,把重要信息发送给 AI,要求 AI 每次接到新的客户消息后,只用回复一句“收到,知道了。” 3. 信息录入方式:可以通过语音录音的方式将拜访客户的信息传达给 AI。 4. 语音解析:利用 AI 的语音识别和自然语言处理能力,对语音内容进行解析。 5. 输出的关键字段:可能包括客户姓名、联系方式、拜访时间、拜访内容要点、客户需求、客户反馈等。 6. 提示词:例如“请整理本次拜访客户的关键信息”“提取重要内容并生成表格”等。 您可以参考以上方法,根据实际需求进行调整和优化。
2025-03-07