Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

模型能力测评方法有哪些,比如ragas这种

Answer

以下是一些常见的模型能力测评方法:

  1. 从模型角度(generation):
    • 回答真实性:评估模型结果的真实性,减少模型幻觉。
    • 回答相关度:衡量结果与问题的相关性,避免南辕北辙。
  2. 从检索角度(retrieval):
    • 召回率(recall):考查相关信息在返回的检索内容中的包含程度,越全越好。
    • 准确率(precision):评估返回的检索内容中有用信息的占比,越多越好。

RAGAS 是一个用于 RAG 评估的知名开源库,您可以通过https://github.com/explodinggradients/ragas了解和使用。

RAG 具有一定的优势和局限性: 优势:

  • 能够解决大语言模型技术中输出结果的不可预测性、知识的局限性、幻觉问题、数据安全性等问题。
  • 可以让大模型从权威的、预先确定的知识来源中检索、组织相关信息,更好地控制大模型生成的文本输出,并且用户可以深入了解 LLM 如何生成最终的结果。
  • 可以和微调结合使用。

局限性:

  • 适合打造专才,不适合打造通才,不适合为模型提供通用领域知识。
  • 难以让模型保持稳定的风格或结构输出,降低 token 消耗等,需要使用微调技术解决。
Content generated by AI large model, please carefully verify (powered by aily)

References

3. 如何让 LLM 应用性能登峰造极

如果检索到的知识是无效的,会严重影响LLM应用的表现,因此将检索过程的精确度和召回率与整个LLM应用程序分开进行研究尤为重要。如下图所示,需要建立一个评估框架,将检索性能与整个LLM应用程序隔离开来。所以这里需要既需要从模型角度出发评估生成结果的质量,也需要从检索的角度出发,用精确度和召回率评估检索,并评估整个系统。模型角度(generation)回答真实性:模型结果真实性多高(少一些模型幻觉)回答相关度:结果和问题有多相关,不能南辕北辙检索角度(retrieval)召回率(recall):相关信息有多少包含在返回的检索内容里,越全越好准确率(precision):返回的检索内容中有用信息占比多少,越多越好RAGAS是一个用于RAG评估的知名开源库,推荐使用:[https://github.com/explodinggradients/ragas](https://github.com/explodinggradients/ragas)[heading3]RAG局限性[content]如果LLM应用面临的问题与上下文有关,那么RAG就是一个强大的工具。它使模型能够访问外部数据源,提供模型训练数据中不存在的必要上下文。这种方法可以显著提高模型的性能,尤其是在最新信息或特定领域信息至关重要的情况下。为模型提供参考文本的情况下,也能大大降低模型幻觉。需要注意的是RAG的局限性如下:适合打造专才,不适合打造通才。虽然能够为模型提供新的信息、专有领域知识等,但并不适合为模型提供通用领域知识。让模型保持稳定的风格或结构输出,降低token消耗等。也就是我们在prompt工程局限性的后两点,而这两点需要使用微调技术解决。

19. RAG 提示工程系列(一)

大语言模型技术的本质导致了大模型的输出结果具有不可预测性,此外,静态的训练数据导致了大模型所掌握的知识存在截止日期,无法即时掌握最新信息。因此,当我们将大模型应用于实际业务场景时会发现,通用的基础大模型无法满足我们的实际业务需求。主要存在以下原因:知识的局限性:模型自身的知识完全源于它的训练数据,而现有的主流大模型(ChatGPT、文心一言、通义千问…)的训练集基本都是抓取网络公开的数据用于训练,对于一些实时性的、非公开的或离线的数据是无法获取到的,这部分知识也就无从具备。幻觉问题:大模型的底层原理是基于数学概率的文字预测,即文字接龙。因此大模型存在幻觉问题,会在没有答案的情况下提供虚假信息,提供过时或通用的信息,从可信度低非权威来源的资料中提供结果等。数据安全性:对于企业来说,数据安全至关重要,没有企业愿意承担数据泄露的风险,将自身的私域数据上传第三方平台进行训练。因此如何大模型落地应用时如何保障企业内部数据安全是一个重要问题。而RAG是解决上述问题的一套有效方案。它可以让大模型从权威的、预先确定的知识来源中检索、组织相关信息,更好地控制大模型生成的文本输出,并且用户可以深入了解LLM如何生成最终的结果。并且,RAG可以和微调结合使用,两者并不冲突。RAG类似于为模型提供教科书,允许它基于特定查询检索信息。这该方法适用于模型需要回答特定的询问或解决特定的信息检索任务。然而,RAG不适合教模型来理解广泛的领域或学习新的语言,格式或样式。

AIGC Weekly #56

鉴于AI正在快速发展并能够执行广泛的任务,作者认为对于某些项目,在AI技术进一步改进之前等待可能更加有利。这一点在那些耗时长且AI已有合理表现的任务中尤为显著,如写作小说或软件开发。该文章讨论了在构建和维护生产级大型语言模型(LLM)应用程序(如GitHub Copilot)中,评估指标的重要性。这些指标对于质量控制和防止重复故障案例至关重要。LLM应用程序的评估可以分为端到端和步骤/组件式评估。前者提供了整体质量感知,而后者有助于识别和减轻可能影响LLM应用程序整体质量的故障模式。该文章概述了适用于端到端和组件式评估的不同场景的评估指标。这些见解来自研究文献以及与其他LLM应用程序构建者进行的讨论。文章还提供了Python代码示例。语言模型(LLMs)如GPT-4是无监督任务的强大工具,但可能会出现“幻觉”,即生成似是而非的信息。为了缓解这一问题,可以采用以下几种策略:高级提示:这涉及在系统提示中提供清晰的指示,以避免传播错误或不可验证的信息。例如,使用一个提示来指导模型不要传播不正确的数据。少样本提示:向LLM提供少量特定示例以引导其回应,有助于它专注于主题和上下文。示例的质量至关重要,因为糟糕的示例可能导致更多幻觉。思维链式提示:鼓励LLM在最终答案之前生成推理步骤,可以通过逐步思考或提供推理示例来实现。然而,这可能会引入产生幻觉推理的风险。数据增强:当上下文超出模型窗口时,数据增强可以通过添加专有数据或外部工具/知识来帮助。技术包括:检索增强生成(RAG):将模型知识与检索系统结合起来,在实时中获取相关数据。工具集成:使用函数调用、API调用和其他工具来提高准确性,尽管这需要进行广泛测试和实验。

Others are asking
有没有大模型测评网站
以下是一些大模型测评网站: 玉宝搞过的 LLM 在线评估网站:https://www.llmrank.cn/ ,可看到国内各个闭源大模型的 HUMANEVAL 测评得分,并能与 QWEN2 对比。 Compass Arena:由上海人工智能实验室和魔搭社区联合推出,集齐了国内主流的 20 多款大模型,包括阿里通义千问、百度文心一言、腾讯混元、讯飞星火、字节跳动豆包、智谱 AI、百川智能、零一万物、月之暗面等,用户可在平台选择大模型的两两“对战”,实名或匿名对战皆可。测评地址:https://opencompass.org.cn/arena 。 中文大模型评测收集与调研相关网站: InfoQ + 极客帮:https://www.guotaixia.com/post/5124.html GAOKAOBench:https://github.com/OpenLMLab/GAOKAOBench ,是以中国高考题目为数据集,测评大模型语言理解能力、逻辑推理能力的测评框架。 清华安全大模型测评:http://115.182.62.166:18000 ,清华收集的一个评测集,涵盖了仇恨言论、偏见歧视言论、犯罪违法、隐私、伦理道德等八大类别,包括细粒度划分的 40 余个二级安全类别。 JioNLP 个人测评:评测数据集:https://github.com/dongrixinyu/JioNLP/wiki/LLM 评测数据集 ,考察 LLM 模型对人类用户的帮助效果、辅助能力,可否达到一个【智能助手】的水平。 EduTEP:华东师范大学计算机科学与技术学院 EduNLP 团队组建智能教育算法测评小组,开发智能教育可信评测平台(EduTEP)。EduTEP 对比多种大模型在教育领域中的综合性能,针对 K12 教育发布首个 CALMEDU 评测框架与 CALMEDU001 评测报告。 娱乐资本论:从实用角度出发,分析大模型在各种文本应用场景,如小红书带货文案、抖音直播文案、知乎问答、小说创作、公关信写作、歌词生成、淘宝商品详情页文案、广告宣传片文案、剧本创意策划等方面的综合表现。 全面的模型测评网站:https://lmsys.org/blog/20230503arena/
2025-02-15
你是一个专业的AI工具测评师,用过市场上的所有AI工具,请制作一个PPT,介绍一个如何使用AI进行办公提效,并根据你的经验,对使用过的AI工具进行分类对比和测评,对比结果以表格形式呈现,需要包括是否收费,国内是否可用,主要面向对象,优点和缺点,突出功能等
以下是为您制作的关于如何使用 AI 进行办公提效以及 AI 工具分类对比和测评的 PPT 内容: 幻灯片 1:封面 标题:AI 助力办公提效及工具测评 幻灯片 2:目录 AI 在办公中的应用场景 常用 AI 办公工具分类对比 各工具的详细测评 幻灯片 3:AI 在办公中的应用场景 辅助文档处理 自动生成会议记录 办公文件分类管理 语言学习纠错 幻灯片 4:常用 AI 办公工具分类对比(表格形式) |工具名称|是否收费|国内是否可用|主要面向对象|优点|缺点|突出功能| |||||||| |平安好医生 APP|部分功能收费|是|医疗工作者和患者|辅助医生诊断,提高准确性|可能存在误判|辅助疾病诊断| |腾讯会议|部分高级功能收费|是|企业和个人|自动生成会议记录,方便回顾|语音识别准确性有待提高|会议记录生成| |字体管家 APP|部分字体收费|是|设计和文字工作者|生成多种书法字体|字体版权问题|书法字体生成| |醒图 APP|部分功能收费|是|摄影爱好者|提供构图建议,提升照片质量|对复杂场景的建议有限|摄影构图建议| |游戏内商城推荐功能|部分游戏收费|是|游戏玩家|根据需求推荐道具|推荐的精准度因人而异|游戏道具推荐| |彩云天气分时预报|部分功能收费|是|出行人群|提供精准分时天气预报|天气变化的不确定性|分时天气预报| |医渡云病历分析系统|收费|是|医疗机构|分析病历辅助诊断|数据安全性|病历分析| |讯飞听见会议总结功能|部分功能收费|是|企业和个人|自动总结会议发言内容|对复杂语言理解有限|会议发言总结| |书法临摹软件|部分功能收费|是|书法爱好者|提供临摹指导和评价|对不同书法风格的适应性|临摹辅助| |下厨房口味调整功能|部分功能收费|是|烹饪爱好者|根据反馈调整菜谱口味|口味调整的局限性|菜谱口味调整| |英语流利说纠错功能|部分课程收费|是|语言学习者|帮助纠正错误|对口语表达的纠错有限|语言学习纠错| |豆瓣电影剧情分析工具|免费|是|电影爱好者|提供剧情深度解读|分析的主观性|剧情分析| |腾讯文档分类功能|部分高级功能收费|是|企业和个人|自动分类办公文件|分类准确性依赖数据|文件分类| |美丽修行定制方案功能|部分功能收费|是|美容护肤人群|定制个性化护肤方案|方案的普适性|护肤方案定制| 幻灯片 5:总结 强调 AI 在办公领域的重要性和潜力 鼓励根据实际需求选择合适的 AI 工具提升办公效率 以上 PPT 内容仅供参考,您可以根据具体需求进行修改和完善。
2025-02-10
模型能力测评方法
以下是关于模型能力测评方法的相关内容: 测评机制: 测评目标:测评三家国产大模型,以同组提示词下 ChatGPT 4.0 生成的内容做对标参照,包括智谱清言(https://chatglm.cn/main/detail)、文心一言 4.0(https://yiyan.baidu.com/)、Kimi Chat(https://kimi.moonshot.cn/chat/)。 能力考量:包括复杂提示词理解和执行(结构化提示词)、推理能力(CoT 表现)、文本生成能力(写作要求执行)、提示词设计能力(让模型设计提示词)、长文本归纳总结能力(论文阅读)。 测评轮次: 第一轮:复杂提示词理解和执行,包括 Markdown+英文 title 提示词测试、Markdown+中文 title 提示词测试、中文 title+自然段落提示词测试。 第二轮:推理能力(CoT 表现),逐步推理任务,遍历 3 个不同类型任务和 4 个大模型。 第三轮:文本生成能力(写作要求执行),根据提示词生成文本任务,遍历 3 个不同类型任务和 4 个大模型。 第四轮:提示词设计能力(让模型设计提示词),按提示词要求生成提示词,逐步推理任务,遍历 3 个不同类型任务和 4 个大模型。 第五轮:长文本归纳总结能力(论文阅读),按提供的长文本(上传或在线)进行归纳总结,逐步推理任务,遍历 3 个不同类型任务和 4 个大模型。 测评过程: 用 5 组提示词分别测试模型的复杂提示词执行能力、推理能力、文本生成能力、用提示词设计提示词的能力、长文本归纳总结能力。每一轮中提示词和问题相同,观察国产三家模型的生成结果,并以 ChatGPT 4.0 生成的内容做对照参考。需要注意的是,本测评是主观需求主观视角,不具有权威性。
2025-02-07
模型测评
以下是关于模型测评的相关内容: Llama2 模型评测:为了解其中文问答能力,筛选了具有代表性的中文问题进行提问,测试了 Meta 公开的 Llama27BChat 和 Llama213BChat 两个版本,未做任何微调和训练。测试问题涵盖通用知识、语言理解等八个类别,使用特定 Prompt 进行测试,测试结果见相应文档。发现该模型对于中文问答的对齐效果一般,基于中文数据的训练和微调十分必要。 小七姐:文心一言 4.0、智谱清言、KimiChat 小样本测评:测评机制包括以同组提示词下 ChatGPT 4.0 生成的内容做对标参照,能力考量涵盖复杂提示词理解和执行、推理能力、文本生成能力、提示词设计能力、长文本归纳总结能力,测评轮次包括复杂提示词理解和执行、推理能力、文本生成能力、提示词设计能力、长文本归纳总结能力,每轮次均有不同的任务和模型测试次数。 斯坦福发布大模型排行榜 AlpacaEval:相对于人工标注,全自动化的 AlpacaEval 经济成本和时间成本低。从统计角度探讨了区分模型的评估数据,AlpacaEval 支持两种模式的模型评估方式,评测过程分为选择评估集并计算输出、计算 golden 输出、选择自动标注器并计算胜率三步。
2025-02-06
2024年度中文大模型基准测评报告
以下是关于 2024 年度中文大模型基准测评报告的相关信息: 2024 年 7 月 10 日: 《SuperCLUE:中文大模型基准测评 2024 年上半年报告》指出,2024 年上半年中文大模型技术取得显著进展,国内外模型差距缩小至 5%以内。国内开源模型如 Qwen272B 表现优异,超越众多闭源模型。端侧小模型发展迅速,落地可行性大幅提升。该报告通过多维度、多层次测评体系,全面评估了大模型的通用能力和专项能力,为行业发展提供了客观数据支持。同时也指出,尽管大模型在多领域展现潜力,但仍面临技术挑战和应用落地问题。 2024 年 11 月 8 日: SuperCLUE 团队发布的新一期《SuperCLUE:中文大模型基准测评 2024 年 10 月报告》中有四点核心发现:1)OpenAI 发布 o1 后,全球大模型竞争加剧;2)国内大模型第一梯队竞争激烈,持续迭代表现不俗;3)国内外大模型在不同任务上表现各有优势;4)端侧小模型表现惊艳。 此外,Sora:大型视觉模型的背景、技术、局限性和机遇综述【官方论文】的参考文献包括: T.Shen,R.Jin,Y.Huang,C.Liu,W.Dong,Z.Guo,X.Wu,Y.Liu,和 D.Xiong,“大型语言模型对齐:一项调查”,arXiv 预印本 arXiv:2309.15025,2023 年。 X.Liu,X.Lei,S.Wang,Y.Huang,Z.Feng,B.Wen,J.Cheng,P.Ke,Y.Xu,W.L.Tam,X.Zhang,L.Sun,H.Wang,J.Zhang,M.Huang,Y.Dong,和 J.Tang,“Alignbench:大型语言模型中文对齐的基准测试”,2023 年。 P.Christiano,J.Leike,T.B.Brown,M.Martic,S.Legg,和 D.Amodei,“基于人类偏好的深度强化学习”,2023 年。 T.Yu,Y.Yao,H.Zhang,T.He,Y.Han,G.Cui,J.Hu,Z.Liu,H.T.Zheng,M.Sun,和 T.S.Chua,“RLHFV:通过细粒度校正人类反馈实现可信赖的 MLLMs 行为对齐”,2023 年。 M.S.Jahan 和 M.Oussalah,“使用自然语言处理进行仇恨言论自动检测的系统综述。”,《神经计算》,第 126232 页,2023 年。 OpenAI,“Sora 安全。”https://openai.com/sorasafety,2024 年。
2024-12-27
RAG 如何测评?
RAG(检索增强生成)的测评方法如下: 1. 可以使用 TruLens 来实现 RAG 三角形的评估方法,具体步骤为: 在 LangChain 中,创建一个 RAG 对象,使用 RAGPromptTemplate 作为提示模板,指定检索系统和知识库的参数。 在 TruLens 中,创建一个 TruChain 对象,包装 RAG 对象,指定反馈函数和应用 ID。反馈函数可以使用 TruLens 提供的 f_context_relevance、f_groundness、f_answer_relevance,也可以自定义。 使用 with 语句来运行 RAG 对象,并记录反馈数据。输入一个问题,得到一个回答,以及检索出的文档。 查看和分析反馈数据,根据 RAG 三角形的评估指标,评价 RAG 的表现。 2. 评估 RAG 生成的文本质量,常用的评估方法包括自动评估指标(如 BLEU、ROUGE 等)、人工评估和事实验证,以衡量生成文本的流畅性、准确性和相关性。 3. 评估 RAG 检索的效果,包括检索的准确性、召回率和效率,其好坏直接影响生成文本的质量。 4. 通过用户调查、用户反馈和用户交互数据来实现用户满意度评估。 5. 对于生成多模态内容的 RAG 系统,需要通过多模态评估指标来评估不同模态之间的一致性和相关性。 6. 对于需要实时更新的 RAG 任务,要考虑信息更新的及时性和效率进行实时性评估。 7. 为了进行客观的评估,通常会使用基准测试集来进行实验和比较不同的 RAG 系统。这些基准测试集包含了多样化的任务和查询,以涵盖不同的应用场景。 评估方法和指标的选择取决于具体的任务和应用场景。综合使用多种评估方法可以更全面地了解 RAG 系统的性能和效果,评估结果可以指导系统的改进和优化,以满足用户的需求。
2024-12-13
大模型和HR和招聘日常工作有哪些结合点?
大模型与 HR 和招聘日常工作的结合点主要体现在以下几个方面: 1. 面试环节:面试不仅仅是单点功能,面试后的结果如何发送到公司 HR 系统,以及如何通知 HR 人员的录用或不录用情况,需要一套工作流系统将大模型 Agent 框架的能力与企业原有的业务系统紧密连接。 2. 不同场景的应用:企业在不同的 HR 场景,如面试、员工评估等,可能会有专门的大模型。例如面试有面试大模型,员工评估也有相应的大模型。 3. 新员工招聘:将招聘流程分解得足够细,如搜集简历、编写职位描述、制定招聘计划、确定招聘需求、筛选简历、安排面试、数字人自动面试、结果评估和发录取通知书等。然后结合大模型目前成熟的能力进行筛选,同时考虑场景的容错度和数据准备度。
2025-03-10
如何训练自己的模型
训练自己的模型可以参考以下步骤: 1. 选择合适的底模,如 Baichuan27BChat 模型,配置模型本地路径和提示模板。 在 Train 页面里选择 sft 训练方式,加载定义好的数据集,如 wechat 和 self_cognition。 注意学习率和训练轮次的设置,要根据数据集大小和收敛情况来调整。 使用 FlashAttention2 可减少显存需求,加速训练速度。 显存小的情况下,可以减少 batch size 并开启量化训练,内置的 QLora 训练方式很实用。 需要用到 xformers 的依赖。 显存占用约 20G,训练时间根据聊天记录规模大小而定,少则几小时,多则几天。 2. 对于 AI 绘画模型的训练,如 Stable Diffusion: 设置 sample_sampler,可选择多种 sampler,默认是“ddim”。 设置 save_model_as,可选择多种格式,目前 SD WebUI 兼容"ckpt"和"safetensors"格式模型。 完成训练参数配置后,运行训练脚本进行全参微调训练。 选择合适的底模型,如 WeThinkIn_SD_二次元模型。 利用 accelerate 库封装训练脚本,可根据需求切换训练环境参数。 3. 创建图像描述模型: 模型由编码器和解码器组成,编码器将输入图像转换为特征向量,解码器根据特征生成描述文本,二者组合形成完整模型。 自定义损失函数,如使用稀疏分类交叉熵并屏蔽填充部分。 编译模型后开始训练,可使用单个 GPU 训练,每个 epoch 约 15 至 20 分钟,可根据需求增加训练次数。 训练完成后进行推理与生成字幕,重构解码器结构,编写自定义推理循环以生成完整句子。
2025-03-10
最近一个月有哪些令人惊艳的开源大模型
以下是最近一个月令人惊艳的开源大模型: 1. 三月初,Meta 的 LLaMA 泄露给公众,随后社区出现一系列创新,包括指令调整、量化、质量改进、人类评估、多模态、RLHF 等变体,解决了扩展问题,降低了培训和实验的准入门槛。 2. 1 月 20 日,DeepSeek 宣布开源 R1 模型,将大模型行业推进到推理时代,引发了深刻影响。 3. 2024 年 5 月: 谷歌在 Google Cloud Next 2024 上发布一系列生成式 AI 产品和服务。 OpenAI 发布 GPT4 Turbo 模型,并开源评估框架 simpleevals。 xAI 发布首个多模态模型 Grok1.5V 的预览版。 微软 WizardLM 团队发布 WizardLM2,后紧急撤回进行毒性测试。 Mistral AI 开源 Mistral 8x22B 模型。 Meta 发布拥有 4000 亿参数的开源大模型 Llama 3。
2025-03-10
有关国产大模型介绍及对比
以下是关于国产大模型的介绍及对比: 过去一年,国内大模型取得了显著进步。综合能力超过 GPT 3.5 和 GeminiPro 的国产模型有 11 个,如百度的文心一言 4.0、阿里云的通义千问 2.0 和 Qwen 72BChat、OPPO 的 AndesGPT、清华&智谱 AI 的智谱清言、字节跳动的云雀大模型等。在 SuperCLUE 测评中,国外模型平均成绩为 69.42 分,国内模型平均成绩为 65.95 分,差距约 4 分,且国内外平均水平差距在缩小。 国内开源模型在中文上表现优于国外开源模型,如百川智能的 Baichuan213BChat、阿里云的 Qwen72B、Yi34BChat 均优于 Llama213BChat。国内大模型竞争格局方面,从国内 TOP19 大模型的数量来看,创业公司和大厂的占比几乎持平。 此外,还有针对国产大模型的测评机制,包括以同组提示词下 ChatGPT 4.0 生成的内容做对标参照,对复杂提示词理解和执行、推理能力、文本生成能力、提示词设计能力、长文本归纳总结能力等方面进行多轮测评。 国外的代表性大模型如 GPT4 的不同版本、Claude2、Llama2 有较好的稳定性表现。国内开源模型总体表现较好,成绩最好的开源模型在中文某些场景或任务上接近 GPT 4,大版本的模型通常优于中小版本,众多创业公司是开源模型的主力。
2025-03-10
LLM大模型与运维
以下是关于 LLM 大模型与运维的相关内容: 部署方面: 本地部署包括三大部分:本地部署大语言模型、本地部署 FastGPT+OneAPI、本地部署 HOOK 项目或 COW。 下载并安装 Ollama:根据电脑系统,从 https://ollama.com/download 下载,双击打开点击“Install”,安装完成后将下方地址复制进浏览器中确认:http://127.0.0.1:11434/ 。 下载 qwen2:0.5b 模型:Windows 电脑点击 win+R 输入 cmd 回车,Mac 电脑按下 Command(⌘)+Space 键打开 Spotlight 搜索输入“Terminal”或“终端”,然后复制命令行粘贴回车等待自动下载完成。 训练方面: 模型训练比推理复杂得多,是一个计算量极大的过程。获取参数面临计算复杂性问题。例如训练 Llama2 70B 这样的开源模型,需要约 10TB 的文本,通常来源于互联网的抓取,大约 6000 个 GPU,运行约 12 天,费用约 200 万美元,得到的参数文件约 140GB,压缩比约 100 倍,且是有损压缩。 整体架构方面: 基础层:为大模型提供硬件支撑,数据支持,如 A100、数据服务器等。 数据层:包括静态的知识库和动态的三方数据集。 模型层:有 LLm(如 GPT,一般使用 transformer 算法)或多模态模型(如文生图、图生图等,训练数据为图文或声音等多模态数据集)。 平台层:如大模型的评测体系或 langchain 平台等,提供模型与应用间的组成部分。 表现层:即应用层,是用户实际看到的地方。
2025-03-09
lora模型
LoRA 模型相关信息如下: Fooocus 程序默认用到了 3 个 SDXL 的模型,包括一个 base、一个 Refiner 和一个 LoRA。LoRA 模型默认放在 Fooocus_win64_1110\\Fooocus\\models\\loras 。如果单独安装,需要下载三个模型: SDXL 基础模型:https://huggingface.co/stabilityai/stablediffusionxlbase1.0/resolve/main/sd_xl_base_1.0_0.9vae.safetensors refiner 模型:https://huggingface.co/stabilityai/stablediffusionxlrefiner1.0/resolve/main/sd_xl_refiner_1.0_0.9vae.safetensors LoRA 模型:https://huggingface.co/stabilityai/stablediffusionxlbase1.0/resolve/main/sd_xl_offset_examplelora_1.0.safetensors 若部署了 SD 秋叶包,也可共用模型(大模型和 LoRA),可在 Fooocus_win64_1110\\Fooocus\\modules\\path.py 中修改路径为秋叶包模型对应的路径,配置好后点击 run.bat 文件启动。 Lora 全称 LowRank Adaptation Models,中文翻译为低阶自适应模型,作用在于影响和微调画面,通过它可以再现人物或物品的特征。大模型训练复杂且对电脑配置要求高,LoRA 采用在原模型中插入新的数据处理层的方式,避免修改原有模型参数,训练轻量化,显存达到 6G 即可开启训练。 有利用新版 SDXL 生成的 lora 如针线娃娃,需要使用 SDXL1.0 的模型才可以运行,触发词是 BJ_Sewing_doll。想体验可添加公众号【白马与少年】,回复【SDXL】。
2025-03-09
提示词使用方法
以下是关于提示词使用方法的详细介绍: 一、什么是提示词 提示词用于描绘您想要的画面。在星流一站式 AI 设计工具中,不同的基础模型对输入语言有不同要求。通用大模型与基础模型 F.1、基础模型 XL 使用自然语言(如“一个长头发的金发女孩”),基础模型 1.5 使用单个词组(如“女孩、金发、长头发”),且支持中英文输入。启用提示词优化后,能帮您扩展提示词,更生动地描述画面内容。 二、如何写好提示词 1. 预设词组:小白用户可以点击提示词上方的官方预设词组进行生图。 2. 提示词内容准确:包含人物主体、风格、场景特点、环境光照、画面构图、画质等,例如“一个女孩抱着小猫,背景是一面红墙,插画风格、孤独感,高质量”。 3. 调整负面提示词:点击提示框下方的齿轮按钮,弹出负面提示词框。负面提示词可以帮助 AI 理解我们不想生成的内容,如“不好的质量、低像素、模糊、水印”。 4. 利用“加权重”功能:可在功能框增加提示词,并进行加权重调节,权重数值越大,越优先。还可以对已有的提示词权重进行编辑。 5. 辅助功能:包括翻译功能(一键将提示词翻译成英文)、删除所有提示词(清空提示词框)、会员加速(加速图像生图速度,提升效率)。 三、提示词语法 根据自己想画的内容写出提示词,多个提示词之间使用英文半角符号将权重降低至原先的 90.91%”“字符”。 四、如何学习提示词运用 提示词在现代大型语言模型中极其重要,掌握其运用技巧能最大限度发挥模型潜能。学习提示词运用的建议如下: 1. 理解提示词的作用:提示词向模型提供上下文和指示,其质量直接影响模型输出质量。 2. 学习提示词的构建技巧:明确任务目标,用简洁准确的语言描述,给予足够背景信息和示例,使用清晰指令,对特殊要求明确指示。 3. 参考优秀案例:研究和学习已有的优秀提示词案例,可在领域社区、Github 等资源中查找。 4. 实践、迭代、优化:多与语言模型互动,根据输出提高提示词质量,尝试各种变体,比较分析输出差异,持续优化。 5. 活用提示工程工具:如 Anthropic 的 Constitutional AI 等。 6. 跟上前沿研究:提示工程是前沿研究领域之一,持续关注最新研究成果和方法论。精心设计的提示词能最大限度发挥语言模型的潜力,多实践、多学习、多总结,终可掌握窍门。
2025-03-09
进行DeepSeek本地化部署有哪些方法?
进行 DeepSeek 本地化部署的方法如下: 如果拥有云服务器,可以进行本地部署,了解满血版本地部署的实际情况。 在 freely.aliyun.com 可领取 500 元免费额度,但有使用限制,不能部署满血版和较大的增流模型。 了解 DLC、DSW 和 EAS 等模型部署平台服务的差别。
2025-03-08
有什么构建类似键鼠精灵 AI工作流的方法
以下是构建类似键鼠精灵 AI 工作流的一些方法: 1. 利用 Comfyui 界面: 打开 Comfyui 界面后,右键点击界面,找到 Comfyui LLM party 的目录。您可以手动连接节点来实现工作流,例如实现一个最简单的 AI 女友工作流;也可以直接将相关工作流文件(如)拖拽到 Comfyui 界面中一键复刻。 2. 启动 ollama: 从 ollama 的 github 仓库找到对应版本并下载。 启动 ollama 后,在 cmd 中输入 ollama run gemma2 将自动下载 gemma2 模型到本地并启动。将 ollama 的默认 base URL=http://127.0.0.1:11434/v1/以及 api_key=ollama 填入 LLM 加载器节点即可调用 ollama 中的模型进行实验。 如果 ollama 连接不上,很可能是代理服务器的问题,请将 127.0.0.1:11434 添加到不使用代理服务器的列表中。 3. 低代码+UI 版本: 方法一:直接使用 Coze 的 API 对接前端 UI 框架,将工作流逻辑集中在工程模板端,实现前后端分离的处理方式。 方法二:直接调用大模型 API,并通过前端代码实现提示词处理和逻辑控制,将交互流程完全放入前端代码中。 实现文件上传:通过 Coze 的,用户可将本地文件上传至 Coze 的云存储。在消息或对话中,文件上传成功后可通过指定 file_id 来直接引用该文件。 关于 API 的使用及工作流执行流程可以参考。 4. 飞书机器人创建: 飞书应用建立: 在中创建自建应用。 进入应用获取 app_id 与 app_secret。 添加应用能力>开启机器人应用能力。 权限管理>消息与群组>选择需要的权限打开。 安全设置>将 comfyUI 运行的电脑 IP 加入白名单。 发布机器人以应用生效。 获取群组或用户 id: 要先把创建的机器人拉到群组中或者拉进私聊。 飞书开发平台找到发送消息的开发文档。 右侧点击获取 token。 选择 receive id type,chat_id 对应群组,open_id 与 user_id 对应个人,点击选择成员,复制对应的 id 即可。 如果需要让机器人发送语音,需要自行在电脑上安装 ffmpeg 。
2025-03-08
正在搭建客户CRM系统,对于客户拜访跟进记录表格,希望平衡销售人员的录入便捷性和信息完整性,如何通过多维表格接入的AI功能来简化信息录入,比如通过语音录音,直接解析内容。推荐我具体方法,包括怎么解析语音,输出的关键字段,以及提示词
以下是一种通过多维表格接入的 AI 功能来简化客户拜访跟进记录信息录入的方法: 1. 定义任务目标:让 AI 成为您的私人 CRM,即客户管理系统。 2. 编写指令: 定义角色:希望 AI 作为一名顶级的客户服务与销售总监,负责记住客户的爱好与信息。 提供背景信息:简单描述自己的身份,例如负责什么产品的销售。 明确任务目标和输出要求:在每次拜访客户后,把重要信息发送给 AI,要求 AI 每次接到新的客户消息后,只用回复一句“收到,知道了。” 3. 信息录入方式:可以通过语音录音的方式将拜访客户的信息传达给 AI。 4. 语音解析:利用 AI 的语音识别和自然语言处理能力,对语音内容进行解析。 5. 输出的关键字段:可能包括客户姓名、联系方式、拜访时间、拜访内容要点、客户需求、客户反馈等。 6. 提示词:例如“请整理本次拜访客户的关键信息”“提取重要内容并生成表格”等。 您可以参考以上方法,根据实际需求进行调整和优化。
2025-03-07
我是小白用户,已经建立cherry studio本地知识库,我想更自动化的使用知识库,有什么具体操作方法
以下是关于更自动化使用 cherry studio 本地知识库的具体操作方法: 使用知识库: 将知识库直接与 Bot 进行关联用于响应用户回复,或者在工作流中添加知识库节点,成为工作流中的一环。 在 Bot 内使用知识库: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 4. 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 5. (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项。 配置项说明: 最大召回数量:Bot 在调用知识库匹配用户输入内容时,返回的数据片段数量,数值越大返回的内容越多。 最小匹配度:Bot 在调用知识库匹配用户输入内容时,会将达到匹配度要求的数据片段进行召回。如果数据片段未达到最小匹配度,则不会被召回。 调用方式:知识库的调用方式。 自动调用:每轮对话将自动从所有关联的知识库中匹配数据并召回。 按需调用:您需要在人设与回复逻辑中提示 Bot 调用 RecallKnowledge 方法,以约束 Bot 在指定时机从知识库内匹配数据。 6. (可选)在预览与调试区域调试 Bot 能力时,扩展运行完毕的内容可以查看知识库命中并召回的分片内容。 在工作流内使用 Knowledge 节点: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在页面顶部进入工作流页面,并打开指定的工作流。 4. 在左侧基础节点列表内,选择添加 Knowledge 节点。 创建知识库并上传文本内容: |上传方式|操作步骤| ||| |本地文档|1. 在文本格式页签下,选择本地文档,然后单击下一步。<br>2. 将要上传的文档拖拽到上传区,或单击上传区域选择要上传的文档。<br>目前支持上传.txt,.pdf,.docx 格式的文件内容。<br>每个文件不得大于 20M。<br>一次最多可上传 10 个文件<br>1. 当上传完成后单击下一步。<br>2. 选择内容分段方式:<br>2.1. 自动分段与清洗:系统会对上传的文件数据进行自动分段,并会按照系统默认的预处理规则处理数据。<br>2.2. 自定义:手动设置分段规则和预处理规则。<br>分段标识符:选择符合实际所需的标识符。<br>分段最大长度:设置每个片段内的字符数上限。<br>文本预处理规则:<br>替换掉连续的空格、换行符和制表符<br>删除所有 URL 和电子邮箱地址<br>1. 单击下一步完成内容上传和分片。| 创建知识库并上传表格数据: |上传方式|操作步骤| ||| |本地文档|选择将本地文件中的表格数据上传至知识库中。<br>1. 在表格格式页签下,选择本地文档,然后单击下一步。<br>2. 将要上传的文档拖拽到上传区,或单击上传区域选择要上传的文档,然后单击下一步。<br>目前支持上传.csv 和.xlsx 格式的文件内容,且表格内需要有列名和对应的数据。<br>每个文件不得大于 20M。<br>一次最多可上传 10 个文件。<br>1. 配置数据表信息后,单击下一步。<br>1.1. 指定数据范围:通过选择数据表、表头、数据起始行指定数据范围。<br>1.2. 确认表结构:系统已默认获取了表头的列名,您可以自定义修改列名,或删除某一列名。<br>1.3. 指定语义匹配字段:选择哪个字段作为搜索匹配的语义字段。在响应用户查询时,会将用户查询内容与该字段内容的内容进行比较,根据相似度进行匹配。<br>2. 查看表结构和数据,确认无误后单击下一步。<br>3. 完成上传后,单击确定。|
2025-03-06
我需要找到一个方法来把我爷爷迷迷糊糊的老照片上的样子生成样貌特征完全一致的数字人脸,如何可以实现?
以下是一种可能实现将您爷爷老照片生成数字人脸的方法: 1. 利用剪映软件: 在剪映右侧窗口顶部,打开“数字人”选项,选取一位免费且适合的数字人形象,比如“婉婉青春”。 软件会播放数字人的声音,您可判断是否需要,点击右下角“添加数字人”,将其添加到当前视频中。剪映会根据提供的内容生成对应音视频并添加到轨道中。 左下角会提示渲染完成时间,之后可点击预览按钮查看效果。 为让视频更美观,可增加背景图片。删除先前导入的文本内容,点击左上角“媒体”菜单并“导入”本地图片,将其添加到视频轨道上(会覆盖数字人)。 拖动背景图的角将其放大到适合尺寸,将数字人拖动到合适位置。 点击文本智能字幕识别字幕,点击开始识别,软件会自动将文字智能分段并形成字幕。 完成后点击右上角“导出”按钮导出视频备用。 2. 若希望数字人脸换成特定的面孔,可能需要使用其他工具进行换脸。 3. 对于老照片的处理,还可以启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够的情况下放大图片。 对于复杂的老照片,可先在 ps 里进行角度调整和照片裁切,然后上色。若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。 可加入第二个 controlnet 来控制颜色,使用 t2ia_color 模型,给出简单的关键词,如“蓝天、绿树、灰石砖”。最后经过脸部修复和放大得到最终效果。
2025-03-06