Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

comfyui模型

Answer

ComfyUI 相关信息如下:

  • 模型:
    • 目前只支持 sdxl。
    • 节点地址:ComfyUI_InstantID https://github.com/cubiq/ComfyUI_InstantID?tab=readme-ov-file 。
    • 主要的模型(ip_adapter.bin),下载后放在 ComfyUI/models/instantid 文件夹里,没有这个文件夹就新建一个,下载链接:https://huggingface.co/InstantX/InstantID/resolve/main/ip-adapter.bin?download=true 。
    • InsightFace 模型是 antelopev2(不是经典的 buffalo_l)。下载模型,解压并将它们放在 ComfyUI/models/insightface/models/antelopev2 目录中,下载链接:https://huggingface.co/MonsterMMORPG/tools/tree/main 。
    • 还需要一个 controlNet 模型,放在 ComfyUI/models/controlnet 目录下,下载链接:https://huggingface.co/InstantX/InstantID/resolve/main/ControlNetModel/diffusion_pytorch_model.safetensors?download=true 。上述模型网络环境不好的,可以在网盘 https://pan.baidu.com/s/1Fk-GTXLmM0Ofynz04NfCaQ?pwd=cycy 下载。
  • 生图原理:
    • 这张图展示了扩散模型中的加噪和去噪过程。
    • 在 ComfyUI 的节点化界面中,每一步的操作都可以通过不同的模块来实现,用户可以控制潜在空间中的操作(如调度器和噪声的选择)、U-Net 中的推理步骤(通过去噪模块实现)、以及条件输入(通过文本提示或图像引导)。
    • 基础模型:ComfyUI 使用预训练的扩散模型作为其核心,通常是 Stable Diffusion 模型,包括 SD1.5、SD2.0、SDXL、SD3、FLUX 等模型。
    • 文本编码:当用户输入文本提示时,ComfyUI 首先使用 CLIP(Contrastive Language-Image Pre-training)文本编码器将文本转换为向量表示,这个向量捕捉了文本的语义信息。
  • 图片合并背景替换:
    • 背景替换看似简单,但有难度,不同图片合并时要考虑光线、色调、边缘细节,选择了表示较好的流程化技术。
    • 背景移除:模型放在 E:\ComfyUI\models\rembg,需要下载对应的模型。
    • 填充背景:用来移除背景里面的主题,模型需要放在 E:\ComfyUI\models\lama 下。
    • ic-light:在管理器中节点管理,搜索 ComfyUI-IC-Light,安装后重启 ComfyUI,模型可以在网盘里,下载后放入 ComfyUI/models/unet 文件夹。ic 处理过的图片,颜色会发黄偏色,这里就需要做颜色匹配和细节的迁移,注意,不是 IC Light 处理过的就是好的,有时候反而会负优化。
Content generated by AI large model, please carefully verify (powered by aily)

References

ComfyUI instantID

目前只支持sdxl节点地址ComfyUI_InstantID https://github.com/cubiq/ComfyUI_InstantID?tab=readme-ov-file主要的模型(ip_adapter.bin),下载后放在ComfyUI/models/instantid文件夹里,没有这个文件夹就新建一个https://huggingface.co/InstantX/InstantID/resolve/main/ip-adapter.bin?download=trueInsightFace模型是antelopev2(不是经典的buffalo_l)。下载模型,解压并将它们放在ComfyUI/models/insightface/models/antelopev2目录中https://huggingface.co/MonsterMMORPG/tools/tree/main还需要一个controlNet模型https://huggingface.co/InstantX/InstantID/resolve/main/ControlNetModel/diffusion_pytorch_model.safetensors?download=true放在ComfyUI/models/controlnet目录下上述模型网络环境不好的,可以在网盘https://pan.baidu.com/s/1Fk-GTXLmM0Ofynz04NfCaQ?pwd=cycy

ComfyUI的生图原理 副本

结合ComfyUI的生图原理,这张图展示了扩散模型中的加噪和去噪过程。在ComfyUI的节点化界面中,每一步的操作都可以通过不同的模块来实现,用户可以控制潜在空间中的操作(如调度器和噪声的选择)、U-Net中的推理步骤(通过去噪模块实现)、以及条件输入(通过文本提示或图像引导)。[heading1]一、基础模型[content]ComfyUI使用预训练的扩散模型作为其核心,通常是Stable Diffusion模型。这些模型通过大量图像和文本对的训练,学会了将文本描述与视觉概念关联起来。其中包括SD1.5、SD2.0、SDXL、SD3、FLUX等模型。[heading1]二、文本编码[content]当用户输入文本提示时,ComfyUI首先使用CLIP(Contrastive Language-Image Pre-training)文本编码器将文本转换为向量表示。这个向量捕捉了文本的语义信息。

ComfyUI 图片合并背景替换

背景替换是一个看似简单,但是又难的活,难在于不同图片合并时候要考虑,光线、色调、边缘细节,这个工作流在测试了目前多种技术,选择了表示较好的,将他们流程化。有许多细节是需要注意的[heading3]背景移除[content]模型放在E:\ComfyUI\models\rembg需要下载对应的模型[heading3]填充背景[content]用来移除背景里面的主题,模型需要放在E:\ComfyUI\models\lama下[heading3]ic-light[content]在管理器中节点管理搜索ComfyUI-IC-Light,安装后重启ComfyUI模型可以在网盘里,下载后放入ComfyUI/models/unet文件夹ic处理过的图片,颜色会发黄偏色,这里就需要让做颜色匹配和细节的迁移,注意,不是IC Light处理过的就是好的,有时候反而会负优化。[heading3]

Others are asking
如何学习comfyUI
以下是一些学习 ComfyUI 的途径和资源: 1. 官方文档:ComfyUI 官方文档提供了使用手册和安装指南,适合初学者和有经验的用户,可在获取相关信息。 2. 优设网:有一篇详细的 ComfyUI 入门教程,适合初学者,详细介绍了其特点、安装方法及如何生成图像等内容,教程地址是。 3. 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解的用户,可在找到相关教程。 4. Bilibili:提供了一系列涵盖从新手入门到精通各个阶段的视频教程,可在找到。 此外,还有以下 ComfyUI 共学快闪的学习内容: 王蓉🍀🎈Wang Easy 基础搭建和转绘 唯有葵花向日晴基础教程,工作流开发,实际应用场景 热辣 HuolarrAI 系统课私聊图生视频 咖菲猫咪基础教程/工作流搭建思路/各版本模型使用的优缺点 傅小瑶 Lucky 如何制作多人转绘视频 云尚工作流节点搭建思路 FǎFá 热门节点功能,搭建 森林小羊基本报错解决方式及基础工作流逻辑分析 苏小蕊基础教程 Sophy 基础课程 蜂老六装一百个最新常用插件后如何快速解决冲突问题 阿苏工作流框架设计 aflyrt comfyui 节点设计与开发 老宋&SD 深度解释虚拟环境部署和缺失模型的安装 Liguo 模型训练 啊乐福基础课程 塵优秀案例 风信基础课程➕平面设计应用场景 北南基础课程 视频工作流框架设计 Damon 基础课程 渔舟基础课程+工作流搭建思路 乔木船长工作流 ☘️基础教程 ☘基础教程 工作流设计+典型案例剖析 麒白掌工作流搭建 OutSider 风格迁移 吴鹏基础+工作流搭建 拾光工作流基础搭建从入门到精通 茶浅浅。视频转绘/节点工作流介绍 百废待.新(早睡版)工作流从入门到进阶 电商应用场景 学习使用 ComfyUI 的原因包括: 更接近 SD 的底层工作原理。 实现自动化工作流,消灭重复性工作。 作为强大的可视化后端工具,可实现 SD 之外的功能,如调用 api 及本文所讲的内容等。 可根据定制需求开发节点或模块。 例如,有人因工作室需要抠图素材,传统途径存在问题,近期在 github 上看到一个名为的项目,其中包含丰富的蒙版处理节点,于是基于此创建了 ComfyUI 工作流,不仅可用于绿幕素材的抠图,还能自动生成定制需求的抠图素材,全程只需几秒。
2025-03-17
有comfyui的系列教程吗
以下是一些关于 ComfyUI 的系列教程资源: 1. ComfyUI 官方文档:提供了使用手册和安装指南,适合初学者和有经验的用户。可在获取相关信息。 2. 优设网:有详细的 ComfyUI 入门教程,适合初学者,介绍了特点、安装方法及生成图像等内容。教程地址是。 3. 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解的用户。可在找到相关教程。 4. Bilibili:提供了从新手入门到精通的一系列视频教程,可在找到。 此外,还有以下相关教程: 1. 硅基流动提供的 BizyAir ComfyUI 系列教程,包括六节课程,如文生图工作流搭建、SiliconLLM 的使用、LoRA 的使用和上传等。详情可访问 https://siliconflow.cn/zhcn/ 。 2. ComfyUI 共学快闪飞书学习群中的各种教程,如王蓉的基础搭建和转绘、唯有葵花向日晴的基础教程和工作流开发等。 内容由 AI 大模型生成,请仔细甄别。
2025-03-17
comfyui连接blender的教程
以下是 ComfyUI 连接 Blender 的教程: 首先,安装下载网盘里的两个文件。先安装稳定版 Blender(这是主程序,解压即用。如果已经有 Blender 的朋友可以跳过这一步)。有 Steam 平台的可以去 Steam 上下载 Blender,软件会自动更新,很方便。 接下来打开软件,安装无限圣杯的插件。进入“偏好设置”——插件——选择“安装”,找到“无限圣杯节点工具”里面的压缩包,不用解压,直接选择压缩包进行安装。安装好之后,打上勾,就可以开启无限圣杯了。 接着看插件下方的 ComfyUI 路径这一栏,将它更改为我们电脑中的 ComfyUI 的地址。然后选择一个适合自己的显存模式:8G 以上选高显存;6G 选中显存;4G 选低显存。安装完成,重启即可。 无限圣杯的使用:打开软件,编辑器类型中会出现“ComfyUI Node”。点击进入 ComfyUI 界面,先点击上方的“新建”按钮,然后展开右侧的 N 面板可以看到无限圣杯的界面。打开节点树的列表,可以看到文生图、图生图以及 ControlNet 等常见工作流。选择文生图,打开会发现还有一些更细化的预设工作流选项。再看看 ControlNet 中的工作流预设。 还有一些根据插件整理的工作流,比如随便选择一个“文生图”中的“基础+自定 VAE”,选好之后,点击“替换节点树”。界面中会出现已经连接好的工作流节点(如果没看到,就按一下 home 键),包括大模型、clip、vae、正反提示词、尺寸,采样器等所有在 webUI 中熟悉的参数,而且全都是中文面板。打开模型节点,可以看到 webUI 中的模型全部都在。这次先不更改参数,点击“运行节点树”,直接生成。此时会提醒是否启用 ComfyUI,点击确定即可。等待一会,就能在最后一个节点预览图中看到生成的图片。点击这里就可以打开后台,看到出图时间。
2025-03-16
想在comfyui搭建一个音频节奏生成ai抽象粒子视觉效果的工作流,应该使用哪些模型节点?如何搭建?
在 ComfyUI 搭建音频节奏生成 AI 抽象粒子视觉效果的工作流,您可以参考以下内容: 1. 大模型节点: 您可以根据自己的风格选择不同的大模型,推荐使用: AWPainting,链接:https://civitai.com/models/84476/awpainting primemixanything,链接:https://civitai.com/models/75089/primemixanything xxmix9realistic v40,链接:https://civitai.com/models/47274/xxmix9realistic 2. 关键词节点: 可以使用工作流内的关键词,也可以输入自己的正负面关键词。 3. Lora 节点: 可根据自己风格搭配进行选择,如需多个 Lora 可进行串联。 4. ControlNet 节点: 选用 qrcode_monster V2 版本,相比于 V1 版本 V2 版本识别性更强。下载需要魔法,没有魔法的同学文末领取模型。下载链接:https://huggingface.co/monsterlabs/control_v1p_sd15_qrcode_monster/tree/main/v2 5. 采样器节点: 所有生图的老演员了,Step 要选择高步数,35 50 即可。采样器默认的 euler a /dpmpp 2m sde 基础节点介绍: 1. Checkpoint 基础模型(大模型/底模型)节点: 属于预调模型,决定了 AI 图片的主要风格。输出连接:Model 连接 KSampler 采样器的 Model;Clip 连接终止层数的 Clip;Vae 连接 VaeDecode 的 Vae。 2. Clip 终止层数(clip skip)节点: ComfyUI 的是负数的,webUI 的是正数。输出入点:Clip 连接 Checkpoint 基础模型的 Clip。输出节点:Clip 连接 Prompt 节点的 Clip。正向提示词和负面提示词各一个。 3. Prompt 节点: 输出入点:Clip 连接 Clip 终止层数节点的 Clip。输出节点:正向提示词和负面提示词各连接一个。 4. KSampler 采样器: 输出入点:Model 连接 Checkpoint 基础模型;Positive 连接正向提示词;negative 连接负面提示词;latent_imageL 连接 Empty Latent Image 潜空间图像的 Latent。输出节点:Latent 连接一个 VAE 的 Samples。 5. Empty Latent Image 潜空间图像: 设置出图尺寸,例如 10241024。输出入点:Latent 连接 KSampler 采样器的 Latent。 此外,还有一些根据插件整理的工作流,您可以先随便选择一个“文生图”中的“基础+自定 VAE”。选好之后,点击“替换节点树”。界面中就会出现已经连接好的工作流节点(如果没看到,就按一下 home 键),包括大模型、clip、vae、正反提示词、尺寸,采样器等所有在 webUI 中熟悉的参数,而且全都是中文面板。打开模型节点,可以看到 webUI 中的模型全部都在。这次先不更改参数,点击“运行节点树”,直接生成。此时会提醒您是否启用 ComfyUI,点击确定即可。等待一会,就能在最后一个节点预览图中看到生成的图片。点击这里就可以打开后台,看到出图时间。
2025-03-15
comfyui工作流搭建基础
以下是 ComfyUI 工作流搭建的基础步骤: 1. 准备加载大模型的节点(load 节点):在工作区鼠标右键点击,选择“Add Node”,然后依次选择“loaders”和“Load Checkpoint”,接着选择对应的模型,点击“Ckpt_name”下拉选择对应的模型。 2. 加载 Conditioning(条件):在工作区鼠标右键点击,选择“Add Node”,然后选择“Conditioning”,再选择“CLIP TEXT Encode”。这里需要输入正向和反向提示词,相同节点可使用快捷键 Ctrl+C 和 Ctrl+V 复制粘贴。 3. 添加采样器:这部分和 WEB_UI 的设置类似,包括采样器、迭代步数、CFG 等。需要注意的是,seed 值只有固定、随机、每次增加、每次减少这四个选项,采样器和调度器是分开的。 4. 加载 Latent:可以设置图片的宽、高和批次,设置方式与 WEB_UI 相同。 5. 加载 VAE:操作与 WEB_UI 加载 VAE 相同。 6. 加载保存图片的节点。 7. 串联节点:节点分为起始节点、最终输出节点和过程执行节点。首先,checkpoint 加载器中模型选择好可直接使用,CLIP 对应链接需要的两个条件(正向提示词/负向提示词),VAE 直接连接对应的 VAE。然后将正向提示词、负向提示词链接到对应的采样器节点,latent 直接链接空 Latent。串联完毕后即得到最简单的 ComfyUI 工作流。 此外,ComfyUI 共学快闪的飞书学习群中有众多关于 ComfyUI 的学习内容,如王蓉的基础搭建和转绘、唯有葵花向日晴的基础教程、工作流开发和实际应用场景等。
2025-03-15
在使用comfyUI制作ai视频时,如何减小频闪
很抱歉,您提供的内容中没有关于在使用 ComfyUI 制作 AI 视频时如何减小频闪的相关信息。建议您检查 ComfyUI 的设置选项,看是否有与视频帧率、显示刷新率相关的设置,适当调整这些参数可能有助于减小频闪。同时,确保您的硬件设备(如显卡、显示器)性能良好且驱动程序为最新版本,也可能对解决频闪问题有所帮助。
2025-03-15
哪些模型的视频理解能力比较好?
以下是一些视频理解能力较好的模型: 1. 通义千问的 Qwen2.5VL 模型:具有以下优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 2. Sora 模型:周鸿祎认为其技术思路完全不同,能像人一样理解现实世界,将大语言模型和 Diffusion 结合起来训练,实现了对现实世界的理解和模拟两层能力,对物理世界的模拟将对机器人具身智能和自动驾驶带来巨大影响。 3. 腾讯的混元模型:在语义理解方面表现出色,能够精准还原复杂的场景和动作,例如一只银渐层在游乐园里奔跑跳到小女孩怀里、一位紫衣女修在竹林中抚琴、星系边缘宇宙战舰引爆反物质引擎等场景。
2025-03-18
大语言模型的技术原理
大语言模型的技术原理包括以下几个方面: 1. 相关概念与关系: AI 即人工智能。 机器学习是电脑找规律学习,包括监督学习(有标签的训练数据,算法目标是学习输入和输出之间的映射关系,包括分类和回归)、无监督学习(学习的数据没有标签,算法自主发现规律,经典任务如聚类)、强化学习(从反馈里学习,最大化奖励或最小化损失,类似训小狗)。 深度学习是一种参照人脑有神经网络和神经元的方法(因有很多层所以叫深度),神经网络可用于监督学习、无监督学习、强化学习。 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 LLM 即大语言模型,对于生成式 AI,生成图像的扩散模型不是大语言模型;对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。 2. 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制(SelfAttention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN)。 3. 工作原理: 包括训练数据、算力、模型参数,在训练数据一致情况下,模型参数越大能力越强。 Transformer 是大语言模型训练架构,具备自我注意力机制能理解上下文和文本关联,其工作原理是单词预测,通过嵌入、位置编码、自注意力机制生成内容,模型调教中有控制输出的 temperature。 Transformer 模型通过不断检索和匹配来寻找依赖关系,处理词和词之间的位置组合,预测下一个词的概率,是一个偏向概率预测的统计模型。 4. 可能存在的问题:大模型可能因错误数据导致给出错误答案,即大模型幻觉,优质数据集对其很重要。 5. 相关应用: 国内大模型有通用模型如文心一言、讯飞星火等,处理自然语言;还有垂直模型,专注特定领域如小语种交流、临床医学、AI 蛋白质结构预测等。 Prompt 分为 system prompt、user prompt 和 assistant prompt,写好 prompt 的法则包括清晰说明、指定角色、使用分隔符、提供样本等,核心是与模型好好沟通。 Fine tuning 微调是基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。
2025-03-18
我准备用无影云电脑部署一个独属于我们公司的AI,在大模型方面我准备用deepseek的满血版,你有什么建议吗
以下是关于您准备用无影云电脑部署公司专属 AI 并使用 deepseek 满血版大模型的一些建议: 1. 本地部署方面:如果拥有云服务器,要了解如何进行本地部署以及满血版本地部署的实际情况。 2. 免费额度:在 freely.aliyun.com 可领取 500 元免费额度,但有使用限制,不能部署满血版和较大的增流模型。 3. 平台服务差异:了解 DLC、DSW 和 EAS 等模型部署平台服务的差别。 4. 模型蒸馏微调:可以学习并实践模型的蒸馏和微调相关知识。 5. 获取 DeepSeekR1 满血版密钥: 注册并登录火山引擎,点击立即体验进入控制台。 创建一个接入点,点击在线推理创建推理接入点。 为接入点命名为 DeepSeekR1。 若有提示未开通模型,点击“立即开通”,勾选全部模型和协议一路开通。 确认无误后点击“确认接入”按钮。 复制推理点的 ID 并保存。 点击【API 调用】按钮,复制 API Key 并保存。 6. 模型选择与配置:可以参考理想的配置,如推理模型选择 gemini2.0flashthinking,代码模型选择 claude3.5sonet 或 gpt4omini,多模态模型选择 gemini2.0flash,常规模型选择 DeepSeek V3。同时,了解 OpenRouter 新发布的 BYOK 功能,它能集成第三方 Key,整合免费额度并解放更多槽位。若对现有供应商支持的模型不满意,还可考虑 simpleoneapi。
2025-03-18
如果喂给模型的数据样本量太少怎么办?
当喂给模型的数据样本量太少时,可以考虑以下方法: 1. 利用零样本提示:如今经过大量数据训练并调整指令的 LLM 能够执行零样本任务。指令调整已被证明可以改善零样本学习,如 Wei 等人(2022)所指出。此外,RLHF(来自人类反馈的强化学习)已被采用以扩展指令调整,推动了像 ChatGPT 这样的模型。当零样本不起作用时,建议在提示中提供演示或示例,这就引出了少样本提示。 2. 采用少样本提示:在机器学习和人工智能领域中,少样本提示是指当只有很少数量的标记样本可用于训练模型时,通过巧妙设计任务描述、提供相关背景知识或利用预训练模型等方法,引导模型在有限样本条件下更好地理解和解决任务。少样本提示对格式有很好的限定和约束作用,但推理问题响应稳定性差。 细节的格式限定: 字数限制:限制 ChatGPT 输出的文本长度,以避免输出过长或不合适的回复。可以设置最大字符数或最大字数来控制输出长度。 形式限定:限定输出内容的形式,比如回复领导邮件、工作周报等形式。 细节限制:对文本的格式进行优化,如标题使用斜体、语料使用引用格式、供给读者使用的文字使用代码格式、数据对比使用表格展示、流程化步骤使用流程表格式等。 需要注意的是,这些方法虽然能在一定程度上缓解样本量少的问题,但对于推理、计算等问题,可能需要进一步使用其他方法。
2025-03-18
MoE模型训练为什么会比dense模型要更困难?
MoE 模型训练比 dense 模型更困难的原因主要包括以下几点: 1. 内存需求:MoE 模型需要将所有专家加载到内存中,这导致其需要大量的 VRAM。 2. 微调挑战:微调 MoE 模型存在困难,历史上在微调过程中较难泛化。 3. 训练设置:将密集模型转换为 MoE 模型时,虽然训练超参数和训练设置相同,但 MoE 模型的特殊结构仍带来了训练上的复杂性。 4. 计算效率与泛化平衡:MoE 模型在训练时更具计算效率,但在微调时难以实现良好的泛化效果。
2025-03-17
可以同时接多个大模型api的聊天应用
以下是一些可以同时接多个大模型 API 的聊天应用: 1. 熊猫大侠:基于 COW 框架的 ChatBot 实现步骤 能实现打造属于自己的 ChatBot(文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等)、常用开源插件的安装应用等功能。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等。 可选择多模型,如 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等。 支持多消息类型,包括文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能。 有多种部署方法,如本地运行、服务器运行、Docker 的方式。 风险与注意事项:微信端因非常规使用有封号危险,不建议主力微信号接入;操作需依法合规,对大模型生成的内容注意甄别,禁止用于非法目的,处理敏感或个人隐私数据时注意脱敏。 相关教程:张梦飞同学写的更适合小白的使用教程 2. DIN:全程白嫖拥有一个 AI 大模型的微信助手 搭建步骤: 搭建,用于汇聚整合多种大模型接口,并可白嫖大模型接口。 搭建,这是个知识库问答系统,可将知识文件放入,并接入大模型作为分析知识库的大脑来回答问题。若不想接入微信,其自身有问答界面。 搭建接入微信,配置 FastGpt 将知识库问答系统接入微信,建议先用小号以防封禁风险。 拓展功能:搭建完后想拓展 Cow 的功能,可参考 Yaki.eth 同学的教程,里面的 cow 插件能进行文件总结、MJ 绘画。 3. LLM 开源中文大语言模型及数据集集合中的外部挂件应用 wenda: 地址: 简介:一个 LLM 调用平台。为小模型外挂知识库查找和设计自动执行动作,实现不亚于大模型的生成能力。 JittorLLMs: 地址: 简介:计图大模型推理库:笔记本没有显卡也能跑大模型,具有成本低,支持广,可移植,速度快等优势。 WebCPM 地址: 简介:一个支持可交互网页搜索的中文大模型。 GPT Academic: 地址: 简介:为 GPT/GLM 提供图形交互界面,特别优化论文阅读润色体验,支持并行问询多种 LLM 模型,兼容复旦 MOSS, llama, rwkv, 盘古等。 ChatALL: 地址: 简介:ChatALL(中文名:齐叨)可以把一条指令同时发给多个 AI,可以帮助用户发现最好的回答。
2025-03-17