直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

部署私有大模型需要什么显卡

回答

部署私有大模型对显卡的要求如下:

  • 显存是显卡选择的第一要素,生成速度优先级相对较低。
    • SD1.5 版本的底模 6G 显存能勉强跑,8G 显存可较流畅生成图片和炼制 lora,12G 能流畅使用 Dreambooth 微调大模型。
    • 即将到来的 SDXL 对显卡性能要求更高,8G 显存起步,建议 16G 显存,微调大模型可能需要 20G 以上的显存,只有 4090 和 3090 能较好应对。
  • 预算不足时,可选择 30 系显卡或二手显卡。但不建议选择 P40 之类超大显存但速度超级慢的卡。
  • 常见显卡中,4090 生成 512 的图可跑进 1 秒内。
  • 对于一些垂直场景的专有技能模型,极端情况下单机单卡,如消费级显卡 3090、3080、RTX 显卡也可以使用。

综合多方评测结论,4090 是用于 SD 图像生成综合性价比最高的显卡。如果有打算进行 Dream booth 微调大模型,硬盘空间要准备充足,一次训练可能会产生几十 G 的文件。同时,其他电脑配件只要不太差即可,内存建议 32GB 以上。硬盘方面,不建议考虑机械盘,可选择国产固态。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

Stable Diffusion电脑配置选购指南

其他电脑配件只要不太差就行了,要使用SDXL的话内存建议32GB以上。以前可能执着于要搭配好的电源主板等等,现在觉得国产的虽然没那么好,但是价格有便宜下来也可以,选择带有保修服务的商家就可以更放心一点了。如果预算不足的话,其他硬件都可以压一压,i9压成i5就省下不少。但是硬盘这一块我建议可以不用考虑买机械盘了,上个500块的长江存储2T的国产固态做系统盘,再买个1000块的4T国产固态做仓库盘,就很美好了。机械硬盘性价比不高,要买建议买大容量的。如果有打算进行Dream booth微调大模型的话,那么硬盘空间要准备多一点,一次训练可能会产生几十G的文件,基本上都需要多次训练测试,空间很快就满了。最后,综合我看过的多方评测的结论,4090才是用于SD图像生成综合性价比最高的显卡哈哈哈,贵的比较值得,其他便宜一点的代价是更大的损失。有志于深入研究SD图像生成的同学都可以考虑配备一个,工欲善其事,必先利其器。

Stable Diffusion电脑配置选购指南

显卡的选择中显存是第一要素,生成速度优先级相对较低。SD1.5版本的底模6G显存也能勉强跑,8G显存就可以比较流畅的生成图片和炼制lora,12G可以流畅的使用Dreambooth微调大模型。下图为Dreambooth的显存使用要求:即将到来的SDXL对显卡性能要求上了一个台阶,目前我了解到的参数是8G显存起步,建议16G显存,微调大模型可能需要20G以上的显存,只有4090和3090顶得住哈哈。预算不足的话选择30系的显卡,或者二手显卡也是一个选择,总比跑不动炸显存要好。至于P40之类超大显存但速度超级慢的卡我不太了解,这边不建议普通用户选择。下图为SDXL的显存使用要求:下方的常见显卡跑图性能、性价比表可以作为参考之一,数据并非100%准确。我的个人体验是4090生成512的图可以跑进1秒内,M1 Max的则可能需要10秒左右。(再次强调,MAC虽然勉强能跑,但不适合正式使用,不建议折腾)

周鸿祎免费课AI系列第二讲-企业如何拥抱AI

那么如果我们提出这样的要求,我们就发现我们所有的问题就得到了一个很满意的解答。我只要不追求这个大模型,又会写诗,又会翻译,还又能解数学题,还能够写营销文章,还能作画。我们过去通用大模型是给我们一个幻觉,觉得我大模型就该做这么多事,对吧?但实际上我们仔细的分析到,现在如果我们对大模型的要求放低,像我就降低对自己的期望,我就没有那么大压力。所以如果做一个垂直场景的专有技能的模型,不需要千亿万亿的参数,那个参数就浪费百亿,十亿的参数就够用。最近出现的一些新的大模型大概都是在几十亿到百亿这个参数,现在大家已经流行的是说看谁能用更小,用少的参数实现那些过去千亿模型才能实现的能力。所以说的夸张点,不需要H800,不需要H100,也不需要A800,也不需要A100。最极端上单机,单卡弄张消费机显卡30903080这RTX显卡就可以用。

其他人在问
本地安装大模型使用4060显卡和4060TI显卡有什么区别
在本地安装大模型时,4060 显卡和 4060TI 显卡主要有以下区别: 显存方面:显存是选择显卡的重要因素。4060 显卡的显存通常小于 4060TI 显卡。对于一些对显存要求较高的任务,如生成更大分辨率的超清图片、使用更高的参数进行 Dream booth 微调等,4060TI 显卡的大显存更具优势。 生成速度方面:4060TI 显卡的速度比 4060 显卡快。但在某些情况下,如果显存不足导致无法执行任务,速度稍慢就显得不那么重要了。 总体而言,在预算允许的情况下,16GB 的 4060TI 显卡由于其较大的显存,可以执行更多样的 AI 生成任务。但如果预算有限,4060 显卡也是一个可行的选择。
2024-11-06
a800 ,H100,a10,H800这4个显卡能力有啥差异
以下是 A800、H100、A10、H800 这 4 个显卡在能力上的一些差异: 在训练与推理方面: 对于大型模型的训练,许多模型在 NVIDIA H100 上最具成本效益,但获取在 NVIDIA H100 上运行的模型较难,且通常需要长期合作承诺。如今更多的选择是在 NVIDIA A100 上运行大多数模型训练,但对于大型集群仍需要长期承诺。 大型语言模型(LLM)的参数数量众多,通常需要分布到多个卡中,即使进行 LLM 推理,可能也需要 H100 或 A100。但较小的模型(例如 Stable Diffusion)需要的 VRAM 要少得多,初创公司也会使用 A10 等显卡。 在内存要求方面: 大型 LLM 的参数数量太多,任何单卡都无法容纳,需要类似于训练的多卡设置。 对于一些较小的模型,A10 等显卡可能就能够满足其内存需求。 需要注意的是,决定选择哪种 GPU 主要是一个技术决策,需要根据具体应用来确定最具成本效益的选择。
2024-10-16
如何让COMFYUI使用我的INTEL A770显卡?
要让 ComfyUI 使用您的 INTEL A770 显卡,以下是一些相关的步骤和信息供您参考: 首先,ComfyUI 本地安装的方法主要有以下几种: 1. 命令行安装: 如果您已经安装过 SD WebUI,可以跳到第二步。首先需要打开系统 Terminal,不同系统的 Terminal 可能有所不同。 Windows 用户:建议在有 NVIDIA 显卡的电脑上使用。需要下载 Miniconda3,输入相关命令进行安装,然后安装 pytorch 的 nightly 版本。 Mac 用户:安装需要根据电脑芯片不同输入不同代码。下载 Miniconda3 并输入相关命令进行安装,最后安装 pytorch。 2. 安装包安装:仅支持 Windows 系统且显卡必须是 Nivida。下载地址是,下载最新版本解压即可使用。 关于 ComfyUI 的硬件配置: ComfyUI 相比 WebUI 配置更低、系统资源占用更少、出图速度更快,最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。运行内存最低 32GB,越高越好,最低配会经常爆显存。玩 SDwebui 和 ComfyUI 建议使用 6GB 以上的显存的 NVIDIA 显卡,内存在 16G 以上。硬盘会影响加载模型的速度,最好把软件和模型部署在 SSD 上。 需要注意的是,目前 ComfyUI 对于 INTEL A770 显卡的支持情况可能不太明确,您可能需要根据实际情况进行尝试和调整。
2024-10-10
蛟龙16pro配置(处理器R7-7745HX,显卡RTX4060 8G,硬盘512GPCIE4.0SSD)可以用于审计人员本地化部署大模型用于数据分析工作吗
蛟龙 16pro 的配置(处理器 R77745HX,显卡 RTX4060 8G,硬盘 512G PCIE4.0 SSD)对于审计人员本地化部署大模型用于数据分析工作来说,可能存在一定的局限性。 处理器 R77745HX 具有一定的计算能力,但在处理大规模数据和复杂的模型运算时,其性能可能不够强劲。 显卡 RTX4060 8G 对于一些较为复杂的图形处理和计算任务能够提供一定的支持,但对于大规模的深度学习模型训练和数据分析,可能会显得不足。 512G 的 PCIE4.0 SSD 硬盘容量相对较小,在存储大量数据时可能会很快耗尽空间。 综上所述,该配置在一定程度上可以用于简单的数据分析任务,但对于较为复杂和大规模的大模型本地化部署及数据分析工作,可能需要更强大的硬件配置,例如更高性能的处理器、更大容量和更高性能的显卡,以及更大的存储空间。
2024-09-14
显卡对于AI的作用
显卡在 AI 领域具有重要作用: 1. 提供计算能力:算力可以直接转化为 GPU,电脑里的显卡就是 GPU。购买云服务时,也是服务商购买显卡“租”给用户使用,算力约等于显卡。 2. 图像和图形运算:GPU(图形处理器)是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像和图形相关运算工作的微处理器。 3. 数据处理和存储:显存用于存储显卡芯片处理过或者即将提取的渲染数据,如同计算机的内存一样,是存储要处理的图形信息的部件。 4. 执行特定任务优势:在模型启动过程中,数据从硬盘加载到显卡中。显卡在处理某些任务上优于 CPU,主要是因为它专注于执行浮点运算,而 CPU 负责执行更广泛的计算任务。 5. 满足多样生成任务需求:如在 Stable Diffusion 中,16GB 的 4060ti 虽速度比 12GB 的 4070ti 慢,但大显存可执行更多样的 AI 生成任务,如生成更大分辨率的超清图片,使用更高的参数进行 Dream booth 微调等。
2024-08-27
4060显卡用Stable Diffusion怎么样
4060 显卡用于 Stable Diffusion 的情况如下: 在 30 系列显卡中,3060ti 12GB 显卡、3090 和 3090ti 比较适合 Stable Diffusion 生成图片,其他显存不够的显卡意义不大。2080ti 22GB 魔改版本显卡比较考验运气,不建议普通玩家选购。A5000 等专业卡不能玩游戏,生成速度不如同价位游戏卡,半精度训练模型运算速度可能会快一点,也不建议普通玩家选购。 如果使用 40 系显卡,16GB 的 4060ti 虽然速度比 12GB 的 4070ti 慢一点,但大显存可以执行更多样的 AI 生成任务,比如生成更大分辨率的超清图片,使用更高的参数进行 Dream booth 微调等。 需要注意的是,如果在 Stable Diffusion 模型加载时遇到 CUDA 显存不足的错误,简单来说就是显卡不行,没有足够的显存空间分配给该模型。解决方法有:换个好一些的显卡,至少英伟达 2060 以上;或者开启低显存模式。 开启低显存模式的方法如下:在 stablediffusionwebui 文件夹下找到 webuiuser.bat,用文本或代码编辑器打开该文件夹。如果显卡显存不足 3G,可以在 set COMMANDLINE_ARGS=的后面添加参数–lowvram –alwaysbatchconduncond 之后保存。如果显卡只有 4G 显存,可以在 set COMMANDLINE_ARGS=的后面添加参数–precision full –nohalf –lowvram –alwaysbatchconduncond 之后保存。
2024-08-13
dify私有化部署
以下是关于 Dify 私有化部署的相关信息: 1. 部署步骤: 通过云服务器进行部署,相关命令在宝塔面板的终端安装,例如在/root/dify/docker 目录下的 dockercompose 文件。 检查运行情况,若 nginx 容器无法运行,可能是 80 端口被占用,可将终端输出的代码粘贴给 AI 以解决。 在浏览器地址栏输入公网 IP(去掉宝塔面板地址栏后的:8888),随便填写邮箱密码建立知识库并进行设置。 2. 模型选择与配置: 可以选择国内有免费额度的模型,如智谱 AI。 以智谱 AI 为例,在其官网用手机号注册,添加 API keys 并查看免费额度,将钥匙复制保存。 随便创建应用,可先选择智谱 glm4 测试,然后点发布。 创建并复制 api 秘钥。 3. Dify 特点: 作为开源应用,易用性出色且功能强大,安装过程简单快捷,熟练用户约 5 分钟可在本地完成部署。 支持本地部署和云端应用,能应对工作流、智能体、知识库等。 本地部署需自行处理模型接入等问题,包括购买 API、接入不同类型模型,构建个人知识库时还需考虑数据量、嵌入质量和 API 费用等因素。
2024-09-20
私有化部署大模型的教材
以下是为您提供的私有化部署大模型的相关教材: 张梦飞:【全网最细】从 LLM 大语言模型、知识库到微信机器人的全本地部署教程 一、部署大语言模型 1. 下载并安装 Ollama 点击进入,根据您的电脑系统,下载 Ollama:https://ollama.com/download 下载完成后,双击打开,点击“Install” 安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 2. 下载 qwen2:0.5b 模型(0.5b 是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型) 如果您是 windows 电脑,点击 win+R,输入 cmd,点击回车。 如果您是 Mac 电脑,按下 Command(⌘)+ Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 复制以下命令行,粘贴进入,点击回车。 回车后,会开始自动下载,等待完成(这里下载久了,可能会发现卡着不动,不知道下载了多少了。鼠标点击一下窗口,键盘点空格,就会刷新了) 下载完成后您会发现,大模型已经在本地运行了。输入文本即可进行对话。 【SD】向未来而生,关于 SDXL 您要知道事儿 SDXL 的大模型分为两个部分: 1. 第一部分,base+refiner 是必须下载的,base 是基础模型,我们使用它进行文生图的操作;refiner 是精炼模型,我们使用它对文生图中生成的模型进行细化,生成细节更丰富的图片。 2. 第二部分,是 SDXL 还有一个配套的 VAE 模型,用于调节图片的画面效果和色彩。 这三个模型,您可以关注我的公众号【白马与少年】,然后回复【SDXL】获取下载链接。 想要在 webUI 中使用 SDXL 的大模型,首先我们要在秋叶启动器中将 webUI 的版本升级到 1.5 以上。接下来,将模型放入对应的文件夹中,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。完成之后,我们启动 webUI,就可以在模型中看到 SDXL 的模型了。我们正常的使用方法是这样的:先在文生图中使用 base 模型,填写提示词和常规参数,尺寸可以设置为 10241024,进行生成。 基于多模态大模型给现实世界加一本说明书 大模型应用的利弊: 优点: 适应性极好,通过提示词工程,方便「适应各种奇葩需求」。 对算法的要求降低了不少,大部分功能由大模型提供,特别是非结构化信息的处理。 大模型的 API 访问方式简化了边缘设备的要求,无论在 Android、iOS、HarmonyOS或各种嵌入式设备上都能方便适配。「AGI 终将到来,拥抱未来,虽然路途艰难但相信方向是正确的。」 缺点: 大模型的推理时长目前仍是最大的障碍,传统目标检测或人脸识别优化后能达到 100~300ms,而大模型动则需要 10 秒的延时,限制了许多场景。 模型的幻象和错误率仍然较高,导致上述推理时长问题,在多链路的复杂应用中迅速变得不可行。 在大多数生产模式下,仍然需要使用云服务数据中心,提交的画面不可避免地涉及到隐私问题。 商业私有化部署是刚需,当下的开源模型离 GPT4 代差在半年以上,技术人员任重道远的。
2024-09-03
如何使用LLM分析企业的私有化数据,是否有工具推荐?
以下是关于使用 LLM 分析企业私有化数据及工具推荐的相关内容: RAG 加速器提供了数据抽取服务,这是基于 LLM 的解决方案。在利用 LLM 进行信息抽取时,需要了解构建抽取服务的基本组件和要点。 实现过程中,有两个简单但强大的思路可以提升性能: 1. 确保 LLM 以正确的格式回应。函数调用已成为确保 LLM 严格输出特定格式的新且相对靠谱的方法,可参考结构化输出文档,其中高层次的 LangChain API 展示了不同 LLM 如何调用工具和函数。 2. 使用参考样例。尽管没有样例也能设置抽取问题,但实际操作中,将输入和对应输出的样例纳入其中通常大有裨益,有时这些样例比指示本身更能有效指导 LLM 处理特定情况。在提取用例文档中,可以找到更多细节,助您从 LLMs 中提取更好的性能。
2024-09-02
如何将私有模型部署到微信
以下是将私有模型部署到微信的几种方法: 1. 张梦飞的方法: 部署大语言模型: 下载并安装 Ollama:根据您的电脑系统,从 https://ollama.com/download 下载,下载完成后双击打开,点击“Install”。安装完成后,将 http://127.0.0.1:11434/ 复制进浏览器,若出现相关字样则表示安装完成。 下载 qwen2:0.5b 模型(0.5b 是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型):如果是 Windows 电脑,点击 win+R,输入 cmd 点击回车;如果是 Mac 电脑,按下 Command(⌘)+ Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。复制相关命令行并粘贴回车,等待自动下载完成。 2. 安仔的方法: 配置腾讯云轻量应用服务器。 配置部署 COW 组件:配置 GROUP_NAME_WHITE_LIST 参数,根据要交互的群组进行具体修改,保存编排模板。切换到容器编排界面,基于模板进行 COW 服务部署,等待部署成功。 3. 马上观看看的方法: 部署 dify:选择模型,以智谱 ai 举例,点设置,点从智谱 ai 获取钥匙,进入智谱官网用手机号注册,添加 API keys 并复制,查看免费额度并收藏网址。回到之前页面复制钥匙并保存,随便创建应用,可先选择智谱 glm4 测试,点发布,点击 api 秘钥创建并复制。
2024-08-26
私有化部署的大模型工具
以下是关于私有化部署的大模型工具的相关内容: Fooocus 部署: 大模型(base 和 Refiner)默认放在:Fooocus_win64_1110\\Fooocus\\models\\checkpoints LoRA 模型默认放在:Fooocus_win64_1110\\Fooocus\\models\\loras Fooocus 程序默认用到 3 个 SDXL 的模型,包括一个 base、一个 Refiner 和一个 LoRA。若单独安装,需下载三个模型: SDXL 基础模型:https://huggingface.co/stabilityai/stablediffusionxlbase1.0/resolve/main/sd_xl_base_1.0_0.9vae.safetensors refiner 模型:https://huggingface.co/stabilityai/stablediffusionxlrefiner1.0/resolve/main/sd_xl_refiner_1.0_0.9vae.safetensors LoRA 模型:https://huggingface.co/stabilityai/stablediffusionxlbase1.0/resolve/main/sd_xl_offset_examplelora_1.0.safetensors 若部署了 SD 秋叶包,可共用模型(大模型和 LoRA),在 Fooocus_win64_1110\\Fooocus\\modules\\path.py 中用 text 记事本打开,修改路径为秋叶包模型对应的路径,如大模型路径:sdwebui\\models\\Stablediffusion\\SDXL;LoRA 模型路径:sdwebui\\models\\lora。配置好后点击 run.bat 文件启动。 SDXL 本地部署: 大模型分为两个部分:第一部分,base + refiner 必须下载,base 用于文生图操作,refiner 用于对生成的模型细化以生成细节更丰富的图片;第二部分是配套的 VAE 模型,用于调节图片的画面效果和色彩。 可关注公众号【白马与少年】,回复【SDXL】获取模型下载链接。 在 webUI 中使用 SDXL 大模型,需在秋叶启动器中将 webUI 版本升级到 1.5 以上,将模型放入对应文件夹,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下,vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下,启动 webUI 后可在模型中看到 SDXL 模型。 Langchain + Ollama + RSSHub 实现 RAG 部署: 安装完后,确保 ollama 后台服务已启动(在 mac 上启动 ollama 应用程序,在 linux 上通过 ollama serve 启动),可通过 ollama list 确认。 可通过 ollama 命令下载模型,如 Gemma(Google 推出的轻量级模型)、Mistral(欧洲法国 Mistral AI 团队推出的大模型)、Mixtral(Mistral AI 团队推出的 87B 的 MoE 模型)、Qwen(阿里巴巴推出的大模型)。
2024-08-16
agent一般是私有化部署,还是公有化部署
AI助手或智能代理(Agent)的部署可以是私有化部署,也可以是公有化部署,具体取决于应用场景、需求、安全考虑以及成本效益等因素。 1. 私有化部署: 在企业或组织的内部网络中部署,通常用于处理敏感数据或需要高度定制化的服务。 提供更高的安全性和隐私保护,因为系统不公开于互联网。 允许更精细的控制和管理,适合有特定业务流程和需求的企业。 2. 公有化部署: 在云服务提供商的基础设施上部署,通过互联网提供服务。 易于扩展,维护成本较低,因为云服务商负责大部分的维护工作。 适用于面向公众的服务,如在线客服机器人、开放平台的API服务等。 选择哪种部署方式取决于以下因素: 数据敏感性:如果处理的数据非常敏感,私有化部署更有利于保护数据安全。 成本:私有化部署可能需要更多的初始投资,而公有化部署可能带来更高的灵活性和可扩展性。 维护能力:如果企业有足够的技术力量来维护私有化部署的系统,这可能是一个更好的选择。 定制化需求:私有化部署更容易根据企业的特定需求进行定制。 法规遵从性:某些行业或地区的法律法规可能要求企业必须进行私有化部署。 在实际应用中,一些企业可能会选择混合部署模式,即在私有云中部署核心的、敏感的业务组件,同时将一些非核心或较不敏感的组件部署在公有云上,以此来平衡安全性、成本和灵活性。
2024-05-11
我需要用知识库与通用大模型结合的方式满足博物馆的导览助手,请提出完整的实施方案。
目前知识库中没有关于用知识库与通用大模型结合来满足博物馆导览助手的完整实施方案。但以下是为您初步构思的一个可能的方案: 首先,需要对博物馆的展品、历史背景、文化内涵等相关信息进行全面而系统的梳理和整理,形成详细准确的知识库。 然后,选择适合的通用大模型,例如具备强大语言理解和生成能力的模型。 接下来,通过技术手段将知识库与通用大模型进行有效连接和融合。这可能涉及到数据的预处理、模型的训练与优化,以确保模型能够准确理解和运用知识库中的信息。 在实际应用中,为导览助手设计友好的用户界面,方便游客进行交互。例如,可以是语音交互、触摸屏操作等方式。 同时,要不断对导览助手进行测试和改进,根据游客的反馈和实际使用情况,优化知识库和模型的性能,提升导览助手的服务质量和用户体验。
2024-11-08
大模型优化有哪些方式
大模型优化的方式主要包括以下几种: 1. 模型压缩:由于大模型的参数众多,内存需求巨大,在实际部署时会进行压缩。例如使用内存占用更小的数据类型,如 16 位的浮点数,其中英伟达在其最新一代硬件中引入了对 bfloat16 的支持。 2. 上下文优化:如果模型缺失必知信息,如内部业务数据、流程等,可通过将相关信息提供给模型进行优化。例如采用 RAG 技术,先在知识库检索相关内容,然后与提示词组装后提供给大模型作为输入。 3. 大模型优化:在进行足够的 prompt 工程后,如果模型在垂直领域表现不足或输出内容的格式风格稳定性不及预期,可以考虑微调。但微调也要与良好的 prompt 工程结合。 4. 更换大模型:例如从 ChatGLM26B 替换成 baichuan213b,可能提升性能。 5. 更换 embedding 模型:如将 embedding 模型从 LangChain Chatchat 默认的 m3ebase 替换为 bgelargezh。 6. 测试不同 Top k 的值:比较不同的 Top k 值(如 Top 5、Top 10、Top 15),找到最优效果的值。 7. 对文档名称进行处理:人工对文件重命名,上传相同文件构建知识库,并勾选【开启中文标题加强】选项,可减少无关信息,提升效果。
2024-11-08
claude gpt 国内大模型的对比
以下是关于 Claude、GPT 与国内大模型的对比情况: 在 2023 年度中文大模型基准测评的传统安全能力专项基准中: Claude2 遥遥领先,取得最高分 83.00 分,在传统安全方面表现出色,这可能与 Anthropic 对 AI 安全的重视及精心设计的安全防护措施有关。 文心一言 4.0(API)排在第二名,得分为 68 分。 智谱清言和 Yi34BChat 均超过 65 分。 GPT 系列在安全能力测评上呈现不稳定情况,超过 GPT3.5 的国内模型有 14 个,GPT4表现不尽如人意,可能与国内外安全范围及 OpenAI 安全策略有关。 在主观和客观对比方面: 国内大模型多数擅长做选择题,普遍选择题分数高于简答题分数,文心一言 4.0 和智谱清言表现相对稳定。 GPT4 Turbo 的表现最为稳定,差值仅有 0.86。 此外,国外的代表性大模型如 GPT4 的不同版本、Claude2、Llama2 都有很好的稳定性表现,值得国内大模型进一步分析研究。 AndesGPT 是 OPPO 自主训练的大语言模型,具有对话增强、个性专属和端云协同三大技术特征,在语言理解与抽取、角色扮演能力上排名国内前一,在代码、生成与创作、上下文对话能力上排名国内前三,各项能力较为均衡,聚焦在移动设备端的应用,涵盖知识、记忆、工具、创作等方向。
2024-11-08
国内现有ai模型
以下是 8 月正式上线的国内部分大模型: 北京: 百度(文心一言):https://wenxin.baidu.com 抖音(云雀大模型):https://www.doubao.com 智谱 AI(GLM 大模型):https://chatglm.cn 中科院(紫东太初大模型):https://xihe.mindspore.cn 百川智能(百川大模型):https://www.baichuanai.com/ 上海: 商汤(日日新大模型):https://www.sensetime.com/ MiniMax(ABAB 大模型):https://api.minimax.chat 上海人工智能实验室(书生通用大模型):https://internai.org.cn 这些大模型在聊天状态下具有不同特点,例如: 能生成 Markdown 格式的:智谱清言、商量 Sensechat、MiniMax 目前不能进行自然语言交流的:昇思、书生 受限制使用:MiniMax(无法对生成的文本进行复制输出,且只有 15 元的预充值额度进行体验,完成企业认证后可以进行充值) 具有特色功能的:昇思可生图,MiniMax 可语音合成 此外,阿里通义千问、360 智脑、讯飞星火等不在首批获批名单中。据悉,广东地区获批公司分别为华为、腾讯,科大讯飞系其他地区获批产品。
2024-11-08
能够读取文本数字最多的大模型是哪一个
目前能够读取文本数字较多的大模型有以下几种: Claude2 模型的上下文上限是 100,000 个 token。 ChatGPT16k 模型的上下文上限是 16,000 个 token。 ChatGPT432k 模型的上下文上限是 32,000 个 token。 需要注意的是,token 限制会同时对一次性输入和一次对话的总体上下文长度生效。例如,一次性输入的文本长度以及一次对话中累计的上下文长度都受到相应的限制。当达到上限时,并非停止对话,而是会遗忘最前面的对话内容。
2024-11-08
如何打造智能家电行业大模型,需要几步,分别具体怎么实施?
打造智能家电行业大模型一般需要以下步骤及具体实施方法: 1. 准备计算资源:训练大模型需要大量的计算能力,特别是 GPU 等硬件,类似于找一所具备资本和资源的“贵族学校”。 2. 确定数据:大模型需要海量的数据,数据量通常以千亿序列(Token)为标配,这就像为学习确定丰富的“教材”。 3. 选择算法:选择合适的算法来处理和讲解数据,让大模型能更好地理解 Token 之间的关系,如同为学习找一位好“老师”。 4. 微调指导:为了让大模型更好地适应智能家电行业,需要进行微调指导,类似于就业指导。 5. 实际应用:完成上述步骤后,大模型就可以进行实际的任务,如翻译、问答等,这被称为推导。 在构建大模型的过程中,还包括以下具体环节: 1. 收集海量数据:如同教孩子成为博学多才的人需要让其阅读大量书籍、观看纪录片、与人交谈,对于大模型,要收集互联网上的文章、书籍、维基百科条目、社交媒体帖子等各种文本数据。 2. 预处理数据:就像为孩子整理学习资料,要对收集到的数据进行清理和组织,包括删除垃圾信息、纠正拼写错误、将文本分割成易于处理的片段。 3. 设计模型架构:为大模型设计“大脑”结构,通常是复杂的神经网络,例如使用 Transformer 架构这种擅长处理序列数据的结构。 4. 训练模型:让大模型“阅读”提供的数据,通过反复预测句子中的下一个词等方式,逐渐学会理解和生成人类语言。 行业最佳实践方面,以 Baichuan 为例,针对用户复杂的问题,借鉴了 Meta 的 CoVe 技术,将复杂 Prompt 拆分为多个独立且可并行检索的搜索友好型查询,还利用自研的 TSF 技术挖掘用户输入背后更深层的问题。在检索步骤中,自研了 BaichuanTextEmbedding 向量模型,对大量数据进行预训练,并通过自研损失函数解决问题,同时引入混合检索方式提升目标文档的召回率。
2024-11-08
Mac部署stable diffusion
在 Mac 上部署 Stable Diffusion 存在一定限制,功能可能不全且出错率偏高,严重影响使用体验。个人建议升级设备或者采用云服务器玩耍。 如果您仍想在 Mac 上部署,可以参考以下步骤: 1. 电脑硬件要求: 系统:无明确针对 Mac 的特定系统要求。 显卡:未明确针对 Mac 的显卡要求。 硬盘:留有足够的空间,最低 100G 起步(包括模型)。 2. 环境安装: 未提供 Mac 系统下的具体环境安装步骤。 由于 Mac 系统的特殊性,更推荐您采用云端部署的方式,相关教程可参考:https://qa3dhma45mc.feishu.cn/wiki/A6WYw1Nm0ikGplkuO9Ecwomqnnd
2024-11-06
联想异能者配置i5-12450八核,32GB内存,1TB固态硬盘,用于本地部署开源大模型可以部署哪些开源大模型
以下是一些您的联想异能者配置(i512450 八核,32GB 内存,1TB 固态硬盘)可部署的开源大模型及相关信息: ComfyUI 相比 WebUI 配置更低,系统资源占用更少,出图速度更快。ComfyUI 最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。玩 SDwebui 和 ComfyUI 建议使用 6GB 以上的显存的 NVIDIA 显卡(N 卡),内存在 16G 以上。硬盘会影响加载模型的速度,所以最好把软件和模型部署在 SSD(固态硬盘)上。 截止 2024 年 5 月,主流的 AI 笔记本电脑主要是一些专门为人工智能和深度学习设计的高性能移动工作站。一些知名品牌包括微软第 11 代 Surface Pro、微星 Creator/Workstation 系列、技嘉 Aero/Aorus 系列、戴尔 Precision 移动工作站、惠普 ZBook 移动工作站、联想 ThinkPad P 系列。这些笔记本通常配备强大的 GPU(如 NVIDIA RTX 系列)、大容量内存(32GB 以上)和高速固态硬盘,还通常预装了 NVIDIA CUDA、cuDNN 等深度学习框架,以及各种 AI 开发工具。但这类高端 AI 笔记本价格相对较高,通常在 2000 美元以上。用户可根据自身需求和预算选择合适型号,并关注散热、续航等实际使用体验。 请注意,配置上不封顶,您可根据自己的需求和预算来选择。
2024-11-04
如何做大模型的云端部署与微调
做大模型的云端部署与微调,主要包括以下步骤: 1. 选择合适的部署方式: 本地环境部署。 云计算平台部署。 分布式部署。 模型压缩和量化。 公共云服务商部署。需根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源: 确保有足够的训练数据覆盖目标应用场景。 准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础: 可以使用开源的预训练模型如 BERT、GPT 等。 也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练: 根据具体应用场景对预训练模型进行微调训练。 优化模型结构和训练过程以提高性能。 5. 部署和调试模型: 将训练好的模型部署到生产环境。 对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护: 大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 例如,对于 SDXL 的大模型,本地部署时要注意模型分为 base+refiner 以及配套的 VAE 模型,需将其放入对应文件夹,并在秋叶启动器中将 webUI 的版本升级到 1.5 以上。而对于 Llama3 的部署和微调,实操分两部分,包括本地部署并通过 webdemo 对话,以及使用特定数据集进行微调,具体流程为购买服务器、安装代码环境、下载通用模型和数据集、挑选微调框架、编写微调程序和验证结果。 总的来说,部署和微调大模型需要综合考虑多方面因素,根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。
2024-10-26
docker部署qwen
以下是关于 Docker 部署相关问题的综合回答: 容器编排模板: 容器编排模板是一种配置文件,用于在 Docker 中部署和管理多个容器,可一键部署复杂环境,无需手动配置细节,如配置 COW 组件与微信和极简未来平台交互。 使用 Docker 部署 COW 组件的原因: Docker 提供隔离运行环境,确保应用在任何环境稳定运行,简化安装和配置过程,保证环境一致,便于管理和维护。 配置多个前缀触发机器人回复的原因: 配置如“bot”、“@bot”等多个前缀,能确保机器人只在特定情况回复,避免群聊或私聊中频繁干扰,提高响应准确性和用户体验。 扫码登录失败的解决办法: 1. 重启 Docker 容器:在宝塔面板中找到对应容器,点击“重启”。 2. 检查网络连接:确保服务器和微信客户端能正常访问互联网。 3. 重新扫描二维码:等待容器重启后,重新扫描日志中生成的二维码。 费用相关: 使用 AI 微信聊天机器人的费用实际上不高,极简未来平台按使用量收费,对一般用户费用相对低廉,充值少量费用通常可用很长时间,且平台提供每天签到免费领积分福利,进一步降低使用成本。使用极简未来平台创建 AI 机器人的具体费用未明确给出。
2024-10-20
我想在云服务器部署使用 dify 和 comfyui ,云服务器机器配置需要什么要求呢
在云服务器部署使用 Diffy 和 ComfyUI ,云服务器机器配置要求如下: 1. 系统:Windows 7 以上。 2. 显卡要求:NVIDIA 独立显卡且显存至少 4G 起步。但 SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。 3. 硬盘:留有足够的空间,最低 100G 起步(包括模型)。硬盘会影响加载模型的速度,最好把软件和模型部署在 SSD(固态硬盘)上。 4. 内存:最低 32GB,越高越好,最低配会经常爆显存。 需要注意的是,ComfyUI 相比 WebUI 配置更低,系统资源占用更少,出图速度更快,最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。如果您的电脑能顺畅清晰地玩 3A 游戏,那玩 WebUI 和 ComfyUI 通常也没问题。配置上不封顶,根据自己的需求和预算来选择即可。
2024-10-19
如何在个人电脑中部署本地RAG
在个人电脑中部署本地 RAG 可以按照以下步骤进行: 1. 加载所需的库和模块: 确保 ollama 服务已开启并下载好模型,ollama 用于在 python 程序中跑大模型。 feedparse 用于解析 RSS 订阅源。 2. 从订阅源获取内容: 函数用于从指定的 RSS 订阅 url 提取内容,如需接收多个 url 可稍作改动。 通过专门的文本拆分器将长文本拆分成较小的块,并附带相关元数据,如标题、发布日期和链接。最终,这些文档被合并成一个列表并返回,用于进一步的数据处理或信息提取任务。 3. 为文档内容生成向量: 使用文本向量模型 bgem3,从 hf 下载好模型后放置在指定路径,如 /path/to/bgem3,通过函数利用 FAISS 创建一个高效的向量存储。 4. 创建 Python 虚拟环境: 创建 python 虚拟环境,并安装相关库,版本如下: ollama:0.1.8 langchain:0.1.14 faisscpu:1.8.0(有 gpu 则安装 gpu 版本) gradio:4.25.0 feedparser:6.0.11 sentencetransformers:2.6.1 lxml:5.2.1 5. 导入依赖库。 6. 基于用户的问题,从向量数据库中检索相关段落,并根据设定的阈值进行过滤,最后让模型参考上下文信息回答用户的问题,从而实现 RAG。 7. 创建网页 UI:通过 gradio 创建网页 UI,并进行评测。 8. 问答测试:对于同样的问题和上下文,基于 Qwen7b、Gemma、Mistral、Mixtral 和 GPT4 分别进行多次测试。 总结: 1. 本文展示了如何使用 Langchain 和 Ollama 技术栈在本地部署一个资讯问答机器人,同时结合 RSSHub 来处理和提供资讯。 2. 上下文数据质量和大模型的性能决定了 RAG 系统性能的上限。 3. RAG 通过结合检索技术和生成模型来提升答案的质量和相关性,可以缓解大模型幻觉、信息滞后的问题,但并不意味着可以消除。
2024-10-13