直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

如何在Mac上部署AI

回答

以下是在 Mac 上部署 AI 的详细步骤:

  1. 执行以下命令:
    • cd /root || exit 1
    • 下方两行粘贴进入,然后点击回车,等待下载完成。(如果这里有了卡点,进行不下去,可能是因为服务器网络问题,去拉取的时候下载不全,可以复制网址,手动去下载到电脑上。然后进入文件夹,找到 root 文件夹,把下载的文件上传进去就好了。)
    • 再粘贴下方代码,出现下图,就代表在执行中了。
    • 然后把下边这行粘贴进去,点击回车。rm -f Anaconda3-2021.05-Linux-x86_64.sh
    • 继续粘贴:/root/anaconda/bin/conda create -y --name AI python=3.8
    • 继续,一行一行依次粘贴,依次回车:
    • echo 'source /root/anaconda/bin/activate AI' >> ~/.bashrc
  2. 执行完成后。刷新一下,重新进入终端,你会看到,最左侧出现了(AI)的字符。如果出现了,那么恭喜你。
  3. 继续,一行一行依次粘贴,依次回车:
    • cd /root
    • git clone https://github.com/zhayujie/chatgpt-on-wechat
    • 出现下方的样子,就是成功了。如果失败,或者没反应,刷新一下,重新再试一次
    • 继续一行一行,依次输入:
    • cd chatgpt-on-wechat/
    • pip install -r requirements.txt
    • 等待执行完成,如上图后,继续粘贴:
    • pip install -r requirements-optional.txt
    • 继续输入
    • pip3 install zhipuai
  4. 上边的都执行完成后。现在我们到“文件”菜单中去执行,点击文件-找到 root,进入 root 文件夹,找到 chatgpt-on-wechat 文件夹,并进入。
  5. 点击文件夹上方功能栏中的【终端】(注意,不是左侧一级菜单里的终端,是文件夹上方那一行的终端电脑)
  6. 粘贴进入,点击回车。点击后,关闭此弹窗。
    • cp config-template.json config.json
  7. 刷新页面。在当前目录下,找到 config.json 文件。
  8. 对于部署 dify:
    • 参考 https://docs.dify.ai/v/zh-hans/getting-started/install-self-hosted/docker-compose ,这些命令都是在宝塔面板的终端安装。
    • 检查一下一共有 7 个在运行。docker compose ps 如果 nginx 这个容器无法运行。把终端里输出的代码粘贴给 AI,可能是 80 端口被占用了。按照 AI 的方法,检查谁占用的,都停止掉就可以了。
    • 现在可以在浏览器的地址栏里,输入你的公网 ip 就可以。可以上腾讯云服务器上查,你的宝塔面板上的地址栏也有显示,去掉后面的:8888 就是。进去以后邮箱密码随便填一下。随便建立一个知识库,知识库中选择设置。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

张梦飞:【保姆级】一步一图,手把手教你把AI接入微信

6、执行完成后。刷新一下,重新进入终端,你会看到,最左侧出现了(AI)的字符。如果出现了,那么恭喜你。7、继续,一行一行依次粘贴,依次回车:cd /root8、第八步:这个注意一定要粘贴完整,这里容易粘贴不全。git clone https://github.com/zhayujie/chatgpt-on-wechat9、出现下方的样子,就是成功了。如果失败,或者没反应,刷新一下,重新再试一次10、继续一行一行,依次输入:cd chatgpt-on-wechat/pip install -r requirements.txt11、等待执行完成,如上图后,继续粘贴:pip install -r requirements-optional.txt12、继续输入pip3 install zhipuai13、上边的都执行完成后。现在我们到“文件”菜单中去执行,点击文件-找到root,进入root文件夹,找到chatgpt-on-wechat文件夹,并进入。14、点击文件夹上方功能栏中的【终端】(注意,不是左侧一级菜单里的终端,是文件夹上方那一行的终端电脑)15、粘贴进入,点击回车。点击后,关闭此弹窗。cp config-template.json config.json16、刷新页面。在当前目录下,找到config.json文件。如下图:17、双击这个文件,我画红框的地方是需要修改的地方。

张梦飞:【保姆级】一步一图,手把手教你把AI接入微信

下边将出现代码,复制的时候,注意复制全。代码我已经分好步骤,每次只需要粘贴一行,然后点击一次回车。回车后,只有最左边显示[]中括号时,才是上一个命令执行完毕了。没有出现[]中括号对话前缀时,不要操作。如果你发现ctrl+v粘贴不进去,试试shift+ctrl+v粘贴。点击菜单中,下边的“终端”,然后开始把代码粘贴进入。1、第一步:cd /root || exit 12、第二步:下方两行粘贴进入,然后点击回车,等待下载完成。(如果这里有了卡点,进行不下去,可能是因为服务器网络问题,去拉取的时候下载不全,可以复制网址,手动去下载到电脑上。然后进入文件夹,找到root文件夹,把下载的文件上传进去就好了。)2.2、再粘贴下方代码,出现下图,就代表在执行中了。3、然后把下边这行粘贴进去,点击回车。rm -f Anaconda3-2021.05-Linux-x86_64.sh4、继续粘贴:/root/anaconda/bin/conda create -y --name AI python=3.85、继续,一行一行依次粘贴,依次回车:echo 'source /root/anaconda/bin/activate AI' >> ~/.bashrc

马上观看看:通过云服务器,dify,智能微秘书来免费搭建微信机器人

https://docs.dify.ai/v/zh-hans/getting-started/install-self-hosted/docker-compose这些命令都是在宝塔面板的终端安装。如果你想学习这些命令是什么就还是直接给AI就可以。比如cd dify/docker是啥意思。这个docker-compose文件就是在这个/root/dify/docker目录下。这里边以后可以修改,可以学习里边的文件是什么意思。检查一下一共有7个在运行。docker compose ps如果nginx这个容器无法运行。把终端里输出的代码粘贴给AI,可能是80端口被占用了。按照AI的方法,检查谁占用的,都停止掉就可以了。也可以用别的方法,我是用这种方法。记住要一步步来,确保前一步成功再下一步,怎么确保就是把代码复制问AI。现在可以在浏览器的地址栏里,输入你的公网ip就可以。可以上腾讯云服务器上查,你的宝塔面板上的地址栏也有显示,去掉后面的:8888就是。进去以后邮箱密码随便填一下。随便建立一个知识库,知识库中选择设置。

其他人在问
去ai味
要去除 AI 味,可以从以下几个方面入手: 1. 对于聊天 AI,使其变得不正经、放肆、幽默、通俗。注意语气的自然化,比如使用语气词嗯、吧、啊、哈哈哈等,让回答更自然、贴近日常对话风格。还要注意口语化词语(相对于书面语)的使用,不过增加网络语言语料库需谨慎,以免生搬硬套带来副作用。 2. 对于睿声生成的配音,若语速慢有 AI 味儿,可使用剪映的音频变速功能加速配音,以消除 AI 味儿并配合视频前段的快节奏。 3. 对于 GPT 的回复,避免其用 1、2、3、4 或“首先、其次、最后”这种模式,可让其扮演特定角色并给出明确输出要求。但这种方法可能换汤不换药,要想让其更有趣,可让它在回复中加点感情,比如用括号补充动作,营造特定环境等。
2024-09-19
可以建立知识库的ai有哪些
以下是一些可以建立知识库的 AI 工具和平台: 1. 飞书软件:例如“通往 AGI 之路”,您可以在飞书大群中与机器人对话获取对应的资料。 2. Coze:在“大圣:胎教级教程:万字长文带你使用 Coze 打造企业级知识库”中有相关介绍。 3. Mem:如 https://get.mem.ai/ ,它可以保存组织中每次会议的记录,并在人们开始新项目时主动建议相关的决策、项目或人员,节省时间。 4. GPT:通过 OpenAI 的 embedding API 解决方案,可以搭建基于 GPT API 的定制化知识库,但需要注意其免费版 ChatGPT 一次交互的容量限制。
2024-09-19
notion ai的功能
Notion AI 具有以下功能: 直接在 Notion 中接入 AI 的能力,能让工作更迅速,写作更出色,思考更伟大。 可以在笔记和文档中应用 AI 的力量。 能够实现 AI 数据库自动填充功能。 可以改变知识管理的方式,让人们摆脱繁琐的信息组织工作,用户只需简单地将信息丢到 Notion 中,就可以通过各种方式进行检索。
2024-09-19
PopAI的功能
PopAI 是一款办公效率工具,具有以下功能: 1. 类似 ChatGPT 的聊天功能。 2. 集成了众多工作中可用的效率工具,如 PPT 和流程图生成、提示生成等。 3. 率先集成了 GPT4V 的图像 API 且调教良好,能清晰解释图像相关内容。 4. 具有创新的交互,在回答内容后可进行如翻译为中文、扩写重新排版并添加内容变为一篇文章等“Enrich”操作。 5. “Enrich”操作不仅不是干巴巴的填充,还会配合相关图片,必要时绘制流程图。
2024-09-19
popai 的功能
Poe 是一个 AI 聊天网站,支持与多个智能 AI 机器人(如 GPT4 等)进行实时在线交流。注册账号后可免费使用,部分功能需要付费订阅。不同的 AI 机器人有不同特点,可根据需求选择使用。总体而言,Poe 为用户提供了便捷的智能对话体验。其官网地址是:https://poe.com/ ,在官网帮助中心上可以找到具体教程。 此外,Poe 平台还推出了其他多种功能,比如多个机器人一起聊天、文件上传和视频输入等。Odyssey 是一个能提供好莱坞级别的 AI 视频生成和编辑工具的项目。PaintsUndo 可以输入静态图像自动生成整个绘画的全过程视频,该项目主要研究和再现数字绘画中的绘画行为,为数字艺术创作提供新的工具和方法。更多详细介绍可参考:https://xiaohu.ai/p/10996 、https://x.com/imxiaohu/status/1810574723048489063 、https://xiaohu.ai/p/11005 、https://x.com/imxiaohu/status/1810589354114626008 、https://xiaohu.ai/p/11010 、https://lllyasviel.github.io/pages/paints_undo/
2024-09-19
可用于记笔记的ai有哪些
以下是一些可用于记笔记的 AI 相关产品: 1. MeetRecord:这是一家专注于销售通话记录和辅导的软件公司。其核心功能包括 AI 驱动的笔记记录,能通过人工智能技术自动记录和分析销售通话,提供会议内容的关键词和主题分析,自动生成会议纪要和行动项;还有个性化辅导计划,能生成个性化的辅导计划,模仿表现最好的销售人员,并实施自动呼叫评分系统;此外,还具备交易智能和推荐、CRM 自动化、多语言支持以及安全性与企业化支持等功能。 2. 目前没有更多明确提及专门用于记笔记的其他 AI 产品的相关信息。但在一些关于人工智能的讨论中,提到了手写笔记对于信息留存和思维培养的重要性,例如在关于防止 AI 取代人类思考的论述中,指出手写笔记有助于将信息从短期记忆转移到长期记忆,成为更好的概念思考者。
2024-09-19
stable diffusion可以用macbook 13来运行吗?配置够吗
Stable Diffusion(简称“SD”)的运行对电脑配置有一定要求。对于 Windows 系统: 显卡:必须是 NVIDIA(俗称 N 卡)。 专用 GPU 内存:4GB 勉强可以跑动 SD,出图时间较长;6GB 出一张图时间为 20 50 秒,大部分功能可用;8GB 5 20 秒出一张图,所有功能基本开放。 电脑运行内存:8GB 以上。 电脑系统:Win10 或者 Win11。 对于 Mac 系统,可以查看以下视频进行一键安装:https://www.bilibili.com/video/BV1Kh4y1W7Vg/?spm_id_from=333.788&vd_source=6f836e2ab17b1bdb4fc5ea98f38df761 但具体 MacBook 13 是否能运行及配置是否足够,还需根据上述标准进行对照检查。
2024-09-16
mac怎么使用Chat GPT
以下是在 Mac 上使用 Chat GPT 的方法: 1. 下载地址: persistent.oaistatic.com/sidekick/public/ChatGPT_Desktop_public_latest.dmg 下载不了可以用百度云链接:https://pan.baidu.com/s/1jFZ5uBClqP0T1IOKQLW5HQ?pwd=hmbe 提取码:hmbe 或者:https://persistenNt.oaistatic.com/sidekick/public/ChatGPT_Desktop_public_latest.dmg 2. 使用条件: 需要苹果芯片的 mac 内测用户(非内测用户使用指南: ) macOS 12.6.8 M1 芯片不兼容,系统版本 MacOS 14 及以上 3. 操作步骤(需要有 ChatGPT 付费账号,以及网络技术基础): 使用 Proxyman、Charles 或您喜欢的网络代理来进行以下操作:以 ProxyMan 为例 登录一次以触发 API 调用 对 ChatGPT 的 App 启用 SSL 代理(需要配置好 ProxyMan 证书) 再登录一次以触发 API 调用 然后右键点击 ab.chatgpt.com/v1/initialize 选择本地映射,并将所有的 false 替换为 true 再尝试一次,您就应该能顺利登录了 详细版图文教程: 官方介绍:https://openai.com/index/hellogpt4o/ 如何访问 GPT4、GPT4 Turbo 和 GPT4o?https://help.openai.com/en/articles/7102672howcaniaccessgpt4gpt4turboandgpt4o Sam 的博文:https://blog.samaltman.com/gpt4o 音频主管 Alexis Conneau:https://twitter.com/alex_conneau
2024-09-04
MAC笔记本电脑,有哪个网址可以下载SD的安装包?或者说MAC电脑可以使用SD吗
对于 MAC 电脑安装 Stable Diffusion(SD),推荐云端部署,相关链接为:https://qa3dhma45mc.feishu.cn/wiki/A6WYw1Nm0ikGplkuO9Ecwomqnnd 。 如果您选择本地部署,以下是一些相关步骤供您参考: 1. 进入安装页面,等待安装好。 2. 勾选如下项目,要确保包含 Python 和 C++包。 3. 更改到您想要安装的位置,然后点击右下角的安装就行。 4. 安装时间比较长,要耐心等待。 5. 安装好之后,打开 SD 文件目录下的这个文件夹。 6. 在地址栏输入“cmd”,然后回车。 7. 在打开的 dos 界面里面,将这行代码“python m pip install insightface==0.7.3 user”粘贴进来,就会自动开始安装 insightface。 8. 如果这个阶段出现错误,建议去下载使用最新的秋叶 4.2 整合包(6 月 23 号更新),下载包已更新到云盘里,后台回复【SD】就可以下载。 9. 安装完成后,重新打开我们的启动器,后台会继续下载一些模型,此时一定要保证全程科学上网。 另外,对于电脑配置能支持 SD 运行的朋友,也可以使用 B 站秋叶分享的整合包进行本地部署,具体步骤如下: 1. 打开链接 https://pan.baidu.com/s/1hY8CKbYRAj9RrFGmswdNiA?pwd=caru 下载《1.整合包安装》,存放到电脑本地。 2. 打开保存到电脑里的文件夹。 3. 打开文件夹《1.秋叶整合包主包》——鼠标右击文件——点击“解压文件”。 4. 选择解压到 D 盘或者 E 盘,小心 C 盘被占满!点击确定。 5. 解压完成后,来到第二个文件夹,双击里面的文件点击安装。 6. 打开刚刚解压保存的 SD 的根目录,找到启动器,鼠标右击启动器——点击“发送到”——桌面快捷方式。这样下次进入就可以直接在桌面双击进入,不用每次都到文件夹里面找啦! 7. 双击启动器,等待更新,接着点击左边第二个“高级选项”。 8. 在显存优化里,根据自己电脑的显存选择(就是上面查看的专用 GPU 内存),自己电脑是多少就选多少。 9. 回到第一个一键启动,点击右下角的一键启动。
2024-08-29
apple Mac 有360AI 浏览器的下载吗?
360AI 浏览器功能强大,安全高效且好看好用。它不只是搜索,而是对标 Arc 的 AI 原生浏览器。您可以在官网 ai.se.360.cn 进行下载。我们可以让 360AI 搜索来总结其功能,搜索“360AI 浏览器的功能拆解”,能看到 AI 通过搜索多篇资讯给出详细回答,包含追问、相关内容、延伸阅读、参考资料等部分,右侧还有相关图片和视频资料,下方还有思维导图。希望 360 的 AI 越来越强,国产 AI 越来越繁荣。所以,抛弃成见,尝试下载一个 360AI 浏览器吧。 需要注意的是,目前不太清楚 360AI 浏览器是否有适用于苹果 Mac 系统的版本,您可以前往官网查看确认。
2024-08-25
Luma Dream machine
Luma Dream Machine 是一种 DIT AI 视频生成模型。 它具有以下显著特点和优势: 能够快速将文本和图像制作成高质量、逼真的视频。 支持文生视频和图生视频。 是一款速度超快的视频生成器,120 秒内可生成 120 帧。 可生成具有逼真流畅动作、电影摄影和戏剧效果的 5 秒镜头。 能够了解人类、动物和物体如何与物理世界互动,从而制作出具有出色角色一致性和精确物理特性的视频,还能帮助用户尝试无数流畅、电影化和自然的摄像机运动。 您可以通过以下体验地址进行注册使用:https://lumalabs.ai/dreammachine/creations 。此外,推特介绍可参考:https://x.com/LumaLabsAI 。
2024-07-15
我在MacBook用docker安装的dify,以app形式安装的ollama,但在dify设置ollama的api时候,总是报错。如何解决
根据搜索结果,解决 dify 设置 ollama API 时报错的方法如下: 1. 检查 IP 地址和 URL 是否正确 有用户反映,通过修改 IP 地址和 URL 格式解决了类似的问题 确保使用了正确的 IP 地址和完整的 URL 格式 2. 尝试使用 LiteLLM 与 Ollama 有用户建议使用 LiteLLM 与 Ollama 的组合,这似乎是一个可行的解决方案 3. 检查 Ollama 的版本兼容性 有用户提到,Ollama 可能升级了客户端,需要检查与 Dify 的版本兼容性 4. 检查 OpenAI 账户类型和模型权限 确保 OpenAI 账户类型和所选模型(如 GPT4)是否有访问权限 5. 尝试禁用流式传输模式 有用户反映,流式传输可能会导致错误,可以尝试禁用该功能 总之,解决这个问题的关键是确保 Ollama 的 IP 地址、URL 格式、版本兼容性以及 OpenAI 账户权限等都设置正确。如果还有其他问题,可以继续在 Dify 的 GitHub 仓库中寻找相关的讨论和解决方案。
2024-04-19
蛟龙16pro配置(处理器R7-7745HX,显卡RTX4060 8G,硬盘512GPCIE4.0SSD)可以用于审计人员本地化部署大模型用于数据分析工作吗
蛟龙 16pro 的配置(处理器 R77745HX,显卡 RTX4060 8G,硬盘 512G PCIE4.0 SSD)对于审计人员本地化部署大模型用于数据分析工作来说,可能存在一定的局限性。 处理器 R77745HX 具有一定的计算能力,但在处理大规模数据和复杂的模型运算时,其性能可能不够强劲。 显卡 RTX4060 8G 对于一些较为复杂的图形处理和计算任务能够提供一定的支持,但对于大规模的深度学习模型训练和数据分析,可能会显得不足。 512G 的 PCIE4.0 SSD 硬盘容量相对较小,在存储大量数据时可能会很快耗尽空间。 综上所述,该配置在一定程度上可以用于简单的数据分析任务,但对于较为复杂和大规模的大模型本地化部署及数据分析工作,可能需要更强大的硬件配置,例如更高性能的处理器、更大容量和更高性能的显卡,以及更大的存储空间。
2024-09-14
蛟龙16pro配置可以用于审计人员本地化部署大模型用于数据分析工作吗
蛟龙 16pro 的配置信息对于能否用于审计人员本地化部署大模型进行数据分析工作,需要更多关于该设备具体配置的详细信息才能准确判断。一般来说,本地化部署大模型进行数据分析工作对计算机的硬件配置有较高要求,包括但不限于强大的 CPU 性能、充足的内存容量、高速的存储设备以及优秀的显卡性能等。如果您能提供蛟龙 16pro 更详细的配置参数,我可以为您做出更准确的评估和建议。
2024-09-14
为审计人员利用大模型本地化部署进行数据分析的电脑如何配置
对于审计人员利用大模型本地化部署进行数据分析的电脑配置,以下是相关建议: 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型) 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 需要注意的是,最低配置运行速度可能非常慢。另外,对于 SDXL 的大模型,分为两个部分: 第一部分,base + refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于对生成的模型进行细化,生成细节更丰富的图片。 第二部分,还有一个配套的 VAE 模型,用于调节图片的画面效果和色彩。 想要在 webUI 中使用 SDXL 的大模型,首先要在秋叶启动器中将 webUI 的版本升级到 1.5 以上。接下来,将模型放入对应的文件夹中,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。完成之后,启动 webUI,就可以在模型中看到 SDXL 的模型。
2024-09-12
最为审计人员利用大模型本地化部署在电脑上进行数据分析,电脑如何配置
对于审计人员利用大模型本地化部署在电脑上进行数据分析,电脑配置需要考虑以下方面: 模型选择与下载: SDXL 大模型分为 base+refiner 两个必须下载的部分,base 是基础模型用于文生图操作,refiner 是精炼模型用于细化生成的模型,还有一个配套的 VAE 模型用于调节图片效果和色彩。您可以关注公众号【白马与少年】,回复【SDXL】获取下载链接。 除了上述模型,还可在 Civitai(C 站)https://civitai.com/ 寻找更多模型。使用 C 站时需科学上网,点击右上角筛选按钮找到所需模型类型,如 Checkpoint=大模型、LoRA=Lora,看到感兴趣的模型点击下载保存到电脑本地。 模型存放路径与使用: 将下载的模型放入对应文件夹,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下,vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。启动 webUI 后可在模型中看到 SDXL 模型。 硬件配置需求: ChatGLM6B 模型:模型文件下载至本地需要 15 GB 存储空间。量化等级不同,对 GPU 显存要求不同,如 FP16(无量化)最低 GPU 显存(推理)需 13 GB,高效参数微调需 14 GB;INT8 推理需 8 GB,高效参数微调需 9 GB;INT4 推理需 6 GB,高效参数微调需 7 GB。 MOSS 模型:模型文件下载至本地需要 70 GB 存储空间。FP16(无量化)最低 GPU 显存(推理)需 68 GB。 Embedding 模型:默认选用的约占用显存 3GB,也可修改为在 CPU 中运行。
2024-09-12
使用开源大模型本地化部署使用电脑配置,推荐几款笔记本电脑
以下是关于使用开源大模型本地化部署所需电脑配置及笔记本电脑推荐的相关信息: 运行大模型需要较高的机器配置,个人玩家大多负担不起。以下是不同类型大模型的配置要求: 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(跑 GPT3.5 差不多性能的大模型) 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 对于本地化部署,不建议使用最低配置,因为速度会非常慢。例如,用 8G 的 Mac 电脑尝试过,效果不佳。 由于本地化部署对电脑配置要求较高,不太推荐本地化安装实现。如果想使用开源大模型,可选择利用云厂商已提供好的大模型运行环境和计算能力,比如阿里云的 PAI 和 AutoDL。 在笔记本电脑选择方面,建议选择具备以下配置的机型: 1. 内存:16GB 及以上的 RAM。 2. 显卡:具有 8GB 及以上 VRAM 的独立显卡。 但具体的笔记本电脑型号还需根据您的预算和其他需求来确定。
2024-09-12
本地化部署
以下是关于本地化部署的相关内容: SDXL 的本地化部署: SDXL 的大模型分为两个部分: 1. 第一部分,base+refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于对文生图生成的模型进行细化,生成细节更丰富的图片。 2. 第二部分,SDXL 还有一个配套的 VAE 模型,用于调节图片的画面效果和色彩。 这三个模型的下载链接可关注公众号【白马与少年】,回复【SDXL】获取。 在 webUI 中使用 SDXL 大模型,需先在秋叶启动器中将 webUI 的版本升级到 1.5 以上。然后将模型放入对应的文件夹中,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。完成后启动 webUI,即可在模型中看到 SDXL 的模型。 正常使用方法:先在文生图中使用 base 模型,填写提示词和常规参数,尺寸可设为 10241024 进行生成。生成图片后,可将其发送到图生图中,大模型切换为“refiner”,重绘幅度开小一点,再次点击生成。 对于配置较高的电脑,如显卡为 4080ti,生成时间约在十秒左右。配置较低的需自行测试。 还可安装 refine 插件,在扩展列表中搜索 refine 并安装,重启后可在文生图界面直接使用 refine 模型进行绘画。 Google Gemma 的本地化部署: Google 发布的家用版小模型 Gemma 有 2b(20 亿参数)和 7b(70 亿参数)版本。 部署环境准备: 1. 首先提一下 Ollama,它是一个开源的大型语言模型服务,可方便地部署最新版本的 GPT 模型并通过接口使用,支持热加载模型文件,无需重新启动即可切换不同的模型。 2. 进入 ollama.com,下载程序并安装(支持 windows,linux 和 macos)。 3. 查找 cmd 进入命令提示符,输入 ollama v 检查版本,安装完成后版本应显示 0.1.26。 4. 输入 cls 清空屏幕,然后直接输入 ollama run gemma 运行模型(默认是 2b),首次需下载,等待一段时间。若想用 7b,运行 ollama run gemma:7b。完成后即可直接对话,2 个模型都安装后,可重复上述指令切换。
2024-09-11