Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

我是一位程序开发小白,不会用代码开发程序。我现在有一台安装Window 11操作系统的笔记本电脑,配置为14代i7CPU、32G内存、1TB硬盘、1张RTX4070显卡。我想部署一套本地的大模型+智能体+知识库。我要怎么样才能实现无代码部署,请列出详细的安装步骤。

Answer

以下是为您提供的无代码部署本地大模型、智能体和知识库的详细安装步骤:

  1. 硬件评估:您的笔记本电脑配置为 14 代 i7 CPU、32G 内存、1TB 硬盘、1 张 RTX4070 显卡,基本满足部署要求。但需要注意,运行内存最低 32GB,越高越好,最低配可能会经常爆显存。建议将软件和模型部署在 SSD(固态硬盘)上,以提高加载模型的速度。
  2. 选择合适的部署工具:ComfyUI 是一个相对配置要求较低、系统资源占用少、出图速度快的工具。它最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。
  3. 安装准备:如果您的电脑能顺畅清晰地玩 3A 游戏,那么运行相关部署工具一般也没问题。
  4. 预算和需求:根据您的需求和预算来选择合适的配置。例如,如果有做 AIGC 视频、建模渲染和炼丹(lora)的需求,可能需要更高的配置。

请注意,以上步骤仅为参考,实际部署过程可能会因具体情况而有所不同。

Content generated by AI large model, please carefully verify (powered by aily)

References

彭青云:01小白comfyui学习日记-解决篇线上部署,和线下部署配置需求

comfyui相比webui:comfyui配置更低;系统资源占用更少;出图速度更快;最低可在小于3G的GPU上运行。甚至没有GPU,光用CPU也可以运行,缺点是速度极慢。SDXL出来后提高了运行配置:最低需要8GB显存+32GB运行内存,12GB流畅运行,推荐16GB以上。运行内存最低32GB,越高越好,最低配会经常爆显存。玩SD-webui和comfyui建议使用6GB以上的显存的NVIDIA显卡,也就是N卡,内存在16G以上。硬盘会影响加载模型的速度,所以最好把软件和模型部署在SSD(固态硬盘)上,这样速度更快。我之前的电脑2060N系8G显存,16g内存。把webui和模型装在2t固态硬盘上,打开速度极快,出图速度也还可以,4张512x768的图不到一分钟就可出来。如果你的电脑能顺畅清晰地玩3A游戏,那玩webui和comfyui也没问题。配置上不封顶,根据自己的需求和预算来即可。以我为例,新需求:做AIGC视频+建模渲染+炼丹(lora)预算2W。起先用2060生图,后发现做AIGC视频比较费时间,且还有做建模渲染的需求。后来向朋友请教,搞了一套次顶配的组装机,加上一个护眼的4K显示器共2W出头。

Others are asking
有哪些AI代码可生成的简单好玩的东西
以下是一些通过 AI 代码可生成的简单好玩的东西: 1. 小游戏: 贪吃蛇游戏:在 Trae 上,通过快捷键打开 AI 聊天窗口,点击“Builder 模式”,输入“帮我创建一个贪食蛇的游戏”,等 60 秒,AI 生成代码,点“运行”。 赛车游戏:把刚刚创建的贪吃蛇游戏代码删掉,然后输入“帮我创建一个赛车游戏”,等 60 秒,AI 生成代码,点“运行”。 2. 待办事项清单: 直接在对话框输入“生成一个待办事项清单的应用”。 上传图片给 AI,并告诉它“我要一个与图片类似的待办事项清单”。 3. 任务清单应用:在输入框中输入“使用 Web 技术开发一个任务清单应用”。 4. 根据 UI 设计图自动生成项目代码:从站酷上找一张设计图,输入提示“使用 html 技术实现如图大屏页面”,然后根据需要让 Trae 进行调整。 从实际体验来看,Trae 具有高效的代码生成能力、多技术栈支持和动态调整潜力。无论是小游戏、待办事项清单还是其他应用,都能在短时间内生成完整框架,代码结构清晰且功能齐全。
2025-03-27
计算两个时间差的绝对值,输出相差的完整天数。 获得用户输入的两个与时间相关的字符串,两个时间用逗号分隔,每个时间字符串格式示例如下:2018年08月01日17点21分21秒。 以此为要求写出python代码
以下是计算两个指定格式时间差的绝对值并输出相差完整天数的 Python 代码: ```python import datetime def calculate_days_difference: 解析时间字符串 time1 = datetime.datetime.strptime time2 = datetime.datetime.strptime 计算时间差 time_difference = abs 转换为天数并返回 return time_difference.days 示例用法 time1_str = "2023年08月01日17点21分21秒" time2_str = "2023年08月10日17点21分21秒" print ```
2025-03-22
ai 可以写代码吗
AI 可以写代码。以下为您介绍一些相关内容: Bolt․new 是一款终极写代码工具,AI 能帮您自动写代码、自动运行并自动部署,全部在浏览器中完成。您只需撰写简单提示,它就能自动编写代码,并支持一键编辑、运行和自动部署复杂的全栈应用。但该功能处于 alpha 测试阶段,可能存在问题,目前仅支持小到中型仓库,且不支持分叉或提交。 有许多写代码或辅助编程的 AI 产品,例如: GitHub Copilot:由 GitHub 联合 OpenAI 和微软 Azure 团队推出,支持多种语言和 IDE,能为程序员快速提供代码建议。 通义灵码:阿里巴巴团队推出,提供行级/函数级实时续写、自然语言生成代码等多种能力。 CodeWhisperer:亚马逊 AWS 团队推出,由机器学习技术驱动,为开发人员实时提供代码建议。 CodeGeeX:智谱 AI 推出的开源免费 AI 编程助手,基于 130 亿参数的预训练大模型,可快速生成代码。 Cody:代码搜索平台 Sourcegraph 推出,借助强大的代码语义索引和分析能力,了解开发者的整个代码库。 CodeFuse:蚂蚁集团支付宝团队为国内开发者提供的免费 AI 代码助手。 Codeium:一个由 AI 驱动的编程助手工具,通过提供代码建议等帮助提高编程效率和准确性。 更多辅助编程 AI 产品,可查看:https://www.waytoagi.com/category/65 。 在独立游戏开发中,单独让 AI 从零开始写小功能没问题,但还不能完全写出程序架构。可把不方便配表而又需要撰写的简单、模板化、多调用 API 且只牵涉小部分特殊逻辑的代码交给 AI。以《玩具帝国》为例,Buff 系统中部分代码可让 AI 生成,但目前 Cursor 生成复杂代码需要复杂的前期调教,ChatGPT 相对更方便。在教导 AI 时,要像哄小孩,肯定正确的,指出错误时要克制。
2025-03-22
AI现在的局限是什么,在代码方面的具体说说
AI 在代码方面存在以下局限: 1. 传统观念的局限性:AI 圈子实际影响有限,模型能力有限,初体验不佳导致误解和怀疑。企业实践中,AI 普及存在门槛,需要成功案例或外部引导建立信任。 2. 编程辅助方面:使用不频繁时被视作高级自动化工具,用于生成代码或完成重复性任务,处于辅助角色,即命令式。具体表现为执行单一、线性任务,如生成排序算法代码,简单执行模式限制了更广泛应用。 3. 问题点:命令式的“指令执行”模式忽略了 AI 在创意激发和解决问题中的潜力,局限于简单代码生成,未能在设计优化、逻辑推理和需求分析等方面发挥作用。 4. 输出方式的局限:交互方式主要以文本和代码为主,输出局限在“写”层面,存在交互效率低下、表达能力受限、认知负担重和应用场景局限等问题。例如,用户需大量文字表达需求,AI 解释结果冗长,多轮反复才能达成共识;在设计方案等场景中,图形图表表达更优;人类处理图形信息效率高于文本;纯文本输出无法满足原型设计等领域实际需求。
2025-03-22
如何运用Trae设计实现前端代码并转化为原型图
以下是运用 Trae 设计实现前端代码并转化为原型图的相关内容: 1. 控制按钮(开始、暂停、重新开始)和游戏说明。 2. 生成任务清单应用:在输入框中输入“使用 Web 技术开发一个任务清单应用”,可得到一个朴素但功能俱全的任务清单应用。 3. 根据 UI 设计图自动生成项目代码:从站酷上找设计图,输入提示如“使用 html 技术实现如图大屏页面”,页面虽不完美但可调整,如“调整一下,给图表设置合适的宽高比例,自适应页面大小”,能使图表大小正常。 总结: Trae 表现可圈可点,具有高效代码生成能力,能在几分钟内生成完整框架,代码结构清晰且功能齐全,能自动处理依赖项和运行命令。 支持多技术栈,从 HTML5、响应式 CSS 布局到 Echarts 图表实现,对 Web 技术掌握良好,生成的代码可直接运行且无明显语法错误。 具有动态调整潜力,虽未完美复现设计图,但能根据用户反馈快速调整样式,自适应布局的实现展现了迭代能力。 现在的 AI 越来越强大,小白不需要懂代码也能用 AI 编程工具进行程序开发,这让程序员感到深深的危机感。
2025-03-21
写编程代码用哪个AI
以下是一些可以用于写编程代码的 AI 工具: 1. GitHub Copilot:由 GitHub 联合 OpenAI 和微软 Azure 团队推出,支持多种语言和 IDE,能为程序员快速提供代码建议,帮助更快、更少地编写代码。 2. 通义灵码:阿里巴巴团队推出,提供行级/函数级实时续写、自然语言生成代码、单元测试生成、代码注释生成、代码解释、研发智能问答、异常报错排查等能力。 3. CodeWhisperer:亚马逊 AWS 团队推出,由机器学习技术驱动,可为开发人员实时提供代码建议。 4. CodeGeeX:智谱 AI 推出的开源免费 AI 编程助手,基于 130 亿参数的预训练大模型,能快速生成代码,提升开发效率。 5. Cody:代码搜索平台 Sourcegraph 推出,借助强大的代码语义索引和分析能力,了解开发者的整个代码库。 6. CodeFuse:蚂蚁集团支付宝团队为国内开发者提供智能研发服务的免费 AI 代码助手,基于蚂蚁集团自研的基础大模型进行微调。 7. Codeium:一个由 AI 驱动的编程助手工具,通过提供代码建议、重构提示和代码解释来帮助软件开发人员,提高编程效率和准确性。 更多辅助编程 AI 产品,还可以查看这里:https://www.waytoagi.com/category/65 。 每个工具的功能和适用场景可能会有所不同,您可以根据自己的需求来选择最适合您的工具。 此外,还有一些相关的学习资源和平台: 1. 《雪梅 May 的 AI 学习日记》中提到的用 AI 写代码的相关内容,包括: 、AI 写小游戏平台:https://poe.com/ 、图片网站:https://imgur.com/ 、改 bug 的网站:https://v0.dev/chat 、国内小游戏发布平台:https://open.4399.cn/console/ 。 2. 关于 python 安装 FittenAI 编程助手的内容,可参考:作者: 。安装步骤包括点击左上角的 FileSettingsPluginsMarketplace ,注册登录后即可使用。其具有智能补全、AI 问答、自动生成代码、代码转换等功能。
2025-03-19
本地用Ollama部署模型,使用哪个ChatBox客户端好?
目前在本地使用 Ollama 部署模型时,没有特别突出或被广泛推荐的特定 ChatBox 客户端。不同的客户端可能在功能、界面和兼容性方面存在差异,您可以根据自己的需求和使用习惯进行选择和尝试。常见的一些客户端包括但不限于 Web 端的简单界面工具,或者一些具有特定功能扩展的桌面应用程序。但具体哪个最适合您,还需要您亲自测试和评估。
2025-03-27
AI本地化部署
AI 本地化部署主要包括以下内容: 目前市面上的 AI 有线上和线下本地部署两种方式。线上部署出图速度快,不吃本地显卡配置,无需下载大模型,但出图分辨率受限;线下部署可自己添加插件,出图质量高,但使用时电脑易宕机,配置不高可能爆显存导致出图失败。 线上和线下平台可结合使用,充分发挥各自优势。线上用于找参考、测试模型,线下作为主要出图工具。具体操作如在在线绘图网站的绘图广场上发现想要的画风,点击创作会自动匹配创作使用的模型、lora 和 tag,截取游戏人物底图将线上算力集中在人物身上,多批次、多数量尝试不同画风得出符合游戏的模型+lora 组合,最后在 C 站下载对应模型到本地加载部署即可生图。 此外,Mistral AI 推出的 Mistral Saba 模型可本地部署,适用于单 GPU,能保障数据隐私。
2025-03-27
部署
以下是关于不同场景下部署的相关信息: AutoDL 部署 One2345 部署条件:需要有英伟达 GPU 显卡,且运行内存大于 18G,建议使用 RTX3090 及以上显卡。需要有 Ubuntu 系统操作基础。 部署步骤: 挑选设备:在 AutoDL 上挑选符合需求的设备,如 RTX4090/24GB。 镜像选择:选择与原作者要求相同的环境版本,如 PyTorch 2.0.1 与 cuda_11.8。 控制台打开设备:关机后想开机,直接点击即可。 打开终端,部署环境+代码:代码在数据盘中操作,Conda activate 报错输入 conda init bash,然后重启终端。安装步骤原文见:https://github.com/One2345/One2345 。注意:Huggingface 需要代理。 【保姆级】Meta Llama 3 部署到电脑上(Ollama+Open WebUI) 下载 Open WebUI: Windows 电脑:点击 win+R,输入 cmd,点击回车。 Mac 电脑:按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 输入命令等待下载,完成后点击或复制地址进入浏览器:http://localhost:3000/auth/ ,进行注册登录,选择“llama3:8b”即可。 在 Amazon SageMaker 上部署 Llama 3 要将与 llama 交互,使用常见的 OpenAI 格式 messages。 注意:Llama 3 是一个有门槛的模型,请在提交表单前访问并接受许可条款和可接受的使用政策。创建 HuggingFaceModel 后,使用 deploy 方法将其部署到 Amazon SageMaker,使用 ml.p4d.24xlarge 实例类型部署模型,部署可能需要 1015 分钟。
2025-03-27
本地部署
SDXL 的本地部署步骤如下: 1. 模型下载:SDXL 的大模型分为两个部分,第一部分 base + refiner 是必须下载的,base 是基础模型用于文生图操作,refiner 是精炼模型用于细化图片生成细节更丰富的图片;还有一个配套的 VAE 模型用于调节图片的画面效果和色彩。您可以关注公众号【白马与少年】,回复【SDXL】获取下载链接。 2. 版本升级:在秋叶启动器中将 webUI 的版本升级到 1.5 以上。 3. 放置模型:将 base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下,vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。 4. 启动使用:启动 webUI,在模型中即可看到 SDXL 的模型。正常使用时,先在文生图中使用 base 模型填写提示词和常规参数生成图片,然后将图片发送到图生图中切换大模型为“refiner”重绘。对于不想在两个界面来回操作的情况,可以安装 refine 插件,在文生图界面直接使用 refine 模型。 另外,关于本地部署资讯问答机器人,实现 Langchain + Ollama + RSSHub 的 RAG 需: 1. 导入依赖库:加载所需的库和模块,如 feedparse 用于解析 RSS 订阅源,ollama 用于在 python 程序中跑大模型(使用前确保 ollama 服务已开启并下载好模型)。 2. 从订阅源获取内容:从指定的 RSS 订阅 url 提取内容,通过专门的文本拆分器将长文本拆分成较小的块,并附带相关元数据,最终合并成列表返回。 3. 为文档内容生成向量:使用文本向量模型 bgem3(https://huggingface.co/BAAI/bgem3),从 hf 下载好模型放置在指定路径,通过函数利用 FAISS 创建高效的向量存储。
2025-03-27
怎么本地部署ai模型,并进行微调
以下是本地部署 AI 模型并进行微调的主要步骤: 1. 选择合适的部署方式:包括本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源:确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础:可以使用开源的预训练模型如 BERT、GPT 等,也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练:根据具体应用场景对预训练模型进行微调训练,优化模型结构和训练过程以提高性能。 5. 部署和调试模型:将训练好的模型部署到生产环境,对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护:大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 此外,关于本地部署还有以下相关内容: 如果拥有云服务器如何进行本地部署,以及满血版本地部署的实际情况。 在 freely.aliyun.com 可领取 500 元免费额度,但有使用限制,不能部署满血版和较大的增流模型。 介绍了 DLC、DSW 和 EAS 等模型部署平台服务的差别。 会带着大家复现模型的蒸馏和微调,并讲解相关知识。 PaaS 平台支持多机分布式部署,满足推理性能要求,使用独占资源和专有网络,能一站式完成模型蒸馏。 登录 Pad 控制台,通过 model gallery 进行部署,如 Deepseek R1 模型,可选择 SG 浪或 Vim 推理框架,根据资源出价,部署后可在模型在线服务 EAS 查看状态。 介绍了模型 API 的调用方法,包括查找位置、获取 token 等,强调使用后要及时停止或删除服务以避免持续付费。 总的来说,部署和训练自己的 AI 模型需要综合考虑多方面因素,包括部署方式、数据准备、模型训练、部署调试以及安全性等。需要根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。
2025-03-27
anythingLLM本地部署
以下是关于本地部署大模型以及搭建个人知识库的相关内容: 一、引言 作者是大圣,一个致力于使用 AI 工具将自己打造为超级个体的程序员,目前沉浸于 AI Agent 研究。本文将分享如何部署本地大模型及搭建个人知识库,读完可学习到如何使用 Ollama 一键部署本地大模型、了解 ChatGPT 信息流转、RAG 概念及核心技术、通过 AnythingLLM 搭建本地化数据库等。 五、本地知识库进阶 如果想要对知识库进行更灵活掌控,需要额外软件 AnythingLLM,它包含所有 Open WebUI 能力,并额外支持选择文本嵌入模型和向量数据库。 安装地址:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步: 1. 第一步:选择大模型。 2. 第二步:选择文本嵌入模型。 3. 第三步:选择向量数据库。 构建本地知识库: AnythingLLM 中有 Workspace 概念,可创建独有 Workspace 与其他项目数据隔离。 1. 首先创建一个工作空间。 2. 上传文档并在工作空间中进行文本嵌入。 3. 选择对话模式,提供 Chat 模式(大模型根据训练数据和上传文档综合给出答案)和 Query 模式(大模型仅依靠文档数据给出答案)。 配置完成后可进行测试对话。 六、写在最后 作者推崇“看十遍不如实操一遍,实操十遍不如分享一遍”。如果对 AI Agent 技术感兴趣,可联系作者或加其免费知识星球(备注 AGI 知识库)。 本文思路来源于视频号博主黄益贺,作者按照其视频进行实操并附加了一些关于 RAG 的额外知识。
2025-03-26
linux下安装 anythingLLM
以下是在 Linux 下安装 AnythingLLM 的相关指导: 1. 安装地址:https://useanything.com/download 。 2. 安装完成后会进入配置页面,主要分为三步: 第一步:选择大模型。 第二步:选择文本嵌入模型。 第三步:选择向量数据库。 3. AnythingLLM 中有 Workspace 的概念,可以创建自己独有的 Workspace 与其他项目数据进行隔离。 首先创建一个工作空间。 上传文档并且在工作空间中进行文本嵌入。 选择对话模式,提供了 Chat 模式(大模型会根据自己的训练数据和上传的文档数据综合给出答案)和 Query 模式(大模型仅仅会依靠文档中的数据给出答案)。 4. 完成上述配置后,即可与大模型进行对话。 此外,在 GitHubDaily 开源项目列表 2023 年复盘的 AIGC 部分中,也有关于 AnythingLLM 的介绍: 是一个可打造成企业内部知识库的私人专属 GPT!可以将任何文档、资源或内容转换为大语言模型(LLM)知识库,使得在对话过程中可引用到里面的内容。 本文的思路来源于视频号博主黄益贺,作者按照他的视频进行了实操,并附加了一些关于 RAG 的额外知识。
2025-03-27
如何在电脑上安装DEEPSEEK
以下是在电脑上安装 DeepSeek 的步骤: 1. 访问网址:https://www.deepseek.com/zh 。 2. 点击开始对话,左边选择代码助手。 3. 对于 DeepSeek R1 的申请: 申请链接:https://www.volcengine.com/activity/deepseek?utm_term=202502dsinvite&ac=DSASUQY5&rc=D3H5G9QA 。 4. 环境安装(如需要): 若涉及相关开发,可能需要提前安装 Node.JS。 下载地址:https://nodejs.org/zhcn 。 Mac 安装包: 。 Windows 安装包: 。安装时可能需要管理员权限。安装完成后,可打开终端面板输入相关指令查看是否安装成功。 此外,还可以通过以下方式使用 DeepSeek: 1. 使用网页聊天: 安装插件:使用 Chrome 或 Microsoft Edge 浏览器,点击此链接安装浏览器插件并添加到拓展程序:https://chromewebstore.google.com/detail/pageassist%E6%9C%AC%E5%9C%B0ai%E6%A8%A1%E5%9E%8B%E7%9A%84web/jfgfiigpkhlkbnfnbobbkinehhfdhndo 。 打开聊天页面,点击右上角的插件列表,找到 Page Assist 插件并点击打开。 配置“DeepSeekR1”模型的 API key 。 基础 URL:https://ark.cnbeijing.volces.com/api/v3 。填好后点击保存,关掉提醒弹窗。 添加“DeepSeekR1”模型,即可愉快使用。
2025-03-26
ten可以安装在电脑里,然后电脑上可以看视频进行实时翻译吗?这个功能可以怎么去实现?
目前 Ten 不太明确是指何种具体的软件或工具。一般来说,如果您想在电脑上实现观看视频实时翻译的功能,可以考虑使用以下几种常见的方法: 1. 利用浏览器插件:例如谷歌浏览器的某些翻译插件,能够在您观看在线视频时提供翻译服务。 2. 专业的翻译软件:部分专业的翻译软件具备屏幕取词和实时翻译视频的功能。 3. 操作系统自带的功能:某些操作系统可能提供了相关的辅助功能来实现类似的效果。 但需要注意的是,不同的方法可能在翻译的准确性、支持的语言种类以及适用的视频平台等方面存在差异。
2025-03-25
怎么安装ChatGPT
以下是安装 ChatGPT 的详细步骤: 安卓系统 1. 打开系统自带的谷歌服务框架 打开系统设置 拉到最底下,点击更多设置 点击账号与同步 点击谷歌基础服务 打开基础服务按钮 2. 安装 Google Play 到小米自带的应用商店搜索 Google Play 进行安装 安装好后打开谷歌商店,点击右上角登录谷歌账号 3. 安装 ChatGPT 到谷歌商店搜索 ChatGPT 进行下载安装,建议把谷歌邮箱也安装上,平时接收验证码那些比较方便。 如果您只想体验 ChatGPT 3.5 版本,不升级 GPT4,可跳转到第 4 步第 6 小步进行登录使用,如果想直接订阅 GPT4 Plus 版本,请接着往下看: 4. 订阅 GPT4 Plus 版本 先在 Google play 中的【支付和订阅】【支付方式】中绑定好银行卡 然后在 ChatGPT 里订阅 Plus 苹果系统 1. 在 Apple Store 下载 ChatGPT 中国区正常下载不了,需要切换到美区才可以下载,美区 Apple ID 注册教程参考如下知乎链接:【账号指南】美区 Apple ID 注册教程(保姆教程)https://zhuanlan.zhihu.com/p/696727277 。最终在 Apple Store 搜到 ChatGPT 结果如下,下载安装即可,注意别下错啦。 2. 支付宝 购买苹果礼品卡 充值 订阅付费 App 打开支付,地区切换到【美区任意区】,往下滑,找到【品牌精选 折扣礼品卡】,点击进去,可以看到【大牌礼品卡】,往下滑找到【App Store&iTunes US】礼品卡,按需要的金额购买即可,建议先买 20 刀就行。 支付宝购买礼品卡 在 apple store 中兑换礼品卡 在 chatgpt 中购买订阅 gpt plus,如果中途不想继续订阅了,可到订阅列表中取消订阅即可。 完成上述步骤后,就可以开始使用 ChatGPT 4o 了!
2025-03-19
stable diffusion安装教程
以下是超详细的 Stable Diffusion 安装教程: 一、查看电脑配置是否支持 如果您的电脑是 AMD 或者 Intel,可能不太支持 SD,网上的安装教程也较麻烦。您可以查看专用 GPU 内存: 1. 4GB:说明电脑勉强可以跑动 SD,出图时间较长。 2. 6GB:出一张图的时间是 20 50 秒,SD 的大部分功能都可以使用。 3. 8GB:5 20 秒可以出一张图,基本上 SD 的所有功能都对您开放。 以上操作是用于查看 Windows 系统的,至于 Mac 系统,可以查看以下视频并按照视频一键安装:https://www.bilibili.com/video/BV1Kh4y1W7Vg/?spm_id_from=333.788&vd_source=6f836e2ab17b1bdb4fc5ea98f38df761 二、安装 SD 本地部署 1. 电脑配置能支持 SD 运行的情况下,我们使用 B 站秋叶分享的整合包。整合包链接:https://pan.baidu.com/s/1hY8CKbYRAj9RrFGmswdNiA?pwd=caru ,提取码:caru 。 2. 具体安装方法: 打开链接,下载《1.整合包安装》,存放到电脑本地。 打开保存到电脑里的文件夹。 打开文件夹《1.秋叶整合包主包》,鼠标右击文件,点击“解压文件”。 选择解压到 D 盘或者 E 盘,避免 C 盘被占满,点击确定。 解压完成后,来到第二个文件夹,双击里面的文件,点击安装。 打开刚刚解压保存的 SD 的根目录,找到启动器,鼠标右击启动器,点击“发送到”,选择桌面快捷方式,方便下次直接在桌面双击进入。 双击启动器,等待更新,接着点击左边第二个“高级选项”,在显存优化里,根据自己电脑的显存选择(即上面查看的专用 GPU 内存)。 回到第一个一键启动,点击右下角的一键启动。如果出现报错,可以回到最开始的界面,在左边点击“疑难解答”,再点击右边的“开始扫描”,最后点击“修复”按钮。 三、安装超清无损放大器 StableSR 安装方式有两种: 1. 在扩展面板中搜索 StableSR,可以直接安装。 2. 将下载好的插件,放在路径文件夹“……\\sdwebuiakiv4\\extensions”下。安装完成后,重启 webUI,就可以在脚本里面找到这个放大器。
2025-03-11
如何安装stable diffusion
以下是安装 Stable Diffusion 的详细步骤: 1. 安装前准备: 确认电脑系统为 Win10 或 Win11。查看方法:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。 检查电脑性能: 电脑运行内存 8GB 以上。检查方法:鼠标右击桌面底部任务栏,点击“任务管理器”,在“性能”里面找到“内存”,查看划线的参数。8GB 勉强达到标准,16GB 可正常使用,32GB 能非常自由地使用 SD。 显卡为英伟达(N 卡)且显卡内存 4GB 以上。查看方法:在“任务管理器”中查看“GPU”,先确认显卡名字或型号为 NVIDIA。 2. 下载整合包: 下载 B 站秋叶分享的整合包。链接:https://pan.baidu.com/s/1hY8CKbYRAj9RrFGmswdNiA?pwd=caru ,提取码:caru 。 3. 安装整合包: 打开链接,下载《1.整合包安装》,存放到电脑本地。 打开保存到电脑里的文件夹。 打开文件夹《1.秋叶整合包主包》,鼠标右击文件,点击“解压文件”。 选择解压到 D 盘或者 E 盘(避免 C 盘被占满),点击确定。 解压完成后,来到第二个文件夹,双击里面的文件,点击安装。 打开刚刚解压保存的 SD 的根目录,找到启动器,鼠标右击启动器,点击“发送到”,选择“桌面快捷方式”,方便下次直接在桌面双击进入。 4. 启动和设置: 双击启动器,等待更新,接着点击左边第二个“高级选项”。 在显存优化里,根据自己电脑的显存选择(即上面查看的专用 GPU 内存)。 回到第一个一键启动,点击右下角的一键启动。 若出现报错,可回到最开始的界面,在左边点击“疑难解答”,再点击右边的“开始扫描”,最后点击“修复”按钮。 此外,关于 StableSR 超清无损放大器的安装: 安装方式是在扩展面板中搜索 StableSR 直接安装,或者将下载好的插件放在“……\\sdwebuiakiv4\\extensions”路径文件夹下。安装完成后,重启 webUI,就可以在脚本里面找到这个放大器。
2025-03-10
什么是AGI,如何在做企业级程序开发的工作中使用提高自己的工作效率
AGI 即通用人工智能(Artificial General Intelligence),指的是具备像人类一样广泛的认知能力和学习能力,可以执行多种复杂任务的人工智能。 在企业级程序开发工作中提高效率,可以考虑以下几点: 1. 利用自动化工具和脚本:例如自动化测试工具、代码生成工具等,减少重复性工作。 2. 采用敏捷开发方法:如 Scrum 或 Kanban,提高团队协作和项目管理效率。 3. 学习和应用新的编程语言和框架:选择适合项目需求的高效技术。 4. 优化代码结构和算法:提高程序的性能和运行效率。 5. 建立良好的代码规范和文档:便于团队成员理解和维护代码。 6. 利用云计算资源:根据需求灵活扩展计算和存储能力。 7. 持续学习和交流:参加技术社区和培训,了解行业最新动态和最佳实践。
2025-02-11
我正在做一个项目“基于chatGPT的剧本杀微信小程序开发”,现在要进行大数据平台后端的开发与搭建,请告诉我怎么入手
以下是基于您的项目“基于 chatGPT 的剧本杀微信小程序开发”进行大数据平台后端开发与搭建的入手步骤: 1. 搭建 OneAPI(https://github.com/songquanpeng/oneapi),其作用是汇聚整合多种大模型接口,方便后续更换使用各种大模型,同时会告知您如何白嫖大模型接口。 2. 搭建 FastGpt(https://fastgpt.in/),这是一个知识库问答系统。您将知识文件放入其中,并接入上面的大模型作为分析知识库的大脑,用于回答问题。如果不想接到微信,仅自己使用,搭建到此即可,它本身也有问答界面。 3. 搭建 chatgptonwechat(https://github.com/zhayujie/chatgptonwechat)以接入微信,并配置 FastGpt 将知识库问答系统接入微信。建议先使用小号以防封禁风险。搭建完成后若想拓展功能,可参考 Yaki.eth 同学的教程(https://waytoagi.feishu.cn/wiki/UADkwZ9B0iAWdTkFJIjcN7EgnAh),其中的 cow 插件具备文件总结、MJ 绘画的能力。 完成上述 3 步即可。
2024-10-16
我正在做一个项目“基于chatGPT的剧本杀微信小程序开发”,请告诉我怎么入手
以下是基于 ChatGPT 开发剧本杀微信小程序的入手步骤: 1. 注册小程序: 登录微信公众号首页,选取小程序,用新邮箱绑定注册。 2. 小程序信息填写: 注册验证通过后,填写小程序信息和类目。小程序名称可填写与功能相关的名称,头像可网上查找或利用 Midjourney 生成。 3. 开发者工具下载: 回到发布流程页面,点击“普通小程序开发者工具”,在新页面中点击“微信开发者工具”,选择 Windows 64 位下载。 4. 创建小程序项目: 打开下载好的微信开发者工具,选择创建小程序。注意获取 ID,选择不使用云服务,并选择 JavaScript 基础模板。创建后了解相关文件,如 app.js 等。 5. 利用 ChatGPT 生成代码: 构思好产品,画个草稿,包括产品名称、按钮数量、交互逻辑等,并将这些话术告诉 ChatGPT。 例如,以制作计算日子间隔的工具为例,给出详细的 prompt 描述需求。 ChatGPT 会给出代码,并告知代码应放置在微信开发者工具的哪些文件中。特殊文件夹如 add 需自行在 pages 下级新建。 您还可以参考以下文章获取更详细的信息:https://mp.weixin.qq.com/s/WkFxMMrlMqv52ce2n0xX6A
2024-10-16
如果我想做一个基于chatGPT的剧本杀创作的微信小程序开发项目,现在要进行大数据平台的后端开发与搭建,你建议怎么入手
以下是基于您的需求,对于大数据平台后端开发与搭建的建议: 1. 首先搭建 OneAPI(https://github.com/songquanpeng/oneapi),它能够汇聚整合多种大模型接口,方便后续更换使用不同的大模型,同时还会为您介绍如何白嫖大模型接口。 2. 接着搭建 FastGpt(https://fastgpt.in/),这是一个知识库问答系统。您可以将知识文件放入其中,并接入上面的大模型作为分析知识库的大脑,用于回答问题。如果不想接到微信使用,搭建到这里就可以,因为它本身也有问答界面。 3. 然后搭建 chatgptonwechat(https://github.com/zhayujie/chatgptonwechat)接入微信,并配置 FastGpt 将知识库问答系统接入微信。建议先使用小号,以防有封禁风险。搭建完成后若想拓展功能,可参考 Yaki.eth 同学的教程(https://waytoagi.feishu.cn/wiki/UADkwZ9B0iAWdTkFJIjcN7EgnAh),其中的 cow 插件具备文件总结、MJ 绘画的能力。 完成以上 3 步,整个项目就算基本完成。
2024-10-16
我想再创建一个和你一样的ai,我要用到什么技术,从程序开发角度来说
如果您想创建一个类似的 AI ,从程序开发角度来说,以下是一些可能用到的技术和知识: 1. 编程语言: Rust:以性能、安全性和并发处理能力著称,适合高性能和安全性要求高的系统级编程。 Python:在 AI 开发中广泛应用,具有丰富的库和工具。 2. 程序类型和项目规划: 明确要开发的程序类型,如命令行工具、Web 服务、嵌入式系统等。 确定具体的项目想法或寻求方向建议。 评估自身在所选编程语言方面的经验水平。 3. Python 相关知识: 属性和方法:为类定义属性和方法,并通过对象调用。 继承和多态:了解类之间的继承关系及实现方式。 异常处理:理解异常概念,学会使用 try 和 except 语句处理错误。 文件操作:包括文件读写、文件与路径操作等。 4. AI 知识: 背景知识: 基础理论:了解人工智能、机器学习、深度学习的定义及相互关系。 历史发展:回顾 AI 的发展历程和重要里程碑。 数学基础: 统计学基础:熟悉均值、中位数、方差等统计概念。 线性代数:了解向量、矩阵等基本概念。 概率论:掌握条件概率、贝叶斯定理等知识。 算法和模型: 监督学习:了解线性回归、决策树、支持向量机(SVM)等常用算法。 无监督学习:熟悉聚类、降维等算法。 强化学习:了解其基本概念。 评估和调优: 性能评估:掌握交叉验证、精确度、召回率等评估方法。 模型调优:学会使用网格搜索等技术优化模型参数。 神经网络基础。
2024-08-25