Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

企业本地化部署AI

Answer

企业本地化部署 AI 主要包括以下方面:

  • RPA 与财务税务问答机器人:RPA 与 AI 结合具有多种应用和优势。操作流程简单,无需代码,适合小白和无 IT 经验者。有众多应用案例,如奥康和方太在各部门的订单处理等操作中搭建了大量脚本。封装了众多组件,还可通过触发器设置机器人每天工作。数字化包括标准化、自动化、RPA 加 AI 使机器人更智能三个阶段,交付的是动态能力,让用户自己搭建机器人。产品可本地化私有部署,面向企业有费用,私有化部署能保障数据安全,企业大模型可封装调用。RPA 有容错处理方式,但受多种因素影响。
  • LangChain 与 NVIDIA:NVIDIA NIM 是一系列用户友好的微服务,旨在加速企业内部生成式 AI 的部署进程。支持广泛的 AI 模型,基于强大的推理引擎和技术构建,提供无缝的 AI 推理体验。其自托管特性可保障数据安全,提供预构建容器,具有可扩展性。开始使用 NIM 可在 NVIDIA API 目录中获取多种 AI 模型,它是 NVIDIA AI Enterprise 的一部分。
  • 从 LLM 大语言模型、知识库到微信机器人:以 windows10 系统为例,安装环境时先在系统中输入“cmd”打开命令窗口,确认是否有 python 和 pip。若没有则需安装,如安装 python 可下载安装包。部署项目时下载 COW 机器人项目并解压缩。
Content generated by AI large model, please carefully verify (powered by aily)

References

RPA+财务税务问答机器人制作教程 2024年10月27日 - 智能纪要

[heading2]总结RPA与AI结合的应用及优势RPA的操作流程:通过四个步骤完成京东网页的打开、输入搜索词、点击搜索和数据采集,操作简单,无需代码,适合小白和无IT经验者。RPA的应用案例:奥康搭建1700多个脚本,方太搭建450多个基线,涉及各大部门的订单处理、拦截、采集等操作。RPA的控件和扩展性:封装了1000多个组件,如Excel控件、SAP控件等,不满足时可写代码段,还可通过触发器设置机器人每天工作。数字化的阶段:包括标准化、自动化、RPA加AI使机器人更智能三个阶段,交付的是动态能力,让用户自己搭建机器人。引导AI的功能:可从0开始或在模板基础上搭建AI服务,调用多种大模型和智能搜索组件,实现多种功能,可封装成应用通过多种方式使用。引导AI的定位和作用:作为中间件集成模型,解决开发难和能力接入难的问题,实现对企业有价值的应用场景。产品的部署和数据问题:RPA和AI产品可本地化私有部署,面向企业有费用,私有化部署能保障数据安全,企业大模型可封装调用。RPA的容错处理:除标准化SOP外,可加check组件容错,也可通过打通API方式,但成本和环境因素影响大,RPA方式受网络等天气因素影响。

LangChain 携手 NVIDIA:RAG加速新篇章

NVIDIA NIM是一系列用户友好的微服务,它们旨在加速企业内部生成式AI的部署进程。这种多功能的运行环境支持包括开源社区模型、NVIDIA AI基础模型以及自定义AI模型在内的广泛AI模型。开发者可以利用行业标准的API,仅需数行代码即可快速构建出企业级的AI应用。NIM基于NVIDIA Triton Inference Server、NVIDIA TensorRT、NVIDIA TensorRT-LLLLM等强大的推理引擎,以及PyTorch等技术构建,旨在提供无缝的AI推理体验,确保您可以自信地在任何环境中部署AI应用。无论是在本地服务器还是云端环境中,NIM都是实现大规模、高性能生成式AI推理的最佳选择。[heading2]为什么LangChain对NVIDIA NIM充满期待?[content]我们对NVIDIA NIM充满期待的原因有几个。首先,最引人注目的是它的自托管特性。这意味着您向基于NVIDIA的模型发送的任何数据都将保留在您的服务器上,不会外传。对于那些经常需要处理敏感信息的RAG应用来说,这一点尤其重要。其次,NIM提供了一系列预构建的容器,这让您可以轻松选择并使用最新的生成式AI模型,而无需进行复杂的配置。最后,NIM的可扩展性。在个人电脑上本地运行模型是一回事,但要将其作为服务部署,并且保持与专业服务提供商相同的稳定性和可用性,则是另一回事。幸运的是,NIM已经为您解决了这一挑战。[heading2]如何开始使用NVIDIA NIM?[content]开始使用NIM非常简单。在NVIDIA API目录中,开发者可以轻松访问多种AI模型,用于构建和部署生成式AI应用。NIM是NVIDIA AI Enterprise的一部分,这是一个全面的、基于云的软件平台,旨在简化生产级AI应用的开发和部署流程。您可以通过这篇博客获取如何开始使用的详细指南。

张梦飞:【全网最细】从LLM大语言模型、知识库到微信机器人的全本地部署教程

以下二选一,建议先选择COW注意:本教程完成后,程序将在你的电脑本地运行,假如你关掉了窗口,那么进程也就结束。所以,如果你想让AI持续使用,就必须保持窗口打开和运行,也就是电脑不能关。以下教程以windows10系统为例/mac系统步骤也是一样,只是打开命令符的命令些许不同,遇到问题问大模型就好了二、安装环境1、点击电脑“系统”,直接输入“cmd”,点击回车,打开命令窗口2、在命令窗口中,粘贴入以下代码,确认是否有python3、粘贴入以下代码,确认是否有pip4、两步命令输入完,核对一下如果有的话,会如上图一样,分别显示出版本号。那么可以跳过“安装环境这一步,直接到“二、部署项目””如果没有的话,会如下图所示,那么需要安装下边的步骤,一步一步安装。5、先进行python的安装,我帮你把python的安装包已经下载好了,直接点击下载:[python-3.12.3-amd64.exe](https://bytedance.feishu.cn/space/api/box/stream/download/all/FQGIbH2OfoYObvxX4IwckLbknvc?allow_redirect=1)5.1 python安装步骤:5.2关闭窗口,再次运行那两行命令会发现已经有了。三、部署项目6、下载COW机器人项目,也给你准备好了,直接下载,然后解压缩。

Others are asking
现在有哪些AI绘画平台
以下是一些常见的 AI 绘画平台: 1. MewXAI:这是一款强大且新手友好、操作简单的 AI 绘画创作平台。其功能包括 MX 绘画、MX Cute、MJ 绘画、边缘检测、室内设计、姿态检测、AI 艺术二维码、AI 艺术字等。访问地址:https://www.mewxai.cn/ 2. StableStudio:Stability AI 开源的 AI 图像生成平台。 3. Roop:一键实现 AI 换脸,仅需一张换脸图像,无需数据集,无需训练,自带敏感图像检测功能。 4. pixian.ai:能够利用 AI 一键移除各种图像背景,并支持在线调整图片分辨率、背景颜色等。 5. Inpaint Anything:一个 AI 图像编辑工具,支持一键擦除、替换图像中的指定物品,通过提示词来自动更换背景图。 6. Segment Anything:一个图像分割模型,可自动分割图片或视频中的所有物品,一键完成自动分割,并支持零样本转移到其他分割任务。 7. Docker:支持一键从图片中解析出 Prompt 描述,并能够基于描述进行扩展,以便二次图片生成。 8. Plask.ai:一个 AI 工具,可以通过 3D 建模,直接生成模特效果图。 9. Recraft AI:是 AI 平面设计工具,用户可以使用其生成和编辑插画,海报,产品周边等,提供多种样式的可选风格,对所有用户每日都有免费的试用点数,并允许对生成的图像进行商业使用。访问地址:https://www.recraft.ai/ 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-03-03
现在有哪些ai平台?
以下是一些常见的 AI 平台: 图虫网:AI 摄影作品销售平台,利用图像识别、数据分析技术,为摄影爱好者提供作品销售渠道。 网易云音乐音乐人平台:AI 音乐作品发布平台,运用音频处理、数据分析技术,为音乐创作者提供作品发布等服务。 好好住 APP:AI 家居用品推荐平台,通过数据分析、自然语言处理技术,根据用户需求推荐家居用品。 东方财富网投资分析工具:AI 金融投资分析平台,借助数据分析、机器学习技术,分析金融市场并提供投资建议。 此外,在 ProductHunt 2023 年度最佳产品榜单中的 AI 产品有: Dora AI:用一次 prompt 生成网站,支持文字转网站、生成式 3D 互动、高级 AI 动画。 Bard(免费):谷歌推出的官方 ChatGPT 竞争者,由谷歌的对话应用语言模型(LaMDA)提供支持。 Chat.DID(免费):有史以来首个允许人们以人类方式与 AI 进行视频聊天的 APP。 Pika(免费):AI 视频平台,能将创意转化为动态视频。 对于希望自行部署 AIGC 服务的用户,以下云服务平台可供选择: AWS(亚马逊云服务):提供多种 AI 服务,资源丰富、灵活性强,但费用相对较高,适合需求复杂、要求高可用的企业用户。 Google Cloud Platform:推出 Vertex AI 和多款预训练模型供使用,支持多种编程语言和框架,具有领先的计算机视觉和语音识别能力。 Microsoft Azure:Azure 机器学习服务涵盖多种 AI 工作负载,与微软其他产品融合度高,提供硬件加速等优化方案。 Huawei Cloud:提供 ModelArts 等 AI 开发和推理平台,融合 Ascend AI 处理器实现硬件加速,针对本地化部署和行业应用进行了优化。 阿里云:提供 PAI 和机器学习平台等 AI 产品,支持主流深度学习框架部署,与阿里云其他产品生态集成度高。部署 AIGC 服务通常需要大量算力和存储资源,利用云平台是便捷的选择。建议先评估实际业务场景和需求,再对比不同供应商的产品特性和价格,以选择最合适的部署方案。
2025-03-03
用AI生成角色原画的现状
目前,用 AI 生成角色原画既有优势也存在一些问题。 优势方面: Niji·journey 5 作为表现优异的在线二次元角色设计 AI,能在各种类型的二次元设计中发挥重要作用。 对于游戏中的角色设计,AI 设计可以提供参考和辅助。 问题方面: Niji·journey 5 存在对流行二次元风格的偏好、风格相对固定以及版权风险等局限性。 AI 设计生成的角色往往需要进一步修饰和调整以符合游戏整体风格和要求,不能完全掌握角色设计的细节和规律。 AI 绘画生成的设计可能存在版权问题。 未来展望: Niji 有望通过改进算法和扩大数据样本来源,提升角色设计的创新性和独特性,满足不同用户和项目的需求。 随着技术进步,Midjourney 等 AI 不断升级,使用 AI 辅助游戏美术设计师工作将成为趋势。但美术设计师需不断学习新技能和知识,拓展多领域知识,以应对未来变化和挑战。游戏美术中各职业分类的界限可能会越来越模糊。
2025-03-03
我应该如何自学ai
以下是关于自学 AI 的一些建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 6. 对于中学生自学 AI 的建议: 从编程语言入手学习,如 Python、JavaScript 等,学习编程语法、数据结构、算法等基础知识。 尝试使用 AI 工具和平台,如 ChatGPT、Midjourney 等,探索面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 学习 AI 基础知识,包括基本概念、发展历程、主要技术如机器学习、深度学习等,以及在教育、医疗、金融等领域的应用案例。 参与 AI 相关的实践项目,参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动,尝试利用 AI 技术解决生活中的实际问题。 关注 AI 发展的前沿动态,关注权威媒体和学者,思考 AI 技术对未来社会的影响。 7. 使用 AI 来做事: 利用人工智能帮助教育和自学学习,可以要求人工智能解释概念并获得结果。但因为人工智能可能会产生幻觉,所以对于关键数据要根据其他来源仔细检查。
2025-03-03
让AI帮我写一篇论文的文献综述,怎么命令
利用 AI 写一篇论文的文献综述可以参考以下步骤: 1. 确定课题主题:明确研究兴趣和目标,选择具有研究价值和创新性的主题。 2. 收集背景资料:使用学术搜索引擎和文献管理软件等 AI 工具搜集相关研究文献和资料。 3. 分析和总结信息:借助 AI 文本分析工具提取收集资料中的关键信息和主要观点。 4. 生成大纲:利用 AI 写作助手生成包括引言、文献综述、方法论、结果和讨论等部分的大纲。 5. 撰写文献综述:使用 AI 工具辅助撰写,确保内容准确完整。 6. 构建方法论:根据研究需求,参考 AI 建议的方法和技术设计研究方法。 7. 数据分析:若课题涉及数据,使用 AI 数据分析工具处理和解释。 8. 撰写和编辑:依靠 AI 写作工具撰写各部分,并检查语法和风格。 9. 生成参考文献:通过 AI 文献管理工具生成正确格式的参考文献。 10. 审阅和修改:利用 AI 审阅工具检查课题的逻辑性和一致性,根据反馈修改。 11. 提交前的检查:使用 AI 抄袭检测工具确保课题的原创性,并做最后的格式调整。 需要注意的是,AI 工具只是辅助,不能完全替代研究者的专业判断和创造性思维。在使用时应保持批判性思维,确保研究质量和学术诚信。
2025-03-03
用ai帮助聊天
以下是关于用 AI 帮助聊天的相关内容: Cursor 官方: Chat 聊天:允许您与看到您的代码库的 AI 交谈。聊天室始终可以看到您当前的文件和光标,您可以向它询问诸如“这里有 bug 吗”等问题。您可以使用⌘+Shift+L 或“@”将特定代码块添加到上下文中,也可以使用⌘+Enter 与整个代码库聊天。 代码库答案:使用@Codebase 或⌘Enter 询问有关您的代码库的问题,Cursor 会搜索您的代码库以查找与您的查询相关的代码。 引用您的代码:带有@符号的参考代码可用作 AI 的上下文,只需键入@即可查看文件夹中所有文件和代码符号的列表。 使用图像:点击聊天下方的图片按钮,或将图片拖到输入框中,将视觉上下文包含在聊天中。 学习笔记:Generative AI for Everyone 吴恩达: 阅读方面:可以让 LLM 检查文本错误、总结长句。客服人员针对每一位用户传递大量信息时,可内置 LLM 快速总结信息提供给决策管理层,使用 LLM 进行语义分析,将邮箱、客户留言等外部信息传递给相关部门。构建处理信息的 LLM 模型时,要设置好提示词,持续优化。 聊天方面:聊天机器人可用于做旅游计划、职业咨询、做饭建议等,不仅能生成文本,还能产生进一步行动,如处理文本后发送订单信息等。建立聊天机器人的流程为:开始于内部聊天机器人,确保良好表现并避免问题;设置人为参与链路;确保安全后,让机器人对接用户。 大语言模型行与不行:能做类似于应届生能做的事;不可做的包括时间限制(如 GPT3 只有 2022 年 1 月前的数据)、会出现幻觉、接受有限的 prompt、输出有限制、不可以很好处理结构化数据、可能输出有害的信息。 @Chat:此功能目前仅适用于 Cmd K。您可以在 Cmd K 中使用@Chat 将当前聊天消息添加为上下文,当您与希望应用于编辑或生成代码的 AI 进行对话时很有用。
2025-03-03
AI大模型本地化部署的逻辑是什么?输入的数据不会外泄吗?
AI 大模型本地化部署的逻辑主要包括以下步骤: 1. 选择合适的部署方式,如本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,要根据自身的资源、安全和性能需求来决定。 2. 准备训练所需的数据和计算资源,确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础,可以使用开源的预训练模型如 BERT、GPT 等,也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练,根据具体应用场景对预训练模型进行微调训练,并优化模型结构和训练过程以提高性能。 5. 部署和调试模型,将训练好的模型部署到生产环境,并对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护,大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 关于输入数据是否会外泄,这取决于本地化部署的安全性措施和配置。如果采取了严格的安全措施,如数据加密、访问控制、网络隔离等,输入的数据外泄的风险可以大大降低。但如果安全措施不到位,就存在数据外泄的可能。例如,赞成把一个训练好就不动的模型部署在端侧(如手机或家庭计算中心),记录所有知识和记忆的相关数据就不会跑到云端,能更好地保障数据安全。
2025-02-28
Deepseek本地化部署
以下是关于 DeepSeek 本地化部署的相关信息: 在“智能纪要:0225|最新的 DeepSeek 玩法教学 2025 年 2 月 25 日”中提到,明天(02/26 20:00)将教授 DeepSeek 本地部署。 在“第三期「AI 实训营」手把手学 AI【第三期:尝鲜阿里云上的 DeepSeek 玩法】”中,02/26 20:00 的课程主题为“人工智能平台 PAI 篇:本地部署满血版 DeepSeek”,课程内容包括 DeepSeek R1 技术原理、解锁 DeepSeek 的不同玩法(问答助手、蒸馏、微调)以及实战演练 DeepSeek R1 满血版快速部署和蒸馏训练。相关课程文档为
2025-02-26
如何本地化部署deepseek
本地化部署 DeepSeek 的步骤如下: 1. 拥有扣子专业版账号:如果您还是普通账号,请自行升级或注册专业号后使用。开通成功后会显示相应状态。 2. 开通 DeepSeek R1 大模型:访问地址 https://console.volcengine.com/cozepro/overview?scenario=coze ,打开火山方舟,找到开通管理,找到 DeepSeek R1 模型,点击开通服务。添加在线推理模型,添加后在扣子开发平台才能使用。添加过程包括添加模型和完成接入。 3. 创建智能体:点击创建,先完成一个智能体的创建。 需要注意的是,本地部署的版本能作为替补,但很难作为长期使用的版本。DeepSeek 具有三种含义指向,包括 deepseek 公司(深度求索)、deepseek 网站和手机应用,以及有推理功能的 deepseek R1 大模型(权重文件开源,可本地部署)。
2025-02-11
deepseek的本地化部署对于软硬件的具体要求
DeepSeek 的本地化部署对于软硬件的具体要求如下: 系统:Windows 7 以上(不建议使用 XP 系统)。 显卡要求:NVDIA 独立显卡且显存至少 4G 起步。 硬盘:留有足够的空间,最低 100G 起步(包括模型)。 内存和显存配置: 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型) 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 需要注意的是,mac 系统、AMD 显卡、低显卡的情况也可以安装使用,但功能不全,出错率偏高,严重影响使用体验,个人建议升级设备或者采用云服务器玩耍。最低配置可能运行非常慢。
2025-02-06
ai本地化部署
AI 本地化部署主要包括以下方面: 线上和线下本地部署的 AI 特点: 线上 AI 出图速度快,不吃本地显卡配置,无需下载大模型,能看他人作品,但出图尺寸受限。 线下部署可添加插件,不卡算力,出图质量高,但使用时电脑易宕机,配置不高可能爆显存导致出图失败。 线上和线下平台的结合使用: 线上用于找参考、测试模型。 线下作为主要出图工具。 智谱 BigModel 共学营第二期微信助手本地电脑环境部署(以 Windows 为例): 程序在本地运行,关闭窗口进程结束,若要持续使用需保持窗口打开和运行。 若突然不管用,可点击窗口并按空格,因选中状态下 powershell 窗口不继续执行。 完成部署后: 登录成功给微信发送消息可看到正常回复。 可在智谱清流更改 AI 功能或人设,即时生效。 对文件内代码更改需重新打印登陆二维码,在“文件”的【终端】输入 python app.py 重新扫码登录。 无手机登录可用夜神模拟器模拟。 报错“wxsid”可能因微信未实名,实名即可。 制作完成后 24 小时内会掉线一次,重新登录即可,先不要急着加好友。
2025-01-31
如何本地化部署一个ai助手
本地化部署一个 AI 助手可以参考以下几种方式: 1. 在网站上增加 AI 助手: 搭建示例网站: 创建应用:点击打开函数计算应用模板,参考相关选择直接部署、填写百炼应用 ID 以及 APIKEY,其他表单项保持默认,点击创建并部署默认环境,等待项目部署完成(预计耗时 1 分钟)。 访问网站:应用部署完成后,在应用详情的环境信息中找到示例网站的访问域名,点击即可查看,确认示例网站已经部署成功。 为网站增加 AI 助手: 增加 AI 助手相关代码:回到应用详情页,在环境详情的最底部找到函数资源,点击函数名称,进入函数详情页。在代码视图中找到 public/index.html 文件,取消相关位置的代码注释。最后点击部署代码,等待部署完成。 验证网站上的 AI 助手:重新访问示例网站页面以查看最新效果,网站的右下角会出现 AI 助手图标,点击即可唤起 AI 助手。 2. 从 LLM 大语言模型、知识库到微信机器人的全本地部署(以 windows10 系统为例): 本地 Hook 或 COW 机器人(二选一,建议先选择 COW): 注意:本教程完成后,程序将在您的电脑本地运行,假如关掉了窗口,进程也就结束。所以,如果想让 AI 持续使用,就必须保持窗口打开和运行,也就是电脑不能关。 安装环境: 点击电脑“系统”,直接输入“cmd”,点击回车,打开命令窗口。 在命令窗口中,粘贴入相关代码,确认是否有 python 和 pip。 如果没有,先进行 python 的安装,可点击下载:。 部署项目:下载 COW 机器人项目,解压缩。 3. 把大模型接入小米音箱(node.js): 第四步:填写 API 服务: 智普:接口地址:https://open.bigmodel.cn/api/paas/v4,模型:glm4flash。 硅基:选择 AI 服务为自定义,接口地址:https://api.siliconflow.cn/v1。 其他模型的 API 端口请参考官方文档:https://migptgui.com/docs/apply/。 第五步:语音服务:官方说明:https://migptgui.com/docs/faqs/tts。 第六步:启动服务:在最上方可导出编辑的内容,格式为 json 格式,如果改错了可以导入之前保存的配置。单击启动,回到 powshell 界面。每次调整设置都需要重置后重新启动。建议回答完毕后增加结束的提示语,可以提高连续对话的稳定性。官方常见问题文档:https://migptgui.com/docs/faqs/noreply。
2025-01-05
企业部署本地AI模型管理
企业部署本地 AI 模型管理可以参考以下内容: 1. 使用 Ollama 框架: 支持多种大型语言模型,如通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 易于在本地环境(包括 macOS、Windows 和 Linux 系统,支持 cpu 和 gpu)启动和运行。 提供模型库,用户可从中下载不同参数和大小的模型,通过 https://ollama.com/library 查找。 支持自定义模型,可修改温度参数等设置特定系统消息。 提供 REST API 用于运行和管理模型,以及与其他应用集成。 社区贡献丰富,有多种集成插件和界面。 先安装,访问 https://ollama.com/download/ 下载安装,安装完确保 ollama 后台服务已启动(在 mac 上启动 ollama 应用程序,在 linux 上通过 ollama serve 启动),可通过 ollama list 确认。 2. 部署和训练自己的 AI 开源模型: 选择合适的部署方式,如本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署,根据自身资源、安全和性能需求选择。 准备训练所需的数据和计算资源,确保有足够训练数据覆盖目标应用场景,准备足够的计算资源,如 GPU 服务器或云计算资源。 选择合适的预训练模型作为基础,如使用开源的预训练模型如 BERT、GPT 等,也可自行训练基础模型。 针对目标任务进行模型微调训练,根据具体应用场景对预训练模型进行微调训练,优化模型结构和训练过程以提高性能。 部署和调试模型,将训练好的模型部署到生产环境,对部署的模型进行在线调试和性能优化。 注意安全性和隐私保护,重视大模型涉及的大量数据和隐私信息的安全性和合规性。 3. LangChain 携手 NVIDIA: NVIDIA NIM 是一系列加速企业内部生成式 AI 部署进程的用户友好微服务,支持广泛 AI 模型,开发者利用行业标准 API 数行代码即可构建企业级 AI 应用,基于 NVIDIA Triton Inference Server、NVIDIA TensorRT、NVIDIA TensorRTLLLLM 等强大推理引擎及 PyTorch 等技术构建,提供无缝 AI 推理体验,在本地服务器或云端环境中均是大规模、高性能生成式 AI 推理的最佳选择。 对 NVIDIA NIM 充满期待的原因:自托管特性,数据保留在服务器上不外传,适合处理敏感信息的 RAG 应用;提供一系列预构建容器,轻松选择使用最新生成式 AI 模型,无需复杂配置;具有可扩展性,解决服务部署的稳定性和可用性挑战。 开始使用 NIM 很简单,在 NVIDIA API 目录中可访问多种 AI 模型用于构建和部署生成式 AI 应用,NIM 是 NVIDIA AI Enterprise 的一部分,这是全面的基于云的软件平台,旨在简化生产级 AI 应用的开发和部署流程,可通过相关博客获取详细指南。
2025-03-02
本地部署stable-diffusion
以下是关于本地部署 Stable Diffusion 的详细步骤: 1. 准备工作: 电脑配置需能支持 SD 运行。 2. 下载整合包: 可以选择 B 站秋叶分享的整合包,链接:https://pan.baidu.com/s/1hY8CKbYRAj9RrFGmswdNiA?pwd=caru ,提取码:caru 。 3. 安装整合包: 打开链接,下载《1.整合包安装》,存放到电脑本地。 打开保存到电脑里的文件夹。 打开文件夹《1.秋叶整合包主包》,鼠标右击文件,点击“解压文件”。 选择解压到 D 盘或者 E 盘,避免 C 盘被占满,点击确定。 解压完成后,来到第二个文件夹,双击里面的文件,点击安装。 打开刚刚解压保存的 SD 的根目录,找到启动器,鼠标右击启动器,点击“发送到”,选择桌面快捷方式,方便下次进入。 4. 启动和配置: 双击启动器,等待更新,接着点击左边第二个“高级选项”。 在显存优化里,根据自己电脑的显存选择(即查看的专用 GPU 内存)。 回到第一个一键启动,点击右下角的一键启动。 若出现报错,可回到最开始的界面,在左边点击“疑难解答”,再点击右边的“开始扫描”,最后点击“修复”按钮。 5. 注意事项: 并不是指定了显存优化量就一定不会超显存,在出图时如果启动了过多的优化项(如高清修复、人脸修复、过大模型)时,依然有超出显存导致出图失败的几率。 xFormers 能极大地改善内存消耗和速度,建议开启。 Stable Diffusion webui 的更新比较频繁,可根据需求在“版本管理”目录下更新。 同样地,也请注意插件的更新。在 webui 的“扩展”选项卡下,可以安装插件。点击“加载自”后,目录会刷新,选择需要的插件点击右侧的 install 即可安装。安装完毕后,需要重新启动用户界面。
2025-03-02
怎么部署GPTs的api?
部署 GPTs 的 API 可以参考以下步骤: 1. 参考文章,了解之前的部署情况。 2. 登录地址,点击 Copy Link 进行复制 Actions API 链接。 3. 配置 GPTs Actions API: 打开 ChatGPT,点击创建 GPTs>Configure>Create new action。 输入来自 Gapier 的 Actions API 并点击 Import。 4. 授权: 在 Gapier 复制授权码。 在 Authentication 下选择配置图标,进入授权页面。 按照以下设置进行配置: Authentication Type:选择 API Key。 Auth Type:选择 Basic。 输入从网站上复制的授权码并点击 Save。 5. 引用 Action: 确定调用的 Action,并在 Prompt 中引用。 查看 Action 的方式分为两种: GPTs>Configure>Actions 页面。 网页查看,地址为。 另外一种引用的方式是:只要在 Instructions 中申明清楚需求,GPT 会自动选择合适的 API。 此外,还需注意以下几点: 1. 了解 OpenAPI 规范,通过 Schema 让 ChatGPT 懂这个 API。 2. 对于带参数的 Post 请求,需要创建规范文件、修改 GPTs 的 Action、调整 Prompt 等。 3. 注意如果不和说传入中文,它会给我们翻译了再传。
2025-03-01
本地部署的AI模型如何制作智能体
以下是关于本地部署的 AI 模型制作智能体的相关信息: 阿里云百炼满血版 DeepSeek: 1. 开通满血版 R1 模型:在模型广场找到 DeepSeekR1 并进行授权。每个人会免费获得 100 万额度,过期未用则浪费。此模型由阿里云自主部署,并做了推理优化,性能强于多数本地部署版本。 2. 应用开发:新增模板,可从模板学习应用搭建。 3. 联网搜索:配置简单方便,结合 Deepseekr1 更强大,如搜索天气时会多方验证。 4. 新鲜的动态 few shot:可用于对模型某些表现不佳、易出幻觉的任务通过 prompt training 强行修正。 5. 工作流:用工作流让不同模型在同一任务创作。 行业变革中的智能体相关: Anthropic 的 Claude 3 拥有三个版本,最大规模的 Opus 适合复杂推理与自动化任务计划,其次的 Sonnet 适合个人助理及内容快速分析,如智能体任务,最快最便宜的 Haiku 可执行快速翻译、客服对话等任务。Meta、微软、Google、Apple 等均有可适配到移动终端上运行的开源模型。边缘算力竞争中,Apple、Google、高通等在终端占有量和芯片方面具有优势,PC 级别终端因智能集成复兴,未来可能有家用和办公用“智能体”终端诞生,Tesla EV 也在相关量级之上。 自制软件和赤脚开发者中的智能体相关: 大型语言模型可表现为智能体,能制定计划和决策以实现设定目标,可访问外部工具、数据库长期记忆等,并模仿逻辑思维模式。语言模型和智能体已部署到帮助专业开发人员的工具中,如 GitHub Copilot、Cursor 和 Replit,能读写代码、调试、创建文档和编写测试,使用此类工具可提高开发人员完成任务的速度。
2025-02-27
如何本地部署大模型
本地部署大模型的方法如下: SDXL 大模型的本地部署: 1. SDXL 的大模型分为两个部分: 第一部分,base+refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于对生成的模型进行细化,生成细节更丰富的图片。 第二部分,SDXL 还有一个配套的 VAE 模型,用于调节图片的画面效果和色彩。 2. 您可以关注公众号【白马与少年】,回复【SDXL】获取这三个模型的下载链接。 3. 想要在 webUI 中使用 SDXL 的大模型,首先要在秋叶启动器中将 webUI 的版本升级到 1.5 以上。 4. 接下来,将模型放入对应的文件夹中,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。完成之后,启动 webUI,就可以在模型中看到 SDXL 的模型。 LLM 大语言模型的本地部署: 1. 下载并安装 Ollama: 点击进入 https://ollama.com/download ,根据您的电脑系统进行下载。 下载完成后,双击打开,点击“Install”。 安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 2. 下载 qwen2:0.5b 模型(0.5b 是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型): 如果是 windows 电脑,点击 win+R,输入 cmd,点击回车;如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 复制相关命令行,粘贴进入,点击回车。 回车后,会开始自动下载,等待完成。(下载久了,可能会发现卡着不动,不知道下载了多少了。鼠标点击一下窗口,键盘点空格,就会刷新了) 下载完成后您会发现,大模型已经在本地运行了。输入文本即可进行对话。 ComfyUI ollama 本地大模型部署: 1. 先下载 ollama 安装,安装好了不会有任何界面弹出,可以在电脑桌面右下角或者隐藏图标里面找到。 2. 之后再去下载对应的模型,选择模型,复制对应的命令。 3. 打开命令行界面,输入对应的模型获取命令,等待下载完成。 4. 设置目录:下载的模型后面会保存到 D:\\ollama\\blobs。 5. docker 安装:安装会下载一些文件,安装后,改下这个目录,不要放在 C 盘。 6. Open webui 安装:输入相关命令,安装成功后,回到 docker,点击,会自动打开网页。第一次使用,需要注册一个账号,选择一个下载好的模型就可以开始使用了。 相关链接: 1. ComfyUI ollama:https://github.com/stavsap/comfyuiollama?tab=readmeovfile 2. Ollama:https://ollama.com/ 3. docker:https://www.docker.com/ 4. Open webui:https://openwebui.com/ 如果在部署过程中遇到端口占用的问题,运行下面两条命令可以解决。
2025-02-27
如何把ai作为培训技术手段,建立和制作港口企业管理人员、职能技术专业人员、技能人员以及理货、驾驶、起重人员培训课程
以下是为您提供的关于将 AI 作为培训技术手段建立和制作港口企业各类人员培训课程的一些建议: 首先,参考相关法律法规,如《2020 年国家人工智能倡议法案》,其中提到要为人工智能研究和发展提供持续、一致和协调的支持,包括通过拨款、合作协议、测试平台以及获取数据和计算资源等方式。 对于港口企业管理人员、职能技术专业人员、技能人员以及理货、驾驶、起重人员的培训课程制作,可以利用以下方法: 1. 支持开发自愿性的标准、最佳实践和基准,以确保培训课程的质量和有效性。 2. 为各级教育项目提供支持,在正式和非正式的学习环境中,让员工能够使用和与人工智能系统互动,并适应其对社会和经济的潜在变革性影响。 3. 支持跨学科的研究、教育和培训项目,促进学生和研究人员学习人工智能的方法和系统,培养跨学科的视角和合作,涵盖计算机科学、数学、统计学、工程、社会科学、心理学、行为科学、伦理学、安全、法律学术等相关领域的专家。 需要注意的是,在实际操作中,应根据港口企业的具体需求和人员特点,有针对性地设计和优化培训课程。
2025-02-28
我是一名港口行业国有企业职工培训专员,想结合当前AI技术应用,出一份既涵盖管理人员序列、职能人员序列,又包括技能操作序列职工的,可直接执行的年度培训计划文案,字数不超过1000字。
以下是为您提供的一份结合当前 AI 技术应用的港口行业国有企业职工年度培训计划文案,希望对您有所帮助: 一、培训目标 提升管理人员、职能人员和技能操作序列职工在 AI 技术应用方面的知识和技能,增强企业整体竞争力。 二、培训对象 管理人员序列、职能人员序列、技能操作序列职工。 三、培训内容 1. 管理人员序列 AI 技术在企业管理中的应用趋势与案例分析。 基于 AI 的决策支持系统的使用与解读。 2. 职能人员序列 AI 办公软件的应用技巧,如自动化流程处理。 利用 AI 进行数据分析与报告生成。 3. 技能操作序列职工 港口智能化设备中 AI 技术的原理与操作维护。 基于 AI 的安全监控系统的操作与应急处理。 四、培训方式 1. 线上课程:利用网络平台提供相关课程,方便职工自主学习。 2. 线下讲座:邀请专家进行现场讲解和互动交流。 3. 实践操作:在实际工作场景中进行模拟训练和实际操作。 五、培训时间安排 1. 每月安排一次线上课程。 2. 每季度组织一次线下讲座。 3. 不定期进行实践操作培训,根据实际工作需求灵活安排。 六、培训效果评估 通过考试、实际操作考核、项目成果评估等方式,检验职工的学习成果,并将其与绩效考核挂钩,激励职工积极参与培训。
2025-02-28
AI 项目企业落地方向和案例。
以下是关于 AI 项目企业落地方向和案例的相关内容: AI 企业落地应用方面,有文章能带你快速搞懂本轮 AI 大模型革命的核心知识信息,从历史到今天,从原理到应用,从产业到趋势,以通俗易懂但不失专业严谨的方式带你走入 AI 的世界。 Anthropic 在 AI Engineer Summit 2025 上分享了企业应用 AI 的最佳实践,并总结了常见错误。核心挑战包括如何入手、如何评估效果、技术选择困惑(如是否需要微调)。关键经验是评估先行,明确“智能度、成本、延迟”之间的平衡,避免过早微调,先进行基础优化。案例方面,Intercom 通过评估优化 AI Agent Fin,使其处理 86%的客服请求,其中 51%无需人工介入。相关链接: 此外,还有用飞书+DeepSeek R1 搭建自动化 AI 工作流的相关内容。流程包括 URL 内容抓取➝DeepSeek R1 翻译➝自动改写➝生成文章。飞书提供快速启动模板,支持翻译、OCR 等任务。工作流链接: 。 宝玉 Q&A 中提到处理大规模代码,可使用 XML 包裹,超大代码可上传 GitHub 供 AI 分析,AI 还可生成代码并搜索相关库。查看内容: 。ChatGPT 免费用户可使用 GPT4o mini 语音版,免费用户可体验自然对话节奏,Plus/Pro 用户享特权。
2025-02-27
企业建立私有大模型时候,采用什么工具进行RAG,高效实习企业知识文档、表格和pdf图纸的向量化
企业建立私有大模型进行 RAG 并实现企业知识文档、表格和 PDF 图纸向量化时,可参考以下工具和方法: 1. 本地部署资讯问答机器人: 导入依赖库,如 feedparse 用于解析 RSS 订阅源,ollama 用于在 Python 程序中跑大模型(使用前需确保 ollama 服务已开启并下载好模型)。 从订阅源获取内容,通过专门的文本拆分器将长文本拆分成较小的块,并附带相关元数据,最终合并成列表返回。 为文档内容生成向量,可使用文本向量模型 bgem3,从 hf 下载好模型后,假设放置在某个路径 /path/to/bgem3,通过函数利用 FAISS 创建高效的向量存储。 2. 开发:LangChain 应用开发指南 大模型的知识外挂 RAG 加载数据,根据数据源类型选择合适的数据加载器,如网页可使用 WebBaseLoader。 将文档对象分割成较小的对象,根据文本特点选择合适的文本分割器,如博客文章可用 RecursiveCharacterTextSplitter。 将文档对象转换为嵌入并存储到向量存储器中,根据嵌入质量和速度选择合适的文本嵌入器和向量存储器,如 OpenAI 的嵌入模型和 Chroma 的向量存储器。 创建检索器,使用向量存储器检索器,传递向量存储器对象和文本嵌入器对象作为参数创建检索器对象。 创建聊天模型,根据性能和成本选择合适的聊天模型,如 OpenAI 的 GPT3 模型。 以下是使用 LangChain 构建 RAG 应用的示例代码。
2025-02-27
AI企业赋能
以下是关于 AI 企业赋能的相关内容: 去年,生成式 AI 从不引人注意走向 AI 50 强榜单前列。今年,企业用户和消费者的 AI 生产力大幅提高,应用公司在 AI 50 强榜单中占主导。许多公司正将 AI 融入工作流程以快速达成 KPI,如 ServiceNow 通过 AI 驱动的 Now Assist 实现近 20%的事件避免率,Palo Alto Networks 利用 AI 降低处理费用成本,Hubspot 利用 AI 扩大用户规模,瑞典金融科技公司 Klarna 通过将 AI 融入用户支持节省 4000 多万美元。成千上万的公司在将 AI 整合到工作流程中以扩张规模和降低成本,AI 50 强企业在快速进化。不远的将来,有望看到 UX 和 UI 围绕 AI 功能重新设计。 在法律法规方面,《促进创新的人工智能监管方法》提到: 要清晰,帮助跨部门企业应对监管环境。 值得信赖,提高消费者和企业对框架及其要求的认识。 协作,通过教育和提高意识,使企业和消费者能够参与框架的持续评估和迭代。 支持创新,增强信任以提高 AI 采用率。 同时,当前 AI 通过现有法律框架如金融服务监管等进行监管,但存在一些风险在现有监管范围之间或空白处。行业反映监管不一致会给企业带来不必要负担,可能导致小企业离开市场。监管协调有助于企业投资 AI 创新并建立公众信任,一些监管机构已通过正式网络合作确保监管一致性,但其他监管机构在 AI 专业知识方面能力和获取有限,存在执法不一致和部分监管机构过度解读权限范围的风险。
2025-02-25