Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

企业部署本地AI模型管理

Answer

企业部署本地 AI 模型管理可以参考以下内容:

  1. 使用 Ollama 框架:
    • 支持多种大型语言模型,如通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。
    • 易于在本地环境(包括 macOS、Windows 和 Linux 系统,支持 cpu 和 gpu)启动和运行。
    • 提供模型库,用户可从中下载不同参数和大小的模型,通过 https://ollama.com/library 查找。
    • 支持自定义模型,可修改温度参数等设置特定系统消息。
    • 提供 REST API 用于运行和管理模型,以及与其他应用集成。
    • 社区贡献丰富,有多种集成插件和界面。
    • 先安装,访问 https://ollama.com/download/ 下载安装,安装完确保 ollama 后台服务已启动(在 mac 上启动 ollama 应用程序,在 linux 上通过 ollama serve 启动),可通过 ollama list 确认。
  2. 部署和训练自己的 AI 开源模型:
    • 选择合适的部署方式,如本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署,根据自身资源、安全和性能需求选择。
    • 准备训练所需的数据和计算资源,确保有足够训练数据覆盖目标应用场景,准备足够的计算资源,如 GPU 服务器或云计算资源。
    • 选择合适的预训练模型作为基础,如使用开源的预训练模型如 BERT、GPT 等,也可自行训练基础模型。
    • 针对目标任务进行模型微调训练,根据具体应用场景对预训练模型进行微调训练,优化模型结构和训练过程以提高性能。
    • 部署和调试模型,将训练好的模型部署到生产环境,对部署的模型进行在线调试和性能优化。
    • 注意安全性和隐私保护,重视大模型涉及的大量数据和隐私信息的安全性和合规性。
  3. LangChain 携手 NVIDIA:
    • NVIDIA NIM 是一系列加速企业内部生成式 AI 部署进程的用户友好微服务,支持广泛 AI 模型,开发者利用行业标准 API 数行代码即可构建企业级 AI 应用,基于 NVIDIA Triton Inference Server、NVIDIA TensorRT、NVIDIA TensorRT-LLLLM 等强大推理引擎及 PyTorch 等技术构建,提供无缝 AI 推理体验,在本地服务器或云端环境中均是大规模、高性能生成式 AI 推理的最佳选择。
    • 对 NVIDIA NIM 充满期待的原因:自托管特性,数据保留在服务器上不外传,适合处理敏感信息的 RAG 应用;提供一系列预构建容器,轻松选择使用最新生成式 AI 模型,无需复杂配置;具有可扩展性,解决服务部署的稳定性和可用性挑战。
    • 开始使用 NIM 很简单,在 NVIDIA API 目录中可访问多种 AI 模型用于构建和部署生成式 AI 应用,NIM 是 NVIDIA AI Enterprise 的一部分,这是全面的基于云的软件平台,旨在简化生产级 AI 应用的开发和部署流程,可通过相关博客获取详细指南。
Content generated by AI large model, please carefully verify (powered by aily)

References

本地部署资讯问答机器人:Langchain+Ollama+RSSHub 实现 RAG

1.支持多种大型语言模型:Ollama支持包括通义千问、Llama 2、Mistral和Gemma等在内的多种大型语言模型,这些模型可用于不同的应用场景。2.易于使用:Ollama旨在使用户能够轻松地在本地环境中启动和运行大模型,适用于macOS、Windows和Linux系统,同时支持cpu和gpu。3.模型库:Ollama提供了一个模型库,用户可以从中下载不同的模型。这些模型有不同的参数和大小,以满足不同的需求和硬件条件。Ollama支持的模型库可以通过https://ollama.com/library进行查找。4.自定义模型:用户可以通过简单的步骤自定义模型,例如修改模型的温度参数来调整创造性和连贯性,或者设置特定的系统消息。5.API和集成:Ollama还提供了REST API,用于运行和管理模型,以及与其他应用程序的集成选项。6.社区贡献:Ollama社区贡献丰富,包括多种集成插件和界面,如Web和桌面应用、Telegram机器人、Obsidian插件等。7.总的来说,Ollama是一个为了方便用户在本地运行和管理大型语言模型而设计的框架,具有良好的可扩展性和多样的使用场景。后面在捏Bot的过程中需要使用Ollama,我们需要先安装,访问以下链接进行下载安装。https://ollama.com/download/安装完之后,确保ollama后台服务已启动(在mac上启动ollama应用程序即可,在linux上可以通过ollama serve启动)。我们可以通过ollama list进行确认,当我们还没下载模型的时候,正常会显示空:可以通过ollama命令下载模型,目前,我下载了4个模型:几个模型简介如下:

问:如何部署和训练自己的AI开源模型

根据搜索结果,以下是部署和训练自己的大模型的主要步骤:1.选择合适的部署方式本地环境部署云计算平台部署分布式部署模型压缩和量化公共云服务商部署根据自身的资源、安全和性能需求选择合适的部署方式。2.准备训练所需的数据和计算资源确保有足够的训练数据覆盖目标应用场景准备足够的计算资源,如GPU服务器或云计算资源3.选择合适的预训练模型作为基础可以使用开源的预训练模型如BERT、GPT等作为基础也可以自行训练一个基础模型4.针对目标任务进行模型微调训练根据具体应用场景对预训练模型进行微调训练优化模型结构和训练过程以提高性能5.部署和调试模型将训练好的模型部署到生产环境对部署的模型进行在线调试和性能优化6.注意安全性和隐私保护大模型涉及大量数据和隐私信息,需要重视安全性和合规性总的来说,部署和训练自己的大模型需要综合考虑多方面因素,包括部署方式、数据准备、模型训练、部署调试以及安全性等。需要根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。内容由AI大模型生成,请仔细甄别

LangChain 携手 NVIDIA:RAG加速新篇章

NVIDIA NIM是一系列用户友好的微服务,它们旨在加速企业内部生成式AI的部署进程。这种多功能的运行环境支持包括开源社区模型、NVIDIA AI基础模型以及自定义AI模型在内的广泛AI模型。开发者可以利用行业标准的API,仅需数行代码即可快速构建出企业级的AI应用。NIM基于NVIDIA Triton Inference Server、NVIDIA TensorRT、NVIDIA TensorRT-LLLLM等强大的推理引擎,以及PyTorch等技术构建,旨在提供无缝的AI推理体验,确保您可以自信地在任何环境中部署AI应用。无论是在本地服务器还是云端环境中,NIM都是实现大规模、高性能生成式AI推理的最佳选择。[heading2]为什么LangChain对NVIDIA NIM充满期待?[content]我们对NVIDIA NIM充满期待的原因有几个。首先,最引人注目的是它的自托管特性。这意味着您向基于NVIDIA的模型发送的任何数据都将保留在您的服务器上,不会外传。对于那些经常需要处理敏感信息的RAG应用来说,这一点尤其重要。其次,NIM提供了一系列预构建的容器,这让您可以轻松选择并使用最新的生成式AI模型,而无需进行复杂的配置。最后,NIM的可扩展性。在个人电脑上本地运行模型是一回事,但要将其作为服务部署,并且保持与专业服务提供商相同的稳定性和可用性,则是另一回事。幸运的是,NIM已经为您解决了这一挑战。[heading2]如何开始使用NVIDIA NIM?[content]开始使用NIM非常简单。在NVIDIA API目录中,开发者可以轻松访问多种AI模型,用于构建和部署生成式AI应用。NIM是NVIDIA AI Enterprise的一部分,这是一个全面的、基于云的软件平台,旨在简化生产级AI应用的开发和部署流程。您可以通过这篇博客获取如何开始使用的详细指南。

Others are asking
推荐电商做商品图和视频的AI工具
以下为您推荐一些适用于电商做商品图和视频的 AI 工具: 1. Stable Diffusion:如果您要开淘宝网店,可借助它来初步制作商品展示图。比如对于女装商品,先真人穿衣服拍照,选好真人照片风格的底模,如 majicmixRealistic_v7,再根据不同平台需求进行换头,通过图生图下的局部重绘选项卡涂抹替换部分,并设置合适的 prompts 和 parameters。 2. 绘蛙 AI:这是阿里的 AIGC 营销平台,专注于电商营销内容创作,能快速生成吸引人的图文内容,提升商品的市场曝光度和吸引力,操作简单易用。 3. Gatekeep:这是一个提供个性化视频以帮助用户更快学习的平台,利用人工智能生成视频,可用于电商商品的展示和宣传。 此外,使用 AI 来完成阿里巴巴营销技巧和产品页面优化,可以采取以下步骤: 1. 市场分析:利用 AI 分析工具研究市场趋势、消费者行为和竞争对手情况。 2. 关键词优化:AI 分析和推荐高流量、高转化的关键词,优化产品标题和描述。 3. 产品页面设计:AI 设计工具生成吸引人的产品页面布局。 4. 内容生成:AI 文案工具撰写有说服力的产品描述和营销文案。 5. 图像识别和优化:AI 图像识别技术选择或生成高质量的产品图片。 6. 价格策略:AI 分析不同价格点对销量的影响,制定有竞争力的价格策略。 7. 客户反馈分析:AI 分析客户评价和反馈,优化产品和服务。 8. 个性化推荐:AI 根据用户购买历史和偏好提供个性化产品推荐。 9. 聊天机器人:AI 驱动的聊天机器人提供 24/7 客户服务。 10. 营销活动分析:AI 分析不同营销活动效果。 11. 库存管理:AI 预测需求,优化库存管理。 12. 支付和交易优化:AI 分析不同支付方式对交易成功率的影响,优化支付流程。 13. 社交媒体营销:AI 帮助在社交媒体上找到目标客户群体,精准营销提高品牌知名度。 14. 直播和视频营销:AI 分析观众行为,优化直播和视频内容,提高观众参与度和转化率。
2025-03-03
会议翻译+纪要AI工具
以下是一些会议翻译和纪要的 AI 工具: 免费的会议语音转文字工具:大部分有使用时间限制,超过免费时间需付费。推荐工具包括飞书妙记(https://www.feishu.cn/product/minutes)、通义听悟(https://tingwu.aliyun.com/home)、讯飞听见(https://www.iflyrec.com/)、Otter AI(https://otter.ai/)。更多会议记录工具请访问网站:https://waytoagi.com/sites/category/29 。 会议总结工具:团队会议总结 Vowel(https://www.vowel.com/)、Personalized AI, Everywhere.(https://www.augment.co/?ref=superhuman1_mar23&utm_source=superhuman.beehiiv.com&utm_medium=newsletter&utm_campaign=thisaicanhackinterviews)、Noty 会议总结为待办事项(https://noty.ai/)、The 6 Best AI Tools for Meeting Notes in 2024(https://www.meetjamie.ai/blog/the6bestaimeetingtools)、The smartest AI team assistant Sembly AI(https://www.sembly.ai/)、Briefly: AI meeting summary&email follow up Chrome 应用商店(https://chrome.google.com/webstore/detail/brieflyaimeetingsummar/bjmgcelbpkgmofiogkmleblcmecflldk)、Welcome fireflies.ai(https://app.fireflies.ai/)、Noota Screen Recorder&Meeting Assistant Chrome 应用商店(https://chrome.google.com/webstore/detail/nootascreenrecordermee/eilpgeiadholnidgjpgkijfcpaoncchh)、Read Meeting Reports(https://app.read.ai/analytics/meetings)、Read Create Workspace(https://app.read.ai/analytics/settings/workspace/new)、10 AI Notes Taking Tool to Summarize Meetings in Seconds Geekflare(https://geekflare.com/ainotestakingtools/)
2025-03-03
扩图绘画AI工具
以下是一些可以用于扩图绘画的 AI 工具: 1. Stability AI 推出的基于 Discord 的媒体生成和编辑工具,其中的 Outpaint 功能可以在图像中插入其他内容以向任何方向填充空间(扩图),价格为 4 积分。 2. 在软件架构设计中,以下工具可用于绘制相关视图,包括扩图: Lucidchart:流行的在线绘图工具,支持多种图表创建,用户可通过拖放界面轻松创建架构图。 Visual Paradigm:全面的 UML 工具,提供创建各种架构视图的功能。 ArchiMate:开源建模语言,与 Archi 工具一起使用可创建逻辑视图。 Enterprise Architect:强大的建模、设计和生成代码工具,支持多种架构视图创建。 Microsoft Visio:广泛使用的图表和矢量图形应用程序,提供丰富模板。 draw.io(现在称为 diagrams.net):免费在线图表软件,允许创建各种类型图表。 PlantUML:文本到 UML 转换工具,可通过编写描述性文本自动生成相关视图。 Gliffy:基于云的绘图工具,提供创建各种架构图的功能。 Archi:免费开源工具,用于创建 ArchiMate 和 TOGAF 模型。 Rational Rose:IBM 的 UML 工具,支持创建多种视图。 在 CAD 图绘制方面,以下是一些 AI 工具和插件: 1. CADtools 12:Adobe Illustrator 插件,为 AI 添加 92 个绘图和编辑工具。 2. Autodesk Fusion 360:集成了 AI 功能的云端 3D CAD/CAM 软件。 3. nTopology:基于 AI 的设计软件,帮助创建复杂 CAD 模型。 4. ParaMatters CogniCAD:基于 AI 的 CAD 软件,可根据输入自动生成 3D 模型。 5. 一些主流 CAD 软件,如 Autodesk 系列、SolidWorks 等,提供基于 AI 的生成设计工具。 需要注意的是,这些工具通常需要一定的 CAD 知识和技能才能有效使用。对于 CAD 初学者,建议先学习基本的 3D 建模技巧,然后尝试使用这些 AI 工具来提高设计效率。
2025-03-03
如何用AI按照描述制作一张图片
以下是关于如何用 AI 按照描述制作一张图片的相关内容: 一、关键词和主题描述 1. 图片内容通常分为二维插画和三维立体两种表现形式。 2. 描述场景、故事、元素、物体或人物细节时,要清晰明确。对于场景中的人物,应独立描述,避免长串文字,以便 AI 识别。 3. 大场景中多个角色的细节较难通过关键词生成。 二、设计风格 1. 设计师难以直接表达设计风格时,可参考风格类关键词或垫图/喂图,让 AI 结合主题描述生成相应风格的图片。 2. 某些材质的关键词运用有较多门道,需针对特定风格进行“咒语测试”。 三、使用 Midjourney 生成图片 1. 图片描述可理解为以图生图,将设计参考图上传到 Midjourney 中,通过“参考图链接+文本描述”的方式生成图像。 2. 例如生成带有交互流程的 UI 界面图,先上传素材图,再用“参考图链接+node UI”等文字提示生成类似设计图,还可通过调整文字提示获得不同效果,如纯正面、扁平、手绘、黑白等风格。 3. 生成不同比例的图,需在文字描述中加入特定参数,如“aspect”或“ar”。 4. Midjourney 还可生成设计组件,探索多种设计风格的可能性,如扁平组件系统,关键词为“UI kit,flat design,outline,ar 16:9”。 四、AI 生成图片的著作权 1. 如 Stable Diffusion 模型根据文本指令生成图片,其生成的样子取决于使用者输入的提示词,非排列组合工作模式下难有相同图片。 2. 人工智能无自由意志,使用者通过增删提示词、修改参数得出不同图片并选定,体现使用者的创作,生成的具有独创性和智力投入的图片受著作权保护。 3. 相关法律适用包括《中华人民共和国著作权法》第三条和《中华人民共和国著作权法实施条例》第四条。案例中人工智能软件生成的图片著作权由使用者享有。
2025-03-03
用哪些指令能帮助我用AI写论文
以下是一些利用 AI 写论文的指令和方法: 1. 明确背景信息和具体要求:例如,“根据以下关于我的信息,写一篇四段的大学申请论文:我来自西班牙巴塞罗那。尽管我的童年经历了一些创伤性事件,比如我 6 岁时父亲去世,但我仍然认为我有一个相当快乐的童年。在我的童年时期,我经常换学校,从公立学校到非常宗教的私立学校。我做过的最‘异国情调’的事情之一是在爱达荷州的双子瀑布与我的大家庭一起度过六年级。我很早就开始工作了。我的第一份工作是 13 岁时的英语老师。在那之后,以及在我的学习过程中,我做过老师、服务员,甚至建筑工人。” 2. 确定论文主题:明确您的研究兴趣和目标,选择一个具有研究价值和创新性的主题。 3. 收集背景资料:使用学术搜索引擎和文献管理软件等 AI 工具来搜集相关的研究文献和资料。 4. 分析和总结信息:利用 AI 文本分析工具来分析收集到的资料,提取关键信息和主要观点。 5. 生成大纲:使用 AI 写作助手生成论文的大纲,包括引言、文献综述、方法论、结果和讨论等部分。 6. 撰写文献综述:利用 AI 工具来帮助撰写文献综述部分,确保内容的准确性和完整性。 7. 构建方法论:根据研究需求,利用 AI 建议的方法和技术来设计研究方法。 8. 数据分析:如果论文涉及数据收集和分析,可以使用 AI 数据分析工具来处理和解释数据。 9. 撰写和编辑:利用 AI 写作工具来撰写论文的各个部分,并进行语法和风格的检查。 10. 生成参考文献:使用 AI 文献管理工具来生成正确的参考文献格式。 11. 审阅和修改:利用 AI 审阅工具来检查论文的逻辑性和一致性,并根据反馈进行修改。 12. 提交前的检查:最后,使用 AI 抄袭检测工具来确保论文的原创性,并进行最后的格式调整。 需要注意的是,AI 工具可以作为辅助,但不能完全替代研究者的专业判断和创造性思维。在使用 AI 进行论文写作时,应保持批判性思维,并确保研究的质量和学术诚信。
2025-03-03
AI生成思维导图
以下是一些与思维导图相关的 AI 工具: 1. GitMind:免费的跨平台思维导图软件,可通过 AI 自动生成,支持多种模式,如提问、回答、自动生成等。 2. ProcessOn:国内的思维导图+AIGC 工具,能利用 AI 生成思维导图。 3. AmyMind:轻量级在线 AI 思维导图工具,无需注册登录,支持自动生成节点。 4. Xmind Copilot:Xmind 推出的基于 GPT 的 AI 思维导图助手,可一键拓展思路,生成文章大纲。 5. TreeMind:“AI 人工智能”思维导图工具,输入需求即可由 AI 自动完成生成。 6. EdrawMind:提供一系列 AI 工具,包括 AI 驱动的头脑风暴功能,有助于提升生产力。 此外,还有一些相关的应用案例,如 ChatMind 可利用 AI 自动生成思维导图,输入问题、文章、数据即可,能导出图片与 Markdown 文档两种格式。在读书会活动中,也可以通过如 kimichat 让 AI 拆解书籍内容生成 markdown,再粘贴到在线思维导图 Markmap 中一键生成思维导图并微调。
2025-03-03
ai大模型有哪些常用参数
以下是关于 AI 大模型常用参数的相关内容: 1. 架构方面: Encoderonly:适用于自然语言理解任务,如分类和情感分析,代表模型是 BERT。 Encoderdecoder:结合 Transformer 架构的 encoder 和 decoder 来理解和生成内容,用例包括翻译和摘要,代表是谷歌的 T5。 Decoderonly:更擅长自然语言生成任务,众多 AI 助手采用此结构,如 ChatGPT。 2. 规模方面: 预训练数据量大,往往来自互联网上的论文、代码、公开网页等,一般用 TB 级别数据进行预训练。 参数众多,如 Open 在 2020 年发布的 GPT3 就已达到 170B 的参数。参数指的是神经网络的输入权重和输出阈值的总和。假定一个神经元有 9 个输入权重和 1 个输出阈值,就有 10 个参数。当有 100 亿个这样的神经元时,就形成千亿级参数的大模型。 3. 模型部署方面: 在 LLM 中,Token 是输入的基本单元。由于大模型参数多,如 GPT2 有 1.5B 参数,每个参数用 float32 表示需 6GB 内存,更先进的模型如 LLAMA 有 65B 参数则需 260G 内存(还不考虑词汇表)。因此实际部署时会进行模型压缩。 在训练 LLM 中,CPU 与内存之间的传输速度往往是系统瓶颈,核心数反而不是大问题,减小内存使用是首要优化点。使用内存占用更小的数据类型是直接方式,如 16 位浮点数可将内存使用减倍。目前有几种相互竞争的 16 位标准,英伟达在其最新一代硬件中引入了对 bfloat16 的支持。
2025-03-03
大模型中的权重与偏置是什么
在大模型中,权重(weight)和偏置(bias)是非常重要的概念。 大模型的“大”主要体现在用于表达 token 之间关系的参数众多,其中就包括权重和偏置。例如 GPT3 拥有 1750 亿参数,其中权重数量达到了这一量级,而词汇表 token 数只有 5 万左右。 以 Transform 为代表的大模型采用自注意力(Selfattention)机制来学习不同 token 之间的依赖关系,生成高质量 embedding。 在感知机学习算法中,感知机的输出和人类标记的正确答案进行比较,如果答案错误,权重和阈值会发生变化。每个权重的变化量取决于与其相关的输入值。对于每个权重 wj:wj←wj+ηxj,其中 t 表示正确的输出(1 或 0);对于给定的输入,y 是感知机的实际输出;xj 是与权重 wj 有关的输入;η是由程序员给出的学习速率。阈值通过创建一个附加的输入 x0 合并得到,x0 为常数 1,其相对应的权重 w0=threshold(阈值)。只有在输入与权重的乘积,即输入向量与权重向量之间的点积大于或等于 0 时,感知机才会被触发。 在某些案例中,比如判断数字大小的问题中,不同概念的权重不同,会影响模型的判断结果。例如 9.11 作为日期“概念”的权重可能比它是个数字“概念”的权重大。
2025-03-03
大模型中的参数是什么
大模型中的参数主要指模型中的权重(weight)与偏置(bias)。例如,GPT3 拥有 1750 亿参数,其中权重数量达到了这一量级,而词汇表 token 数只有 5 万左右。在 LLM 中,由于模型参数非常多,如 GPT2 有 1.5B 参数,每个参数用 float32 表示,所需内存大小为 4 bytes1,500,000,000 = 6GB,更先进的模型如 LLAMA 有 65B 参数,所需内存就需要 260G(这还是在不考虑词汇表的情况下)。因此在进行模型实际部署时,会进行模型的压缩。
2025-03-03
推理行大模型对于RAG的准确性提升,带来哪些改变
推理行大模型对 RAG 准确性提升带来了以下改变: 1. 当辅以能有效提取文档中结构化信息并整合为提示词的 PDF 解析器时,大语言模型能作出更准确的响应,提高了提供给模型的数据质量和相关性,从而提升模型输出质量。 2. 大模型应用领域常用的 RAG 方法,能让模型用自定义数据生成结果,处理无尽私有数据,将模型当成高效推理机器。但 RAG 存在一些常见误区: 随意输入任何文档不一定能得到准确回答,RAG 流程中的多个环节都会影响最终质量。 RAG 虽能减少幻觉,但不能完全消除,只要有大模型参与就可能产生幻觉。 RAG 仍消耗大模型的 Token,最终需大模型处理检索结果生成通顺回答。 未来,将研究分享更多基于深度学习的文档解析方法,以更全面理解 RAG 质量和文档解析质量的关系。同时,前沿模型研发团队力争做到吞吐量、速度和准确度的最佳平衡。
2025-03-03
怎么利用大模型训练自己的机器人
利用大模型训练自己的机器人可以参考以下内容: OpenAI 通用人工智能(AGI)的计划显示,在互联网上所有的图像和视频数据上训练一个与人类大脑大小相当的 AI 模型,将足以处理复杂的机器人学任务。常识推理隐藏在视频和文本数据中,专注于文本的 GPT4 在常识推理上表现出色。Google 最近的例子展示了机器人学能力可从大型视觉/语言模型中学习,在语言和视觉训练基础上,只需最少的机器人学数据,视觉和文本任务的知识就能转移到机器人学任务上。特斯拉训练的“Optimus”通过人类示范学习抓取物体,若人类示范是先进机器人学性能所需的一切,在互联网上所有视频上训练的大模型肯定能实现惊人的机器人学性能。 梦飞提供了在自己的电脑上部署 COW 微信机器人项目的教程,程序在本地运行,若关掉窗口进程结束,想持续使用需保持窗口打开和运行。以 Windows10 系统为例,注册大模型可参考百炼首页:https://bailian.console.aliyun.com/ ,需更改"model"和添加"dashscope_api_key",获取 key 可参考视频教程。 张梦飞提供了从 LLM 大语言模型、知识库到微信机器人的全本地部署教程,部署大语言模型包括下载并安装 Ollama,根据电脑系统下载:https://ollama.com/download ,安装完成后将下方地址复制进浏览器中确认安装完成:http://127.0.0.1:11434/ 。下载 qwen2:0.5b 模型,Windows 电脑按 win+R 输入 cmd 回车,Mac 电脑通过 Command(⌘)+Space 键打开 Spotlight 搜索输入“Terminal”或“终端”,复制命令行粘贴回车等待下载完成。
2025-03-03
帮我找出现在成熟的人工智能大模型,列举他们的功能,附上打开链接
以下是一些成熟的人工智能大模型及其功能和链接: 百度(文心一言):https://wenxin.baidu.com 。 抖音(云雀大模型):https://www.doubao.com 。 智谱 AI(GLM 大模型):https://chatglm.cn 。 中科院(紫东太初大模型):https://xihe.mindspore.cn 。 百川智能(百川大模型):https://www.baichuanai.com/ 。 商汤(日日新大模型):https://www.sensetime.com/ 。 MiniMax(ABAB 大模型):https://api.minimax.chat 。 上海人工智能实验室(书生通用大模型):https://internai.org.cn 。 在这些大模型中: 能生成 Markdown 格式的:智谱清言、商量 Sensechat、MiniMax 。 目前不能进行自然语言交流的:昇思、书生 。 受限制使用:MiniMax(无法对生成的文本进行复制输出,且只有 15 元的预充值额度进行体验,完成企业认证后可以进行充值) 。 特色功能:昇思——生图,MiniMax——语音合成 。 此外,还有其他一些大模型: OpenAI 系统:包括 3.5 和 4.0 版本,一个新的变种使用插件连接到互联网和其他应用程序。Code Interpreter 是一个非常强大的 ChatGPT 版本,可以运行 Python 程序。如果未为 OpenAI 付费,只能使用 3.5 。除了插件变种和一个暂时停用的带有浏览功能的 GPT4 版本之外,这些模型都没有连接到互联网。微软的 Bing 使用 4 和 3.5 的混合,通常是 GPT4 家族中首个推出新功能的模型,例如可以创建和查看图像,且可以在网页浏览器中阅读文档,并连接到互联网。 谷歌:一直在测试自己的人工智能 Bard,由各种基础模型驱动,最近是一个名叫 PaLM 2 的模型。 Anthropic:发布了 Claude 2,其最值得注意的是有一个非常大的上下文窗口,本质上是 LLM 的记忆。Claude 几乎可以保存一整本书或许多 PDF,与其他大型语言模型相比,它不太可能恶意行事。
2025-03-03
本地部署stable-diffusion
以下是关于本地部署 Stable Diffusion 的详细步骤: 1. 准备工作: 电脑配置需能支持 SD 运行。 2. 下载整合包: 可以选择 B 站秋叶分享的整合包,链接:https://pan.baidu.com/s/1hY8CKbYRAj9RrFGmswdNiA?pwd=caru ,提取码:caru 。 3. 安装整合包: 打开链接,下载《1.整合包安装》,存放到电脑本地。 打开保存到电脑里的文件夹。 打开文件夹《1.秋叶整合包主包》,鼠标右击文件,点击“解压文件”。 选择解压到 D 盘或者 E 盘,避免 C 盘被占满,点击确定。 解压完成后,来到第二个文件夹,双击里面的文件,点击安装。 打开刚刚解压保存的 SD 的根目录,找到启动器,鼠标右击启动器,点击“发送到”,选择桌面快捷方式,方便下次进入。 4. 启动和配置: 双击启动器,等待更新,接着点击左边第二个“高级选项”。 在显存优化里,根据自己电脑的显存选择(即查看的专用 GPU 内存)。 回到第一个一键启动,点击右下角的一键启动。 若出现报错,可回到最开始的界面,在左边点击“疑难解答”,再点击右边的“开始扫描”,最后点击“修复”按钮。 5. 注意事项: 并不是指定了显存优化量就一定不会超显存,在出图时如果启动了过多的优化项(如高清修复、人脸修复、过大模型)时,依然有超出显存导致出图失败的几率。 xFormers 能极大地改善内存消耗和速度,建议开启。 Stable Diffusion webui 的更新比较频繁,可根据需求在“版本管理”目录下更新。 同样地,也请注意插件的更新。在 webui 的“扩展”选项卡下,可以安装插件。点击“加载自”后,目录会刷新,选择需要的插件点击右侧的 install 即可安装。安装完毕后,需要重新启动用户界面。
2025-03-02
企业本地化部署AI
企业本地化部署 AI 主要包括以下方面: RPA 与财务税务问答机器人:RPA 与 AI 结合具有多种应用和优势。操作流程简单,无需代码,适合小白和无 IT 经验者。有众多应用案例,如奥康和方太在各部门的订单处理等操作中搭建了大量脚本。封装了众多组件,还可通过触发器设置机器人每天工作。数字化包括标准化、自动化、RPA 加 AI 使机器人更智能三个阶段,交付的是动态能力,让用户自己搭建机器人。产品可本地化私有部署,面向企业有费用,私有化部署能保障数据安全,企业大模型可封装调用。RPA 有容错处理方式,但受多种因素影响。 LangChain 与 NVIDIA:NVIDIA NIM 是一系列用户友好的微服务,旨在加速企业内部生成式 AI 的部署进程。支持广泛的 AI 模型,基于强大的推理引擎和技术构建,提供无缝的 AI 推理体验。其自托管特性可保障数据安全,提供预构建容器,具有可扩展性。开始使用 NIM 可在 NVIDIA API 目录中获取多种 AI 模型,它是 NVIDIA AI Enterprise 的一部分。 从 LLM 大语言模型、知识库到微信机器人:以 windows10 系统为例,安装环境时先在系统中输入“cmd”打开命令窗口,确认是否有 python 和 pip。若没有则需安装,如安装 python 可下载安装包。部署项目时下载 COW 机器人项目并解压缩。
2025-03-02
怎么部署GPTs的api?
部署 GPTs 的 API 可以参考以下步骤: 1. 参考文章,了解之前的部署情况。 2. 登录地址,点击 Copy Link 进行复制 Actions API 链接。 3. 配置 GPTs Actions API: 打开 ChatGPT,点击创建 GPTs>Configure>Create new action。 输入来自 Gapier 的 Actions API 并点击 Import。 4. 授权: 在 Gapier 复制授权码。 在 Authentication 下选择配置图标,进入授权页面。 按照以下设置进行配置: Authentication Type:选择 API Key。 Auth Type:选择 Basic。 输入从网站上复制的授权码并点击 Save。 5. 引用 Action: 确定调用的 Action,并在 Prompt 中引用。 查看 Action 的方式分为两种: GPTs>Configure>Actions 页面。 网页查看,地址为。 另外一种引用的方式是:只要在 Instructions 中申明清楚需求,GPT 会自动选择合适的 API。 此外,还需注意以下几点: 1. 了解 OpenAPI 规范,通过 Schema 让 ChatGPT 懂这个 API。 2. 对于带参数的 Post 请求,需要创建规范文件、修改 GPTs 的 Action、调整 Prompt 等。 3. 注意如果不和说传入中文,它会给我们翻译了再传。
2025-03-01
AI大模型本地化部署的逻辑是什么?输入的数据不会外泄吗?
AI 大模型本地化部署的逻辑主要包括以下步骤: 1. 选择合适的部署方式,如本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,要根据自身的资源、安全和性能需求来决定。 2. 准备训练所需的数据和计算资源,确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础,可以使用开源的预训练模型如 BERT、GPT 等,也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练,根据具体应用场景对预训练模型进行微调训练,并优化模型结构和训练过程以提高性能。 5. 部署和调试模型,将训练好的模型部署到生产环境,并对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护,大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 关于输入数据是否会外泄,这取决于本地化部署的安全性措施和配置。如果采取了严格的安全措施,如数据加密、访问控制、网络隔离等,输入的数据外泄的风险可以大大降低。但如果安全措施不到位,就存在数据外泄的可能。例如,赞成把一个训练好就不动的模型部署在端侧(如手机或家庭计算中心),记录所有知识和记忆的相关数据就不会跑到云端,能更好地保障数据安全。
2025-02-28
本地部署的AI模型如何制作智能体
以下是关于本地部署的 AI 模型制作智能体的相关信息: 阿里云百炼满血版 DeepSeek: 1. 开通满血版 R1 模型:在模型广场找到 DeepSeekR1 并进行授权。每个人会免费获得 100 万额度,过期未用则浪费。此模型由阿里云自主部署,并做了推理优化,性能强于多数本地部署版本。 2. 应用开发:新增模板,可从模板学习应用搭建。 3. 联网搜索:配置简单方便,结合 Deepseekr1 更强大,如搜索天气时会多方验证。 4. 新鲜的动态 few shot:可用于对模型某些表现不佳、易出幻觉的任务通过 prompt training 强行修正。 5. 工作流:用工作流让不同模型在同一任务创作。 行业变革中的智能体相关: Anthropic 的 Claude 3 拥有三个版本,最大规模的 Opus 适合复杂推理与自动化任务计划,其次的 Sonnet 适合个人助理及内容快速分析,如智能体任务,最快最便宜的 Haiku 可执行快速翻译、客服对话等任务。Meta、微软、Google、Apple 等均有可适配到移动终端上运行的开源模型。边缘算力竞争中,Apple、Google、高通等在终端占有量和芯片方面具有优势,PC 级别终端因智能集成复兴,未来可能有家用和办公用“智能体”终端诞生,Tesla EV 也在相关量级之上。 自制软件和赤脚开发者中的智能体相关: 大型语言模型可表现为智能体,能制定计划和决策以实现设定目标,可访问外部工具、数据库长期记忆等,并模仿逻辑思维模式。语言模型和智能体已部署到帮助专业开发人员的工具中,如 GitHub Copilot、Cursor 和 Replit,能读写代码、调试、创建文档和编写测试,使用此类工具可提高开发人员完成任务的速度。
2025-02-27
如何本地部署大模型
本地部署大模型的方法如下: SDXL 大模型的本地部署: 1. SDXL 的大模型分为两个部分: 第一部分,base+refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于对生成的模型进行细化,生成细节更丰富的图片。 第二部分,SDXL 还有一个配套的 VAE 模型,用于调节图片的画面效果和色彩。 2. 您可以关注公众号【白马与少年】,回复【SDXL】获取这三个模型的下载链接。 3. 想要在 webUI 中使用 SDXL 的大模型,首先要在秋叶启动器中将 webUI 的版本升级到 1.5 以上。 4. 接下来,将模型放入对应的文件夹中,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。完成之后,启动 webUI,就可以在模型中看到 SDXL 的模型。 LLM 大语言模型的本地部署: 1. 下载并安装 Ollama: 点击进入 https://ollama.com/download ,根据您的电脑系统进行下载。 下载完成后,双击打开,点击“Install”。 安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 2. 下载 qwen2:0.5b 模型(0.5b 是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型): 如果是 windows 电脑,点击 win+R,输入 cmd,点击回车;如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 复制相关命令行,粘贴进入,点击回车。 回车后,会开始自动下载,等待完成。(下载久了,可能会发现卡着不动,不知道下载了多少了。鼠标点击一下窗口,键盘点空格,就会刷新了) 下载完成后您会发现,大模型已经在本地运行了。输入文本即可进行对话。 ComfyUI ollama 本地大模型部署: 1. 先下载 ollama 安装,安装好了不会有任何界面弹出,可以在电脑桌面右下角或者隐藏图标里面找到。 2. 之后再去下载对应的模型,选择模型,复制对应的命令。 3. 打开命令行界面,输入对应的模型获取命令,等待下载完成。 4. 设置目录:下载的模型后面会保存到 D:\\ollama\\blobs。 5. docker 安装:安装会下载一些文件,安装后,改下这个目录,不要放在 C 盘。 6. Open webui 安装:输入相关命令,安装成功后,回到 docker,点击,会自动打开网页。第一次使用,需要注册一个账号,选择一个下载好的模型就可以开始使用了。 相关链接: 1. ComfyUI ollama:https://github.com/stavsap/comfyuiollama?tab=readmeovfile 2. Ollama:https://ollama.com/ 3. docker:https://www.docker.com/ 4. Open webui:https://openwebui.com/ 如果在部署过程中遇到端口占用的问题,运行下面两条命令可以解决。
2025-02-27
希望用AI工具帮助小学生建立学习习惯,管理学习,学习习惯统计管理
目前针对使用 AI 工具帮助小学生建立学习习惯、管理学习以及进行学习习惯统计管理,暂时没有相关的具体内容。但可以考虑以下思路: 1. 利用智能学习软件,这类软件可以根据小学生的学习进度和表现制定个性化的学习计划,并进行学习时间的管理和提醒。 2. 借助具有语音交互功能的 AI 助手,鼓励小学生通过与它交流来分享学习心得和困惑,从而培养良好的学习反思习惯。 3. 运用一些具备学习数据统计分析功能的工具,帮助家长和老师了解小学生的学习行为模式,以便针对性地进行引导和纠正。 需要注意的是,在使用 AI 工具时,要确保其内容适合小学生的年龄和认知水平,同时也要关注使用时间,避免过度依赖。
2025-03-03
如何把ai作为培训技术手段,建立和制作港口企业管理人员、职能技术专业人员、技能人员以及理货、驾驶、起重人员培训课程
以下是为您提供的关于将 AI 作为培训技术手段建立和制作港口企业各类人员培训课程的一些建议: 首先,参考相关法律法规,如《2020 年国家人工智能倡议法案》,其中提到要为人工智能研究和发展提供持续、一致和协调的支持,包括通过拨款、合作协议、测试平台以及获取数据和计算资源等方式。 对于港口企业管理人员、职能技术专业人员、技能人员以及理货、驾驶、起重人员的培训课程制作,可以利用以下方法: 1. 支持开发自愿性的标准、最佳实践和基准,以确保培训课程的质量和有效性。 2. 为各级教育项目提供支持,在正式和非正式的学习环境中,让员工能够使用和与人工智能系统互动,并适应其对社会和经济的潜在变革性影响。 3. 支持跨学科的研究、教育和培训项目,促进学生和研究人员学习人工智能的方法和系统,培养跨学科的视角和合作,涵盖计算机科学、数学、统计学、工程、社会科学、心理学、行为科学、伦理学、安全、法律学术等相关领域的专家。 需要注意的是,在实际操作中,应根据港口企业的具体需求和人员特点,有针对性地设计和优化培训课程。
2025-02-28
我是一名港口行业国有企业职工培训专员,想结合当前AI技术应用,出一份既涵盖管理人员序列、职能人员序列,又包括技能操作序列职工的,可直接执行的年度培训计划文案,字数不超过1000字。
以下是为您提供的一份结合当前 AI 技术应用的港口行业国有企业职工年度培训计划文案,希望对您有所帮助: 一、培训目标 提升管理人员、职能人员和技能操作序列职工在 AI 技术应用方面的知识和技能,增强企业整体竞争力。 二、培训对象 管理人员序列、职能人员序列、技能操作序列职工。 三、培训内容 1. 管理人员序列 AI 技术在企业管理中的应用趋势与案例分析。 基于 AI 的决策支持系统的使用与解读。 2. 职能人员序列 AI 办公软件的应用技巧,如自动化流程处理。 利用 AI 进行数据分析与报告生成。 3. 技能操作序列职工 港口智能化设备中 AI 技术的原理与操作维护。 基于 AI 的安全监控系统的操作与应急处理。 四、培训方式 1. 线上课程:利用网络平台提供相关课程,方便职工自主学习。 2. 线下讲座:邀请专家进行现场讲解和互动交流。 3. 实践操作:在实际工作场景中进行模拟训练和实际操作。 五、培训时间安排 1. 每月安排一次线上课程。 2. 每季度组织一次线下讲座。 3. 不定期进行实践操作培训,根据实际工作需求灵活安排。 六、培训效果评估 通过考试、实际操作考核、项目成果评估等方式,检验职工的学习成果,并将其与绩效考核挂钩,激励职工积极参与培训。
2025-02-28
prompt 管理工具
以下是一些常见的 prompt 管理工具和相关网站: PromptPal: 开发指向: 特点: 专为 AI 领域中的初创公司和个人开发者设计。 作为集中化平台,便于在 AI 项目中管理提示,实现无缝协作和工作流程优化。 支持本地部署和云原生,架构轻量级。 简易设置,可通过 Docker 快速部署。 集成多种数据库解决方案。 提供 SDK 支持,简化不同语言的集成过程。 具备提示跟踪与分析功能。 提供协作工具。 ChainForge: 开发指向: 特点: 开源的可视化编程环境,用于测试大型语言模型的提示。 支持多模型测试,可同时查询多个 LLMs。 能进行响应质量比较,在不同提示、模型和设置之间比较。 可设置评估指标,可视化结果。 支持多对话管理,测试模板参数。 Promptknit: 网站: 文本类 Prompt 网站: LangChain Hub:提示词管理工具,LangChain 推出的提示词上传、浏览、拉取和管理的工具, 微软 Prompt Flow:微软发布的开源 LLM 开发工具集,简化基于 LLM 的人工智能应用程序的端到端开发周期, 未来力场:对 OpenAI 官方文档清晰解读, 其他 Prompt 相关网站: FlowGPT:国外最大的 prompt 站,内容全面,更新快, PromptPort(支持中文):AI Prompt 百科辞典,聚合市场上大部分优质的 prompt 词库, Learning Prompt:详尽的 Prompt 学习资源,包括 ChatGPT 和 MidJourney, ChatGPT Shortcut:提供众多 ChatGPT 提示词使用模板, ClickPrompt:轻松查看、分享和一键运行模型,创建 Prompt 并与他人分享, Prompt Extend:让 AI 帮你自动拓展 Prompt,
2025-02-25
作为外贸公司管理人员,ai能为我做什么?
作为外贸公司管理人员,AI 能为您带来多方面的帮助: 1. 客服工作优化:像客服人员一样,将日常回答的问题记录下来,利用 AI 减轻工作量,更快地回答客户关于产品的各种问题。 2. 辅助精读论文:能帮助翻译、拆解公式,分析代码等,例如使用工具 https://scispace.com 。 3. 撰写相关文案:包括产品宣传文案,根据产品宣传渠道写营销文案、营销邮件、产品上架文案等。 4. 调研问卷设计与整理:生成调研框架,回收非结构化问卷,按指定框架生成指定表头表格。 5. 竞品分析:用 BingChat 或 ChatGPT Browsering 插件,按指定框架对比各项数据,如 DAU、用户结构、市场占比等。 6. 解释专业名词:很多垂直领域的缩写或行业黑话,都可以用 ChatGPT 解释举例、给场景说明。 此外,在创业团队,尤其对于做海外产品的管理人员,AI 的价值可能会更大。同时,国际上对于 AI 监管也在不断推进,包括继续追求多利益相关方参与的方式,支持其他国家建立对 AI 技术的认识和能力,确保国际技术标准在监管生态系统中发挥作用,以促进跨境贸易等。
2025-02-21
物流公司信息系统管理员给同事讲解大模型入门级使用,帮忙推荐一些经验
以下是为物流公司信息系统管理员推荐的大模型入门经验: 一、什么是大模型 通俗来讲,大模型是通过输入大量语料,让计算机获得类似人类的“思考”能力,能够理解自然语言,并进行文本生成、推理问答、对话、文档摘要等工作。 可以用“上学参加工作”这件事来类比大模型的训练和使用过程: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练自己的大模型。 2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:即用合适的算法讲述“书本”中的内容,让大模型能够更好理解 Token 之间的关系。 4. 就业指导:为了让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,正式干活,比如进行翻译、问答等,在大模型里称之为推导(infer)。 在大模型中,Token 被视为模型处理和生成的文本单位,可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。Token 是原始文本数据与大模型可以使用的数字表示之间的桥梁。在将输入进行分词时,会对其进行数字化,形成一个词汇表。 二、数字化与 Embedding 数字化便于计算机处理,但为了让计算机理解 Token 之间的联系,还需要把 Token 表示成稠密矩阵向量,这个过程称之为 embedding。常见的算法有: 1. 基于统计: Word2Vec,通过上下文统计信息学习词向量。 GloVe,基于词共现统计信息学习词向量。 2. 基于深度网络: CNN,使用卷积网络获得图像或文本向量。 RNN/LSTM,利用序列模型获得文本向量。 3. 基于神经网络: BERT,基于 Transformer 和掩码语言建模(Masked LM)进行词向量预训练。 Doc2Vec,使用神经网络获得文本序列的向量。 以 Transform 为代表的大模型采用自注意力(Selfattention)机制来学习不同 token 之间的依赖关系,生成高质量 embedding。 大模型的“大”,指的是用于表达 token 之间关系的参数多,主要是指模型中的权重(weight)与偏置(bias),例如 GPT3 拥有 1750 亿参数,其中权重数量达到了这一量级,而词汇表 token 数只有 5 万左右。 参考:
2025-02-11