Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

DeepSeek-V2是谁开发的

Answer

DeepSeek-V2 是由 60 位专家混合开发的开源模型。它具有 2360 亿参数,其中 21B 在生成过程中被激活。在 MT-Bench 上表现优异,中文能力强且性价比高。详细介绍可参考:https://xiaohu.ai/p/7468

Content generated by AI large model, please carefully verify (powered by aily)

References

2024人工智能报告|一文迅速了解今年的AI界都发生了什么?

**中国开源项目在今年赢得全球粉丝,并且已经成为积极开源贡献者。**其中几个模型在个别子领域中脱颖而出,成为强有力的竞争者。DeepSeek在编码任务中已成为社区的最爱,其组合了速度、轻便性和准确性而推出的deepseek-coder-v2。阿里巴巴最近发布了Qwen-2系列,社区对其视觉能力印象深刻,从具有挑战性的OCR任务到分析复杂的艺术作品,都完成的非常好。在较小的一端,清华大学的自然语言处理实验室资助了OpenBMB项目,该项目催生了MiniCPM项目。这些是可以在设备上运行的小型<2.5B参数模型。它们的2.8B视觉模型在某些指标上仅略低于GPT-4V。2024年是AI图像视频迅速发展的一年,这个赛道竞争异常激烈国外Stability AI发布的Stable Video Diffusion,是第一个能够从文本提示生成高质量、真实视频的模型之一,并且在定制化方面取得了显著的进步。并且在今年3月,他们推出了Stable Video 3D,该模型经过第三个对象数据集的微调,可以预测三维轨道。OpenAI的Sora能够生成长达一分钟的视频,同时保持三维一致性、物体持久性和高分辨率。它使用时空补丁,类似于在变压器模型中使用的令牌,但用于视觉内容,以高效地从大量视频数据集中学习。除此之外,Sora还使用了其原始大小和纵横比的视觉数据进行训练,从而消除了通常会降低质量的裁剪和缩放。Google DeepMind的Veo将文本和可选图像提示与嘈杂压缩视频输入相结合,通过编码器和潜在扩散模型处理它们,以创建独特的压缩视频表示。然后系统将此表示解码为最终的高分辨率视频。

XiaoHu.AI日报

-提供4K分辨率的人类自由视角视频。-利用该技术将虚拟角色放入场景,实现沉浸式互动。🔗项目地址:http://vcai.mpi-inf.mpg.de/projects/holochar/🔗详细介绍:https://xiaohu.ai/p/74845️⃣🌌DeepSeek发布2360亿参数的DeepSeek-V2:-60位专家混合开源模型,数学、编码和推理表现出色。-236B参数,21B在生成过程中被激活。-在MT-Bench上表现优异,中文能力强且性价比高。🔗详细介绍:https://xiaohu.ai/p/74686️⃣🔍Google Gemini网络安全产品:-检测并防御网络钓鱼攻击。-结合广泛的用户和网络监控发现威胁。-利用AI分析功能生成情报报告。🔗详细:https://xiaohu.ai/p/74607️⃣🚗Wayve获超10亿美元C轮融资:-开发“驾驶GPT”基础模型,实现具身体智能自动驾驶。-使车辆在各种环境中操作,几乎无需人为干预。-使车辆与人类互动、学习并理解人类行为。🔗详细内容:https://xiaohu.ai/p/74538️⃣🩺CURE模型预测治疗结果:-利用300万患者数据进行预训练并针对特定健康状况微调。

XiaoHu.AI日报

-提供4K分辨率的人类自由视角视频。-利用该技术将虚拟角色放入场景,实现沉浸式互动。🔗项目地址:http://vcai.mpi-inf.mpg.de/projects/holochar/🔗详细介绍:https://xiaohu.ai/p/74845️⃣🌌DeepSeek发布2360亿参数的DeepSeek-V2:-60位专家混合开源模型,数学、编码和推理表现出色。-236B参数,21B在生成过程中被激活。-在MT-Bench上表现优异,中文能力强且性价比高。🔗详细介绍:https://xiaohu.ai/p/74686️⃣🔍Google Gemini网络安全产品:-检测并防御网络钓鱼攻击。-结合广泛的用户和网络监控发现威胁。-利用AI分析功能生成情报报告。🔗详细:https://xiaohu.ai/p/74607️⃣🚗Wayve获超10亿美元C轮融资:-开发“驾驶GPT”基础模型,实现具身体智能自动驾驶。-使车辆在各种环境中操作,几乎无需人为干预。-使车辆与人类互动、学习并理解人类行为。🔗详细内容:https://xiaohu.ai/p/74538️⃣🩺CURE模型预测治疗结果:-利用300万患者数据进行预训练并针对特定健康状况微调。

Others are asking
请介绍一下deepseek
DeepSeek 是一家低调但引人关注的大模型公司。其发布了 2360 亿参数的 DeepSeekV2 模型,该模型具有以下特点: 由 60 位专家参与的混合开源模型。 在数学、编码和推理方面表现出色。 拥有 236B 参数,其中 21B 在生成过程中被激活。 在 MTBench 上表现优异,中文能力强且性价比高。 关于 DeepSeek 的详细介绍,您可以通过以下链接获取更多信息:https://xiaohu.ai/p/7468 。此外,还有一篇文章《》对其进行了深入报道。
2025-01-04
搜索所有deepseek相关资料
以下是关于 DeepSeek 的相关资料: DeepSeek 网址:https://www.deepseek.com/zh 。它很方便,国内能访问,网页登录方便,目前完全免费。新手推荐使用,您只需要获得游戏代码即可。点击开始对话,左边选择代码助手,直接向其许愿。 5 月 7 日的 XiaoHu.AI 日报中提到,DeepSeek 发布 2360 亿参数的 DeepSeekV2,它是 60 位专家混合开源模型,数学、编码和推理表现出色,有 236B 参数,21B 在生成过程中被激活,在 MTBench 上表现优异,中文能力强且性价比高。详细介绍:https://xiaohu.ai/p/7468
2024-12-31
deepseek相关的信息
DeepSeek 相关信息如下: DeepSeek 开源了 ,在 LMSYS Chatbot Arena 排行榜上总排名 11,超过了所有开源模型。 DeepSeek v3 预览版发布,参数量为 685B,磁盘占用 687.9 GB,采用混合专家模型(MoE),有 256 个专家,每个 token 使用 8 个专家。其理解能力提升,知识更新至 2023 年,支持多语言和个性化服务,加强了数据安全和隐私保护,在 BigCodeBenchHard 排名第一。Aider Polyglot 排行榜预览得分 48.4%,排名第二。可通过在线体验。 对于新手,DeepSeek 很方便,国内能访问,网页登录便捷,目前完全免费。网址:https://www.deepseek.com/zh 。在生成 2048 游戏上表现简便准确。
2024-12-29
我想问Deepseek是一个什么AI大模型?能够解决什么问题
DeepSeek 是一家低调但引人关注的大模型公司。他们发布了价格具有颠覆性的源模型 DeepSeek V2,引发了中国大模型之战。创始人梁文锋是技术理想主义者,坚持只做研究探索,希望将中国公司带入全技术创新的浪潮中。 此外,DeepSeek 还发布了开源模型 DeepSeekV3,具备 671B 参数,性能接近顶尖闭源模型 Claude 3.5Sonnet。相比前代,DeepSeekV3 在知识、长文本和数学任务上均有显著提升,生成速度提升至每秒 60 个令牌,API 服务定价调整为每百万输入 tokens 0.5 元,优惠期内维持 0.1 元。模型支持 FP8 训练并已开源权重,旨在缩小开源与闭源模型之间的能力差距,未来将继续扩展功能。 但关于 DeepSeek 能够具体解决哪些问题,目前提供的信息中未明确提及。
2024-12-28
怎么使用Deepseek
DeepSeek 是一款方便实用的工具,以下是关于它的一些使用信息: 1. 网址:https://www.deepseek.com/zh 。国内能访问,网页登录方便,目前完全免费。 2. 使用方法: 点击开始对话,左边选择代码助手。 直接向其表达需求,例如:“我想做个 2048 游戏,请用上 pygame 库”。 3. 代码运行: 获得的游戏代码可以在 Pycharm 中运行。 新建一个文件夹保存代码文件,如在 E 盘新建“python”文件夹。 打开 Pycharm,新建项目并安排好路径。 在路径文件夹里新建放代码文件的文件夹,如“game”。 在新建的文件夹中新建 python 文件或新建文件并添加.py 后缀。 双击新建的文件,将代码复制到右侧文本框。 若运行代码出现红字报错,可能需要安装 pygame 库。点击左下角红色方框,将 DeepSeek 提示的 pip 代码复制粘贴到弹出的界面,回车安装到虚拟环境,再点击“运行”即可。 此外,AIGC Weekly88 中提到 DeepSeek 发布了 DeepSeekV2.5,将基础语言模型和代码模型混合,探索封闭域带来的推理能力提升能否扩展到开放域的基础模型。
2024-12-28
deepseek支持function calling,在dify的agent的prompt里要如何写才能调用工具。我说的是如何写提示词,才能让deepseek通过Function Calling调用工具。
要在 Dify 的 agent 的 prompt 里让 DeepSeek 通过 Function Calling 调用工具,您可以参考以下内容: 1. 提示词工程主要由提示词注入和工具结果回传两部分代码组成。 提示词注入:将工具信息及使用工具的提示词添加到系统提示中。INSTRUCTION 包含 TOOL_EAXMPLE、tools_instructions、REUTRN_FORMAT 三个部分。TOOL_EAXMPLE 用于提示 LLM 如何理解和使用工具,编写时注意用无关紧要的工具作示例避免混淆。tools_instructions 是将通用工具字典转换成 LLM 可读的工具列表,可动态调整。REUTRN_FORMAT 定义调用 API 的格式。 工具结果回传:利用正则表达式抓取输出中的“tool”和“parameters”参数。对于 interpreter 工具,使用另一种正则表达式提取 LLM 输出的代码。通过识别 LLM 返回的调用工具的字典,提取对应值传入工具函数,将结果以 observation 角色返回给 LLM,对于不接受该角色的 LLM 接口,可改为回传给 user 角色。 2. 当模型判断需要调用工具函数时,检测到返回的 json 里 function_call 字段不为空,则执行异步函数调用,采用回调方式获取函数返回结果。通过判断返回的 functionCall 的名称执行不同函数并返回结果。 3. 在大模型请求中,最大的两个变量是 Messages 和 Tools。Messages 里放 sys prompt、memory、user query;Tools 里放能力的 Json Scheme,两者组合形成整个完全的 Prompt。Agent 应用开发的本质是动态 Prompt 拼接,通过工程化手段将业务需求转述成新的 prompt。短期记忆在 messages 里的历史 QA 对,长期记忆是 summary 之后的文本再塞回 system prompt。RAG 是向量相似性检索,可放在 system prompt 里或通过 tools 触发检索。Action 是触发 tool_calls 标记进入请求循环,拿模型生成的请求参数进行 API request,再把结果返回给大模型交互,没有 tool_calls 标记则循环结束。Multi Agents 是更换 system prompt 和 tools。
2024-10-24
Java 程序员如何从 0 到 1 开发微调模型
以下是 Java 程序员从 0 到 1 开发微调模型的步骤和相关信息: 准备工作: 假设您已经按照相关说明准备了训练数据。 使用 OpenAI CLI 进行微调: 1. 明确从哪里 BASE_MODEL 开始的基本模型的名称(如 ada、babbage、curie 或 davinci),您可以使用后缀参数自定义微调模型的名称。 2. 运行相关命令,该命令会执行以下操作: 使用文件 API 上传文件(或使用已经上传的文件)。 创建微调作业。 流式传输事件直到作业完成(这通常需要几分钟,但如果队列中有很多作业或您的数据集很大,则可能需要数小时)。 关于基本模型: 每个微调工作都从一个默认为 curie 的基本模型开始。模型的选择会影响模型的性能和运行微调模型的成本。您的模型可以是 ada、babbage、curie 或 davinci。请访问定价页面了解有关微调费率的详细信息。 微调作业的时间: 开始微调作业后,可能需要一些时间才能完成。在系统中,您的工作可能排在其他工作之后,训练模型可能需要几分钟或几小时,具体取决于模型和数据集的大小。如果事件流因任何原因中断,您可以通过运行特定命令恢复它。工作完成后,它应该显示微调模型的名称。 微调的优势: 1. 比即时设计更高质量的结果。 2. 能够训练比提示中更多的例子。 3. 由于更短的提示而节省了 Token。 4. 更低的延迟请求。 微调的步骤: 1. 准备和上传训练数据。 2. 训练新的微调模型。 3. 使用您的微调模型。 可微调的模型: 微调目前仅适用于以下基础模型:davinci、curie、babbage 和 ada。这些是原始模型,在训练后没有任何说明(例如 textdavinci003)。您还可以继续微调微调模型以添加其他数据,而无需从头开始。 安装建议: 建议使用 OpenAI 命令行界面。要安装这个,运行相关指令(以下说明适用于 0.9.4 及更高版本。此外,OpenAI CLI 需要 python 3)。通过将相关行添加到您的 shell 初始化脚本(例如.bashrc、zshrc 等)或在微调命令之前的命令行中运行它来设置您的环境变量。 此外,还有“大圣:全网最适合小白的 Llama3 部署和微调教程”,其核心代码全部参考如下开源项目: 。该教程有诸多亮点,如教您如何购买算力,手把手教您下载并部署 Llama3 模型,使用甄嬛数据集微调 Llama3 模型等,但不会讲解微调的技术性原理以及文中会用到的 Python 代码,且需要您充值 50 块钱购买算力的预充值。
2025-01-04
如何使用cursor开展编程开发
以下是关于如何使用 Cursor 开展编程开发的详细指导: 技术架构: 采用前后端分离架构。 后端基于 Coze 工作流构建业务逻辑。 前端为 Chrome 浏览器插件,提供轻量级交互界面。 工作流搭建: 核心组件配置:包括插件大模型、工作流总览、大模型节点提示词、输出节点 markdown 排版(注意 markdown 里图片的渲染格式),注意输出图片的变量用的是 contentUrl。 可视化界面、chrome 插件开发: 最重要的是架构思维,要懂得如何向 AI 描述想要的东西。 获取授权令牌(Token),掌握工作流调用方法。 查看 coze 的 api 开发文档,查看执行工作流的实例,需要两个关键参数:令牌密钥和工作流开发代码。 在这里获取工作流的开发文档、个人令牌和工作流 id。 让 cursor 根据相关内容写一个调用 coze 工作流的服务,可以用 python 测试,也可写成 chrome 插件。 注意声明入参为 article_url,让 cursor 注意中文编码,不然会报错。 Cursor 实践: 下载和安装:打开 Cursor 的官网,点击 download 进行下载和安装,不用魔法上网也可访问。 实现简单需求:安装后打开,可通过 commd+L 调起 AI 对话,输入需求或想实现的效果。 整体页面左侧是代码文件、右侧是提示对话框。可提前创建文件,点击对话框代码块旁的“Apply”“Accept”将代码保存在左侧文件里。 最右侧图可查看功能是否成功,还可在此基础上继续修改,如希望拖动、颜色更美观、显示分钟等,在对话框表达需求,点击“Apply”→“Accept”、保存文件、验证测试。 Tips 小结: 在对话框里不断追问,完善需求。 对话时可@本地代码文件进行问答,得到更精准答案。 可本地存需求说明文档,让其随时查阅。 遇到报错或不理解的地方,截图或复制在对话框询问,要求对细节操作解答,直到验证成功。 不要恐惧代码,从简单小需求练手,使用熟悉后配合会更顺畅。 Cursor 官方介绍: Cursor 旨在让您极其高效,是使用 AI 进行编码的最佳方式。 从您的代码库中获得最佳答案,或参考特定文件或文档,一键使用模型中的代码。 Cursor 通过预测您的下一个编辑,让您轻松完成更改。
2025-01-02
怎么开发自己的Ai
开发自己的 AI 可以参考以下步骤: 一、用 Coze 免费打造自己的微信 AI 机器人 1. 确定功能范围 支持用户发送“关键字”,自助获取分享的“AI 相关资料链接”。 能回答 AI 相关知识,优先以“自己的知识库”中的内容进行回答,若知识库信息不足则调用 AI 大模型回复,并在答案末尾加上“更多 AI 相关信息,请链接作者:jinxia1859”。 能发布在微信公众号上,作为“微信客服助手”。 2. 准备相关内容 根据 Bot 的目的、核心能力,编写 prompt 提示词。 整理“关键字”与“AI 相关资料链接”的对应关系,可用 word、txt、excel 整理。 创建自己的【知识库】,用于回答 AI 相关知识。 创建【工作流】,控制 AI 按照要求处理信息。 准备好自己的微信公众号,以便发布机器人。 3. 设计“AI 前线”Bot 详细步骤 先展示“AI 前线”Bot 的【最终效果】界面。 二、超越贪吃蛇——技术纯小白开发应用 1. 基础小任务 让 AI 按照 best practice 写一个 say hello 的示例程序,并解释每个文件的作用及程序运行的逻辑,学会必备的调试技能。 对于特定需求,如学习写 chrome 插件,可要求 AI 选择适合小白上手的技术栈生成简单示范项目,包含典型文件和功能,并讲解每个文件的作用和程序运行的逻辑。若使用 o1mini,可在 prompt 最后添加“请生成 create.sh 脚本,运行脚本就能直接创建插件所需要的所有文件。请教我如何运行脚本。”(windows 机器则是 create.cmd) 2. 明确项目需求 通过和 AI 的对话,逐步明确项目需求。 让 AI 像高级别的懂技术的产品经理一样提问,帮助梳理产品功能,尤其注意涉及技术方案选择的关键点。梳理出产品需求文档,方便后续开发。
2025-01-02
利用coze开发语音对话聊天的机器人
以下是利用 Coze 开发语音对话聊天机器人的步骤: 1. 创建 AI Bot:首先打开 Coze 的首页,直接点击左上角的创建 AI Bot 按钮,然后在弹窗输入 Bot 的相关信息,即可完成创建,接下来细化其功能。 2. 设计人设与回复逻辑:根据 AI Bot 的功能需求设计提示词。 3. 调整模型设置:基于功能需求,以聊天为主,将对话轮数记录改为 20 轮,避免训练口语考试时忘记上下文。 4. 选择插件:主要使用了英文名言警句插件,用于识别图片中的文字并返回结果,以读取用户上传图片或文件的文字并处理。 5. 设置开场白和预置问题:预置问题有参考价值,符合学习需求者可能会问的相关问题。 6. 设置语音:因为是英语陪练 AI Bot,所以选择亲切的英语音色,而非中文音色。 Coze 是由字节跳动推出的 AI 聊天机器人和应用程序编辑开发平台,具有以下特点: 1. 多语言模型支持:使用 GPT48K 和 GPT4128K 等大型语言模型,并提供云雀语言模型,支持不同场景的对话交互。 2. 插件系统:集成超过 60 款插件,涵盖资讯阅读、旅游出行、效率办公、图片理解等功能,支持用户创建自定义插件扩展 Bot 能力。 3. 知识库功能:允许用户上传和管理数据,支持 Bot 与用户数据交互,可上传多种格式文档或基于 URL 获取在线内容和 API JSON 数据。 4. 数据库和记忆能力:提供数据库功能,允许 Bot 访问会话内存和上下文,持久记住用户对话中的重要参数或内容。 5. 工作流设计:通过拖拉拽方式搭建工作流,处理复杂任务流,提供大量灵活可组合的节点。 6. 多代理模式:一个机器人中可运行多个任务,添加多个代理,每个代理能独立执行特定任务。 7. 免费使用:对用户完全免费。 8. 易于发布和分享:可将搭建的 Bot 发布到各类社交平台和通讯软件上。
2024-12-29
开发应用的提示词
以下是关于开发应用的提示词相关内容: 软件工程师方面: 解释代码:向我解释此代码{要解释的代码}、请解释这段代码{代码段}。 调试代码,找 Bug:这个{编程语言}代码有什么问题 代码:{待调试代码}、这段代码有什么问题{代码段}。 生成单元测试:生成单元测试代码 请输入你要{要使用的语言和框架},再输入{代码段}、请为以下代码片段创建一组单元测试以进行彻底测试 它的功能。首先,概述你计划创建的测试用例。其次,使用{要使用的语言和框架}和下面提供的代码片段来实现测试用例。 创建样本代码库:为{描述功能所需的应用程序创建样板代码库}。请使用{指定的编程语言和框架}。 向代码添加注释:请输入你要添加注释的{代码段}、请查看以下代码片段并为每一行代码提供注释,解释其目的和功能。检查完代码后,请重新生成带有添加注释的代码段。 比较两段代码:请输入你要比较的两个{代码段 1}、{代码段 2},最好{描述你在建构的内容和目的}、我正在开发一个{描述你正在构建的}并且想评估和 将{第一个比较项}与{第二个比较项}进行比较。请提出基本{您正在构建的内容}的要求,并创建两个满足这些要求的代码库一个使用{第一个比较项},另一个使用{第二个比较项}。请提供在我的本地计算机上运行这两个应用程序的明确说明。 生成正则表达式:请创建一个正则表达式匹配{你想匹配的模式}。 解决 Leetcode 问题:请用{所需语言}编写代码来解决以下挑战:{待解决挑战的概述}。 查找边缘情况:请帮我找下以下代码的边缘情况:{代码段}、我想让你充当软件开发人员。请帮我抓住这个功能的边缘情况{插入功能函数}。 Claude 官方提示词(中文版):涵盖工作和娱乐各个方面,共 63 组。例如生成一个单 HTML 文件的互动打字游戏,宇宙打字,侧滚玩法,Tailwind CSS 风格。Prompt 为编写一个完整的网络应用程序作为单个 HTML 文件,该应用程序应包含一个简单的横向滚动游戏,使用 WASD 来移动。在移动世界时,偶尔角色/精灵会遇到单词,当遇到单词时,玩家必须尽快正确输入该单词,输入单词越快,玩家获得的分数就越高,应在右上角有一个计数器来跟踪分数,单词应该是随机和高度可变的,以保持游戏有趣,应使网站非常美观,并使用 Tailwind。链接:https://mp.weixin.qq.com/s/rdKcT76ayfVH9wkfLVaJQ
2024-12-29
以下是大致可以采用的步骤来实现这样一个能自动在大语言模型网站生成不同场景机器人图片的程序(以下以Python语言示例,不过不同平台具体实现会有差异且需遵循对应网站的使用规则和接口规范): ### 1. 选择合适的大语言模型网站及确认其API(应用程序编程接口)情况 不同大语言模型网站对于图片生成通常会提供相应的API来允许外部程序与之交互,比如部分知名的AI绘画相关平台。你需要先确定要使用哪些网站,然后去注册开发者账号等,获取对应的API Key以及详细的API文档,了解如何通过代码向其发起图
以下是为您整合的相关内容: Ollama 框架: 1. 支持多种大型语言模型,如通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 2. 易于使用,适用于 macOS、Windows 和 Linux 系统,支持 cpu 和 gpu,用户能轻松在本地环境启动和运行大模型。 3. 提供模型库,用户可从中下载不同模型,这些模型有不同参数和大小以满足不同需求和硬件条件,可通过 https://ollama.com/library 查找。 4. 支持用户自定义模型,例如修改模型的温度参数来调整创造性和连贯性,或者设置特定的系统消息。 5. 提供 REST API 用于运行和管理模型,以及与其他应用程序的集成选项。 6. 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 7. 安装:访问 https://ollama.com/download/ 进行下载安装。安装完后,确保 ollama 后台服务已启动(在 mac 上启动 ollama 应用程序,在 linux 上通过 ollama serve 启动),可通过 ollama list 确认。 基于 COW 框架的 ChatBot 实现步骤: 1. COW 是基于大模型搭建的 Chat 机器人框架,将多模型塞进自己的微信里实现方案。 2. 基于张梦飞同学的教程: 。 3. 实现内容: 打造属于自己的 ChatBot(文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等)。 常用开源插件的安装应用。 4. 正式开始前需知: ChatBot 相较于在各大模型网页端使用区别:本实现思路需要接入大模型 API 的方式实现(API 单独付费)。 风险与注意事项: 微信端因非常规使用,有封号危险,不建议主力微信号接入。 只探讨操作步骤,请依法合规使用。 大模型生成的内容注意甄别,确保所有操作均符合相关法律法规要求。 禁止用于任何非法目的。 处理敏感或个人隐私数据时注意脱敏,以防滥用或泄露。 5. 多平台接入:微信、企业微信、公众号、飞书、钉钉等。 6. 多模型选择:GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等。 7. 多消息类型支持:能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能。 8. 多部署方法:本地运行、服务器运行、Docker 的方式。
2024-12-29