Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

大模型如何接入企业数据库

Answer

大模型接入企业数据库的相关内容如下:

原理介绍: 从文档处理角度来看,实现流程包括配置要求。

配置要求

  • ChatGLM-6B 模型硬件需求:
    • 模型文件下载至本地需要 15GB 存储空间。
    • 量化等级不同,最低 GPU 显存(推理)和最低 GPU 显存(高效参数微调)要求不同:
      • FP16(无量化):分别为 13GB 和 14GB。
      • INT8:分别为 8GB 和 9GB。
      • INT4:分别为 6GB 和 7GB。
  • MOSS 模型硬件需求:
    • 模型文件下载至本地需要 70GB 存储空间。
    • 量化等级不同,最低 GPU 显存(推理)和最低 GPU 显存(高效参数微调)要求不同:
      • FP16(无量化):分别为 68GB 和 - 。
      • INT8:分别为 20GB 和 - 。
  • Embedding 模型硬件需求:默认选用的 Embedding 模型GanymedeNil/text2vec-large-chinese约占用显存 3GB,也可修改为在 CPU 中运行。

项目启动

  • Web 启动:运行 web.py,若显存不足则调整 configs/model_config.py 文件中 LLM_MODEL 参数更换模型,若连接无法连接修改 web.py 文件末尾 lauch 中 0.0.0.0 为 127.0.0.1,点击 URL 进入 UI 界面。
  • API 模式启动。
  • 命令行模式启动。

上传知识库: 左侧知识库问答中选择新建知识库,可传输 txt、pdf 等。可以调整 prompt,匹配不同的知识库,让 LLM 扮演不同的角色。例如上传公司财报,充当财务分析师;上传客服聊天记录,充当智能客服;上传经典 Case,充当律师助手;上传医院百科全书,充当在线问诊医生等等,MOSS 同理。

使用数据表: 通过在工作流中添加数据库节点对数据表进行操作。在工作流中可通过 NL2SQL 方式和代码方式进行调用,支持完整读写模式。参考以下操作,在工作流中添加并配置工作流节点。在工作流中配置数据库节点前,确保已经搭建了一个 Bot,并在这个 Bot 中创建好了数据表。

  1. 单击页面顶部的工作流页签,然后单击创建工作流。
  2. 输入工作流名称和工作流的使用描述,然后单击确认。工作流名称和描述可以帮助大语言模型理解什么场景下需要调用该工作流。
  3. 在基础节点页签下,将数据库节点拖入到工作流配置画布区域。
  4. 根据以下信息配置数据库节点。
  • 输入:添加 SQL 执行中需要的参数,可以是一个变量,也可以是一个固定值。
  • SQL:输入要执行的 SQL 语句,可以直接使用输入参数中的变量。可单击自动生成使用大模型生成 SQL。在弹出的页面中,选择这个数据库工作流生效的 Bot 和数据表,然后使用自然语言描述要执行的操作,单击自动生成生成 SQL 语句,最后单击使用。 注意:不支持 Select*语法,不支持多表 Join 操作,最多返回 100 行数据。
Content generated by AI large model, please carefully verify (powered by aily)

References

开发:GLM等大模型外接数据库

从文档处理角度来看,实现流程如下:[heading1]配置要求[content]ChatGLM-6B模型硬件需求注:模型文件下载至本地需要15 GB存储空间。|量化等级|最低GPU显存(推理)|最低GPU显存(高效参数微调)|<br>|-|-|-|<br>|FP16(无量化)|13 GB|14 GB|<br>|INT8|8 GB|9 GB|<br>|INT4|6 GB|7 GB|MOSS模型硬件需求注:模型文件下载至本地需要70 GB存储空间|量化等级|最低GPU显存(推理)|最低GPU显存(高效参数微调)|<br>|-|-|-|<br>|FP16(无量化)|68 GB|-|<br>|INT8|20 GB|-|Embedding模型硬件需求默认选用的Embedding模型[GanymedeNil/text2vec-large-chinese](https://huggingface.co/GanymedeNil/text2vec-large-chinese/tree/main)约占用显存3GB,也可修改为在CPU中运行。

开发:GLM等大模型外接数据库

运行web.py若显存不足则调整configs/model_config.py文件中LLM_MODEL参数更换模型若连接无法连接修改web.py文件末尾lauch中0.0.0.0为127.0.0.1点击URL进入UI界面[heading2]API模式启动[heading2]命令行模式启动[heading1]上传知识库[content]左侧知识库问答中选择新建知识库,可传输txt pdf等可以调整prompt,匹配不同的知识库,让LLM扮演不同的角色上传公司财报,充当[财务分析师](https://www.zhihu.com/search?q=%E8%B4%A2%E5%8A%A1%E5%88%86%E6%9E%90%E5%B8%88&search_source=Entity&hybrid_search_source=Entity&hybrid_search_extra=%7B%22sourceType%22%3A%22answer%22%2C%22sourceId%22%3A3030429770%7D)上传客服聊天记录,充当智能客服上传经典Case,充当律师助手上传医院[百科全书](https://www.zhihu.com/search?q=%E7%99%BE%E7%A7%91%E5%85%A8%E4%B9%A6&search_source=Entity&hybrid_search_source=Entity&hybrid_search_extra=%7B%22sourceType%22%3A%22answer%22%2C%22sourceId%22%3A3030429770%7D),充当在线问诊医生等等MOSS同理

数据库

[title]数据库[heading1]使用数据表[heading2]通过工作流数据库节点操作数据表通过在工作流中添加数据库节点对数据表进行操作。在工作流中可通过NL2SQL方式和代码方式进行调用,支持完整读写模式。下图是工作流中数据库节点配置示例。当发布工作流后,在用户与Bot对话时,大语言模型会根据需要调用工作流,按照工作流中数据库节点中配置的SQL来执行数据表操作。参考以下操作,在工作流中添加并配置工作流节点。在工作流中配置数据库节点前,确保你已经搭建了一个Bot,并在这个Bot中创建好了数据表。1.单击页面顶部的工作流页签,然后单击创建工作流。2.输入工作流名称和工作流的使用描述,然后单击确认。工作流名称和描述可以帮助大语言模型理解什么场景下需要调用该工作流。1.在基础节点页签下,将数据库节点拖入到工作流配置画布区域。2.根据以下信息配置数据库节点。2.1.输入:添加SQL执行中需要的参数,可以是一个变量,也可以是一个固定值。2.2.SQL:输入要执行的SQL语句,可以直接使用输入参数中的变量。可单击自动生成使用大模型生成SQL。在弹出的页面中,选择这个数据库工作流生效的Bot和数据表,然后使用自然语言描述要执行的操作,单击自动生成生成SQL语句,最后单击使用。不支持Select*语法。不支持多表Join操作。最多返回100行数据。

Others are asking
目前我有个数据源头,可能是excle或mysql数据库。他们都含义以下字段: 发货日期 物料编号 物料描述 板块 实际已交货量 销售单位 金额(RMB) 金额(不含税RMB) 国家 品牌; 我需要创建一个智能体助手,用于分析这些数据,这个智能通助手需要能按用户需要,分析各个维度的数据,并按板块等维度汇总,并转为柱状图图表表现出现,并表现用户所有日期的近一周的变化,并阐明变化或波动是由哪些数据导致的? 结合以上需求,我需要在飞书上构建一个企业每日利润表分析与汇报助手,该选定哪种prompt框架
很抱歉,目前飞书知识库中没有关于您所描述的这种特定需求下应选定哪种 prompt 框架的相关内容。但一般来说,构建这样的企业每日利润表分析与汇报助手的 prompt 框架可以考虑以下几个方面: 1. 明确数据来源和格式:清晰描述数据来自 Excel 或 MySQL 数据库,以及包含的具体字段。 2. 定义分析维度和指标:如按板块、国家等维度汇总数据,关注利润相关的指标。 3. 设定时间范围:明确分析近一周的数据变化。 4. 描述图表要求:指定以柱状图展示数据。 5. 解释变化原因:阐明导致数据变化或波动的关键因素。 您可以根据实际情况进一步细化和完善这个框架。
2025-02-15
目前我有个数据源头,可能是excle或mysql数据库。他们都含义以下字段: 发货日期 物料编号 物料描述 板块 实际已交货量 销售单位 金额(RMB) 金额(不含税RMB) 国家 品牌; 我需要创建一个智能体助手,用于分析这些数据,这个智能通助手需要能按用户需要,分析各个维度的数据,并按板块等维度汇总,并转为柱状图图表表现出现,并表现用户所有日期的近一周的变化,并阐明变化或波动是由哪些数据导致的?
要创建这样一个智能体助手来分析您提供的数据,以下是一些建议的步骤: 1. 数据获取与预处理: 从 Excel 或 MySQL 数据库中读取数据。 对数据进行清洗和预处理,例如处理缺失值、异常值等。 2. 数据分析与计算: 按照用户需求的维度(如板块、国家、品牌等)对数据进行分组和汇总计算。 计算近一周的数据变化情况。 3. 图表生成: 使用合适的图表库(如 matplotlib、Seaborn 等)将汇总后的数据以柱状图的形式展示。 4. 变化原因分析: 通过比较不同维度的数据,找出导致变化或波动的关键因素。 在技术实现方面,您可以使用 Python 编程语言来完成上述任务。例如,使用 Pandas 库进行数据处理和分析,使用 Matplotlib 库生成图表。希望这些建议对您有所帮助,如果您在实现过程中遇到具体的技术问题,欢迎随时向我咨询。
2025-02-15
如何基于你的模型对一台工业设备(钢板划线印字装备)进行故障诊断和预测性维护,从以下几个方面进行分析 1.技术栈:数据采集与通讯,数据库,算法,前端,微服务、应用等,并进行软件选型 2.硬件选型:工业设备、边缘计算设备,软件部署硬件,分别列出性能最优和国产化替代方案 3.算法创新性:要求可发表高水平论文和申请发明专利 4.算法通用性:考虑如何通过一个通用模型经过简单配置适应不同船舶建造工业设备的故障诊断和预测性维护 5.考虑前后合理性,若以此进行招标,如何描述招标内容
以下是为您整合的相关内容: Transformer 模型和 BERT 模型: 模型训练与评估:定义模型后,传递训练数据集和验证数据集及训练时期数,训练完成后评估性能,如达到 85%准确率。 模型性能可视化:绘制准确性和随时间的损失图。 保存与加载模型:使用 model.save 方法导出并保存模型到本地路径,保存后可加载进行预测。 预测示例:对不同情感的评论句子进行预测。 部署模型到 Vertex AI:检查模型签名,上传本地保存的模型到 Google Cloud 存储桶,在 Vertex 上部署模型并获得在线预测。 提示工程: 策略:将复杂任务分解为更简单的子任务。 技巧:使用意图分类识别用户查询中最相关的指令。例如在故障排除场景中,根据客户查询分类提供具体指令,如检查路由器连接线、询问路由器型号、根据型号提供重启建议等。模型会在对话状态变化时输出特定字符串,使系统成为状态机,更好控制用户体验。 OpenAI 官方指南: 战术:将复杂任务拆分为更简单的子任务。 策略:使用意图分类来识别与用户查询最相关的指令。例如在故障排除场景中,基于客户查询分类向 GPT 模型提供具体指令。已指示模型在对话状态变化时输出特殊字符串,将系统变成状态机,通过跟踪状态等为用户体验设置护栏。
2025-02-12
向量数据库和矢量数据库的区别
向量数据库和传统数据库(可视为您所提到的“矢量数据库”)主要有以下区别: 1. 查找方式: 传统数据库需要精确的关键词或类别进行查找,如同在普通图书馆中需知道书的具体位置或分类。 向量数据库可以通过自然语言描述所需内容,系统能理解意图并找到最相关的内容。 2. 组织方式: 传统数据库中信息被严格分类和组织,类似图书馆里的书架和编号系统。 向量数据库中信息根据内在特征和相似性自然聚集,如同魔法图书馆里书籍自动根据内容相似性浮动聚集。 3. 灵活性: 传统数据库若要更换组织方式,可能需重新安排整个架构。 向量数据库中,新加入的数据会自动找到合适位置,无需重新组织整个系统。 4. 发现新内容: 传统数据库较难偶然发现相关但之前未知的内容。 向量数据库在搜索时可能发现许多相关但之前不知道的内容,因其理解内容本质而非仅依赖标签。 此外,向量数据库以多维向量形式保存信息,代表某些特征或质量,能根据数据的向量接近度或相似度快速、精确地定位和检索数据,从而实现根据语义或上下文相关性进行搜索。而传统数据库通常以表格形式存储简单数据,搜索依赖精确匹配或设定标准。 为了在人工智能和机器学习应用中利用非结构化数据(如文本、图像和音频等),需要使用嵌入技术将其转换为数字表示,嵌入过程通常通过特殊神经网络实现,使计算机能更有效地辨别数据中的模式和关系。
2025-01-10
coze工作流中数据库如何应用?主要是返回数据
在 Coze 工作流中,数据库的应用如下: 工作流由多个节点构成,节点是基本单元。Coze 平台支持的节点类型包括数据库节点。 数据库节点的输入:用户可以定义多个输入参数。 数据库节点的输出:如果数据库是查询作用,则输出会包含查询出来的内容。通过 SQL 语句告诉数据库要执行的动作,这里的 SQL 语句可以让 AI 自动生成并进行适当改动。 注意事项:Coze 平台的逻辑是数据库与 bot 绑定,使用数据库功能时,需要在 bot 中设置相同名称和数据结构的数据库进行绑定。 测试工作流:编辑完成的工作流无法直接提交,需要进行测试。点击右上角的“test run”,设定测试参数,查看测试结果,完成后发布。 相关参考文档和示例: 海外参考文档:https://www.coze.com/docs/zh_cn/use_workflow.html 国内参考文档:https://www.coze.cn/docs/guides/use_workflow 国内版本示例: 搜索新闻:https://www.coze.cn/docs/guides/workflow_search_news 使用 LLM 处理问题:https://www.coze.cn/docs/guides/workflow_use_llm 生成随机数:https://www.coze.cn/docs/guides/workflow_use_code 搜索并获取第一个链接的内容:https://www.coze.cn/docs/guides/workflow_get_content 识别用户意图:https://www.coze.cn/docs/guides/workflow_user_intent 在【拔刀刘】自动总结公众号内容,定时推送到微信的案例中,循环体内部的数据库节点用来在数据库中查询是否已经推送过该篇文章,输入项为上一步中的 url 和开始节点的 key(重命名为 suid)。查询数据库需要文章 url 和用户的 suid 两个值来判断这名用户的这篇文章是否推送过。记得设置输出项“combined_output”。同时,Coze 平台中使用数据库功能需要在 bot 中设置相同名称和数据结构的数据库进行绑定,具体设置方法参见“相关资源”。
2025-01-08
AI智能数据库查询助手
以下是关于您提出的“AI 智能数据库查询助手”的相关信息: 能联网检索的 AI: 存在能联网检索的 AI,它们通过连接互联网实时搜索、筛选并整合所需数据,为用户提供更精准和个性化的信息。例如: ChatGPT Plus 用户现在可以开启 web browsing 功能,实现联网功能。 Perplexity 结合了 ChatGPT 式的问答和普通搜索引擎的功能,允许用户指定希望聊天机器人在制定响应时搜索的源类型。 Bing Copilot 作为 AI 助手,旨在简化您的在线查询和浏览活动。 还有如 You.com 和 Neeva AI 等搜索引擎,提供基于人工智能的定制搜索体验,并保持用户数据的私密性。 AI 新产品|网站精选推荐: AIHelperBot 自动生成 SQL Queries,支持数据库一键链接或导入。当前收费$5 每月,可免费试用 7 天。链接:https://skybox.blockadelabs.com/ ChartGPT by CadLabs 由 CadLabs 开发工具,基于 GPT3.5,可以根据数据生成图表并回答问题。链接:https://chartgpt.cadlabs.org/ Embedding Store 功能如其名,是一站式 Embedding Marketplace,支持公开、私有及第三方数据,用于发现、评估和访问相关的嵌入(embeddings),产品还未上线。链接:https://www.embedding.store/ AI 在医疗药品零售领域的应用: AI 在医疗药品零售领域有着多方面的应用前景: 药品推荐系统:利用机器学习算法分析用户购买记录、症状描述等数据,为用户推荐合适的非处方药品和保健品,提升销售转化率。 药品库存管理:通过分析历史销售数据、天气、疫情等因素,AI 系统可以预测未来某段时间内的药品需求量,优化药店的库存管理策略,降低成本。 药品识别与查询:借助计算机视觉技术,用户可以用手机拍摄药品图像,AI 系统自动识别药名并提供说明、用法、禁忌等信息查询服务。 客户服务智能助手:基于自然语言处理技术,AI 虚拟助手可以回答顾客关于购药、用药、保健等常见问题,减轻人工客服的工作压力。 药店运营分析:AI 可以分析药店的销售、顾客流量、库存等大数据,发现潜在的运营问题和优化空间,为决策提供参考。 药品质量监控:通过机器视觉、图像识别等技术,AI 能够自动检测药品的包装、标签、颜色等是否合格,及时发现问题。 药品防伪追溯:利用区块链等技术,AI 可以实现全流程的药品溯源,确保药品供应链的安全性和真实可信度。 总之,AI 技术在药品零售领域可以提升购药体验、优化库存管理、降低运营成本、保障药品质量安全,是一个值得重视的发展方向。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-01-07
多维表格AI接入分享课程有回放么
多维表格 AI 接入分享课程有回放。例如,在“1204|微信超级 AI 知识助手教学(上)—智谱共学营智能纪要”中提到直播有回放。在“飞书多维表格 AI 共学解锁更强大的豆包 2024 年 12 月 21 日”中,王大仙表示分享有回放,可顺着搭建流程使用。
2025-02-18
AI如何接入APP
以下是将 AI 接入 APP(以微信为例)的详细步骤: 1. 登录成功后,找另一个人私聊或者在群中@您,就可以看到机器人的正常回复,此时已接通。 2. 若想为 AI 赋予提示词,可返回“目录 4 里的第 17 步”,其中的“中文部分,便是设置 AI 提示词的地方,您可以进行更改。 3. 此后,进行任何更改,都需要“返回首页 右上角 点击重启,重启一下服务器”。 4. 然后,重新在“文件”的【终端】里,直接输入“nohup python3 app.py&tail f nohup.out”重新扫码登录。 5. 再往后就是添加插件,讲解得非常清晰,完成上述步骤后,相信您也能搞定插件的安装。点击文章,会直接定位到您该操作的那一步。 6. 若认为上述步骤简单,尚有余力,可以继续看。 开始部署(这里继续): 1. 复制代码时注意复制全,每次只需要粘贴一行,然后点击一次回车。 第一步:cd /root || exit 1 第二步:下方两行粘贴进入,然后点击回车,等待下载完成。(若有卡点,进行不下去,可能是服务器网络问题,去拉取时下载不全,可复制网址,手动下载到电脑上,然后进入文件夹,找到 root 文件夹,把下载的文件上传进去。) 第三步:rm f Anaconda32021.05Linuxx86_64.sh 第四步:/root/anaconda/bin/conda create y name AI python=3.8 第五步:echo 'source /root/anaconda/bin/activate AI' >> ~/.bashrc 第六步:执行完成后,刷新一下,重新进入终端,若最左侧出现了(AI)的字符,则恭喜您。 配置环境: 1. 打开刚才保存的“外网面板地址”。 2. 输入账号密码。 3. 第一次进入会让您绑定一下,点击免费注册,注册完成后,返回此页,登录账号。 4. 首次会有个推荐安装,只安装 Nginx 1.22 和 MySQL 5.7 即可,其他的取消勾选。 5. 点击“其他菜单”,出现相应样式,会让您关联,点击【关闭】,直接操作第 4 步【开始部署】。绿色字体的三个步骤可以不做。(这里的步骤,用不到,可以不关联)若想关联,可以点击【点击查看】按钮,跳转进入腾讯云。 6. 点击“API 密匙关联”点击“新建秘钥”。复制这两个,一定保存好。 7. 点击确定后,列表上会有一个 APPID,这三个串码,依次对应粘贴到刚才的登录窗口里即可。
2025-02-18
怎么在企业微信里接入deepseek
在企业微信里接入 DeepSeek 的步骤如下: 1. 注册并登录火山引擎,点击立即体验进入控制台。链接:https://zjsms.com/iP5QRuGW/ (火山引擎是字节跳动旗下的云服务平台,在 AI 领域最为大众所熟知的应该是“豆包大模型”,这里就是源头) 2. 创建一个接入点,点击在线推理创建推理接入点。 3. 为接入点命名为 DeepSeekR1。 4. 若提示“该模型未开通,开通后可创建推理接入点”,点击“立即开通”,开通一下(这里是免费的)。若无提示则直接到第 5 步,点击确认接入。 5. 确认以下无误后,点击“确认接入”按钮。 6. 自动返回创建页面。发现多出一行接入点名是“DeepSeekR1”(我们刚才自己设置的命名)。重点来了:这个就是推理点的 ID,复制他放到你的微信里,发给自己保存一下。 7. 保存后再点击【API 调用】按钮,进入后点击【选择 API Key 并复制】。 8. 若已有 API key 了,就直接查看并复制。如果没有,则点击【创建 API key】。 9. 把复制好的内容,也放到自己微信里保存好。 至此,我们已经完成拿到了模型的密钥。接着,就可以去把它配置到网页聊天里使用。
2025-02-18
兼职督学岗位,通过飞书平台为高中生服务,包括:1)解答学习方法等疑问;2)发送测试卷;3)提交测试卷后通知后端制作学习计划;4)发送学习计划链接;5)定期推送知识点和打卡提醒;6)查看打卡并反馈。所有文档通过飞书云文档链接发送。现在我想通过利用coze将deepseek等ai接入飞书的形式,制作出产品赋能督学在这一岗位的工作效率,并希望在这一过程中,锻炼我的ai能力,再想办法让上司或者老板为我这个产品支付报酬,请问我可以从哪些角度开发产品?
以下是一些您可以从以下角度开发产品来赋能兼职督学岗位的工作效率,并锻炼您的 AI 能力,以争取上司或老板为产品支付报酬: 1. 利用 Coze 的多语言模型支持,为解答高中生学习方法等疑问提供更准确和全面的回答。 2. 借助插件系统,集成与学习相关的插件,如学习资料查询、学习工具推荐等,丰富服务内容。 3. 运用知识库功能,上传各类学科知识点、优秀学习案例等,方便在服务中快速调用和推送。 4. 利用数据库和记忆能力,记住每个高中生的学习情况和需求,提供个性化服务。 5. 设计工作流,例如自动发送测试卷、自动通知后端制作学习计划、自动推送学习计划链接等流程,提高工作效率。 6. 采用多代理模式,针对不同学科或学习阶段设置专门的代理,提供更精准的服务。 7. 利用 Coze 易于发布和分享的特点,将服务产品推广给更多需要的高中生和督学人员。
2025-02-18
兼职督学岗位,通过飞书平台为高中生服务,包括:1)解答学习方法等疑问;2)发送测试卷;3)提交测试卷后通知后端制作学习计划;4)发送学习计划链接;5)定期推送知识点和打卡提醒;6)查看打卡并反馈。所有文档通过飞书云文档链接发送。现在我想通过利用coze将deepseek等ai接入飞书的形式,制作出产品赋能督学在这一岗位的工作效率,并希望在这一过程中,锻炼我的ai能力,再想办法让上司或者老板为我这个产品支付报酬,请问我可以从哪些角度开发产品?又该如何将它推销给上司?
以下是关于您利用 Coze 和 DeepSeek 等 AI 接入飞书来赋能兼职督学岗位工作效率的一些建议: 开发产品的角度: 1. 智能答疑系统:利用 AI 技术,对高中生常见的学习方法疑问进行自动分析和回答,提高答疑效率和准确性。 2. 个性化测试卷生成:根据学生的学习情况和需求,通过 AI 生成个性化的测试卷。 3. 学习计划优化:基于学生提交的测试卷结果,利用 AI 更精准地制定学习计划。 4. 知识点精准推送:运用 AI 分析学生的学习进度和薄弱环节,定期推送更具针对性的知识点。 5. 打卡提醒优化:通过 AI 实现更灵活、个性化的打卡提醒方式。 推销给上司的方法: 1. 展示效率提升:详细说明产品如何大幅提高兼职督学的工作效率,节省人力和时间成本。 2. 个性化服务优势:强调产品能够为高中生提供更个性化、精准的服务,提升学习效果。 3. 数据支持:提供相关的数据和案例,证明 AI 赋能后的积极效果。 4. 成本效益分析:说明开发和使用该产品的成本相对较低,而带来的收益显著。 5. 未来发展潜力:阐述产品在不断优化和拓展功能方面的潜力,适应更多的教育需求。 另外,Coze 是由字节跳动推出的 AI 聊天机器人和应用程序编辑开发平台,专为开发下一代 AI 聊天机器人而设计。它具有多语言模型支持、插件系统、知识库功能、数据库和记忆能力、工作流设计、多代理模式、免费使用、易于发布和分享等特点。这些特点可以为您的产品开发提供有力支持。
2025-02-18
将deepseek接入飞书
以下是关于将 DeepSeek 接入飞书的相关信息: 学而思表示将接入 DeepSeek“深度思考模式”,预计将在 2 月内陆续于相关机型上线,全面升级用户的 AI 学习体验。 钉钉已经全面接入 DeepSeek 系列模型。 扣子现已支持满血版 Deepseek 全家桶,R1 模型现支持所有用户免费体验,每个用户每日限 20 条对话。 接入方法和途径: 2 月 14 日 8 点有关于在 Coze 搭建满血版 R1 bot 的直播,直播结束后可看回放,地址为: 。 学习文档: 。 创建账号:如果是普通账号,请自行升级或注册专业号后使用。 创建智能体:点击创建,先完成一个智能体的创建。如果在最上面的教程里已经创建好自己的推理点了,那么直接在 Bot 编排里就可以直接看到和选择创建好的推理模型。 在飞书多维表格上调用 DeepSeek 的自定义 AI(DeepSeek 版)地址为:https://bytedance.larkoffice.com/base/extension/replit_3f6c0f185eac23fb ,支持 DeepSeek R1、V3 模型,支持 DeepSeek 官方、火山方舟、硅基流动三个服务商。 如有任何问题请联系后台,电子邮箱:alolg@163.com 。 注意事项:如果发布到公共空间,其他人用的是您的 API,要注意 Token 消耗(也可以设置成仅自己使用)。
2025-02-17
我想做一个产品(生涯规划领域的垂直大模型),这个产品服务的对象是所有人:帮助所有人进行更好的职业规划。每个人都能通过使用这个产品更好地了解自己,了解自己的天赋、兴趣、优势,然后找到自己的热爱的领域和热爱的事业,并且能够个性化地推荐相关的行业和职业,包括职业的主要工作内容和核心能力要求等等。 请对这个产品进行可行性分析,并给出产品的发展规划,别忘了给这个项目起一个名字。
以下是对您提出的生涯规划领域垂直大模型产品的可行性分析和发展规划,并为项目取名为“生涯智途”。 可行性分析: 1. 需求广泛:帮助人们进行职业规划是一个普遍存在的需求,涵盖了各个年龄段和职业阶段的人群。 2. 数据可用性:可以通过各种渠道收集大量与职业相关的数据,包括行业报告、职位描述、人才需求等。 3. 技术支持:当前大模型技术的发展为实现这样的产品提供了可能,能够处理和分析大量复杂的数据。 发展规划: 1. 数据收集与整理:广泛收集各类职业数据,建立丰富的数据库,确保数据的准确性和完整性。 2. 模型训练与优化:利用收集到的数据进行模型训练,不断优化模型,提高预测和推荐的准确性。 3. 功能开发: 个性化测评:开发能够准确评估用户天赋、兴趣、优势的功能模块。 精准推荐:根据用户的特点,提供个性化的行业和职业推荐,并详细介绍职业的工作内容和核心能力要求。 持续学习与更新:随着行业变化,及时更新数据和模型,以提供最新的职业信息。 4. 用户体验优化:设计简洁、易用的界面,提供良好的用户交互体验。 5. 市场推广:通过线上线下多种渠道进行推广,提高产品的知名度和用户覆盖面。 希望以上分析和规划对您有所帮助。
2025-02-18
现在大语言模型的跑分对比
对比不同大语言模型的性能需要考虑多个维度,包括但不限于以下方面: 1. 理解能力:评估对语言的语法、语义、上下文和隐含意义的理解程度。 2. 生成质量:检查生成文本的流畅性、相关性和准确性。 3. 知识广度和深度:掌握广泛主题的知识程度,以及对特定领域或话题的理解深度。 4. 泛化能力:处理未见过的任务或数据时的表现。 5. 鲁棒性:应对错误输入、对抗性输入或模糊不清指令的能力。 6. 偏见和伦理:生成文本时是否存在偏见,是否遵循伦理标准。 7. 交互性和适应性:在交互环境中的表现,包括对用户反馈的适应性和持续对话的能力。 8. 计算效率和资源消耗:考虑模型大小、训练和运行所需的计算资源。 9. 易用性和集成性:是否易于集成到不同应用和服务中,提供的 API 和工具的易用性。 为了进行有效的比较,可以采用以下方法: 1. 标准基准测试:使用如 GLUE、SuperGLUE、SQuAD 等标准的语言模型评估基准,它们提供统一的测试环境和评分标准。 2. 自定义任务:根据特定需求设计任务,评估模型在特定领域的表现。 3. 人类评估:结合人类评估者的主观评价,特别是在评估文本质量和伦理问题时。 4. A/B 测试:在实际应用场景中,通过 A/B 测试比较不同模型的表现。 5. 性能指标:使用准确率、召回率、F1 分数、BLEU 分数等性能指标来量化比较。 当前领先的大型语言模型的排行榜,例如聊天机器人竞技场,由伯克利的团队管理,根据 ELO 评级对不同语言模型进行排名,计算方式与国际象棋中的类似。在排行榜中,顶部多为专有模型,下方有开放权重的模型。 大语言模型的特点包括: 1. 架构:有 encoderonly、encoderdecoder、decoderonly 等,如 BERT 是 encoderonly 模型,google 的 T5 是 encoderdecoder 模型,众多 AI 助手多为 decoderonly 模型。 2. 数据和参数:预训练数据量大,往往来自互联网,包括论文、代码、公开网页等,参数多,如 OpenAI 在 2020 年发布的 GPT3 已达到 170B 的参数。
2025-02-18
现在大语言模型的跑分对比
对比不同大语言模型的性能需要考虑多个维度,包括但不限于以下方面: 1. 理解能力:评估对语言的语法、语义、上下文和隐含意义的理解程度。 2. 生成质量:检查生成文本的流畅性、相关性和准确性。 3. 知识广度和深度:掌握广泛主题的知识程度,以及对特定领域或话题的理解深度。 4. 泛化能力:处理未见过的任务或数据时的表现。 5. 鲁棒性:应对错误输入、对抗性输入或模糊不清指令的能力。 6. 偏见和伦理:生成文本时是否存在偏见,是否遵循伦理标准。 7. 交互性和适应性:在交互环境中的表现,包括对用户反馈的适应性和持续对话的能力。 8. 计算效率和资源消耗:考虑模型大小、训练和运行所需的计算资源。 9. 易用性和集成性:是否易于集成到不同应用和服务中,提供的 API 和工具的易用性。 为了进行有效的比较,可以采用以下方法: 1. 标准基准测试:使用如 GLUE、SuperGLUE、SQuAD 等标准的语言模型评估基准,它们提供统一的测试环境和评分标准。 2. 自定义任务:根据特定需求设计任务,评估模型在特定领域的表现。 3. 人类评估:结合人类评估者的主观评价,特别是在评估文本质量和伦理问题时。 4. A/B 测试:在实际应用场景中,通过 A/B 测试比较不同模型的表现。 5. 性能指标:使用准确率、召回率、F1 分数、BLEU 分数等性能指标来量化比较。 当前领先的大型语言模型的排行榜,例如聊天机器人竞技场,由伯克利的团队管理,根据 ELO 评级对不同语言模型进行排名,计算方式与国际象棋中的类似。在排行榜中,顶部多为专有模型,下方有开放权重的模型。 大语言模型的特点包括: 1. 架构:有 encoderonly、encoderdecoder、decoderonly 等,如 BERT 是 encoderonly 模型,google 的 T5 是 encoderdecoder 模型,众多 AI 助手多为 decoderonly 模型。 2. 数据和参数:预训练数据量大,往往来自互联网,包括论文、代码、公开网页等,参数多,如 OpenAI 在 2020 年发布的 GPT3 已达到 170B 的参数。
2025-02-18
什么是大模型一体机
大模型一体机是一个相对复杂的概念。通俗来讲,大模型是输入大量语料,让计算机获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。其本质是两个文件:一个是参数文件,类似于问答机器人的“大脑镜像”,负责处理和生成文本信息;另一个是包含运行这些参数的代码文件。 大模型的训练和使用过程可以类比为上学参加工作: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练。 2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:即用合适的算法讲述“书本”中的内容,让大模型更好理解 Token 之间的关系。 4. 就业指导:为了让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称之为推导(infer)。 大模型的特点包括: 1. 预训练数据非常大,往往来自互联网上的论文、代码、公开网页等,一般用 TB 级别的数据进行预训练。 2. 参数非常多,如 Open 在 2020 年发布的 GPT3 就已达到 170B 的参数。 在架构方面,大模型有 encoderonly、encoderdecoder、decoderonly 等类型。目前常见的 AI 助手多采用 decoderonly 架构。
2025-02-18
传统AI、大模型、AGI的区别
传统 AI、大模型、AGI 存在以下区别: 传统 AI: 语音技能 NLU 通常通过一系列规则、分词策略等训练而成。 运作逻辑规律可观测,具有 ifelse 式的逻辑性。 大模型: 凭借海量数据在向量空间中学习知识的关联性。 运作逻辑难以观测,脱离了 ifelse 的层面。 Transformer 是其底层结构,是一个大参数(千亿级别)的回归方程,底层是 function loss 损失函数,能在一定 prompt condition 情况下,repeat 曾经出现过的数据内容,实现“生成”能力。 大语言模型是一个 perfect memory,repeat 曾经出现的内容。与 Alpha Go 相比,Alpha Go 是增强学习模型,有推理能力,而大语言模型这块很弱。 AGI(通用人工智能): 部分人觉得 LLM(大语言模型)具有 AGI 潜力,但 LeCun 反对。 目前对于能否到达 AGI 阶段尚不明确。 在公众传播层面: AIGC 指用 Stable Diffusion 或 Midjourney 生成图像内容,后来泛指用 AI 生成音乐、图像、视频等内容。 LLM 指 NLP 领域的大语言模型,如 ChatGPT。 GenAI 是生成式人工智能模型,国内官方政策文件使用这个词相对科学,涵盖了 LLM 和 AIGC。 公众传播一般会混用上述名词,但底层是 transformer 结构。
2025-02-18
有哪些在企业内部落地应用AI大模型工具的实践案例?不要营销文案生成、代码开发助手、智能客服问答机器人这种太常见的
以下是一些在企业内部落地应用 AI 大模型工具的实践案例: 1. 阿里云百炼: 智能体应用:能够弥补大模型的不足,如回答私有领域问题、获取实时信息、回答专业问题等。适用于有企业官网、钉钉、微信等渠道,期望为客户提供产品咨询服务,以及缺少技术人员开发大模型问答应用的场景。典型场景包括私有领域知识问答、个性化聊天机器人、智能助手等。 内部业务助手:通过企业内部规章制度、部门结构、产品介绍等文档构建知识库,并借助 RAG 智能体实现内部知识问答功能。系统支持多源异构数据,并通过复杂文档解析和视觉增强技术,提升文档理解的准确性与深度。目前该功能已灰度上线,需提供 UID 并通过白名单进行开启。 2. 达摩院: AI 模特(虚拟换装):支持虚拟换装、姿态编辑。 3. 电商零售: 推广文案写作:通过内置的多样化营销场景的文体模板,基于用户输入的创作主题以及参考素材,大模型即可为您生成对应的营销文案,为营销活动和宣传文案提供灵感和文案写作支持。 4. 泛企业: VOC 挖掘:是一个面向各类企业的 VOC 标签挖掘的工具。不论是用户的长短评论、帖子、还是用户和客服/销售的聊天记录、通话记录,都可以使用。通过选中或自定义标签,即可让大模型针对海量非结构化的 VOC 数据快速打标。相比于人工打标或规则打标准确率更高;对于业务标签变动频繁的情况,也能更敏捷、快速地影响。 5. 通义晓蜜:基于深度调优的对话大模型,为营销服类产品提供智能化升级所需的生成式摘要总结、质检、分析等能力应用。
2025-02-18
AI智能体在企业应用案例
以下是一些 AI 智能体在企业中的应用案例: 决策智能体: 以 Anterior 为例,它是一家健康计划自动化公司,开发了用于自动化理赔提交审核的临床决策引擎。将付款方规则转换为有向无环图,智能体遍历决策树,利用 LLM 评估相关临床文件是否符合规则,在复杂任务中选择最佳方法并更新状态,直至最终确定。 Norm AI 正在为监管合规打造 AI 智能体,Parcha 正在为 KYC 建立智能体。 检索增强生成(RAG): 以 Sana 的企业搜索用例为例,应用程序加载和转换无结构文件,将其分块并作为向量嵌入存储在数据库中。当用户提问时,系统检索相关上下文块,折叠到“元提示”中与检索信息一起喂给 LLM,合成答复返回给用户。 Eve 法律研究的共同驾驭员会将研究查询分解为独立提示链,运行每个提示链生成中间输出,并综合编写最终备忘录。 生成式 AI 应用: 具有搜索、合成和生成三个核心用例,Menlo Ventures 投资组合公司如 Sana(企业搜索)、Eve(法律研究副驾驶)和 Typeface(内容生成 AI)是早期突破性的代表。 领先的应用程序构建商如 Anterior、Sema4 和 Cognition 正在建立解决方案,处理之前只能由大量人力解决的工作流程。借助多步逻辑、外部内存以及访问第三方工具和 API 等新型构建块,拓展 AI 能力边界,实现端到端流程自动化。
2025-02-16
AI 智能体在企业落地
以下是关于 AI 智能体在企业落地的相关内容: 决策智能体方面: 决策智能体使用智能体决策制定在复杂、多步骤的推理流程中导航并做出业务决策。 以 Anterior 为例,其将付款方规则转换为有向无环图(DAG),智能体遍历决策树,在每个节点利用 LLMs 评估相关临床文件是否符合特定规则,遇到复杂任务时选择最佳方法并更新自身状态。 其他领域如 Norm AI 为监管合规打造 AI 智能体,Parcha 为 KYC 建立智能体。 相关人物与业务方面: 韦恩是智能体创业者、WayToAGI 共建者、微软提示词工程师、多平台 Agent 开发者、企业级 AI Agent 定制专家,荣获多家 AI 开发平台比赛奖项,有 12 年程序开发背景,是多家企业的 AI 落地顾问,承接 1v1 辅导、智能体培训、智能体定制开发、企业 AI 项目落地等业务。 生成式 AI 应用方面: 生成式 AI 应用当前有搜索、合成和生成三个核心用例与强大的产品市场契合度。 领先的应用程序构建商如 Anterior、Sema4 和 Cognition 正在建立解决方案,处理之前只能由大量人力解决的工作流程。 借助多步逻辑、外部内存以及访问第三方工具和 API 等新型构建块,下一波智能体正在拓展 AI 能力的边界,实现端到端流程自动化。
2025-02-16
我需要在飞书上构建一个企业每日利润表分析与汇报助手,该选定哪种prompt框架,提供下prompt样例
以下是几种适用于在飞书上构建企业每日利润表分析与汇报助手的 prompt 框架及样例: 1. ICIO 框架: 指令:明确执行的具体任务,如“分析企业每日利润表并生成详细报告”。 背景信息:提供执行任务的背景信息,如“企业近期业务拓展,成本有所增加”。 输入信息:大模型需要用到的一些信息,如“利润表的各项数据”。 输出信息:明确输出的具体信息的要求,如“报告以表格形式呈现,包含各项利润数据的同比和环比变化,并给出简要分析”。 2. BROKE 框架: 背景:说明背景,如“公司处于业务增长阶段,需要密切关注利润情况”。 角色:设定特定的角色,如“利润表分析专家”。 目标:明确任务的目标,如“准确分析每日利润表,为管理层提供决策支持”。 关键结果:明确可以衡量的结果,如“报告中的分析结论能帮助管理层制定有效的成本控制策略”。 调整:根据具体的情况,来调整具体的结果,如“根据市场变化调整利润分析的重点”。 3. CRISPIE 框架: 能力和角色:期望大模型扮演的角色洞察,如“专业的财务分析师”,提供幕后洞察力、背景信息和上下文。 声明:简洁明了的说明希望完成的任务,如“对每日利润表进行全面深入分析”。 个性:回应的风格、个性或者方式,如“以简洁明了、数据准确为特点”。 实验:提供多个回答的示例。 4. 情境框架: 情境:描述当前的情况,如“企业面临市场竞争,利润波动较大”。 任务:明确要完成的任务,如“分析每日利润表,找出利润波动的原因”。 行动:说明采取的行动,如“对各项收入和成本进行详细比对”。 结果:阐述期望得到的结果,如“生成包含原因分析和建议的报告”。
2025-02-14