直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

大模型如何接入企业数据库

回答

大模型接入企业数据库的相关内容如下:

原理介绍: 从文档处理角度来看,实现流程包括配置要求。

配置要求

  • ChatGLM-6B 模型硬件需求:
    • 模型文件下载至本地需要 15GB 存储空间。
    • 量化等级不同,最低 GPU 显存(推理)和最低 GPU 显存(高效参数微调)要求不同:
      • FP16(无量化):分别为 13GB 和 14GB。
      • INT8:分别为 8GB 和 9GB。
      • INT4:分别为 6GB 和 7GB。
  • MOSS 模型硬件需求:
    • 模型文件下载至本地需要 70GB 存储空间。
    • 量化等级不同,最低 GPU 显存(推理)和最低 GPU 显存(高效参数微调)要求不同:
      • FP16(无量化):分别为 68GB 和 - 。
      • INT8:分别为 20GB 和 - 。
  • Embedding 模型硬件需求:默认选用的 Embedding 模型GanymedeNil/text2vec-large-chinese约占用显存 3GB,也可修改为在 CPU 中运行。

项目启动

  • Web 启动:运行 web.py,若显存不足则调整 configs/model_config.py 文件中 LLM_MODEL 参数更换模型,若连接无法连接修改 web.py 文件末尾 lauch 中 0.0.0.0 为 127.0.0.1,点击 URL 进入 UI 界面。
  • API 模式启动。
  • 命令行模式启动。

上传知识库: 左侧知识库问答中选择新建知识库,可传输 txt、pdf 等。可以调整 prompt,匹配不同的知识库,让 LLM 扮演不同的角色。例如上传公司财报,充当财务分析师;上传客服聊天记录,充当智能客服;上传经典 Case,充当律师助手;上传医院百科全书,充当在线问诊医生等等,MOSS 同理。

使用数据表: 通过在工作流中添加数据库节点对数据表进行操作。在工作流中可通过 NL2SQL 方式和代码方式进行调用,支持完整读写模式。参考以下操作,在工作流中添加并配置工作流节点。在工作流中配置数据库节点前,确保已经搭建了一个 Bot,并在这个 Bot 中创建好了数据表。

  1. 单击页面顶部的工作流页签,然后单击创建工作流。
  2. 输入工作流名称和工作流的使用描述,然后单击确认。工作流名称和描述可以帮助大语言模型理解什么场景下需要调用该工作流。
  3. 在基础节点页签下,将数据库节点拖入到工作流配置画布区域。
  4. 根据以下信息配置数据库节点。
  • 输入:添加 SQL 执行中需要的参数,可以是一个变量,也可以是一个固定值。
  • SQL:输入要执行的 SQL 语句,可以直接使用输入参数中的变量。可单击自动生成使用大模型生成 SQL。在弹出的页面中,选择这个数据库工作流生效的 Bot 和数据表,然后使用自然语言描述要执行的操作,单击自动生成生成 SQL 语句,最后单击使用。 注意:不支持 Select*语法,不支持多表 Join 操作,最多返回 100 行数据。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

开发:GLM等大模型外接数据库

从文档处理角度来看,实现流程如下:[heading1]配置要求[content]ChatGLM-6B模型硬件需求注:模型文件下载至本地需要15 GB存储空间。|量化等级|最低GPU显存(推理)|最低GPU显存(高效参数微调)|<br>|-|-|-|<br>|FP16(无量化)|13 GB|14 GB|<br>|INT8|8 GB|9 GB|<br>|INT4|6 GB|7 GB|MOSS模型硬件需求注:模型文件下载至本地需要70 GB存储空间|量化等级|最低GPU显存(推理)|最低GPU显存(高效参数微调)|<br>|-|-|-|<br>|FP16(无量化)|68 GB|-|<br>|INT8|20 GB|-|Embedding模型硬件需求默认选用的Embedding模型[GanymedeNil/text2vec-large-chinese](https://huggingface.co/GanymedeNil/text2vec-large-chinese/tree/main)约占用显存3GB,也可修改为在CPU中运行。

开发:GLM等大模型外接数据库

运行web.py若显存不足则调整configs/model_config.py文件中LLM_MODEL参数更换模型若连接无法连接修改web.py文件末尾lauch中0.0.0.0为127.0.0.1点击URL进入UI界面[heading2]API模式启动[heading2]命令行模式启动[heading1]上传知识库[content]左侧知识库问答中选择新建知识库,可传输txt pdf等可以调整prompt,匹配不同的知识库,让LLM扮演不同的角色上传公司财报,充当[财务分析师](https://www.zhihu.com/search?q=%E8%B4%A2%E5%8A%A1%E5%88%86%E6%9E%90%E5%B8%88&search_source=Entity&hybrid_search_source=Entity&hybrid_search_extra=%7B%22sourceType%22%3A%22answer%22%2C%22sourceId%22%3A3030429770%7D)上传客服聊天记录,充当智能客服上传经典Case,充当律师助手上传医院[百科全书](https://www.zhihu.com/search?q=%E7%99%BE%E7%A7%91%E5%85%A8%E4%B9%A6&search_source=Entity&hybrid_search_source=Entity&hybrid_search_extra=%7B%22sourceType%22%3A%22answer%22%2C%22sourceId%22%3A3030429770%7D),充当在线问诊医生等等MOSS同理

数据库

[title]数据库[heading1]使用数据表[heading2]通过工作流数据库节点操作数据表通过在工作流中添加数据库节点对数据表进行操作。在工作流中可通过NL2SQL方式和代码方式进行调用,支持完整读写模式。下图是工作流中数据库节点配置示例。当发布工作流后,在用户与Bot对话时,大语言模型会根据需要调用工作流,按照工作流中数据库节点中配置的SQL来执行数据表操作。参考以下操作,在工作流中添加并配置工作流节点。在工作流中配置数据库节点前,确保你已经搭建了一个Bot,并在这个Bot中创建好了数据表。1.单击页面顶部的工作流页签,然后单击创建工作流。2.输入工作流名称和工作流的使用描述,然后单击确认。工作流名称和描述可以帮助大语言模型理解什么场景下需要调用该工作流。1.在基础节点页签下,将数据库节点拖入到工作流配置画布区域。2.根据以下信息配置数据库节点。2.1.输入:添加SQL执行中需要的参数,可以是一个变量,也可以是一个固定值。2.2.SQL:输入要执行的SQL语句,可以直接使用输入参数中的变量。可单击自动生成使用大模型生成SQL。在弹出的页面中,选择这个数据库工作流生效的Bot和数据表,然后使用自然语言描述要执行的操作,单击自动生成生成SQL语句,最后单击使用。不支持Select*语法。不支持多表Join操作。最多返回100行数据。

其他人在问
向量数据库
向量数据库是大语言模型从工具走向生产力实践中热门的 RAG 方式所必备的基础设施。 RAG 能够从海量文本数据中检索相关信息并生成高质量文本输出,而向量数据库在其中发挥着重要作用。 目前市面上的向量数据库众多,操作方式无统一标准。本文将基于 LangChain 提供的 VectorStore 类中的统一操作方法,以 chroma 向量数据库作为示例,从最为基础的 CRUD 入手介绍其使用方法。 向量数据库的工作原理如下: 如果是文本,会通过模型转换成向量对象,对象存入数据库中再去使用。传统数据库以表格形式存储简单数据,向量数据库处理的是复杂的向量数据,并使用独特方法进行搜索。常规数据库搜索精确匹配数据,向量数据库则使用特定相似性度量寻找最接近匹配,使用特殊的近似近邻(ANN)搜索技术,包括散列搜索和基于图的搜索等方法。 要理解向量数据库的工作原理及其与传统关系数据库(如 SQL)的不同,必须先理解嵌入的概念。非结构化数据(如文本、图像和音频)缺乏预定义格式,给传统数据库带来挑战。为在人工智能和机器学习应用中利用这些数据,需使用嵌入技术将其转换为数字表示,嵌入就像给每个项目赋予独特代码,以捕捉其含义或本质。
2024-09-02
如何在coze的prompt中调用数据库
在 Coze 的 prompt 中调用数据库可以参考以下步骤: 1. 基础框架: 本 bot 由提示词、数据库和工作流三部分构成。提示词使用结构化框架,要求大模型根据不同行为调用不同工作流。数据库用于记录不同用户历史记账记录,工作流中会用到。 2. 工作流: 增加记账记录 add_accounting_record: 开始:定义一个{{prompt}},把用户在 bot 输入的记账内容传入进来。 大模型:任务简单,使用任意模型均可,无需调整参数。输入定义了{{input}}引用开始节点的 prompt 参数。提示词让大模型拆解用户输入内容,识别【记账事项】、【发生时间】、【变动金额】,并分别赋值到{{item}}、{{occurrence_time}}、{{balance_change}}。输出定义了相应的{{item}}、{{occurrence_time}}、{{balance_change}}。 数据库——插入记账记录:输入定义了{{item}}、{{occurrence_time}}、{{balance_change}},用于接收大模型节点输出传入的内容。SQL 命令中,因数据库存入金额最小单位是分,所以当用户输入花费金额时,需乘以 100 存储。 3. 使用数据表: 用户通过自然语言与 Bot 交互来插入或查询数据库中的数据。Bot 会根据用户输入自动创建新记录并存储,也可根据用户查询条件检索数据返回。 在 Prompt 中添加并使用数据表时: 明确说明要执行的操作和涉及的字段,包括字段使用说明,以使大语言模型更准确执行操作。 在数据库功能区域添加要操作的数据表。 在调试区域进行测试,可单击调试区域右上方的已存数据查看数据表中的数据。
2024-09-02
向量数据库高效储存是什么意思 举个例子
向量数据库高效储存指的是专门用于存储高维向量,以实现快速准确的相似性搜索。在人工智能领域,尤其是自然语言处理和计算机视觉等方面,模型会生成并处理大量高维向量,传统数据库难以有效应对,向量数据库则为这些应用提供了高度优化的环境。 例如,像 GPT3 这样的大型语言模型,有 1750 亿个参数,会产生大量向量化数据,传统数据库很难有效处理,而向量数据库能够有效地管理和查询这些向量。 从系统角度看,预处理管道中向量数据库至关重要,负责高效存储、比较和检索多达数十亿的嵌入(即向量)。市场上常见的选择如 Pinecone,完全由云托管,容易上手,具备大型企业在生产中所需的多种功能。同时,还有 Weaviate、Vespa 和 Qdrant 等开源系统,通常具有出色的单节点性能,可针对特定应用定制;Chroma 和 Faiss 等本地向量管理库,有丰富的开发人员经验,便于启动小型应用程序和开发实验;pgvector 之类的 OLTP 扩展,对于特定开发人员和企业也是一种解决方案。 向量存储是用于存储和检索文本嵌入向量的工具,这些向量是文本数据的数值表示,能让计算机理解和处理自然语言。其主要功能包括高效存储大量文本向量、快速检索相似文本向量以及支持复杂的查询操作,如范围搜索和最近邻搜索。
2024-08-27
向量数据库高效存储与内存的关系
向量数据库的高效存储与内存有着密切的关系。 在生成式人工智能领域,通过扩展上下文窗口,模型能够处理更大量的文本并更好地保持上下文,但仅扩展上下文窗口并不能充分改善内存,因为推理的成本和时间与提示的长度呈准线性甚至二次方关系。此时,检索机制就显得尤为重要,它通过与提示相关的上下文数据增强和完善 LLM 的原始训练语料库。向量数据库(例如 Pinecone)已成为高效检索相关信息的事实标准,并作为 LLM 的内存层,使模型更容易快速准确地搜索和引用海量信息中的正确数据。 向量数据库专门用于存储高维向量,以实现快速准确的相似性搜索。由于人工智能模型,尤其是自然语言处理和计算机视觉领域的模型会生成并处理这些向量,所以对高效存储和检索系统的需求变得至关重要。像 GPT3 这样的大型语言模型,因其处理的数据量和复杂性,产生了大量向量化数据,传统数据库难以有效处理,所以基于 GPT3 和类似模型构建的应用在很大程度上依赖于向量数据库来有效地管理和查询这些向量。 例如,Marqo 向量数据库具有嵌入式存储在内存中的 HNSW 索引,实现了最先进的搜索速度,还能利用横向索引分片将规模扩大到亿级文档索引,支持异步和非阻塞数据上传和搜索,使用来自 PyTorch、Huggingface、OpenAI 等公司的最新机器学习模型,可从预先配置的模型开始或自带模型,内置 ONNX 支持和转换功能,可实现更快的推理和更高的吞吐量,并支持 CPU 和 GPU。
2024-08-27
1. 国内各个大模型有什么区别,请基于数据库/擅长方向分析 2. 推荐好用的搜索ai工具,需要查询权威资料,要求信息源可靠
以下是关于您提出的问题的回答: 国内各个大模型的区别: 北京企业机构: 百度(文心一言):https://wenxin.baidu.com 抖音(云雀大模型):https://www.doubao.com 智谱 AI(GLM 大模型):https://chatglm.cn 中科院(紫东太初大模型):https://xihe.mindspore.cn 百川智能(百川大模型):https://www.baichuanai.com/ 上海企业机构: 商汤(日日新大模型):https://www.sensetime.com/ MiniMax(ABAB 大模型):https://api.minimax.chat 上海人工智能实验室(书生通用大模型):https://internai.org.cn 在聊天状态下能生成 Markdown 格式的有智谱清言、商量 Sensechat;目前不能进行自然语言交流的有昇思(可以对文本进行是否由 AI 生成的检测,类似论文查重,准确度不错);受限制使用的有 MiniMax(无法对生成的文本进行复制输出,且只有 15 元的预充值额度进行体验,完成企业认证后可以进行充值)。特色功能方面,昇思可以生图,MiniMax 可以语音合成。 关于好用的搜索 AI 工具:目前没有明确的权威资料推荐特定的搜索 AI 工具。但需要指出的是,中国大模型在数据方面存在一些问题。在人工智能领域,数据质量至关重要。虽然 OpenAI 训练大模型所用的中文数据也源自中国的互联网平台,但他们在数据处理上更加精细,类似于将粗糙的原石打磨成璀璨的钻石。而在中国,高质量的数据处理服务相对稀缺,国内大模型主要以中文数据为基础,但中文互联网数据的质量普遍被认为相对较低。这导致在 IT 从业者搜索专业信息时,往往会首选 Google、arXiv 或 Bing 等国际平台,而不是国内的搜索引擎。
2024-08-26
如果要创建一个和你一样的ai,你可以把技术栈给我罗列出来吗,从数据库到后端到前端分别用到了哪些技术
如果要创建一个类似我的 AI ,以下是从数据库到后端到前端可能用到的技术栈: 前端:推荐使用 React.js 或 Vue.js 框架,它们适合构建动态的用户界面,且有丰富的组件库支持多媒体内容展示。 后端:采用 Node.js 加上 Express.js ,能使用 JavaScript 同时开发前端和后端,简化开发过程,Node.js 的非阻塞 IO 特性适合处理实时通讯需求。 数据库:选择 MongoDB ,对于可能需要存储的文档形式数据(如离谱生物档案和相关事件),它在存储此类灵活数据方面表现良好。 语音处理:可以考虑使用 Google Cloud SpeechtoText 和 TexttoSpeech API 来实现语音与文本的相互转换,以支持语音对话。
2024-08-25
coze怎么接入微信
要让 Coze 接入微信,您可以按照以下步骤进行操作: 1. 获取机器人 ID:在个人空间中找到要接入微信的机器人,比如画小二智能小助手。点击对应的机器人进入机器人编辑界面,在浏览器地址栏“bot/”之后的数据就是该机器人的 Bot ID,此 ID 是唯一编号的。 2. Docker 中配置 COW 组件: 登录宝塔面板,在宝塔面板当中可视化地控制云服务器,部署 docker 容器,启动 COW 项目与微信取得关联。 chatgptonwechat(简称 CoW)项目是基于大模型的智能对话机器人,可以接入微信公众号、企业微信应用、飞书、钉钉等,能处理文本、语音和图片,通过插件访问操作系统和互联网等外部资源。 点击“Docker”中的“项目模板”中的“添加”按钮,将编译好的内容复制进来,在容器中创建容器,选择容器编排,填入模板和名称,确定。运行成功后,点击容器,可以看到运行的是两个服务。 点击“wcandyaibot”后面的日志按钮,在弹出层中用提前预备好的微信进行扫码。此界面不会实时更新显示,需要手动刷新一下。点击“刷新日志”,如果看到“WeChat login success”,就成功将 Bot 接入微信中了。 3. 绑定微信:需要提前准备一个闲置的微信,因为这种方法是非官方接口,有可能微信号会受到官方限制。点击容器,可以看到运行的是两个服务。点击“wcandyaibot”后面的日志按钮,在弹出层中用提前预备好的微信进行扫码。这个界面不会实时显示,为了验证是否成功,需要手动刷新一下。点击“刷新日志”,就能看到“WeChat login success”,提示微信登录成功。为了确保微信是否实时在线,点击“日志管理”的“wcandyaibot”的“刷新日志”。如果显示“wechat login seccess”则表示微信正常登录中。
2024-09-28
bot接入微信机器人,能用语音聊天吗
Bot 接入微信机器人可以实现语音聊天。具体步骤如下: 1. 登录宝塔面板,在宝塔面板中可视化控制云服务器,部署 docker 容器,启动 COW 项目与微信取得关联。 2. 点击“Docker”中的“项目模板”中的“添加”按钮。 3. 项目模板代码示例如下:将编译好的内容复制进来。 4. 在容器中创建容器,选择容器编排,填入模板和名称,确定。 5. 现实运行成功后,点击容器,可以看到运行的是两个服务。 6. 点击“wcandyaibot”后面的日志按钮,在弹出层中用提前预备好的微信进行扫码。此界面不会实时更新显示,需要手动刷新一下。点击“刷新日志”,如果看到“WeChat login success”,就成功将 Bot 接入微信中了。 7. 如果扫描二维码出现预料之外的情况,可以退回到容器配置处,重启容器服务,然后重新扫码登录。 8. 若想修改 COW 组件的配置,比如修改机器人回复的前缀或开启语音识别等,进入对应的编排模板的配置界面,点击模板编辑,修改对应的配置参数,点击保存,然后回到容器编排界面重新部署新的容器编排即可。 至此,完成 COW 组件的部署和微信号的绑定,就可以开始与机器人微信号进行语音聊天了。
2024-09-09
如何将扣子搭建的agent接入微信,成为一个有微信号的真人
以下是将扣子搭建的 agent 接入微信的一般步骤: 1. 在 Dify 的官网,可找到手把手教您将 Dify 应用接入微信生态的教程: 创建聊天助手应用:在 Dify 平台创建基础编排聊天助手应用,获取 API 密钥和 API 服务器地址。 下载 Dify on WeChat 项目:下载并安装依赖。 填写配置文件:在项目根目录创建 config.json 文件,填写 API 密钥和服务器地址。 把基础编排聊天助手接入微信:快速启动测试,扫码登录,进行对话测试,可以选择源码部署或 Docker 部署。 把工作流编排聊天助手接入微信:创建知识库,导入知识库文件,创建工作流编排聊天助手应用,设置知识检索节点和 LLM 节点,发布更新并访问 API。 把 Agent 应用接入微信:创建 Agent 应用,设置对话模型和添加工具,生成 API 密钥,填写配置文件,启动程序并进行测试。更多内容请访问原文:https://docs.dify.ai/v/zhhans/learnmore/usecases/difyonwechat 2. 零成本、零代码搭建智能微信客服的实操步骤: 注意:目前需要企业认证,才可以进行接入微信客服。如果企业没有进行认证,则会在配置回调 URL 时报错:回调域名校验失败。另外,之前未进行企业认证就发布过微信客服的不受影响。 第一次设置成功后,后面再修改的页面操作: 到微信客服的客服账号,创建一个客服账号,复制客服账号名称,到 coze 的页面粘贴,点击保存。 保存后,在 coze 发布页面的发布平台的微信客服这里,显示“已配置”,剩下的就是勾选,点击发布。 发布成功后,接下来就是体验了,可以点击微信客服旁边的立即对话、复制 Bot 链接,会弹出来该微信客服的二维码,扫码即可立即体验。
2024-08-23
coze接入微信机器人
要将 Coze 接入微信机器人,您可以参考以下步骤: 1. 获取机器人 ID:在个人空间中找到要接入微信的机器人,点击进入机器人编辑界面,浏览器地址栏“bot/”之后的数据即为该机器人的 Bot ID。 2. Docker 中配置 COW 组件: 登录宝塔面板,在上面部署 docker 容器,启动 COW 项目与微信取得关联。 点击“Docker”中的“项目模板”中的“添加”按钮。 将编译好的内容复制进来。 在容器中创建容器,选择容器编排,填入模板和名称,确定。 查看运行状态,点击容器后,可看到运行的服务。点击“wcandyaibot”后面的日志按钮,用微信扫码。手动刷新查看是否显示“WeChat login success”,若显示则接入成功。 3. 其他准备步骤: 回到宝塔,选择 Docker,若显示未安装则进行安装,安装完成后刷新页面确认安装成功。 回到宝塔终端,粘贴代码并回车。 去文件列表,到根目录/data/cozediscordproxy 文件夹。 新建文件 dockercompose.yml,双击打开并粘贴代码,替换相关的 ID 和 token 后保存。 在文件位置上方点击终端,一行一行粘贴相关代码。若启动失败,可能是 docker 拒绝代理访问问题,可先关掉 clash 再执行代码。 进入相关文件夹和文件进行配置和替换。
2024-08-10
fastgpt如何接入微信
要将 FastGPT 接入微信,可按照以下步骤进行: 1. 搭建 OneAPI:这是为了汇聚整合多种大模型接口,方便后续更换使用各种大模型。同时了解如何白嫖大模型接口。 2. 搭建 FastGpt:这是一个知识库问答系统,将知识文件放入,并接入上面的大模型作为分析知识库的大脑,用于回答问题。如果不想接到微信,搭建完此步也有问答界面。 3. 搭建 chatgptonwechat 接入微信,配置 FastGpt 把知识库问答系统接入到微信。建议先用小号以防有封禁风险。搭建完后想拓展功能,可参考 Yaki.eth 同学的教程,其中的 cow 插件能进行文件总结、MJ 绘画等。 具体操作步骤如下: 回到宝塔,打开【终端】: 依次粘贴并回车:cd /root 粘贴:git clone https://github.com/zhayujie/chatgptonwechat 出现特定样子表示成功,若失败或没反应,刷新重试。 继续依次输入:cd chatgptonwechat/ 、pip install r requirements.txt 、pip install r requirementsoptional.txt 到“文件”菜单中执行,点击文件找到 root,进入 root 文件夹,找到 chatgptonwechat 文件夹,并进入。 点击文件夹上方功能栏中的【终端】(注意不是左侧一级菜单里的终端) 粘贴:cp configtemplate.json config.json ,关闭弹窗,刷新页面。在当前目录下,找到 config.json 文件。 双击文件,修改画红框的地方。建议小白直接复制以下配置:删除文件里的所有代码,复制下方的代码并粘贴到文件里。 然后用公网 ip:3000 打开 FastGpt,应用中,获取个对外的 API 接口(操作:应用>发布应用>Api 访问)。点击“新建”API 秘钥,复制 API KEY 和新建按钮旁边的 API 根地址 2 个内容,用于配置接入微信。 点击文件夹上方功能栏中的【终端】,运行程序(注意不是左侧一级菜单里的终端) 返回扫描执行命令后“终端”内的二维码,完成登录。 最后可查看微信对话效果,回答是根据在 fastgpt 录入的文档内容。群里要记得@人才能得到回复。 注:如遇到网络问题,可把链接替换为国内镜像。如果某项依赖安装失败,可重新执行再继续。复制一份 config 文件,方便后续配置。
2024-08-10
开发者API接入,帮我写一段推广文本
以下是为您生成的关于开发者 API 接入的推广文本: 曾经,我们在做设计时幻想能用嘴完成设计,随便说几句话电脑就能帮忙画出。随着 AI 的出现,各种提示词插件应运而生。而现在,开发者带来了更强大的功能——提示词都由 AI 自动写好!比如 One Button Prompt 脚本。 安装方式便捷,在扩展面板中搜索 One Button Prompt 可直接安装,或者将下载好的插件放在“……\\sdwebuiakiv4\\extensions”路径文件夹下。安装完成后,重启 webUI,在脚本下拉菜单中就能找到该插件。 使用时,先体验一下。根据官方建议,大模型选择“deliberate”,采样方法设为“DPM++ SDE Karras”,采样步骤设为“25”,并将 CFG 比例降低到“6”。随机等级设为 5,下面还有分别定义主题类型、艺术类型和图像类型的三个下拉选项。您可以选择全随机试试手气,也能加一点自定义条件,比如让它画一幅动物主题的摄影作品。将模型换成“realisticVisionV20”,主题换成人物,再次生成。快来体验这便捷高效的开发者 API 接入吧!
2024-08-08
推荐一下国内可以通过对话微调的预训练模型
以下是为您推荐的国内可以通过对话微调的预训练模型相关信息: 为优化 Llama2 的中文能力,可使用以下数据: 网络数据:互联网上公开的网络数据,包括百科、书籍、博客、新闻、公告、小说等高质量长文本数据。 :中文 Wikipedia 的数据。 :中文悟道开源的 200G 数据。 :Clue 开放的中文预训练数据,经过清洗后的高质量中文长文本数据。 竞赛数据集:近年来中文自然语言处理多任务竞赛数据集,约 150 个。 :MNBVC 中清洗出来的部分数据集。 社区提供预训练版本 Atom7B 和基于 Atom7B 进行对话微调的模型参数供开放下载,关于模型的进展详见社区官网 https://llama.family。 另外,关于会话补全(Chat completions): gpt3.5turbo 和 textdavinci003 两个模型能力相似,但前者价格只是后者的十分之一,在大部分情况下更推荐使用 gpt3.5turbo。 gpt3.5turbo 模型不支持微调。从 2023 年 3 月 1 日起,只能对基于 GPT3.5 的模型进行微调。有关如何使用微调模型的更多细节,请参阅微调指南。 从 2023 年 3 月 1 日起,OpenAI 会将您通过 API 发送的数据保留 30 天但不会使用这些数据来提升模型。 关于安仔:Coze 全方位入门剖析 免费打造自己的 AI Agent(国内版): 目前国内版暂时只支持使用“云雀大模型”作为对话引擎,其携带上下文轮数默认为 3 轮,可修改区间是 0 到 30,具体轮数可根据业务需求决定。 在 Bot 编排页面的“技能”区域,可为 Bot 配置所需技能。不懂插件时,可选择区域右上角的“优化”按钮让 AI Bot 根据提示词自动选择插件。也可自定义添加所需插件,点击插件区域的“+”号选择加入具体插件。 在 Bot 编排页面的“预览与调试”区域,可测试 Bot 是否按预期工作,可清除对话记录以开始新的测试,确保 Bot 能理解用户输入并给出正确回应。
2024-10-18
推荐一下个人可以使用的通过对话微调的模型
以下是一些个人可以使用的通过对话微调的模型相关信息: 会话补全(Chat completions): GPT3.5 系列中,gpt3.5turbo 和 textdavinci003 有相似能力,但 gpt3.5turbo 价格仅为 textdavinci003 的十分之一,在多数情况下更推荐使用 gpt3.5turbo。不过,gpt3.5turbo 不支持微调,从 2023 年 3 月 1 日起,只能对基于 GPT3.5 的模型进行微调。 微调(Finetuning): 案例研究: 客户支持聊天机器人:通常包含相关上下文、对话摘要及最近消息,可能需要几千个示例处理不同请求和客户问题,建议审查对话样本确保代理消息质量,可使用单独文本转换微调模型生成摘要。 基于技术属性列表的产品描述:将输入数据转换为自然语言很重要,确保完成基于所提供描述,若常查阅外部内容,自动添加此类内容可提高性能,若描述基于图像,提取图像文本描述可能有帮助。 模型(Models): GPT3.5 模型可理解和生成自然语言或代码,其中功能最强大、最具成本效益且针对聊天优化的型号是 gpt3.5turbo,建议使用它而非其他 GPT3.5 模型,因其成本更低。 gpt3.5turbo:功能强大,针对聊天优化,成本低,会使用最新模型迭代更新,最大 Token 数 4096,训练数据截至 2021 年 9 月。 gpt3.5turbo0301:2023 年 3 月 1 日的快照,不会更新,仅在 2023 年 6 月 1 日结束的三个月内提供支持,最大 Token 数 4096,训练数据截至 2021 年 9 月。 textdavinci003:能完成任何语言任务,支持文本中插入补全,最大 Token 数 4097,训练数据截至 2021 年 6 月。 textdavinci002:与 textdavinci003 类似,使用监督微调而非强化学习训练,最大 Token 数 4097,训练数据截至 2021 年 6 月。 codedavinci002:针对代码完成任务优化,最大 Token 数 8001,训练数据截至 2021 年 6 月。 请注意,OpenAI 模型具有不确定性,相同输入可能产生不同输出,将温度设置为 0 可使输出大部分具有确定性,但可能仍有少量可变性。
2024-10-18
个人使用可以通过对话微调的大模型
大模型是指输入大量语料,使计算机获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。可以用“上学参加工作”来类比大模型的训练和使用过程: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练。 2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:用合适的算法让大模型更好理解 Token 之间的关系。 4. 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:完成就业指导后,进行如翻译、问答等工作,在大模型里称为推导(infer)。 在 LLM 中,Token 被视为模型处理和生成的文本单位,能代表单个字符、单词、子单词等,具体取决于分词方法。将输入分词时会数字化形成词汇表。 个人动手实验方面: macOS 系统可采用 GGML 量化后的模型。有名的项目如 ggerganov/llama.cpp:Port of Facebook's LLaMA model in C/C++ ,首先编译,利用 Metal 的 GPU 用相应命令编译,然后去下载模型,还提供了 WebUI,启动 server 后默认监听 8080 端口,打开浏览器可对话。 Whisper 与 llama 类似,用 make 命令编译,去指定地址下载量化好的模型,转换音频,目前只接受 wav 格式,可用 ffmpeg 转化。 张梦飞的教程《用聊天记录克隆自己的 AI 分身》全程本地操作,目标是把微信聊天记录导出,用其微调模型,最终接入微信替你回复消息。
2024-10-18
国内能通过对话微调的语言大模型
以下是国内一些能通过对话微调的语言大模型: 教育领域:桃李(Taoli) 地址: 简介:在国际中文教育领域数据上进行了额外训练的模型,基于国际中文教育教材等构建资源库和问答数据集,并利用数据进行指令微调,让模型习得将知识应用到具体场景中的能力。 数学领域:chatglmmaths 地址: 简介:基于 chatglm6b 微调/LORA/PPO/推理的数学题解题大模型,样本为自动生成的整数/小数加减乘除运算,可 gpu/cpu 部署,开源了训练数据集等。 文化领域:Firefly 地址: 简介:中文对话式大语言模型,构造了许多与中华文化相关的数据,如对联、作诗、文言文翻译、散文、金庸小说等,以提升模型在这方面的表现。 金融领域: Cornucopia(聚宝盆) 地址: 简介:开源了经过中文金融知识指令精调/指令微调的 LLaMA7B 模型。通过中文金融公开数据+爬取的金融数据构建指令数据集,并在此基础上对 LLaMA 进行了指令微调,提高了 LLaMA 在金融领域的问答效果。基于相同的数据,后期还会利用 GPT3.5 API 构建高质量的数据集,另在中文知识图谱金融上进一步扩充高质量的指令数据集。 BBTFinCUGEApplications 地址: 简介:开源了中文金融领域开源语料库 BBTFinCorpus,中文金融领域知识增强型预训练语言模型 BBTFinT5 及中文金融领域自然语言处理评测基准 CFLEB。 XuanYuan(轩辕) 地址: 简介:国内首个开源的千亿级中文对话大模型,同时也是首个针对中文金融领域优化的千亿级开源对话大模型。在 BLOOM176B 的基础上针对中文通用领域和金融领域进行了针对性的预训练与微调,不仅可以应对通用领域的问题,也可以解答金融相关的各类问题,为用户提供准确、全面的金融信息和建议。
2024-10-18
我的app应用想要对接大语言模型,结合APP用户自身的数据,实现更精准的对话,是否有行业比较成功的案例可以借鉴
以下是一些在 APP 应用对接大语言模型方面比较成功的案例,可供您借鉴: 1. Poe: 由 Quora 开发,有 APP 版本,支持跨端使用。 集成了 Chat GPT、GPT4、Claude+、Claude、Dragonfly 等模型,同时支持用户自建 Chatbot。 不同语言模型回复效果有差异,适合需要调用多种大语言模型的用户。 Dragonfly 擅长给出较短的回答,并擅长在输入中给出示例时遵循指示。 Claude 更擅长创造性回复,配合 Poe 中的提问引导,非常适合在查阅资料时使用。 支持分享用户和模型的对话内容,但 GPT4、Claude+产品需要付费订阅使用。 访问地址: Poe 中的提问引导真的能够启发到用户,midjourney prompt 扩写 Chatbot 能力很惊人。 2. Perplexity.ai: 本质是个可联网的搜索引擎,完全免费,支持网页版、APP(目前支持 iOS,安卓即将推出)、Chrome 插件。 网页版能力全面,能够根据提问从互联网上搜寻信息并给出总结后的答案。 很多 Chat GPT 中调用插件才能解决的事情(联网查询、旅行、住宿、商品推荐)靠 Perplexity 就可以解决。 能给出信息来源网址,并根据搜索内容给出继续对话的问题建议。 最新推出的 Copilot 能力支持根据搜索内容进行信息补充,每 4h 内使用 5 次,调用 GPT4。 支持分享聊天内容到多渠道。 首页推荐当下流行的新闻、搜索内容。 支持筛选 Academic(包含不同领域的学术研究论文)、Wolfram|Alpha(包含数学、科学、经济学、语言学、工程学、社会科学、文化等领域的知识库)、Wikipedia(维基百科)、Youtube、Reddit(娱乐、社交和新闻网站)、News 进行搜索。 Chrome 插件可针对当前页面给出即时摘要。 访问地址:
2024-10-18
大模型合规
大模型的安全问题包括以下方面: 1. 对齐保障:通过对齐(指令调优),如 ChatGPT 从 GPT3 经过对齐而来,使其更好地理解人类意图,增加安全保障,确保不输出有害内容。对齐任务可拆解为监督微调及获取奖励模型和进行强化学习来调整输出分布。例如 LLAMA2 使用安全有监督微调确保安全,强化学习能让模型根据人类反馈更细粒度思考答案的安全性,面对训练分布外数据也能拒绝不当回答。 2. 数据过滤:在预训练阶段对数据进行过滤,如 baichuan2 采用此技术减少有害输出,但因数据关联性,仅靠此方法可能不够,模型仍可能从关联中学到有害内容,且面对不良信息时可能因缺少知识而处理不当。 3. 越狱问题:用户可能通过越狱(Jailbreak)使模型的对齐失效,重新回答各种问题。 大模型的特点包括: 1. 架构:分为 encoderonly、encoderdecoder、decoderonly 三类,目前熟知的 AI 助手多为 decoderonly 架构,由 transformer 衍生而来。 2. 规模:预训练数据量大,来自互联网的多种来源,且参数众多,如 GPT3 已达 170B 的参数。 GPT3 与 ChatGPT 相比,除形式不同外,安全性也有差别。
2024-10-18
我是一名企业任用岗人,需要作一版关于AI在任用管理(包括员工入职管理,员工异动管理,员工转正管理,员工离职管理,员工合同续签管理)工作中的成果展示,进行简易的分享;我不知道如何分享,且分享的表述如何简洁而不失重点。
以下是一些 AI 在不同工作场景中的应用案例,可作为您在任用管理工作成果展示中的参考: 营销:定制营销报告,涵盖汇报对象身份、销售数据、财务报告、市场分析、客户反馈、营销效果评估等方面。 办公:高效做 PPT,利用 ChatGPT 生成 Markdown 语法内容,再借助 MindShow 转换为精美 PPT;编写 Excel 公式,通过交互和迭代获取准确公式;写邮件,满足特定需求。 办公:会议总结,包括会议主题、参与人员、讨论议题、关键观点等要素。 项目管理:通过创建和维护跨团队项目协作计划,明确员工角色和职责。 销售:话术总结优缺点,考虑产品特点、服务优势、目标客户需求等因素;定制销售解决方案,综合企业产品和服务等内容。 客服:定制客服话术,涵盖产品知识、售后服务等 13 个关键词库。 HR:团队绩效管理,根据往期数据分析员工绩效排名并给出考评和改进建议;面试工具,如使用 GPT4 技术的实时转录工具辅助求职者。 科学:研制采摘机器人,如荷兰代尔夫特大学和瑞士洛桑联邦理工学院科学家的探索;设计航天器零部件,提高设计效率和创新度。
2024-10-16
企业知识库提示词
以下是为您整理的关于企业知识库提示词的相关内容: 知识探索专家:由李继刚创作,专门用于提问并解答有关特定知识点,会提出并尝试解答有关用户指定知识点的三个关键问题:其来源、其本质、其发展。相关链接: 提示词模板相关网站: 小七姐相关的提示词知识库文章索引:
2024-10-07
我想通过AI帮我找工作,首先我想要了解当前存在哪些行业?这些行业下面的各自有哪5家头部企业?
目前存在众多行业,以下为您列举部分常见行业及其头部企业(排名不分先后): 1. 互联网行业:阿里巴巴、腾讯、百度、字节跳动、京东。 2. 金融行业:中国工商银行、中国建设银行、中国农业银行、中国银行、交通银行。 3. 制造业:华为、海尔、格力、美的、三一重工。 4. 医疗行业:恒瑞医药、迈瑞医疗、药明康德、复星医药、云南白药。 5. 能源行业:中国石油、中国石化、国家电网、中国海油、中国神华。 需要注意的是,行业的划分和头部企业的认定会随着市场变化而有所不同。您可以根据自身的专业和兴趣,进一步利用 AI 工具深入了解特定行业和企业的招聘信息。
2024-09-29
AI 助力中小企业
以下是关于 AI 助力中小企业的相关内容: 一、提高效率和自动化流程 1. 业务流程优化 通过利用 AI 工具,中小企业可以显著提高工作流程的效率和有效性。 AI 工具在识别和解决流程中的问题方面具有前所未有的准确性和深度,有助于企业实现更精细化的管理。 二、数据驱动决策 1. 数据分析和洞察 中小企业能够借助 AI 将大量数据转化为实际的商业价值,更精确地定位市场和客户,优化产品和服务。 利用 AI 进行数据分析和洞察可帮助企业做出更明智的决策,并快速适应市场变化。 此外,生成式 AI 对于中小企业也是一个重要的助力。工具服务小型企业将是生成式 AI 的一个杀手级用例。在美国,有 3200 万家小型企业,它们自 2000 年以来创造了超过一半的净新增工作岗位。它们在经济中至关重要,但往往人手不足且工作繁重,尤其是在近期劳动力短缺的情况下。AI 工具可以为许多这样的企业带来即时的影响,例如:Sameday 可以接电话并预约;Truelark 可以处理短信、电子邮件和聊天;Osome 可以管理后台办公室;Durable 可以创建一个完整的专业网站。
2024-09-21
企业内部知识库和 AI 问答结合,有哪些成熟的解决方案,或者产品推荐?
以下是企业内部知识库和 AI 问答结合的一些成熟解决方案和产品推荐: Contextual Answers:这是一个端到端的 API 解决方案,其答案完全基于组织知识,能避免“幻觉”。全球信息服务提供商 Clarivate 与其合作,将其应用于图书馆解决方案套件,为学生、教师和研究人员提供基于策划和可信学术内容的问题答案。 职业规划类产品:结合用户个人情况和市场需求制定详细职业发展计划,包括短、中、长期目标,帮助用户在 AI 时代找到职业定位。其核心构思在于利用企业已有知识积累结合大模型能力,为用户提供准确简洁答案。具体通过创建企业私有知识库收录问答记录和资料,利用大模型处理用户咨询问题,确保回答准确一致,必要时提供原回答完整版,还能对接人工客服,在智能助手无法解决问题时快速转接,提升服务质量和客户满意度。
2024-09-14
有推荐商业版企业知识库系统吗
目前在商业版企业知识库系统方面,常见的有以下几种推荐:Confluence、Notion、Microsoft SharePoint 等。Confluence 功能强大,协作性好;Notion 具有高度的灵活性和自定义性;Microsoft SharePoint 则与微软的其他办公软件集成紧密。您可以根据企业的具体需求和使用习惯来选择适合的知识库系统。
2024-09-14