Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

飞书如何接入大模型?

Answer

飞书接入大模型的步骤如下:

  1. 搭建OneAPI,用于汇聚整合多种大模型接口,并获取白嫖大模型接口的方法。
  2. 搭建FastGpt作为知识库问答系统,将知识文件放入其中,并接入上面的大模型。如果不想接入微信,搭建到这里即可,它有问答界面。
  3. 搭建chatgpt-on-wechat接入微信,并配置FastGpt将知识库问答系统接入微信。建议先用小号以防封禁风险。完成上述3步即可。

另外,对于将相关内容发布到飞书:

  1. 目标是发布到飞书并在飞书中调用。
  2. 尝试发布,在页面右上角点击发布,若飞书未授权则点击配置,然后再次点击发布。
  3. 发布成功后可在飞书工作台中找到并使用。但可能存在与所说步骤不完全一致的情况,可通过workflow解决。

对于重度用户,工作流的最好教程参见官方文档:https://www.coze.cn/docs/guides/welcome 。工作流可以解决大模型调用写邮件插件时可能出现的速度慢和可能出错等问题,例如采取工作流+代码的组合方法,将用户原始输入直接传送给插件WebPilot,并通过另一个工作流AI Project进行样式注入等。

Content generated by AI large model, please carefully verify (powered by aily)

References

DIN:全程白嫖 - 拥有一个AI大模型的微信助手

1.搭建[OneAPI](https://github.com/songquanpeng/one-api),这东西是为了汇聚整合多种大模型接口,方便你后面更换使用各种大模型。下面会告诉你怎么去白嫖大模型接口。2.搭建[FastGpt](https://fastgpt.in/),这东西就是个知识库问答系统,你把知识文件放进去,再把上面的大模型接进来,作为分析知识库的大脑,最后回答你问题,这么个系统。如果你不想接到微信去,自己用用,其实到这里搭建完就OK了,他也有问答界面。3.搭建[chatgpt-on-wechat](https://github.com/zhayujie/chatgpt-on-wechat),接入微信,配置FastGpt把知识库问答系统接入到微信。这里建议先用个小号,以防有封禁的风险。搭建完后想拓展Cow的功能,我推荐Yaki.eth同学这篇教程[Yaki:GPT/MJ接入微信](https://waytoagi.feishu.cn/wiki/UADkwZ9B0iAWdTkFJIjcN7EgnAh),里面的cow插件能进行文件总结、MJ绘画的能力。完成上面3步就算OK了,那我们正式开始。

大聪明:保姆级教程:Coze 打工你躺平

目标🏆没错,就是发布到飞书,然后在飞书里调用它尝试发布页面的右上角点发布发现飞书没有授权,得处理下,点配置配置飞书页面的右上角点发布这样就可以点发布了片刻功夫,便通过了在飞书里使用你可以在工作台里找到这个Bot,然后开始对话吧~它成功了!不过你仔细看,这里并没有严格按照我所说的来(可通过workflow解决)它是「Instructions」[heading1]Step3:【进阶】工作流&代码[content]对于轻度用户,你并不需要工作流对于重度用户,工作流的最好教程参见官方文档:https://www.coze.cn/docs/guides/welcome为什么我用工作流这里举个例子,当大模型调用写邮件的插件时,可能出现以下问题:速度慢:虽然内容已经生成好了,但调用插件时仍然会重新生成可能错:大模型经常会输出一些不正确的文字,如果这些内容在比如邮件地址上,会造成较为严重的影响为了减少这些问题,我会采取一些工作流+代码的组合方法我的工作流(仅供参考,轻度用户可直接略过)这是主工作流,将用户的原始输入,直接传送给插件WebPilot。其中,用另一个另一个工作流AI Project进行样式注入这是AI Project工作流,是将用户的输入,通过代码的方式,加上样式信息这个是中间用到的python代码这个是结合这个工作流,修改的「人设与回复逻辑」优化好之后,就能以更快的速度,进行更好的输出了,就比如这个

大聪明:保姆级教程:Coze 打工你躺平

目标🏆没错,就是发布到飞书,然后在飞书里调用它尝试发布页面的右上角点发布发现飞书没有授权,得处理下,点配置配置飞书页面的右上角点发布这样就可以点发布了片刻功夫,便通过了在飞书里使用你可以在工作台里找到这个Bot,然后开始对话吧~它成功了!不过你仔细看,这里并没有严格按照我所说的来(可通过workflow解决)它是「Instructions」[heading1]Step3:【进阶】工作流&代码[content]对于轻度用户,你并不需要工作流对于重度用户,工作流的最好教程参见官方文档:https://www.coze.cn/docs/guides/welcome为什么我用工作流这里举个例子,当大模型调用写邮件的插件时,可能出现以下问题:速度慢:虽然内容已经生成好了,但调用插件时仍然会重新生成可能错:大模型经常会输出一些不正确的文字,如果这些内容在比如邮件地址上,会造成较为严重的影响为了减少这些问题,我会采取一些工作流+代码的组合方法我的工作流(仅供参考,轻度用户可直接略过)这是主工作流,将用户的原始输入,直接传送给插件WebPilot。其中,用另一个另一个工作流AI Project进行样式注入这是AI Project工作流,是将用户的输入,通过代码的方式,加上样式信息这个是中间用到的python代码这个是结合这个工作流,修改的「人设与回复逻辑」优化好之后,就能以更快的速度,进行更好的输出了,就比如这个

Others are asking
我是否可以在飞书上传我的相关文档,然后把这些文档作为知识库进行对话,若可以,如何操作
在飞书上可以上传您的相关文档并将其作为知识库进行对话。具体操作如下: 1. 您需要一个额外的软件:AnythingLLM。其安装地址为:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步: 第一步:选择大模型。 第二步:选择文本嵌入模型。 第三步:选择向量数据库。 2. 在 AnythingLLM 中,有一个 Workspace 的概念,您可以创建自己独有的 Workspace 与其他项目数据进行隔离。操作步骤为: 首先创建一个工作空间。 上传文档并且在工作空间中进行文本嵌入。 选择对话模式,AnythingLLM 提供了两种对话模式: Chat 模式:大模型会根据自己的训练数据和您上传的文档数据综合给出答案。 Query 模式:大模型仅仅会依靠文档中的数据给出答案。 测试对话。 3. 另外,您还可以参考以下操作在飞书上创建知识库并上传文本内容: 登录 。 在左侧导航栏的工作区区域,选择进入指定团队。 在页面顶部进入知识库页面,并单击创建知识库。在弹出的页面配置知识库名称、描述,并单击确认(一个团队内的知识库名称不可重复,必须是唯一的)。 在单元页面,单击新增单元。 在弹出的页面选择要上传的数据格式(默认是文本格式),然后选择一种文本内容上传方式完成内容上传。上传方式如下: 本地文档: 在文本格式页签下,选择本地文档,然后单击下一步。 将要上传的文档拖拽到上传区,或单击上传区域选择要上传的文档。目前支持上传.txt、.pdf、.docx 格式的文件内容,每个文件不得大于 20M,一次最多可上传 10 个文件。当上传完成后单击下一步。 选择内容分段方式: 自动分段与清洗:系统会对上传的文件数据进行自动分段,并会按照系统默认的预处理规则处理数据。 自定义:手动设置分段规则和预处理规则。分段标识符:选择符合实际所需的标识符。分段最大长度:设置每个片段内的字符数上限。文本预处理规则:替换掉连续的空格、换行符和制表符,删除所有 URL 和电子邮箱地址。单击下一步完成内容上传和分片。
2025-01-07
怎么把小ai接进飞书里?
要将小 AI 接入飞书,可参考以下步骤: 1. 注册 AI 模型: 进入智普 AI:https://open.bigmodel.cn/ 。 点击开始使用,注册登录。 按照要求进行认证,点击控制台,查看 API key,点击添加新的 API key 并复制,将编码暂时保存备用。 2. 注册云服务器: 新用户点击去注册腾讯云: 。 微信扫码注册,首次注册选择第一个,地域随便选择,镜像选择下拉框最上边的宝塔 8.1.0 后点击立即试用。 进入腾讯云服务台登录,可直接登录或微信扫码登录。 在当前页面,复制 sudo/etc/init.d/bt default 粘贴回车,保存输出内容。 返回服务器控制台,点击箭头指示的空白区域,选择“防火墙”菜单栏,点击【添加规则】按钮,点击新增,手动输入图中大红框内的内容并确定。 3. 开始部署(这里继续): 删除上图文件里的所有代码,复制下边的代码粘贴到文件里,找到第 4 行,把注册并保存好的智谱 API key 粘贴到双引号里,修改完点击保存关闭文件。 依然在当前文件的【终端】里,依次复制粘贴:cd plugins/godcmd ,cp config.json.template config.json 。 操作完成后,退出窗口,刷新一下。进入/root/chatgptonwechat/plugins/godcmd ,双击 config.json,进入后设置 password 和 admin_users ,可设置为和示例一样,点击保存后关闭。 重新回到/root/chatgptonwechat/这个文件路径下,点击终端,依次粘贴:touch nohup.out ,nohup python3 app.py&tail f nohup.out 。 最下方会出现一个二维码,使用想要做机器人的微信扫码登录。 4. 登录成功后,找另一个人私聊或者在群中@您,就可以看到机器人的正常回复。如果想为这个 AI 赋予什么样的提示词,可以返回“目录 4 里的第 17 步”,其中的中文部分,便是设置 AI 提示词的地方,可以进行更改。此后,进行任何更改,都需要“返回首页 右上角 点击重启,重启一下服务器”。 5. 再往后就是添加插件了, 。
2024-12-30
在coze中如何接入飞书插件
在 Coze 中接入飞书插件的步骤如下: 1. 企业微信群聊机器人插件: 到语聚 ai 的第三方 api 集成平台上添加工具动作。 在平台上测试相关动作,获得返回的 API 请求的 python 代码。 按步骤集成到 Coze 的插件创建平台中。 2. 飞书多维表格插件: 使用 Coze 在 Coze IDE 中创建模式创建插件。 根据飞书开放者文档的要求在 Coze IDE 平台中用 handler 的方式编写 python 代码,配置项目依赖。 在 metadata 中配置输入和输出端信息。 最后测试发布成功。 此外,还有以下相关内容供您参考: 1. 通过已有服务 api 创建 Coze 插件: 进入 Coze,个人空间中,选择插件。新建一个插件,起个名字 api_1(名字可随意,描述叫 test)。 在插件的 URL 部分,填入刚才 ngrok 随机生成的 https 的链接地址。 按照指引配置输出参数,测试后发布插件。 手捏插件搞定之后,就可以创建 bot,将创建的插件接进来,在 prompt 里面让它调用插件。 2. 大聪明的保姆级教程: 先创建第一个 bot,然后不断精进。 如创建一个 Coze Bot 帮查阅 Hacker News 并中文返回,可引入联网插件 WebPilot 实现。
2024-12-23
如何用coze的智能体自动存储在飞书智能表格里
要将 Coze 的智能体自动存储在飞书智能表格里,可参考以下步骤: 1. 前期准备: 设计 AI 稍后读助手的方案思路,包括简化“收集”,实现跨平台收集功能,支持电脑(web 端)、安卓、iOS 多端操作,输入 URL 完成收集,借鉴微信文件传输助手通过聊天窗口输入;自动化“整理入库”,系统在入库时自动整理每条内容的关键信息,包括标题、摘要、作者、发布平台、发布日期、收集时间和阅读状态,且支持跨平台查看;智能“选择”推荐,根据收藏记录和用户阅读兴趣生成阅读计划。 发现同在字节生态中的 Coze、飞书、飞书多维表格可构建完整的 AI 工作流,通过飞书机器人与 Coze 搭建的智能体对话,在聊天窗口完成链接输入和阅读计划输出,由 Coze 调用大模型、插件完成内容整理、推荐,利用飞书多维表格存储和管理稍后读数据,理论上无需开发插件、APP 就能实现跨平台的稍后读收集与智能阅读计划推荐。 2. 逐步搭建 AI 智能体: 搭建整理入库工作流,设置大模型节点提取稍后读元数据,使用 MiniMax 6.5s 245k,设置最大回复长度至 50000 以解析长内容网页。 进行日期转时间戳,使用「日期转时间戳time_stamp_13」插件进行格式转化,因后续的飞书多维表格插件节点入库日期字段只支持 13 位时间戳。 把稍后读元数据转换为飞书多维表格插件可用的格式,飞书多维表格插件目前只支持带有转义符的 string,以 Array<Object>格式输入,需将元数据数组进行格式转换。 添加「飞书多维表格add_records」插件,设置{{app_token}}与{{records}}参数。 结束节点返回入库结果,「飞书多维表格add_records」插件返回入库结果,用于通知外层 bot 工作流的入库是否成功,别忘了对整个工作流进行测试。
2024-12-17
怎么对飞书知识库进行对话问答
以下是关于飞书知识库进行对话问答的相关内容: 1. 关于飞书智能伙伴创建平台: 飞书智能伙伴创建平台(Aily)是飞书团队旗下的企业级 AI 应用开发平台,提供简单、安全且高效的环境,帮助企业构建和发布 AI 应用,推动业务创新和效率提升。 云雀是字节跳动研发的语言模型,能通过自然语言交互高效完成互动对话、信息获取、协助创作等任务。 2. 如何使用问答机器人: 方法 1:在 WaytoAGI 飞书知识库首页找到加入飞书群的链接(最新二维码在知识库首页),加入后直接@机器人。 方法 2:在 WaytoAGI.com 的网站首页,直接输入问题即可得到回答。 3. 问答机器人的作用: 知识库内容庞大,新用户难以快速找到所需内容。 传统搜索基于关键词及相关性,存在局限性。 采用更先进的 RAG 技术,在群中提供便捷的信息检索方式。 4. 在 AI 商用级问答场景中让回答更准确: 问答机器人的配置包括 AI 模型、提示词和知识库。 大语言模型如同拥有无穷智慧的人,提示词可让其成为所需“员工”,知识库则是工作手册。 例如设定使用阿里千问模型,提示词角色为“美嘉”,知识库为《爱情公寓》全季剧情。 5. 实现知识库问答: 知识库问答利用大模型的 RAG 机制,即“检索增强生成”技术,结合检索和生成提高机器对话和信息处理能力。 先从大型数据集中检索与问题相关的信息,再利用这些信息生成回答,可想象成先在巨大图书馆找相关书籍再给出详细回答。 基于 RAG 机制,创建包含大量文章和资料的知识库,通过手工录入上传内容,并在设计 Bot 中添加知识库,设置合适的搜索策略、最大召回数量和最小匹配度,以结合知识库内容进行回答。
2024-12-03
coze如何实现触发自动推送内容到飞书聊天框?
要实现触发自动推送内容到飞书聊天框,可以参考以下步骤: 1. 创意构思:创建 Bot 的初衷是让用户拥有专属的资讯助手,通过 Coze 这样的 AI agent 流程,以多模态形式获取最新资讯,并自动推送到不同平台。该 Bot 项目以扣子为中心平台,通过自研插件、工作流和 Coze API 链接微信群、企业微信群、飞书云文档多维表格等,实现不同平台的信息传递与流通。可根据用户定制化检索需求,自动化抓取热点资讯,进行分析处理,整合成资讯文档,返回 Bot 对话界面,并同步自动发送到不同平台。 2. 效果呈现:Coze Bot 可通过不同提问触发不同检索功能,企业微信群能自动同步获得资讯检索结果,实现多平台联动,还能获取资讯文档具体内容,以及 Coze 与企业微信群的信息同步联动,Coze API 可接入微信进行对话交互检索。 3. 搭建工作流: 在 Bot 中绑定工作流,设置定时任务,发布到飞书渠道。 人设和回复逻辑:设置提示词,直接调用工作流。 工作流:添加创建的工作流。 设置触发器:选择“定时触发”,设定触发时间,如每天 18 点。任务执行时选择工作流,输入 key 和 rss_list 等参数。可同时设置多个触发器,最多 10 个。 发布到飞书:点击右上角“发布”,选择飞书渠道,因为目前 Coze 平台触发器只对飞书渠道生效。 4. 实现定时推送社区日报功能: 写一个爬虫的自定义插件抓取社区日报内容,以普通文本或 markdown 方式输出。 创建工作流,流程为开始>获取前一天日期>调用插件抓取日报内容>输出内容并结束。 在 Bot 设计界面添加触发器,设定定时触发时间,如每天早上 9 点,测试触发成功后发布到飞书,即可定时收到推送。
2024-11-28
如何接入大模型
接入大模型的方法如下: 1. 阿里云百炼模型: 注册阿里云账号:如果没有阿里云账号,您需要先。 开通百炼:前往,若页面顶部显示相关消息,需开通百炼的模型服务以获得免费额度。 获取 API Key:在控制台的右上角选择 APIKEY,然后创建 API Key,用于通过 API 调用大模型。 2. 千问模型: 百炼首页:https://bailian.console.aliyun.com/ 当在 COW 中直接调用千问的某一个大模型时,只需要更改 key 和 model 即可。以调用“qwenmax”模型为例,在/root/chatgptonwechat/文件夹下,打开 config.json 文件,需要更改"model",和添加"dashscope_api_key"。获取 key 的视频教程:,或查看自己是否已认证。 3. silicon 模型: 官方提供的接入 API 的教学文档:以平时使用的 silicon 接口为例,有众多开源模型(Yi、Qwen、Llama、Gemma 等)免费使用。另赠送 14 元体验金,有效期未知,是个人认为 API 接口最方便最实惠的接口了。 silicon 注册和使用地址:邀请码:ESTKPm3J(谢谢支持)注册登录后,单击左边栏的 API 密钥,单击新建 API 密钥,单击密钥即可完成 API 密钥的复制。silicon 支持多种大模型,也支持文生图、图生图、文生视频,可自行探索。这一步得到 silicon 的密钥即可,我们可以调用千问 2.5 的这个模型,满足日常对话完全没有问题,并且是免费调用的。 进入 github 复制 migpt 项目:打开官方仓库:https://github.com/idootop/migpt,Fork 项目到自己的账号。单击 Fork,单击右下角 Create fork,这样就已经把该项目 fork 到自己的仓库中了。找自己仓库项目的方法:进入主页,单击左上角的"三",单击 home,就可以看到刚才 fork 过来的 migpt 项目了,单击可进入项目页面。复制仓库地址:先确认是否在自己的仓库项目页面,再单击绿色的“code”按钮,再点击地址栏的复制按钮。
2025-01-04
Coze Agent接入个人微信
Coze 是一个 AI 智能体创作平台,可以根据需求构建多个 AI 机器人并发布到多种社交平台。微信作为多功能社交平台,其不同功能与 Coze 平台的对接情况有所不同。个人微信和微信群是日常常用的聊天工具,但此前 Coze 平台不支持直接对接。不过,Coze 国内版已正式发布 API 接口功能,使得对接个人微信甚至微信群成为可能。作者安仔分享了如何使用 Coze AI 机器人对接微信群,以回复个人或群组小伙伴的信息,解决社群运营问题。此外,如果对学习 Coze 和 AI Agent 有兴趣,可以加入作者的免费 AI Agent 共学群,通过搜索微信号 Andywuwu07 或扫描二维码加微信,备注 AI 共学即可。
2025-01-02
如果我用想用coze做一个家居行业的客服,接入到微信,怎么做
以下是使用 Coze 做一个家居行业的微信客服接入的步骤: 1. 访问微信客服 https://kf.weixin.qq.com/,点击开通。 2. 勾选同意,点击下一步。 3. 按步骤填写,勾选同意,注册企业微信。 4. 注册成功后,可能会出现“企业未认证,累计仅可接待 100 位客户,认证后可提升接待上限”的提醒,个人测试无需认证,不影响使用。 5. 完成上述步骤后,开始复制粘贴操作: 点击配置>到微信客服的企业信息,复制企业 ID>到 Coze 页面进行粘贴填写企业 ID,并点击下一步。 到微信客服的开发配置,找到回调配置,复制 Token、EncodingAESKey(如果为空,点击“随机获取”),到 Coze 页面进行粘贴,点击下一步。 到微信客服的开发配置,配置回调地址 URL、复制 Secret 到 Coze 的页面粘贴。 6. 第一次设置回调地址时需要注意:目前需要企业认证,才可以进行接入微信客服。如果企业没有进行认证,则会在配置回调 URL 时报错:回调域名校验失败。另外,之前未进行企业认证就发布过微信客服的不受影响。第一次设置成功后,后面再修改是特定页面。 7. 到微信客服的客服账号,创建一个客服账号,复制客服账号名称,到 Coze 的页面粘贴,点击保存。 8. 保存后,在 Coze 发布页面的发布平台的微信客服这里,显示“已配置”,剩下的就是勾选,点击发布。 需要注意的是,微信作为一个多功能的社交平台,其不同功能与 Coze 平台的对接情况有所不同。微信公众号、微信服务号、微信客服支持与 Coze 平台对接,而个人微信和微信群之前不支持直接对接,但 Coze 国内版正式发布 API 接口功能后,直接对接个人微信甚至微信群已成为可能。此次教程的相关部署方法对接国外版或国内版的 Coze 均适用,但对接国外版 Coze 平台需要部署的服务支持特定条件。
2024-12-29
coze如何接入大模型
要接入大模型,以下是相关步骤: 1. 对于直接调用大模型(之前完成过 coze 对接的同学,直接去二、百炼应用的调用): 百炼首页:https://bailian.console.aliyun.com/ 当在 COW 中直接调用千问的某一个大模型时,只需要更改 key 和 model 即可。以调用“qwenmax”模型为例,在/root/chatgptonwechat/文件夹下,打开 config.json 文件,需要更改"model",和添加"dashscope_api_key"。 获取 key 的方法: 视频教程: 图文教程:以下是参考配置及示意图。 注意:需要“实名认证”后,这些 key 才可以正常使用,如果对话出现“Access to mode denied.Please make sure you are eligible for using the model.”的报错,那说明没有实名认证,点击去,或查看自己是否已认证。 2. 在 Coze 上搭建工作流框架,设定每个节点的逻辑关系: 首先进入 Coze,点击「个人空间工作流创建工作流」,打开创建工作流的弹窗。 根据弹窗要求,自定义工作流信息,点击确认后完成工作流的新建。 左侧「选择节点」模块中,根据子任务需要,实际用上的有: 插件:提供一系列能力工具,拓展 Agent 的能力边界。本案例涉及的思维导图、英文音频,因为无法通过 LLM 生成,就需要依赖插件来实现。 大模型:调用 LLM,实现各项文本内容的生成。本案例的中文翻译、英文大纲、单词注释等都依赖大模型节点。 代码:支持编写简单的 Python、JS 脚本,对数据进行处理。 编辑面板中的开始节点、结束节点,则分别对应分解子任务流程图中的原文输入和结果输出环节。接下来,按照流程图,在编辑面板中拖入对应的 LLM 大模型、插件、代码节点,即可完成工作流框架的搭建。
2024-12-13
chatgpt-on-wechat接入coze相关教程
以下是 chatgptonwechat 接入 coze 的相关教程: 1. 登录宝塔面板,在宝塔面板中可视化控制云服务器,部署 docker 容器,启动 COW 项目与微信取得关联。 点击“Docker”中的“项目模板”中的“添加”按钮。 项目模板代码示例如下:将编译好的内容复制进来。 在容器中创建容器,选择容器编排,填入模板和名称,确定。 现实运行成功。 点击容器后,可以看到运行的是两个服务,因为接口文档中启动了两个服务。 然后点击“wcandyaibot”后面的日志按钮,在弹出层中用提前预备好的微信进行扫码。这个界面不会实时更新显示,需要手动刷新一下。点击“刷新日志”,如果看到 WeChat login success,就成功将 Bot 接入微信中了。 2. 点击“Docker”中的“编排模板”中的“添加”按钮。 备注说明版。 无备注干净版。 将上面编译好的内容复制进来。 在“容器编排”中“添加容器编排”。 选择在“编排模板”里创建的“coze2openai”。提示运行成功,如果无法正常启动,请看文档后面的“常见问题”。 3. 注意事项: 该教程默认您已经掌握通过 COW 接入微信机器人的方式了。如需补课请先前往:【共学最全版本】微信机器人跟学教程。 在 chatgptonwechat 中 config.json 中配置您自己的 Coze API Key 和 Coze Bot ID。 coze_api_key:“您创建的 Coze API Key”。 coze_bot_id:“您对应微信 Bot 的 Coze Bot 的 id”。
2024-12-11
免费的学术AI大模型
以下是一些免费的学术 AI 大模型: 1. 国内: 阿里、腾讯对新用户提供免费试用服务器,如腾讯云的。服务器系统配置选择【宝塔】系统。 阿里的接口,创建 API key。 也有免费接口,但大都限制一定免费额度的 Token。 2. 国外: 来操作。 此外,ProductHunt 2023 年度最佳产品榜单中的免费 AI 模型有: 1. GPT4(免费可用)——与人类水平相当的 LLM。 2. Midjourney v5(免费)——令人惊叹的逼真 AI 图像以及五指手。 3. DALL·E 3(免费可用)——轻松将想法转化为极其精准的图像。 4. Mistral 7B(免费)——迄今为止最优秀的 70 亿参数模型,Apache 2.0。 智谱·AI 开源模型列表可参考。Token 数代表了模型支持的总 Token 数量,包括输入和输出的所有 token,且一个 token 约等于 1.8 个汉字。
2025-01-08
跑本地大模型有哪些用处?
跑本地大模型具有以下用处: 1. 支持多种大型语言模型:如通义千问、Llama 2、Mistral 和 Gemma 等,可应用于不同场景。 2. 易于使用:适用于 macOS、Windows 和 Linux 系统,支持 CPU 和 GPU,方便在本地环境中启动和运行。 3. 丰富的模型库:提供多种不同参数和大小的模型,满足不同需求和硬件条件,可通过 https://ollama.com/library 查找。 4. 自定义模型:能通过简单步骤修改模型的温度参数等以调整创造性和连贯性,或设置特定系统消息。 5. API 和集成:提供 REST API 用于运行和管理模型,以及与其他应用程序的集成选项。 6. 社区贡献丰富:包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 Ollama 是一个开源框架,旨在简化本地运行大型语言模型的过程。它是轻量级、可扩展的,提供简单 API 创建、运行和管理模型,还有预构建模型库,降低使用门槛,适合初学者和非技术人员,适用于自然语言处理研究和产品开发。安装可通过官方下载地址 https://ollama.com/download ,安装后可通过相关链接判断是否成功。运行时在命令行输入相应命令,选择模型如 llama2 ,Ollama 会自动下载模型到本地。
2025-01-08
是不是可以跟任何大模型进行对话
一般来说,可以跟很多大模型进行对话。以下是一些常见的方式: 1. 对于 Llama3 大模型: 下载大模型主要是为了与之对话,或者称为使用其进行推理。 有两种对话方式,可使用 API 或部署简单界面。面向小白,这里主要介绍部署界面的方式。 例如,在 /root/autodltmp 路径下新建 chatBot.py 文件并输入相关内容,然后启动 Webdemo 服务,按照指示映射端口,在浏览器中打开相应链接即可看到聊天界面。 2. 对于 Llama 大模型: 首先编译,为利用 Metal 的 GPU 可用特定命令编译。 去指定网址下载模型。 llama.cpp 还提供了 WebUI 供用户使用,启动 server 后默认监听 8080 端口,打开浏览器就可以对话。 3. 对于通过 Open WebUI 使用大模型: 访问指定网址,使用邮箱注册账号。 登陆成功后,Open WebUI 一般有聊天对话和 RAG 能力(让模型根据文档内容回答问题)两种使用方式。如果要求不高,已实现通过 Web UI 与本地大模型对话的功能。 需要注意的是,不同大模型的访问速度和回答效果可能存在差异,例如 ChatGPT 访问速度快是因为其服务器配置高,回答效果好是因为训练参数多、数据更优以及训练算法更好。
2025-01-07
我想在dify里按照一个reranker模型,推荐哪个
在 Dify 中安装 reranker 模型,推荐使用中转服务商。Dify 的部署版本中,模型需自行配置,官方和中转的都支持,但中转服务商从性价比角度更优,充点小钱就能用上各种模型,价格通常有较大折扣,20 刀普通用户能用很久,还能在不同地方使用。若没有合适的中转服务商,可使用我自用的,点击原文即可。模型设置方面,在 Dify 右上角点击设置模型供应商,填入中转服务商提供的信息(一般包括 API base 或 Base URL 以及 key)并保存。若保存成功,回到主页面创建一个 Agent 测试,正常则大功告成。比如我填的 API base 是‘https://one.glbai.com’。
2025-01-07
文生图有哪些大模型
以下是一些常见的文生图大模型: 1. SD(StableDiffusion):如 majicmixRealistic_v6.safetensors 模型,可通过设置相关提示词、参数等生成图像。 2. 快手 Kolors:这是一个基于潜在扩散的大规模文本生成图像模型,在视觉质量、复杂语义准确性以及中英文字符的文本渲染方面有显著优势,支持中文和英文输入。其相关资源包括工作流与模型地址、文档说明、项目地址等。 开源代码:https://github.com/KwaiKolors/Kolors 模型权重:https://huggingface.co/KwaiKolors/Kolors 官方页面:https://kwaikolors.github.io/ 企业页面:https://kolors.kuaishou.com/
2025-01-07
文生图模型打分的排行榜
以下是关于文生图模型打分的排行榜相关信息: SuperCLUEImage 测评基准首次公布,DALLE 3 以 76.94 分高居榜首,显示其在图像生成质量、多样性和文本一致性方面的卓越表现。百度文心一格和 vivo 的 BlueLMArt 位列国内前列,但与国际领先模型仍有差距。 在包含人工评估、机器评估的全面评测中,Kolors 具有非常有竞争力的表现,达到业界领先水平。构建了包含 14 种垂类、12 个挑战项、总数量为一千多个 prompt 的文生图评估集 KolorsPrompts。 人工评测方面,邀请了 50 个具有图像领域知识的专业评估人员对不同模型的生成结果进行对比评估,衡量维度为画面质量、图文相关性、整体满意度三个方面。Kolors 在整体满意度方面处于最优水平,其中画面质量显著领先其他模型。具体平均分如下: AdobeFirefly:整体满意度平均分 3.03,画面质量平均分 3.46,图文相关性平均分 3.84。 Stable Diffusion 3:整体满意度平均分 3.26,画面质量平均分 3.5,图文相关性平均分 4.2。 DALLE 3:整体满意度平均分 3.32,画面质量平均分 3.54,图文相关性平均分 4.22。 Midjourneyv5:整体满意度平均分 3.32,画面质量平均分 3.68,图文相关性平均分 4.02。 Playgroundv2.5:整体满意度平均分 3.37,画面质量平均分 3.73,图文相关性平均分 4.04。 Midjourneyv6:整体满意度平均分 3.58,画面质量平均分 3.92,图文相关性平均分 4.18。 Kolors:整体满意度平均分 3.59,画面质量平均分 3.99,图文相关性平均分 4.17。所有模型结果取自 2024.04 的产品版本。
2025-01-07