Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

哪些应用或者是web服务可以使用api

Answer

以下是一些可以使用 API 的应用和 Web 服务:

  1. TMDB 提供了搜索电影的 API,其文档网址为 https://developer.themoviedb.org/reference/search-movie 。在该网站的开发者相关页面或 API 文档中,可获取 API 规则。通过在右上角的认证里能看到 API 读访问令牌,配置文件中包含了如 url、请求方法 get、查询参数 query 和 language 等。输入关键词和相关语言设置,如“奥本海默”和“zh-CN”,点击 Try it 即可获取数据,返回的数据格式为 JSON。
  2. RAG 加速器的数据抽取服务,基于 FastAPI 和 Postgresql 搭建,并提供了标准的 REST API 接口,附带有 docker-compose 文件方便搭建服务环境。该服务支持定义并持久化“抽取器”,包含抽取结构的图式(Schema)、抽取上下文的指令(Prompt)和抽取样例(Reference examples)。此外,提供了提交文件进行抽取的端点和通过 RemoteRunnable 使抽取服务在 LangChain Expression Language(LCEL)链中更易用的端点。预设了基于 MIME 类型的解析器,支持 PDF 和 HTML 文档的解析,还可扩展支持其他文件类型。使用时可通过 JSON 模式定义提取信息、指定样例提升提取结果质量,传入原始文本或二进制文件。

如果您对 Action 很感兴趣,可以从以下方向继续学习:

  1. 系统学习 API 相关知识。
  2. 在网上寻找可用的 API 进行练习。
  3. 发掘 GPT Action 的更多潜力。
Content generated by AI large model, please carefully verify (powered by aily)

References

像高手一样编写 GPT:从基础到实践,学习使用 GPT 的 Action

很简单,去官网找,API的规则一般都会写在网站的开发者相关的页面里或者API文档里,比如你可以从TMDB首页的“更多”进入,其它网站也大同小异。这个Action用到了TMDB的搜索电影API,文档的网址是:https://developer.themoviedb.org/reference/search-movie,下面是这个网址的内容:API文档都会很详细的告诉你如何使用他们的API,在左侧的导航部分你可以看到还有很多其他的API可以使用,我们先忽略,专注到右侧部分,点击图片可以放大。你可以在右上角的认证里看到你的API读访问令牌。也可以看到和我配置文件里相同的部分,包括url,请求方法get(红框),对应需要的查询参数query(蓝框)和language(黄框)。这个API的作用就是:Search for movies by their original,translated and alternative titles.——输入query关键词,如果成功,就会返回符合关键词的电影列表。在右侧RESPONSE(响应)这里也展示了当我们请求后响应的范例。我们可以在左边query输入“奥本海默”,Language填zh-CN,点一下Try it,就会“啪”的一下出来一大堆数据。这种数据格式叫做JSON,你只需要知道这种写法可以让程序很方便的读写就好,看起来有点复杂。——不过你仔细看一下,就会发现这个数据其实和脑图没有太大区别。还记得之前提到的键和值么?可以看到这里面返回了两条结果,是不是有点眼熟?没错,这个API返回的数据,应该和搜索结果页是一样的。只不过网页拿到了这些数据,做了样式的美化展示。

RAG加速器:数据抽取服务

明白了这些基础之后,我们来看看我们的数据抽取服务到底提供了哪些东西?该服务基于FastAPI和Postgresql搭建,并提供了一个标准的REST API接口。同时附带有docker-compose文件,方便你快速搭建服务环境。这个服务以一个基本的Web应用程序模板形态现身,你可以进一步开发扩展,为你的团队成员创建一个便捷的数据抽取应用程序。简而言之,它就是一个帮你开始应用开发的样板。当然,如果你不想做任何开发,也可以直接使用它进行数据抽取流程。该API支持定义并持久化“抽取器”,这些抽取器包含了配置LLM抽取需要的关键部件:一个描述你想从数据中抽取的结构的图式(Schema),一个提供抽取上下文背景并振奋模型的指令(Prompt),以及展示一些抽取样例给模型的样例(Reference examples)。此外,API提供了一个让你提交文件进行抽取的端点,使用已经定义的抽取器,以及另一个通过RemoteRunnable来让抽取服务作为更大LangChain Expression Language(LCEL)链中的一环更容易使用的端点。服务已经预设了基于MIME类型的解析器,并可支持PDF和HTML文档的解析。你还可以扩展该服务以支持其他文件类型(例如,PowerPoint),方法是使用现有的LangChain文档加载器和解析器。设计抽取API时我们作了一个关键决定:设计它总能提取多个实体。通常在文本信息抽取时这是期望的行为,因为这让模型有可能在文字中存在对应信息时抽取多个实体,且在文本中没有相关信息时不会有任何提取动作。你如何实际使用这个服务呢?在上面的基础上,有几个方面是你需要考虑的。你可以使用JSON模式精确定义提取信息,也可以指定需合入的样例来提升提取结果的质量。你既可以在调用API时指定这些参数,也可以将抽取器和样例保存在数据库中,便于保存和分享。在传入文本时,你可以选择传入原始文本或者二进制文件。

像高手一样编写 GPT:从基础到实践,学习使用 GPT 的 Action

总结一下:今天我们的讨论起始于人工智能中的“Agent&Action”,然后转向OpenAI对智能体(Agent)能力模型的定义。接着,我们深入探讨了ChatGPT中的Action(搜索、画图、代码解释器),以及GPT系列中的不同Action。使用了一个容易上手的Action Webpilot,用于访问网页获取实时的文本内容。最后,我们初步了解了API的概念,以及GPT如何通过Action与外部数据进行交互和使用。如果对Action很感兴趣,你可以从以下方向开始继续前进:系统的了解和学习API相关的知识去网上寻找可以用的API来练习发掘GPT Action更多的潜力以上是我认为相对容易入门的知识框架,但是我们都知道:你不可能只在一次分享/一篇文章中就获得完整的Action相关知识学习虽然没有终点,但有阶段性目标。大家可以通过后续看到的不同的教程和资料,识别这些知识之间的共性和逻辑关系,然后继续深化对这个主题的理解,构建你自己的知识体系。如果你对GPT开发有兴趣,想要认识更多玩GPT的朋友,欢迎加入GPTGeeker的星球:

Others are asking
配置“DeepSeek-R1”模型的 API key:基础 URL:https://ark.cn-beijing.volces.com/api/v3 ,填好之后,点击保存,关掉提醒弹窗。添加“DeepSeek-R1”模型。这个行为在Macbook中怎么操作,请进行指导,通过图片、文字、数据、网址等形式
在 Macbook 中配置“DeepSeekR1”模型的 API key 及添加模型的操作步骤如下: 1. 获取 DeepSeekR1 满血版密钥: 注册并登录火山引擎,点击立即体验进入控制台:https://zjsms.com/iP5QRuGW/ 。 创建一个接入点,点击在线推理创建推理接入点。 为接入点命名为 DeepSeekR1。若提示“该模型未开通,开通后可创建推理接入点”,点击“立即开通”,勾选全部模型和协议一路开通(免费)。 确认无误后,点击“确认接入”按钮。 自动返回创建页面,复制多出的接入点名称“DeepSeekR1”。 点击【API 调用】按钮,进入后点击【选择 API Key 并复制】,若没有则点击【创建 API key】,复制并保存。 2. 配置“DeepSeekR1”模型的 API key: 安装插件:使用 Chrome 或 Microsoft Edge 浏览器,点击此链接,安装浏览器插件,添加到拓展程序:https://chromewebstore.google.com/detail/pageassist%E6%9C%AC%E5%9C%B0ai%E6%A8%A1%E5%9E%8B%E7%9A%84web/jfgfiigpkhlkbnfnbobbkinehhfdhndo 。 打开聊天页面:点击右上角的插件列表,找到 Page Assist 插件,点击打开。 配置 API key:基础 URL:https://ark.cnbeijing.volces.com/api/v3 ,填好之后,点击保存,关掉提醒弹窗。 添加“DeepSeekR1”模型。 3. 环境配置指南: 首先到 deepseek 的官网(https://www.deepseek.com/),进入右上角的 API 开放平台。若没有赠送余额,可选择充值,支持美元和人民币两种结算方式及各种个性化充值方式,并创建一个 API key(注意及时保存,只会出现一次)。 以 cursor 作为代码编辑器为例,下载安装后,在插件页面搜索并安装 Roocline 。安装完后,打开三角箭头,选中 RooCline 并点击齿轮,进入设置,依次设置: API Provider:选择 DeepSeek 。 API Key:填入已创建的 key 。 模型:选择 DeepSeekreasoner 。 语言偏好设置。 记得把 HighRisk 选项都打开,最后点击 Done 保存修改。 在聊天框输入产品需求,输入需求后点击星星优化提示词,最终得到想要的结果。
2025-02-26
有哪些AI工具具备文案写作、代码生成、API接口功能
以下是一些具备文案写作、代码生成、API 接口功能的 AI 工具: 1. OpenAI API:可以应用于几乎所有涉及生成自然语言、代码或图像的任务,提供了一系列不同能力级别的模型,适用于不同任务,并且能够微调您自己的自定义模型。 2. Ideogram 2.0:是目前 AI 设计能力较强的工具,文字生成效果好且准确(仅限英文),图像生成效果优于 Flux&Dalle·3,提供 API 接口,方便企业集成高级图像生成功能。 3. Grammarly:提供语法检查、拼写纠正、风格建议和语气调整等功能,易于使用,支持多种平台,适用于多种语言。 4. Hemingway Editor:简化句子结构,提高可读性,标记复杂句和冗长句,界面简洁,重点突出,适用于改善写作风格和简洁性。 5. ProWritingAid:全面的语法和风格检查,提供详细的写作报告和建议,功能强大,支持多种平台和集成,特别适合专业写作者。 6. Writesonic:基于 AI 生成各种类型的文本,包括电子邮件、博客文章、广告文案等,生成速度快,适合需要快速创作和灵感的用户。 7. Lavender:专注于邮件写作优化,提供个性化建议和模板,帮助用户提高邮件打开率和回复率。
2025-02-25
API是什么意思
API(Application Programming Interface,应用程序编程接口)就像是一个信差。它接受一端的请求,将您想要做的事情告知对应的系统,然后把返回的信息传递回给您。 例如在 GPT 中,通过预先配置的 Action 里的 TMDB API 可以获取电影相关的专有信息。当您询问某部电影的相关内容时,GPT 会识别您的意图,按照 Prompt 进行任务,使用 Action 去相应的数据库寻找相关数据,如取出 backdrop_path 作为主视觉图,然后处理剧情数据、生成背景知识,最后使用 webpilot 搜索评价并返回整理后的数据。 配置一个 Action 时,需要考虑 Schema(相当于操作手册,告诉 GPT 可以去哪、干什么、需要准备什么)、Available actions(可用行动,对应 operationId、get、path)、Authentication(认证,类似于身份证)、Privacy policy(隐私政策)。 Action 的工作流大致为:首先思考想要做什么样的 GPT 以及是否需要外部数据;然后去寻找所需的外部数据的 API 文档,或者自行开发 API,寻找可用的 Action;最后基于 API 文档编写 Action 里的 Schema 和 Prompt(处理取回信息的方式)。 如果对 Action 感兴趣,可以从系统学习 API 知识、在网上寻找可用的 API 练习、发掘 GPT Action 更多潜力等方向继续深入。
2025-02-20
配置“DeepSeek-R1”模型的 API key:基础 URL 为 https://ark.cn-beijing.volces.com/api/v3,填好之后点击保存,关掉提醒弹窗。请对于这一步进行细节说明
以下是配置“DeepSeekR1”模型的 API key 的详细步骤: 1. 注册并登录火山引擎,点击立即体验进入控制台:https://zjsms.com/iP5QRuGW/ (火山引擎是字节跳动旗下的云服务平台)。 2. 创建一个接入点:点击在线推理创建推理接入点。 3. 为接入点命名为“DeepSeekR1”。如果出现“该模型未开通,开通后可创建推理接入点”的提示,点击“立即开通”,勾选全部模型和协议,一路点击开通(免费)。如果无提示则直接到第 5 步,点击确认接入。 4. 确认以下无误后,点击“确认接入”按钮。 5. 自动返回创建页面。发现多出一行接入点名是“DeepSeekR1”,复制这个推理点的 ID 放到微信里保存。 6. 保存后再点击【API 调用】按钮,进入后点击【选择 API Key 并复制】。如果已经有 API key 了,就直接查看并复制。如果没有,则点击【创建 API key】,复制好之后,放到微信里保存。 7. 也可以使用其他插件,下面为举例示意使用 Chrome 或 Microsoft Edge 浏览器,点击此链接,安装浏览器插件,添加到拓展程序:https://chromewebstore.google.com/detail/pageassist%E6%9C%AC%E5%9C%B0ai%E6%A8%A1%E5%9E%8B%E7%9A%84web/jfgfiigpkhlkbnfnbobbkinehhfdhndo 。 8. 打开聊天页面,点击右上角的插件列表,找到 Page Assist 插件,点击打开。 9. 基础 URL 填写:https://ark.cnbeijing.volces.com/api/v3 ,填好之后,点击保存,关掉提醒弹窗。 10. 配置完成。
2025-02-15
cursor怎么给微信小程序接dify的API?
要将 Dify 的 API 接入微信小程序,您可以参考以下内容: 1. GitHub 上的相关项目:https://github.com/zhayujie/chatgptonwechat 和 https://github.com/hanfangyuan4396/difyonwechat 。 2. API 扩展说明:https://docs.dify.ai/zhhans/guides/extension/apibasedextension ,但 0.8.3 版本可能不再使用(使用时可能需要自行修改或提交 PR)。 3. 接入企业微信的步骤: 创建聊天助手应用:在 Dify 平台创建基础编排聊天助手应用,获取 API 密钥和 API 服务器地址。 下载 Dify on WeChat 项目:下载并安装依赖。 填写配置文件:在项目根目录创建 config.json 文件,填写 API 密钥和服务器地址。 把基础编排聊天助手接入微信:快速启动测试,扫码登录,进行对话测试,可以选择源码部署或 Docker 部署。 把工作流编排聊天助手接入微信:创建知识库,导入知识库文件,创建工作流编排聊天助手应用,设置知识检索节点和 LLM 节点,发布更新并访问 API。 把 Agent 应用接入微信:创建 Agent 应用,设置对话模型和添加工具,生成 API 密钥,填写配置文件,启动程序并进行测试。更多内容请访问原文:https://docs.dify.ai/v/zhhans/learnmore/usecases/difyonwechat
2025-02-10
请提供deepSeek api的具体调用文档
以下是关于 DeepSeek 的相关信息: 网址:https://www.deepseek.com/zh 。国内能访问,网页登录方便,目前完全免费。 使用方法: 搜索 www.deepseek.com ,点击“开始对话”。 将装有提示词的代码发给 DeepSeek 。 认真阅读开场白之后,正式开始对话。 特点: 很方便,只需要获得游戏代码即可。 对于新手较为推荐。 相关工具:HiDeepSeek 能让 DeepSeek 的能力更上一层楼,它能让 AI 像人类交流时那样展示思考过程,不是要让 AI 变得更聪明,而是要让其思考过程更易理解。使用时可参考以下步骤: 用 Coze 做小测试进行效果对比。 设计思路包括将 Agent 封装成 Prompt 并储存在文件、通过提示词文件让 DeepSeek 实现联网和深度思考功能、优化输出质量等。 完整提示词版本为 v 1.3 。 特别鸣谢李继刚和 Thinking Claude 等为相关设计提供帮助和灵感。
2025-02-08
嵌入式WEB翻译插件
以下是关于嵌入式 WEB 翻译插件的相关信息: SD 提示词自动翻译插件 promptallinone: 作者:白马少年 发布时间:20230529 20:00 原文网址:https://mp.weixin.qq.com/s/qIshiSRZiTiKGqDFGjD0g 在 Stable Diffusion 中输入提示词只能识别英文,秋叶整合包包含提示词联想插件。 常用翻译软件如 DeepL(网址:https://www.deepl.com/translator,可下载客户端)、网易有道翻译(可 ctrl+alt+d 快速截图翻译),但复制粘贴来回切换麻烦。 自动翻译插件 promptallinone 安装方式:在扩展面板中搜索 promptallinone 直接安装,或把下载好的插件放在“……\\sdwebuiakiv4\\extensions”路径文件夹下,安装完成后重启 webUI。 插件特点: 一排小图标,第一个可设置插件语言为简体中文。 第二个图标是设置,点开后点击第一个云朵图标可设置翻译接口,点击第一行下拉菜单可选择翻译软件。 AIGC 落地应用 Open AI Translator(强烈推荐): 推荐指数:🌟🌟🌟🌟🌟 是接入了 GPT 能力的文本翻译、总结、分析类产品,翻译功能适合浏览网页时查询个别单词、句子。 最大优势是可在脱离只提供产品内 AI 能力的场景使用,如任何 web 场景,配合 Arc Browser 而非 Chrome 使用效果更佳。 调用方式:选中页面中的文本后会悬浮该插件,点击即可翻译,速度极快,摆脱“复制打开翻译软件粘贴翻译”的流程。 可用于文本分析、分析代码,搭配 Chat GPT 使用效果好。 开发者模式下也可辅助使用。 注:安装后需获取 Open AI 的 API Key,首次打开插件设置好 Open AI Key 地址,找地方保存好 API Key 方便使用。 下载地址:
2025-02-15
RuntimeError: Couldn't clone Stable Diffusion. Command: "git" clone --config core.filemode=false "https://github.com/Stability-AI/stablediffusion.git" "/Users/lichenhui/stable-diffusion-webui/repositories/stable-diffusion-stability-ai" Error code: 12
以下是关于您遇到的“RuntimeError: Couldn't clone Stable Diffusion”错误的分析和解决建议: 这个错误通常表示在克隆 Stable Diffusion 时出现问题。可能的原因包括: 1. 库的某些文件或依赖项已更改或已移除,导致无法找到所需的提交。 2. Git 存储库的状态不正确。 3. 网络连接存在问题。 解决方法如下: 1. 尝试清除本地库并重新克隆 Stable Diffusion,然后再次运行代码。 2. 运行以下命令来检查网络连接:ping files.pythonhosted.org
2025-02-12
comfy ui 和 web ui是什么关系?有什么区别?
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI。 它们的关系是:ComfyUI 可以和 WebUI 共享环境和模型。 区别主要包括以下方面: 操作方面:ComfyUI 操作门槛高,需要有清晰的逻辑;WebUI 相对操作更简便。 性能方面:ComfyUI 对显存要求相对较低,启动速度快,出图速度快;系统资源占用更少。 自由度方面:ComfyUI 具有更高的生成自由度。 生态方面:WebUI 的生态比 ComfyUI 更多,但 ComfyUI 也有针对其开发的有趣插件。 种子处理和提示词权重处理:处理方式不同,会导致图像不同。例如种子处理,ComfyUI 通过 GPU 计算种子噪声,WebUI 通过 CPU。 硬件配置方面:ComfyUI 配置更低,最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。而 SDXL 出来后,ComfyUI 运行配置提高,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。玩 SDwebui 和 ComfyUI 建议使用 6GB 以上的显存的 NVIDIA 显卡,内存在 16G 以上。硬盘最好使用 SSD 以提高加载模型速度。
2025-02-08
部署Agent专属的web端应用
以下是关于部署 Agent 专属的 web 端应用的相关内容: 在 Linux 上部署较为简单,前提是您有一张 4G 以上显存的 GPU 显卡。步骤如下: 1. 下载代码仓库。 2. 安装依赖(注意有两个依赖未放在 requirements.txt 里)。 3. 启动 webui 的 demo 程序,然后用浏览器登陆服务器的 ip:8080 就能试玩。此 demo 提供了 3 个参数: server_name:服务器的 ip 地址,默认 0.0.0.0。 servic_port:即将开启的端口号。 local_path:模型存储的本地路径。 4. 第一次启动生成语音时,需查看控制台输出,会下载一些模型文件,可能因网络问题失败,但首次加载成功后后续会顺利。 5. 基于此基础可拓展,比如集成到 agent 的工具中,结合 chatgpt 做更拟人化的实时沟通。 6. webui 上可设置的几个参数说明: text:指需要转换成语音的文字内容。 Refine text:选择是否自动对输入的文本进行优化处理。 Audio Seed:语音种子,是一个用于选择声音类型的数字参数,默认值为 2,是很知性的女孩子的声音。 Text Seed:文本种子,是一个正整数参数,用于 refine 文本的停顿,实测文本的停顿设置会影响音色、音调。 额外提示词(可写在 input Text 里):用于添加笑声、停顿等效果,例如。 以下是一些 Agent 构建平台: 1. Coze:新一代一站式 AI Bot 开发平台,适用于构建基于 AI 模型的各类问答 Bot,集成丰富插件工具拓展 Bot 能力边界。 2. Microsoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及将 Copilot 部署到各种渠道。 3. 文心智能体:百度推出的基于文心大模型的智能体(Agent)平台,支持开发者根据需求打造产品能力。 4. MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行工作流。 5. 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于客服、营销、销售等场景,提供多种成熟模板,功能强大且开箱即用。 6. 钉钉 AI 超级助理:依托钉钉强大的场景和数据优势,提供环境感知和记忆功能,在处理高频工作场景如销售、客服、行程安排等方面表现出色。 以上信息仅供参考,您可根据自身需求选择适合的平台。
2025-01-07
有没有关于软件测试的ai工具,可以辅助我测试web网页
目前在 AI 领域中,专门用于辅助测试 Web 网页的工具相对较少。但一些通用的 AI 工具和技术可能会对软件测试有所帮助,例如利用自然语言处理技术来分析测试需求和报告,或者使用机器学习算法来预测可能出现的错误类型。不过,这些应用可能需要一定的定制和整合才能更好地适应 Web 网页测试的特定需求。
2024-12-09
我有一张图像,我要如何用stable Diffusion给它添加噪音。我是一个小白,请给出详细的步骤,用webui来操作。
以下是使用 WebUI 为图像添加噪音的详细步骤: 1. 首先,了解 Stable Diffusion 的加噪原理。从数据集中选择一张干净样本,然后用 random 函数生成 0 3 共 4 种强度的噪声,在每次迭代中随机选择一种强度的噪声添加到干净图片上,完成图片的加噪流程。 2. 在训练过程中,对干净样本进行加噪处理,采用多次逐步增加噪声的方式,直至干净样本转变成为纯噪声。 3. 加噪过程中,每次增加的噪声量级可以不同,假设存在 5 种噪声量级,每次都可以选取一种量级的噪声,以增加噪声的多样性。 4. 与图片生成图片的过程相比,在预处理阶段,先把噪声添加到隐空间特征中。通过设置去噪强度(Denoising strength)控制加入噪音的量。如果去噪强度为 0 ,则不添加噪音;如果为 1 ,则添加最大数量的噪声,使潜像成为一个完整的随机张量。若将去噪强度设置为 1 ,就完全相当于文本转图像,因为初始潜像完全是随机的噪声。
2024-11-18
Deepseek目前已在电商行业应用落地的场景有哪些?
DeepSeek 目前已在电商行业应用落地的场景包括: 电商商品策划:如 。 商品链接分析:如 。 电商产品上架规划:如 。
2025-02-26
DeepSeek应用场景
DeepSeek 的应用场景包括: 1. 智能对话:能够进行自然流畅的对话交流。 2. 文本生成:生成各种类型的文本内容。 3. 语义理解:准确理解文本的语义。 4. 计算推理:进行相关的计算和推理。 5. 在实际场景中的应用,如工作、学习、生活和社交等方面,帮助解决各种问题。 在实际使用中,DeepSeek 在文字能力方面表现突出,尤其在中文场景中符合日常写作习惯,但在专业论文总结方面稍弱。数学能力经过优化表现不错,编程能力略逊于 GPT(据用户反馈)。
2025-02-26
我如何AI应用产品创业思路 目前有商业和项目概念没有IT基础
以下是为您提供的关于 AI 应用产品创业思路的相关内容: 从过去的经验来看,2014 年是移动互联网的红利时代,当时有很多创业者和投资人在深圳的咖啡馆交流项目。有人参与移动互联网创业,做了一款帮人养成好习惯的 APP,积累了百万用户并拿到投资,但因商业化思考较浅等原因项目折戟。 对于现在的 AI 应用创业,有观点认为这一波 AI 更利好大厂,因为创业公司缺乏数据和场景。但也有观点指出,任何技术进步,现有的大公司虽会获利,但创业公司能创造新的价值和场景。以移动互联网为例,最大的四个应用如移动端的 IM 工具、打车、外卖、短视频,除微信外都来自创业公司,且新的技术优势应是解决新问题,而非做更好的上一代产品。此外,AI 时代有利于创业者的一个好处是,利用大模型的能力,创业公司人员更精简,很多 AI 应用创业者仅几人就能完成产品开发上线测试。而且从应用层面看,2B 的应用公司在中国可能会迎来跨越式发展的机会。 如果您没有 IT 基础但有商业和项目概念,建议您: 1. 深入研究目标市场和用户需求,找准新的问题和价值点。 2. 关注创新的应用场景,避免与大厂在已有产品上竞争。 3. 充分利用大模型的能力,优化团队结构,提高效率。 4. 考虑与有 IT 技术能力的团队或个人合作。
2025-02-25
基于大模型的RAG应用开发与优化
基于大模型的 RAG 应用开发与优化具有以下特点: 优势: 1. 灵活性:可根据需求和数据源选择不同组件和参数,还能使用自定义组件,只要遵循 LangChain 的接口规范。 2. 可扩展性:能利用 LangChain 的云服务部署和运行应用,无需担心资源和性能限制,也能使用分布式计算功能加速应用。 3. 可视化:通过 LangSmith 可视化工作流程,查看输入输出及组件性能状态,还能用于调试和优化,发现解决问题和瓶颈。 应用场景: 1. 专业问答:构建医疗、法律或金融等专业领域的问答应用,从专业数据源检索信息帮助大模型回答问题。 2. 文本摘要:构建新闻或论文等的摘要应用,从多个数据源检索相关文本帮助大模型生成综合摘要。 3. 文本生成:构建诗歌、故事等生成应用,从不同数据源检索灵感帮助大模型生成更有趣和创意的文本。 调优实践: 1. 更换大模型:从 ChatGLM26B 替换成 baichuan213b,针对特定场景,后者性能提升一倍左右。 2. 更换 embedding 模型:将 embedding 模型从 LangChain Chatchat 默认的 m3ebase 替换为 bgelargezh,后者更优。 3. 测试不同 Top k 的值:比较 Top 5、Top 10、Top 15 的结果,发现 Top 10 时效果最优。 4. 对文档名称进行处理:人工重命名文件对结果提升不明显,但勾选【开启中文标题加强】选项后,回答的无关信息减少,效果有所提升。目前效果虽有提升,但仍未达到可用水平,后续将尝试其他调优策略。
2025-02-25
coze平台中的数据库应用,怎么判断数据是那个用户的,插入数据库节点时,需要明确用户uuid吗
在 Coze 平台中判断数据属于哪个用户,插入数据库节点时通常需要明确用户的唯一标识,如用户 UUID 或类似的唯一标识。 例如,在自动总结公众号内容并定时推送到微信的工作流中,考虑到可能有多个用户同时使用,使用了 server 酱的 sendkey 作为用户的唯一标识(重命名为 suid)。在数据库节点中查询是否已经推送过文章时,需要文章的 url 和用户的 suid 这两个值来判断。 在增加记账记录的工作流中,通过大语言模型将用户输入的非结构化数据转变为结构化数据存入数据库时,也需要明确相关的用户标识。 在 COZE 工作流中,数据库节点的设置包括输入参数的设置(如参数名、参数值、引用来源)以及在 SQL 输入中添加相应的代码。 总之,明确用户标识对于准确判断数据归属和进行数据库操作是很重要的。
2025-02-25
ai在商业中的应用
AI 在商业中的应用广泛,涵盖以下多个领域: 1. 医疗保健: 医学影像分析,辅助诊断疾病。 加速药物研发,识别潜在药物候选物和设计新治疗方法。 提供个性化医疗方案。 控制手术机器人,提高手术精度和安全性。 2. 金融服务: 风控和反欺诈,降低金融机构风险。 评估借款人信用风险,辅助贷款决策。 分析市场数据,助力投资决策。 提供 24/7 客户服务,回答常见问题。 3. 零售和电子商务: 分析客户数据进行产品推荐。 改善搜索结果,提供个性化购物体验。 实现动态定价。 提供聊天机器人服务。 4. 制造业: 预测机器故障,进行预测性维护。 检测产品缺陷,把控质量。 优化供应链管理。 控制工业机器人,提高生产效率。 5. 交通运输:(未提及具体应用,暂缺) 此外,在以下七大行业也有商业化应用: 1. 企业运营:包括日常办公文档材料撰写整理、营销对话机器人、市场分析、销售策略咨询、法律文书起草、案例分析、法律条文梳理、人力资源简历筛选、预招聘、员工培训。 2. 教育:协助评估学生学习情况、提供职业规划建议、定制化学习内容、论文初稿搭建及审核、帮助低收入国家/家庭获得平等教育资源。 3. 游戏/媒体:定制化游戏、动态生成 NPC 互动、自定义剧情、开放式结局、出海文案生成、语言翻译、辅助广告投放和运营、数字虚拟人直播、游戏平台代码重构、AI 自动生成副本。 4. 零售/电商:舆情、投诉、突发事件监测及分析、品牌营销内容撰写及投放、自动化库存管理、自动生成或完成 SKU 类别选择、数量和价格分配、客户购物趋势分析及洞察。 5. 金融/保险:个人金融理财顾问、贷款信息摘要及初始批复、识别并检测欺诈活动风险、客服中心分析及内容洞察、保险理赔处理及分析、投资者报告/研究报告总结。 6. 制造业/汽车:生产计划和供应链计划状态查询、产线预测性维保辅助、产品质量分析与溯源、自动驾驶全场景模拟训练及虚拟汽车助手、线上购车品牌和配置对比分析。 7. 生命科学:研发阶段靶点发现及产品成药性、医学文献内容检索和重点摘要提取、相关法规整理、医药代表培训及知识库建立、分诊导诊助理、诊疗助理、术后护理及复建辅助。 不仅如此,ChatGPT 大模型以及生成式 AI 技术还将在图片、视频、数字人等领域的各种复杂场景中落地,利用海量数据资源和算法实现商业化应用与迭代更新。
2025-02-25
Deepseek网页端使用,总是出现服务器繁忙,请稍后再试,怎么办?请注意,我所使用的是Macbook
如果您在使用 DeepSeek 网页端时总是出现“服务器繁忙,请稍后再试”的提示(使用的是 Macbook),可以尝试以下方法: 1. 安装插件:使用 Chrome 或 Microsoft Edge 浏览器,点击此链接安装浏览器插件,添加到拓展程序:https://chromewebstore.google.com/detail/pageassist%E6%9C%AC%E5%9C%B0ai%E6%A8%A1%E5%9E%8B%E7%9A%84web/jfgfiigpkhlkbnfnbobbkinehhfdhndo 。然后打开聊天页面,点击右上角的插件列表,找到 Page Assist 插件,点击打开。 2. 配置“DeepSeekR1”模型的 API key:基础 URL:https://ark.cnbeijing.volces.com/api/v3 ,填好之后,点击保存,关掉提醒弹窗。添加“DeepSeekR1”模型。 3. 如果上述方法不行,还可以尝试以下替代网站: 秘塔搜索:https://metaso.cn 360 纳米 Al 搜索:https://www.n.cn/ 硅基流动:https://siliconflow.cn/zhcn/ 字节跳动火山擎:https://console.partner.volcengine.com/auth/login?redirectURI=%2Fpartner%2F5. 百度云千帆:https://login.bce.baidu.com/ 英伟达:https://build.nvidia.com/deepseekai/deepseekr1 Groq:https://groq.com/ Chutes:https://chutes.ai/app 阿里云百炼:https://api.together.ai/playground/chat/deepseekai/DeepSeekR1 Github:https://github.com/marketplace/models/azuremldeepseek/DeepSeekR1/playground POE:https://poe.com/DeepSeekR1 Cursor:https://cursor.sh/ Monica:https://monica.im/invitation?c=ACZ7WJJ9 Lambda:https://lambdalabscom/6 Cerebras:https://cerebras.ai Perplexity:https://www.perplexity.ai 阿里云百炼:https://api.together.ai/playground/chat/deepseekai/DeepSeekR1
2025-02-26
Deepseek网页端使用,总是出现服务器繁忙,请稍后再试,怎么办
如果在 DeepSeek 网页端使用时总是出现“服务器繁忙,请稍后再试”的情况,您可以尝试以下方法: 1. 安装插件:使用 Chrome 或 Microsoft Edge 浏览器,点击此链接,安装浏览器插件,添加到拓展程序:https://chromewebstore.google.com/detail/pageassist%E6%9C%AC%E5%9C%B0ai%E6%A8%A1%E5%9E%8B%E7%9A%84web/jfgfiigpkhlkbnfnbobbkinehhfdhndo 。然后打开聊天页面,点击右上角的插件列表,找到 Page Assist 插件,点击打开。 2. 配置“DeepSeekR1”模型的 API key:基础 URL:https://ark.cnbeijing.volces.com/api/v3 ,填好之后,点击保存,关掉提醒弹窗。添加“DeepSeekR1”模型。 3. 如果上述方法不行,您还可以尝试以下替代网站: 秘塔搜索:https://metaso.cn 360 纳米 Al 搜索:https://www.n.cn/ 硅基流动:https://siliconflow.cn/zhcn/ 字节跳动火山擎:https://console.partner.volcengine.com/auth/login?redirectURI=%2Fpartner%2F5. 百度云千帆:https://login.bce.baidu.com/ 英伟达:https://build.nvidia.com/deepseekai/deepseekr1 Groq:https://groq.com/ Chutes:https://chutes.ai/app 阿里云百炼:https://api.together.ai/playground/chat/deepseekai/DeepSeekR1 Github:https://github.com/marketplace/models/azuremldeepseek/DeepSeekR1/playground POE:https://poe.com/DeepSeekR1 Cursor:https://cursor.sh/ Monica:https://monica.im/invitation?c=ACZ7WJJ9 Lambda:https://lambdalabscom/6 Cerebras:https://cerebras.ai Perplexity:https://www.perplexity.ai 阿里云百炼:https://api.together.ai/playground/chat/deepseekai/DeepSeekR1 需要注意的是,部分网站可能需要特殊网络环境。
2025-02-26
如何在本地服务器上微调LLM
在本地服务器上微调 LLM 可以参考以下内容: 1. 提示词工程: 提示词工程主要由提示词注入和工具结果回传两部分代码组成。 提示词注入用于将工具信息及使用工具的提示词添加到系统提示中,其中 INSTRUCTION 包含 TOOL_EAXMPLE、tools_instructions、REUTRN_FORMAT 三个部分。TOOL_EAXMPLE 用于提示 LLM 如何理解和使用工具,编写时应注意用无关紧要的工具作示例。tools_instructions 可通过输入不同工具动态调整,让 LLM 得知可用工具及使用方法。REUTRN_FORMAT 定义调用 API 的格式。 工具结果回传阶段利用正则表达式抓取输出中的“tool”和“parameters”参数,对于 interpreter 工具使用另一种正则表达式提取 LLM 输出的代码,提高成功率。通过识别 LLM 返回的调用工具字典,提取对应值传入工具函数,将结果以 observation 角色返回给 LLM,对于不接受相关角色的 LLM 接口,可改为回传给 user 角色。 2. 微调方法: 传统微调:采用在通用数据集上预训练的模型,复制模型后在新的特定领域数据集上重新训练,但大型语言模型微调面临训练时间长、计算成本高等挑战。 参数有效调优:这是一种创新的调优方法,旨在通过仅训练一部分参数来减少微调 LLM 的挑战,参数可以是现有模型参数的子集或全新的参数。 为使微调达到最佳效果,应从明确目标和高质量数据集开始,使用体现所需输出类型的数据,进行迭代测试,从小的渐进变化开始并评估结果。 对于 OpenAI 的模型,微调包括使用其提供的 API 在数据集上进一步训练,需调整超参数并监控性能。对于开源 LLM,微调可能需要更多实践工作,包括设置训练环境、管理数据流及调整模型架构。 对于需要快速迭代新用例的场景,微调作用较小。要实现微调功能,需创建大型训练数据集,整理成适当格式,启动训练任务并评估性能。建立模型改进工作流程,监控性能变化,依据反馈改进模型,记录生成的模型及评分指标,许多 LLMOps 平台能自动收集和显示最佳数据,方便微调。
2025-02-21
deepseek经常服务器繁忙的解决方案?
以下是一些解决 DeepSeek 服务器繁忙的方案: 1. 尝试以下搜索网站: 秘塔搜索:https://metaso.cn 360 纳米 AI 搜索:https://www.n.cn/ 硅基流动:https://siliconflow.cn/zhcn/ 字节跳动火山擎:https://console.partner.volcengine.com/auth/login?redirectURI=%2Fpartner%2F 百度云千帆:https://login.bce.baidu.com/ 英伟达:https://build.nvidia.com/deepseekai/deepseekr1 Groq:https://groq.com/ Chutes:https://chutes.ai/app 阿里云百炼:https://api.together.ai/playground/chat/deepseekai/DeepSeekR1 Github:https://github.com/marketplace/models/azuremldeepseek/DeepSeekR1/playground POE:https://poe.com/DeepSeekR1 Cursor:https://cursor.sh/ Monica:https://monica.im/invitation?c=ACZ7WJJ9 Lambda:https://lambdalabscom/6 Cerebras:https://cerebras.ai Perplexity:https://www.perplexity.ai 阿里云百炼:https://api.together.ai/playground/chat/deepseekai/DeepSeekR1 2. 可以通过以下步骤使用网页聊天解决: 安装插件:使用 Chrome 或 Microsoft Edge 浏览器,点击此链接,安装浏览器插件,添加到拓展程序:https://chromewebstore.google.com/detail/pageassist%E6%9C%AC%E5%9C%B0ai%E6%A8%A1%E5%9E%8B%E7%9A%84web/jfgfiigpkhlkbnfnbobbkinehhfdhndo 打开聊天页面:点击右上角的插件列表,找到 Page Assist 插件,点击打开。 配置“DeepSeekR1”模型的 API key:基础 URL:https://ark.cnbeijing.volces.com/api/v3 ,填好之后,点击保存,关掉提醒弹窗。 添加“DeepSeekR1”模型。 3. 还可以使用以下网站(部分需要魔法,不做教学支持): 秘塔搜索:https://metaso.cn 360 纳米 AI 搜索:https://www.n.cn/(bot.n.cn) 硅基流动:https://cloud.siliconflow.cn/i/RjJgQqae AskManyAI:https://dazi.co/login?i=7db38e6e 字节跳动火山引擎:https://console.volcengine.com/ark/region:ark+cnbeijing/experience 百度云千帆:https://console.bce.baidu.com/qian3an/modelcenter/model/buildIn/list 英伟达 NIM Groq:https://groq.com/ Fireworks:https://fireworks.ai/models/fireworks/deepseekr1 Chutes:https://chutes.ai/app/chute/ Github:https://github.com/marketplace/models/azuremldeepseek/DeepSeekR1/playground POE:https://poe.com/DeepSeekR1 Cursor:https://cursor.sh/ Monica:https://monica.im/invitation?c=ACZ7WJJ9 Lambda:https://lambdalabs.com/ Cerebras:https://cerebras.ai Perplexity:https://www.perplexity.ai 阿里云百炼:https://api.together.ai/playground/chat/deepseekai/DeepSeekR1
2025-02-20
我想做一个产品(生涯规划领域的垂直大模型),这个产品服务的对象是所有人:帮助所有人进行更好的职业规划。每个人都能通过使用这个产品更好地了解自己,了解自己的天赋、兴趣、优势,然后找到自己的热爱的领域和热爱的事业,并且能够个性化地推荐相关的行业和职业,包括职业的主要工作内容和核心能力要求等等。 请对这个产品进行可行性分析,并给出产品的发展规划,别忘了给这个项目起一个名字。
以下是对您提出的生涯规划领域垂直大模型产品的可行性分析和发展规划,并为项目取名为“生涯智途”。 可行性分析: 1. 需求广泛:帮助人们进行职业规划是一个普遍存在的需求,涵盖了各个年龄段和职业阶段的人群。 2. 数据可用性:可以通过各种渠道收集大量与职业相关的数据,包括行业报告、职位描述、人才需求等。 3. 技术支持:当前大模型技术的发展为实现这样的产品提供了可能,能够处理和分析大量复杂的数据。 发展规划: 1. 数据收集与整理:广泛收集各类职业数据,建立丰富的数据库,确保数据的准确性和完整性。 2. 模型训练与优化:利用收集到的数据进行模型训练,不断优化模型,提高预测和推荐的准确性。 3. 功能开发: 个性化测评:开发能够准确评估用户天赋、兴趣、优势的功能模块。 精准推荐:根据用户的特点,提供个性化的行业和职业推荐,并详细介绍职业的工作内容和核心能力要求。 持续学习与更新:随着行业变化,及时更新数据和模型,以提供最新的职业信息。 4. 用户体验优化:设计简洁、易用的界面,提供良好的用户交互体验。 5. 市场推广:通过线上线下多种渠道进行推广,提高产品的知名度和用户覆盖面。 希望以上分析和规划对您有所帮助。
2025-02-18
兼职督学岗位,通过飞书平台为高中生服务,包括:1)解答学习方法等疑问;2)发送测试卷;3)提交测试卷后通知后端制作学习计划;4)发送学习计划链接;5)定期推送知识点和打卡提醒;6)查看打卡并反馈。所有文档通过飞书云文档链接发送。现在我想通过利用coze将deepseek等ai接入飞书的形式,制作出产品赋能督学在这一岗位的工作效率,并希望在这一过程中,锻炼我的ai能力,再想办法让上司或者老板为我这个产品支付报酬,请问我可以从哪些角度开发产品?
以下是一些您可以从以下角度开发产品来赋能兼职督学岗位的工作效率,并锻炼您的 AI 能力,以争取上司或老板为产品支付报酬: 1. 利用 Coze 的多语言模型支持,为解答高中生学习方法等疑问提供更准确和全面的回答。 2. 借助插件系统,集成与学习相关的插件,如学习资料查询、学习工具推荐等,丰富服务内容。 3. 运用知识库功能,上传各类学科知识点、优秀学习案例等,方便在服务中快速调用和推送。 4. 利用数据库和记忆能力,记住每个高中生的学习情况和需求,提供个性化服务。 5. 设计工作流,例如自动发送测试卷、自动通知后端制作学习计划、自动推送学习计划链接等流程,提高工作效率。 6. 采用多代理模式,针对不同学科或学习阶段设置专门的代理,提供更精准的服务。 7. 利用 Coze 易于发布和分享的特点,将服务产品推广给更多需要的高中生和督学人员。
2025-02-18