Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

ai agent与gpts有什么关系

Answer

AI Agent 与 GPT 的关系是什么?

AI Agent 是一种智能体,它可以自主地执行任务并与环境进行交互。而 GPT(Generative Pre-trained Transformer)是一种大规模预训练的语言模型,它可以生成自然语言文本。

虽然 AI Agent 和 GPT 是不同的概念,但它们可以相互配合使用。例如,GPT 可以作为 AI Agent 的语言生成模块,为其提供自然语言文本生成能力。同时,AI Agent 可以使用 GPT 生成的文本作为输入,执行各种任务,如问答、对话、文本摘要等。

此外,GPT 还可以作为 AI Agent 的知识来源,为其提供各种领域的知识和信息。通过将 GPT 与 AI Agent 相结合,可以实现更加智能、灵活和高效的 AI 应用。

总的来说,AI Agent 和 GPT 是相互补充的概念,它们可以结合使用,为人工智能的发展提供更广阔的前景。

Content generated by AI large model, please carefully verify (powered by aily)

References

像高手一样编写 GPT:从基础到实践,学习使用 GPT 的 Action

“大型语言模型的潜力不仅仅在于创作出流畅的文本、故事、论文和程序;它还可以被视为一个强大的通用问题解决工具。”和开头提到的计算机领域的通用比,Lilian进一步具体化了Agent的能力模型:在Lilian看来,Agent的能力被具象为三大类:1.规划2.记忆3.使用工具(工具+行为Action)你可能有印象——在之前的GPT-4,画图工具Dall-E,Bing搜索,插件,和代码解释器,都需要切换不同的会话/窗口实现的。后来GPT-4成为了GPT:All-Tools,可以在一个会话里根据用户需求和上下文自行选择工具,并且做出行动——这个行动,就是OpenAI定义的“Action”,如下图:当你在让它搜索,画图的时候,GPT会先思考决定怎么使用工具,然后会出现一个小图示,告诉你他尝试使用工具来完成你的任务。现在你应该能够认清AI-Agent、GPT和Action之间的联系了:GPT(All-Tools,也是现在大家正在开发的“GPTs”),是OpenAI之于传统Agent定义交上的一份答卷——具体的描绘了在大语言模型(LLM)驱动下Agent的系统实现方式。即:使用LLM驱动,通过外部API获取信息和执行的行动(Action),也是本文后半部提到的Action的定义,如下:

AIGC Weekly #46

解释了GPTs目前还不是真正的智能代理,但它可以通过结构化提示完成一些有用的任务。随后介绍了如何通过对话与AI交互来构建GPT模型,以及如何修改和完善结构化提示来提升GPT模型的功能。文章还提到GPTs可以连接到其他系统中,比如邮箱或购物网站,从而让AI能够完成更广泛的任务,预示着下一代更智能的AI将要来临。同时也指出连接到更多系统会带来更高的安全风险。文章重点介绍了如何利用GPTs为教育和工作创造有用的工具。比如通过GPT为写作指导创建一个交互式写作辅导工具。同时也提到如何为自己教授的课程创建定制化的GPT助教。

质朴发言:从 GPTs 聊到 Agent、LLMOps 以及开源的新机会|Z 沙龙第 1 期

本文不代表智谱认同文中任何观点。为鼓励自由发言,我们也暂时不披露参与者个人信息,不做流水账,抛开敏感信息,分类整理如下。后面继续办,一起来聊!🌊以下为本文目录,建议结合要点进行针对性阅读。一、Agent什么是Agent?具备什么能力?观点一:狭义的Agent,由OpenAI定义观点二:广义的Agent,具有基础智能、角色管理、技能调用、复杂思维、及未来更多的可扩展性Agent在B端的落地到底情况如何?观点一:设想与现实之间的gap有多大?人和大模型长期共存观点二:在Autonomy Agent或multi-agent成熟之前,大模型应从“对外业务”和“简单功能”切入To B服务观点三:大模型要做专家知识,还是通用知识?观点四:人机边界识别,工程落地能力,基座模型能力,并驾齐驱,同样重要未来可能有机会的方向二、在DevDay之后,国产大模型和OpenAI之间的差距是扩大了还是缩小了?三、AI LLMOps及开源社区OpenAI对AI Ops的态度如何?观点一:中间件挡住了Open AI的数据飞轮,注定会被吞没,开源中间件是在帮助OpenAI打磨产品那么,什么形态的AI Ops会/不会挡住OpenAI数据飞轮?观点一:哪些AI Ops会挡住OpenAI数据飞轮观点二:哪些AI Ops不会挡住OpenAI数据飞轮AI Ops公司们应该怎样调整入场姿势?

Others are asking
用ai作为自己的教练agent如何实现
要将 AI 作为自己的教练 Agent 实现,需要考虑以下几个方面: 1. 构建数字人灵魂: AI Agent:需要编写像人一样的 Agent,工程实现所需的记忆模块、工作流模块、各种工具调用模块的构建具有挑战性。 驱动躯壳的实现:定义灵魂部分的接口,躯壳部分通过 API 调用,如 HTTP、WebSocket 等,但要处理好包含情绪的语音表达以及躯壳的口型、表情、动作和语音的同步及匹配。 实时性:由于算法部分组成庞大,几乎不能单机部署,需解决网络耗时和模型推理耗时导致的响应慢问题。 多元跨模态:不仅要有语音交互,还可根据实际需求加入其他感官,如通过添加摄像头数据获取视觉信息。 拟人化场景:处理好插话、转移话题等非线性对话情景。 2. 借助开源社区力量: 推荐使用像 dify、fastgpt 等成熟的高质量 AI 编排框架,可快速编排出自己的 AI Agent。 例如在开源项目中使用 dify 框架,能利用其编排和可视化交互修改流程,构造不同的 AI Agent,实现复杂功能,如知识库搭建、工具使用等,无需编码和重新部署。 Dify 的 API 暴露了 audiototext 和 texttoaudio 接口,可用于数字人的语音识别和生成控制。 对于高度定制的模型,可在 Dify 中接入 XInference 等模型管理平台并部署自己的模型,同时数字人 GUI 工程保留多个模块以保持扩展。 然而,在实际操作中也存在一些问题,如沉淀领域知识喂给 AI 并不断调教并非能保持愉悦,可能会从兴奋转为嫌弃,且国产大模型存在一些桎梏,调优反复,多数人尝试后又回到舒适模式。但仍可通过不断探索和尝试来实现将 AI 作为教练 Agent 的目标。
2025-03-06
有类似cherrystudio这种专门用于生图的Agent?
目前尚未有像 CherryStudio 这样专门用于生图的知名 Agent 。但在 AI 领域,不断有新的工具和技术出现,您可以持续关注相关的科技动态以获取最新信息。
2025-03-06
纯小白,要如何入行Ai Agent
对于纯小白入行 AI Agent,以下是一些建议: 1. 学习与实践并进:像元子一样,从简单的需求表达开始,逐渐熟练掌握,多尝试不同的 AI 工具,选定自己感兴趣的方向,如 AI Agent。可以参考社区小伙伴的 100 天 AI 之路,如《雪梅 May 的 AI 学习日记》。 2. 勇于提问:不要害怕问“笨”问题,多直接向 AI 提问。 3. 注重积累:解决一个小问题也是进步,不积跬步无以至千里。 4. 多试多练:这是掌握 AI Agent 的关键,还可以加入社区共同学习。 5. 学以致用:将 AI 融入生活和工作,学完就用,保持学习的动力和持久性。 在实际操作方面,参考一泽 Eze 的方法: 1. 梳理思路:理解 Prompt 工程中通过逻辑思考从知识经验中抽象关键方法与要求的理念,并将其应用于 Coze 中创建 AI Agent。 2. 搭建工作流驱动的 Agent 分为三个步骤: 规划:制定任务的关键方法,包括总结任务目标与执行形式,将任务分解为可管理的子任务,确立逻辑顺序和依赖关系,设计每个子任务的执行方法。 实施:在 Coze 上搭建工作流框架,设定每个节点的逻辑关系,详细配置子任务节点,并验证每个子任务的可用性。 完善:整体试运行 Agent,识别功能和性能的卡点,通过反复测试和迭代,优化至达到预期水平。然后从制定关键方法与流程,梳理「结构化外文精读专家」Agent 的任务目标。
2025-03-06
ai agent 好用的软件
以下是一些好用的 AI Agent 软件: 1. Coze:新一代一站式 AI Bot 开发平台,集成丰富插件工具,适用于构建各类问答 Bot,能拓展 Bot 能力边界。 2. Microsoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及将 Copilot 部署到各种渠道。 3. 文心智能体:百度推出的基于文心大模型的智能体平台,支持开发者打造产品能力。 4. MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行工作流。 5. 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于客服、营销、销售等场景,提供多种成熟模板,功能强大且开箱即用。 6. 钉钉 AI 超级助理:依托钉钉强大的场景和数据优势,在处理高频工作场景如销售、客服、行程安排等方面表现出色。 此外,还有以下相关的新产品: 1. ThinkGPT by Jina AI:来自中国创业团队 Jina AI(作者来自德国),让 LLM 拥有更强的推理与执行能力,构建模块包括记忆、自我改进、压缩知识、推理与自然语言环境,实现的功能有用长期记忆和压缩知识解决有限上下文问题、通过更高阶的推理基元增强 LLM 的单次推理能力、为代码库增加智能决策能力。链接:https://github.com/jinaai/thinkgpt 2. Gradiotools:Hugging Face Spaces 上可以将成千上万个 Gradio 应用程序转换为工具的 Python 库,基于 LLM 的代理可利用这些工具完成任务,目前支持 LangChain 和 MiniChain 代理库,附带一组预先搭建的工具,如 StableDiffusionTool、ImageCaptionTool、ImageToMusicTool 等。
2025-03-05
ai agent
AI 智能体在多个领域有着广泛的应用和发展。 在品牌卖点提炼中,AI 智能体可以发挥作用。AI 在逻辑推理、数据分析、内容理解和输出方面有优势,但在应用前需明确其能力边界,例如它对公司的主要产品、产品解决的用户需求、产品独特之处、获得的认可、核心渠道、核心购买人群、营销手段、期望的新渠道结果等了解程度接近于 0。因此,更适合将其构建为引导型的助手,在寻找卖点过程中提供思考维度和灵感。 Menlo Ventures 认为生成式 AI 应用有搜索、合成和生成三个核心用例与强大的产品市场契合度,其中心是少样本推理能力。但生成式人工智能的潜力不止于此,领先的应用程序构建商正在建立解决方案处理大量人力工作流程。借助新型构建块,下一波智能体正在拓展 AI 能力边界,实现端到端流程自动化。未来的完全自主智能体可能拥有多构建块,而当前的 LLM 应用和智能体尚未达到此水平。例如流行的 RAG 架构不是智能体式的,而将 LLM 置于应用程序控制流中让其动态决定行动等时智能体才出现。Menlo 确定了决策智能体、轨道智能体和通用人工智能体三种智能体类型,并探讨了五种参考架构和每种类型的示例。
2025-03-04
如何写搭建agent的prompt
搭建 Agent 的 Prompt 可以参考以下步骤: 1. 从基础案例入门 登录控制台:登录扣子控制台(coze.cn),使用手机号或抖音注册/登录。 在我的空间创建 Agent:在扣子主页左上角点击“创建 Bot”,选择空间名称为“个人空间”、Bot 名称为“第一个 Bot”,并点击“确认”完成配置。如需使用其他空间,请先创建后再选择;Bot 名称可以自定义。 编写 Prompt:填写 Prompt,即自己想要创建的 Bot 功能说明。第一次可以使用一个简短的词语作为 Prompt 提示词。 优化 Prompt:点击“优化”,使用来帮忙优化。 设置开场白。 其他环节。 发布到多平台&使用。 2. 进阶之路 三分钟捏 Bot: 三分钟内可以完成基础的创建步骤。 十五分钟做什么:查看下其他 Bot,获取灵感。 一小时做什么:找到和自己兴趣、工作方向等可以结合的 Bot,深入沟通。 一周做什么:了解基础组件,寻找不错的扣子,借鉴&复制,加入 Agent 共学小组,尝试在群里问第一个问题。 一个月做什么:合理安排时间,参与 WaytoAGI Agent 共学计划,自己创建 Agent,并分享自己捏 Bot 的经历和心得。 3. 在 WaytoAGI 有哪些支持:文档资源、交流群、活动。 4. 《执笔者》:基于多 Agent 模式的全能写手 多 agent 模式切换:在 bot 编排页面点选多 agent 模式,页面将会自动切换为多 agent 调式状态,相比单 agent,主要是多了中间一块的 agent 连接区。 添加合适节点:节点这里有两种方式可以选择,用已发布的 bot,或者创建一个新的 agent,大家按需选取。添加的 agent 直接连接在默认的总管 agent(“执笔者”)后面即可,无结束节点。 添加合适的 prompt:在多 agent 模式下,我们需要为每个 agent 填写合适的 prompt。外围的人设填写该 bot 的主要功能,内部的 bot 填写各个 bot/agent 的应用场景。 调试与美化:经过以上简单三步,一个多 agent 的 bot 就基本搭建完成,接下来就是漫长的调试过程,如果输出与自己设想有差异,可以不断调整外围和内部 bot 的提示词,提升命中率,优化交互。 5. 一个提示词,让 DeepSeek 的能力更上一层楼?——HiDeepSeek 效果对比:用 Coze 做了个小测试,大家可以对比看看。 如何使用: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 Deepseek。 认真阅读开场白之后,正式开始对话。 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担。 通过提示词文件,让 DeepSeek 实现:同时使用联网功能和深度思考功能。 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改。 用 XML 来进行更为规范的设定,而不是用 Lisp(对我来说有难度)和 Markdown(运行下来似乎不是很稳定)。 完整提示词:v 1.3 特别鸣谢:李继刚的【思考的七把武器】在前期为我提供了很多思考方向;Thinking Claude 是我现在最喜欢使用的 Claude 提示词,也是我设计 HiDeepSeek 的灵感来源;Claude 3.5 Sonnet 是最得力的助手。
2025-03-04
教我如何使用剪辑视频ai
以下是使用剪辑视频 AI 的方法: 1. 准备视频内容: 先准备一段视频中播放的内容文字,内容可以是产品介绍、课程讲解、游戏攻略等。也可以利用 AI 生成这段文字。 2. 制作视频: 使用剪映 App 进行简单处理。电脑端打开剪映 App,点击“开始创作”。 选择顶部工具栏中的“文本”,点击默认文本右下角的“+”号,为视频添加一个文字内容的轨道。 在界面右侧将准备好的文字内容替换默认文本内容,这将为数字人提供语音播放的内容以及生成相对应的口型。 3. 视频转绘处理(使用 Topaz Video AI 插件): 解压对应文件,推荐使用绿色版。右键管理员运行 VideoAIportable.exe 文件。 导入处理好的视频,查看主界面,左边是原视频,右边是待处理视频,下面是对应的视频轨道。 右边部分是对视频处理的方式,预设部分包括放大视频、提升画质、提升帧率等。稳定 AI 模式选择完整帧,强度在 60 左右,抖动开启,次数选择 2 保持默认不变。 4. 配音处理: 把鼠标移动到每个视频片段的右下角的蓝色“+”号,点击或拖拽将片段添加到剪映编辑器的轨道里。 点击剪映电脑版最上面的菜单栏“音频”。 音频导入包括直接导入音频文件(如 MP3 格式),支持视频转音频,还可以通过复制抖音视频的分享链接来获取音乐。
2025-03-06
现在国内最强大的ai是什么
目前国内较为强大的 AI 模型有: 智谱推出的 GLM 系列,一直是国内能力较好的模型之一。 MiniMax 推出的基于 MoE 架构的新模型,以及“星野”这个目前国内较成功的 AI 陪聊 APP。 月之暗面在长 Token 能力和记忆力方面表现可圈可点。 百度的“文心 4.0”是当前国内能力较好的模型之一。 即将发布的阿里的“通义千问”。 需要注意的是,在 2023 年官宣 AI 大模型的公司众多,其中不乏蹭流量的。从产品层面看,2C 端真正出圈的“妙鸭相机”也只是昙花一现。大多数消费者对 AI 产品的态度是“猎奇”而非刚需。在 2B 行业中,大模型目前还是“纯技术投入”,对于收入撬动非常有限。另外,国内在硬件层上仍存在卡脖子问题,目前国内仍然没有芯片可以胜任大模型训练,不过在推理上已经开始有 Nvidia 的替代产品逐渐出现。同时,中国的一些模型如由 DeepSeek、零一万物、知谱 AI 和阿里巴巴开发的模型在 LMSYS 排行榜上取得了优异的成绩,尤其在数学和编程方面表现出色,且各有优势。
2025-03-06
现在国内最强大的ai是什么
目前国内较为强大的 AI 模型有: 智谱推出的 GLM 系列,一直是国内能力较好的模型之一。 MiniMax 推出的采用 MoE 架构的新模型,以及“星野”这个目前国内较成功的 AI 陪聊 APP。 月之暗面在长 Token 能力和记忆力方面表现可圈可点。 百度的“文心 4.0”是当前国内能力较好的模型之一。 即将发布的阿里的“通义千问”。 同时,由 DeepSeek、零一万物、知谱 AI 和阿里巴巴开发的模型在 LMSYS 排行榜上取得了优异的成绩,尤其在数学和编程方面表现出色。中国的一些模型在某些方面能与美国的前沿模型竞争,并且更注重计算效率和数据集建设来弥补资源上的不足。但总体而言,国内最领先的模型水平大概在准 ChatGPT3.5 的水平,和 GPT4 还有不小差距。
2025-03-06
AI怎么跟公司行政工作相结合
AI 与公司行政工作相结合具有一定的挑战性,但也存在可能的方向。目前大多数的“AI 应用/AI 转型”在行政工作方面还在走“数字化转型”的老路,把 AI 往现有流程上套,讲“固化流程”“节约成本”的故事。但在技术加速迭代的当下,这样做可能导致成果过时,剥夺企业主动进化的能力。 YCombinator 的圆桌讨论认为,垂直 AI 智能体的市场潜力巨大,其专注于特定领域,能提供定制化服务并自动化重复任务,从而提高效率和降低成本。创业者应关注行政任务领域,这或许能为 AI 与行政工作的结合提供思路。 然而,AI 并非万能,我们和 AGI 还差得很远。不能仅因对 AI 的焦虑就希望其拿来即用、马上见效。AI 的力量不应只用于现有业务流程的优化,而更应用于对未来业务的重新定义。比如像电力发明时,不应从“如何让电力赋能马车”出发,而应从“电力能创造和满足什么新的需求”出发。
2025-03-06
扣子AI智能体搭建
以下是关于扣子 AI 智能体搭建的相关内容: 扣子是字节跳动旗下的 AI 应用开发平台,搭建智能体的门槛较低,无论有无编程基础都能快速搭建基于 AI 模型的多样化问答 Bot。 搭建智能体的步骤如下: 1. 创建一个智能体,输入人设等信息,并放上创建的工作流。 2. 配置完成后进行测试,但千万不要直接发布。工作流中使用的插件 api_token 若填的是自己的 token,其他人调用会消耗自己的费用。可以将 api_token 作为工作流最开始的输入,用户购买后输入 token 再发布。 3. 搭建时首先需要想一个智能体的名字,然后写一段该智能体的介绍,越详细越好,因为会根据介绍智能生成符合主题的图标。最后点击确认,新的智能体就诞生了。也可以使用 AI 创建一个头像。 扣子还提供了丰富的插件、工作流、知识库等功能来增强 Bot 的能力和交互性。例如菠萝作词家智能体,是专为音乐创作设计的辅助工具,能根据用户输入的提示词等信息生成歌词。 扣子官网:https://www.coze.cn/ 。开发完成后,还可以将构建的 Bot 发布到各种社交平台和通讯软件上供用户交互聊天。
2025-03-06
有manus ai的信息吗
Manus 是一款由中国团队研发的全球首款通用型 AI 代理工具,于 2025 年 3 月 5 日正式发布。它区别于传统聊天机器人(如 ChatGPT),具备自主规划、执行复杂任务并直接交付完整成果的能力,被称为“首个真干活的 AI”。 Manus AI 代理工具的具体技术架构主要基于多智能体(Multiple Agent)架构,运行在独立的虚拟机中。这种架构通过规划、执行和验证三个子模块的分工协作,实现了对复杂任务的高效处理。具体来说,Manus AI 的核心功能由多个独立模型共同完成,这些模型分别专注于不同的任务或领域,如自然语言处理、数据分析、推理等。这种多模型驱动的设计不仅提高了系统的鲁棒性和准确性,还增强了其处理复杂任务的能力。 Manus AI 的技术架构还包括以下几个关键组件: 1. 虚拟机:Manus AI 运行在云端虚拟机中,用户可以随时查看任务进度,适合处理耗时任务。 2. 计算资源:Manus AI 利用计算资源生成算法,用于筛选简历等具体任务。 3. 生成物:Manus AI 能够生成各种类型的输出,如文本、表格、报告等。 4. 内置多个 agents:Manus AI 通过内置多个智能体,实现了任务的分解和协同工作。 此外,Manus AI 还采用了“少结构,多智能体”的设计哲学,强调在数据质量高、模型强大、架构灵活的情况下,自然涌现 AI 的能力。这种设计使得 Manus AI 在处理复杂任务时更加高效和准确。Manus AI 的技术架构通过多智能体协同工作、虚拟机运行和生成物输出等机制,实现了对复杂任务的高效处理和高质量输出。 以下是一些关于 Manus 的媒体报道: 央视网: 每日经济新闻: 大聪明: 大聪明: Geeksavvy: 卡兹克: 小互 AI: 沐然云计算:
2025-03-06
怎么部署GPTs的api?
部署 GPTs 的 API 可以参考以下步骤: 1. 参考文章,了解之前的部署情况。 2. 登录地址,点击 Copy Link 进行复制 Actions API 链接。 3. 配置 GPTs Actions API: 打开 ChatGPT,点击创建 GPTs>Configure>Create new action。 输入来自 Gapier 的 Actions API 并点击 Import。 4. 授权: 在 Gapier 复制授权码。 在 Authentication 下选择配置图标,进入授权页面。 按照以下设置进行配置: Authentication Type:选择 API Key。 Auth Type:选择 Basic。 输入从网站上复制的授权码并点击 Save。 5. 引用 Action: 确定调用的 Action,并在 Prompt 中引用。 查看 Action 的方式分为两种: GPTs>Configure>Actions 页面。 网页查看,地址为。 另外一种引用的方式是:只要在 Instructions 中申明清楚需求,GPT 会自动选择合适的 API。 此外,还需注意以下几点: 1. 了解 OpenAPI 规范,通过 Schema 让 ChatGPT 懂这个 API。 2. 对于带参数的 Post 请求,需要创建规范文件、修改 GPTs 的 Action、调整 Prompt 等。 3. 注意如果不和说传入中文,它会给我们翻译了再传。
2025-03-01
可以查看GPTs是怎么设置的吗
以下是关于 GPTs 设置的详细步骤: 1. 放入完整的 Schema,并点击 Format 进行验证,如果不报错并显示出 Available Action 的列表,则代表成功。 2. 进行授权,输入 ClientID YOUR_ACCESS_KEY,如 ClientID 123456,并点击 Save。 3. 点击对应 Action 的 Test 验证 Action 是否可以调用。如果遇到返回数据过多造成异常的情况,也代表成功,只需在提示词中限定接口返回的数量即可。 4. 为了 GPTs 后期发布和分享,需要配置 Privacy Policy,其位置一般在网站的底部或者菜单的底部。复制 Privacy Policy 网页地址,如 Privacy policy 地址为:https://unsplash.com/privacy 。 5. 完善 GPTs 的基本配置。 6. 提示词调用方面,根据图片中各个对应关系,执行的操作需要指定 action 的名称,需要显示的字段名称指定具体的位置,比如图片作者,则使用 user.name,这样更加精确,不容易出错。完整提示词如下。注意,如果遇到图片目前无法直接显示,可以使用下载链接的方式查看,如下为应对方案的提示词和效果。如果有更好的方案,欢迎提供。 实操配置 Gapier Actions API 的步骤如下: 1. 登录地址:,点击 Copy Link 进行复制 Actions API 链接。 2. 打开 ChatGPT,点击创建 GPTs>Configure>Create new action。了解平台上支持的功能,输入来自 Gapier 的 Actions API 并点击 Import,导入成功。 3. 在 Gapier 复制授权码用于授权。在 Authentication 下选择配置图标,进入授权页面。开始配置授权码: Authentication Type:选择 API Key Auth Type:选择 Basic 输入从网站上复制的授权码,并点击 Save。若需要分享给他人或者公开发布,需要配置隐私策略码,在网页上寻找并复制,回到 GPT 上进行配置。 4. 确定调用的 Action,并在 Prompt 中引用。查看 Action 的方式分为两种,方式一:GPTs>Configure>Actions 页面;方式二:网页查看,地址为。回到 GPT>Configure 页面,引用 Action,比如调用思维导图的 API,直接输入调用 GenerateMindMap API 即可。此外,另外一种引用的方式是:只要在 Instructions 中申明清楚需求,GPT 会自动选择合适的 API。保存后试用。 创建一个 Http 服务让 GPTs 调用的步骤如下: 1. 创建一个每次产生一个随机数的 Http 服务,体验地址如下:https://gptaction.iaiuse.com/api/random 。 2. 直接在 Instructions 里面写,让它去调用接口。窗口最下面有个 Actions,这里就可以设置它和外部系统的接口。 3. 打孔 Add actions 界面,录入相关代码在 Schema 里面。点击下面的 Test 按钮,就能看到 ChatGPT 如何和服务进行交互。第一次允许它会提示是否允许外部服务,点击右边的小三角可以看到对话框,最右边那个隐私政策就是前面设置的。针对每个 action 都可以设置独立的隐私政策。通过这样一个简单的示例,了解 GPTs 如何和外部的服务进行交互,扩展它的能力。
2025-02-09
我要做GPTs
做 GPTs 的原因主要有以下几点: 1. 从社会层面看,虽然 AI 信息充斥,但大多数人对其了解有限,直接面对大模型时交流有限。而 Character.ai 因创造具体角色,数据居高不下,这表明需要明确的引导,而 GPTs 的创作者们可以做到这一点。 2. 对于平台来说,需要场景反哺产品,也需要先行者带动,形成双赢的共存生态。 3. 从从业者角度,如作者自身,虽有丰富经验,但在做 LLMs 应用时面临诸多问题,如找不到落脚点、技术与业务的断档等。懂技术的人不懂业务,熟悉业务的人对新技术没概念。 4. 从产品角度,普通用户的简单交流大模型难以明白其意图,而 GPTs 通过对话引导逐步获取用户信息,将生成高质量 Prompt 的过程拆解为以一轮对话为最小单元任务的重复,解决了用户说什么以及低门槛生成高质量 Prompt 的问题。
2024-11-21
GPTs 结构化提示词模板
以下是为您整理的关于 GPTs 结构化提示词模板的相关内容: 简单的提示词模板:最终目标是把需求说清楚。例如,“Act like a ”。 GPTs 教程及案例拆解 开源:一些 GPTs 的 prompt 中,如超强 LOGO 生成器,其使用方法为设计一个 logo 生成工具,允许用户上传多张 logo 图片作为参考,通过提示询问用户是否使用这些图片来创建新的 logo 设计,可自定义提示词风格和设定图片参考权重,利用 GPT4 Vision 的识图能力生成新 logo 设计,若用户不满意则重新生成,创作完后提示用户是否满意,满意则提供转 LOGO 矢量图的链接。 GPTs 教程及案例拆解 精选:GPTs 项目包括 Reviewer2Pal,可帮用户将直白的英文论文回应转换为专业回复;方法论专家 Methodology Expert,辅助用户使用方法论解决相关问题;灵感专家 Brainstorming Expert,辅助用户进行灵感思考和提出发散性角度;自动结构化框架,由小七姐编写,欢迎关注其公众号“AI 中文百科”领取更多好玩的 GPT 工具。
2024-11-07
My GPTs使用技巧
以下是关于 GPTs 的使用技巧: 教育方面:一位历史老师用 GPT 给学生讲课,需注意模拟历史存在不准确之处,有时幻觉可能是特点而非缺陷。文末提供了可用于模拟不同历史设置的详细提示链接,也可用于 Claude 或 ChatGPT(免费版效果相当,GPT4 效果最佳)。 入门方法: 创建方式: 点击 Explore。 点击 Create a GPT 进入配置页面。 进入自定义 GPT 配置界面。 选择 Configure 进入配置页面,栏位详细解释包括添加图像、Name(GPT 名称)、Instructions(提供提示词)、Conversation starters(提示用户开始对话的示例)、Knowledge(允许提供文件作为额外上下文)、Capabilities(启用网页浏览、DALL·E 图像生成和高级数据分析等功能)、Actions(使用第三方 API 或现有的插件)。 上传个人 Logo 等图片。 填写相关信息,如无外部知识作为上下文,可不填写 Knowledge 和 Actions。 填写完自动保存,试用。 上传图片开始分析。 多次测试满意后,可在右上角点击 Save 进行发布,发布方式有 Only me(只有自己可用)、Only people with a link(通过链接访问)、Public(所有人可访问,需开启个人名称和绑定公共域名)。 其他尝试: 小七姐提到 GPTs 原理是调用 Code Interpreter 检查字数和扩写 Prompt,提供了 GPTs 地址。 也可通过代码调用 OpenAI 官方 API 实现同样效果。 还提到了一些不太正经的办法,如情绪勒索等。省事可用分治法分段输出,程序员可选择 API 方式。
2024-10-06
怎么做gpts
GPTs 是一种无需编程经验,通过简单的对话聊天方式或者配置一些参数就可以快速构建的具备专属技能的工具。创建 GPTs 的步骤如下: 1. 点击 Explore。 2. 点击 Create a GPT 进入配置页面。 3. 进入自定义 GPT 配置界面。 4. 默认进入 Create 页面,选择 Configure 进入配置页面,栏位的详细解释如下: 添加图像:上传自己的图像。 Name:GPT 的名称。 Instructions:提供提示词。 Conversation starters:提示用户开始对话的示例。 Knowledge:允许提供文件作为额外的上下文,供 GPT 参考。 Capabilities:启用网页浏览、DALL·E 图像生成和高级数据分析将允许 GPT 执行其他功能。 Actions:可以使用第三方 API 可供 GPT 使用,如果之前已经构建了一个插件,您将能够使用现有的插件清单来定义 GPT 的操作。 5. 上传图片。如果是做个人 IP 建议上传个人 Logo。 6. 填写相关信息。由于没有需要提供的外部知识作为上下文,此次 Knowledge 未提供,且 Actions 也未填写。 7. 填写完信息会后自动保存,开始试用。 8. 上传图片开始分析。 9. 经过多次测试,达到自己满意的程度后,就可以在右上角点击 Save 进行发布。发布选项有: Only me:只有自己可以使用。 Only people with a link:通过分析的链接可以访问。 Public:所有人都可以访问,但是需要开启个人名称、以及绑定公共域名。 创建内容排版大师的 GPTs 只需在聊天框粘贴文字内容,然后点击发送即可。其链接为:https://chat.openai.com/g/gt9dIHp4Ntneirongpaibandashi 。并且该 GPTs 已经加入了 webpilot 的 actions。 需要注意的是,创建 GPTs 要求账号为 ChatGPT Plus 用户。
2024-09-21
token与参数的关系
Token 与参数存在密切关系。在大模型中,用于表达 token 之间关系的参数众多,主要指模型中的权重(weight)与偏置(bias)。例如,GPT3 拥有 1750 亿参数,而词汇表 token 数相对较少,只有 5 万左右。 目前使用的大模型存在 token 限制,如 Claude2100k 模型的上下文上限是 100k Tokens(100000 个 token),ChatGPT16k 模型的上下文上限是 16k Tokens(16000 个 token),ChatGPT432k 模型的上下文上限是 32k Tokens(32000 个 token)。这种 token 限制同时对一次性输入和一次对话的总体上下文长度生效,当达到上限时不是停止对话,而是遗忘最前面的对话。 在分词过程中,不同的字符串会被编码为不同的 token,例如字符串“Tokenization”编码到 token30642 及其后的 token1634,token“is”(包括前面的空格)是 318 等。数字的分解可能不一致,如 127 是由 3 个字符组成的 token,677 是 2 个 token 等。 为了让计算机理解 Token 之间的联系,需要把 Token 表示成稠密矩阵向量,这个过程称为 embedding,常见算法包括基于统计的 Word2Vec、GloVe 等,基于深度网络的 CNN、RNN/LSTM 等,基于神经网络的 BERT、Doc2Vec 等。以 Transform 为代表的大模型采用自注意力机制来学习不同 token 之间的依赖关系,生成高质量 embedding。
2025-03-06
请基于WHO提出的“健康老龄化”这个概念,论述AI和养老产业以及健康老龄化的关系,并举出在WHO、英国以及美国的实例
目前知识库中没有关于“基于 WHO 提出的‘健康老龄化’概念论述 AI 和养老产业以及健康老龄化关系,并列举 WHO、英国以及美国实例”的相关内容。但据现有知识,AI 在养老产业和健康老龄化方面具有重要作用。AI 可以通过智能监测设备实时收集老年人的健康数据,提前预警疾病风险;还能借助智能陪伴机器人为老年人提供心理支持和社交互动。 在 WHO 方面,可能尚未有明确的具体实例,但在理念倡导上可能会强调利用创新技术促进健康老龄化。 英国可能在一些养老机构中应用了 AI 技术来优化服务流程和提高护理质量。 美国或许在医疗保健领域利用 AI 辅助诊断和治疗,以更好地满足老年人的健康需求。但具体的实例还需要进一步查阅权威资料和最新研究。
2025-02-24
Ai生图和生视频和电脑算力的关系
AI 生图和生视频与电脑算力密切相关。 在生成图像和视频的过程中,需要强大的算力来处理复杂的计算任务。例如,像 PIKA1.0 这样的模型,在文生图和文生视频方面表现出色,其高质量和稳定性的输出依赖于足够的算力支持。 拥有大规模 GPU 集群、超算集群、云渲染平台等强大算力资源的企业或个人,能够更高效地完成生图和生视频的任务。 同时,未来算力的重点将从训练模型转向增强推理能力,这也将对 AI 生图和生视频的发展产生重要影响。 此外,一些新的模型和技术不断涌现,如 o1 推理模型,其在给出最终结果前会反复推演和验证,以提供更准确的结果。而像 OpenAI 发布会公布的 Sora v2 功能,能够生成 1 分钟长度的视频,并支持多种形式的转换,提升了多媒体创作的灵活性。 总之,电脑算力是实现高质量 AI 生图和生视频的重要支撑和保障。
2025-02-17
AGI和AIGC是啥关系,分别是什么的缩写
AGI 指通用人工智能,是一种能够像人类一样执行各种智能任务的人工智能。 AIGC 是人工智能生成内容的缩写,在公众传播层面,最初指用 Stable Diffusion 或 Midjourney 生成图像内容,后来泛指用 AI 生成音乐、图像、视频等内容。AIGC 是一种利用人工智能技术生成各种类型内容的应用方式,包括文字生成(如使用 GPT 系列模型生成文章、故事、对话等)、图像生成(如使用 Stable Diffusion、DALLE 等模型生成艺术作品、照片等)、视频生成(如使用 Runway、KLING 等模型生成动画、短视频等)。 AIGC、UGC(用户生成内容)和 PGC(专业人士或机构生成内容)都是内容生成的不同方式。UGC 由用户通过社交媒体等平台发布自己的内容,内容丰富多样,反映用户真实想法和创意,适用于互动性强的平台。PGC 由专业团队或机构根据特定标准和流程创作高质量内容,适用于需要高质量内容的平台。AIGC 的优势在于可以快速、大规模地生成内容,适用于需要大量内容的场景。
2025-02-13
关于AI与人类的关系,请说一些金句
以下是一些关于 AI 与人类关系的金句: 1. 未来拓展人类智力和能力的新型人工智能交互和协作方式是非常有前景的。我们期待创造性地利用人工智能技术来支持人类代理和创造力,增强和扩展人类能力,以实现创新和职业转型的丰富机会。 2. 一些社会角色可能会面临因 AI 的崛起而变得不那么有价值或过时的风险。然而,投资于支持和扩展人类问题解决和决策能力的任务、方法和机械,存在巨大的机会。 3. 当我们把 AI 当人来看待,它作为一个 Copilot,是一个很好的助手,也是一个非常好的朋友。 4. 个性化定制的“虚拟伴侣”能得到用户的认可,这是因为精准地击中了许多年轻人无处可藏的孤独和焦虑,背后是年轻人渴望被理解、沟通和交流。 5. AI 技术再爆炸一万倍,AI 的生态位也还是一种似人而非人的存在。 6. 当你想让 AI 实现愿望时,基于它的“非人”一面,你需要尽可能的通过语言文字(足够清晰的指令)压缩它的自由度。
2025-02-10
comfy ui 和 web ui是什么关系?有什么区别?
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI。 它们的关系是:ComfyUI 可以和 WebUI 共享环境和模型。 区别主要包括以下方面: 操作方面:ComfyUI 操作门槛高,需要有清晰的逻辑;WebUI 相对操作更简便。 性能方面:ComfyUI 对显存要求相对较低,启动速度快,出图速度快;系统资源占用更少。 自由度方面:ComfyUI 具有更高的生成自由度。 生态方面:WebUI 的生态比 ComfyUI 更多,但 ComfyUI 也有针对其开发的有趣插件。 种子处理和提示词权重处理:处理方式不同,会导致图像不同。例如种子处理,ComfyUI 通过 GPU 计算种子噪声,WebUI 通过 CPU。 硬件配置方面:ComfyUI 配置更低,最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。而 SDXL 出来后,ComfyUI 运行配置提高,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。玩 SDwebui 和 ComfyUI 建议使用 6GB 以上的显存的 NVIDIA 显卡,内存在 16G 以上。硬盘最好使用 SSD 以提高加载模型速度。
2025-02-08