Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

在使用openai api的时候,同一轮对话,需要每次都传system prompt吗?可以利用什么session id来减少system prompt的显示调用吗

Answer

在使用 OpenAI API 进行同一轮对话时,系统提示的使用并非每次都必须传递。系统提示在对话中类似于一个过滤器,大语言模型在回应新提示前会自动应用。一般来说,系统提示包括任务定义、输出格式和操作边界等部分,以确保大语言模型清楚任务、按要求格式化回答以及明确不应采取的行为。

另外,OpenAI 还推出了 Stateful API,开发者只需传入最新的对话记录,大模型会结合该记录和其维护的历史记录依据上下文产生新内容。Stateful API 的实现机制类似于 KV Cache,能指数级降低大模型应用的开销,提升计算速度。例如,在不使用 cache 的情况下,使用 GPT-2 生成 1000 个 Token 将耗时 56 秒,而使用 cache 的耗时则被降低为 11 秒。可以预期 Stateful API 会采用类似于 KV Cache 的机制,缓存用户对话的历史记录,并在每次 API 调用中,使用增量信息结合服务端的历史记录生成文本,以此降低计算规模。

但关于是否可以利用 session id 来减少系统提示的显示调用,目前提供的知识库中未提及相关内容。

Content generated by AI large model, please carefully verify (powered by aily)

References

我如何夺冠新加坡首届 GPT-4 提示工程大赛-翻译自宝玉

将以ChatGPT为例进行说明。[heading3]关于系统提示的术语解释[content]首先,我们来厘清几个术语:在讨论ChatGPT时,这三个术语“系统提示”、“系统消息”和“自定义指令”几乎可以互换使用。这种用法让许多人(包括我自己)感到混淆,因此OpenAI发表了一篇[文章](https://help.openai.com/en/articles/8234522-chat-completions-api-system-message-vs-custom-instructions-in-ui),专门解释了这些术语。简要总结如下:“系统提示”和“系统消息”是通过Chat Completions API编程方式交互时使用的术语。而“自定义指令”则是在通过[https://chat.openai.com/](https://chat.openai.com/)的用户界面与ChatGPT交互时使用的术语。尽管这三个术语表达的是相同的概念,但不必因术语的使用而感到困扰。下面我们将统一使用“系统提示”这一术语。现在,让我们一探究竟![heading3]什么是系统提示?[content]在对话中,每当您提出一个新的提示时,系统提示就像是一个过滤器,大语言模型会在回应您的新提示之前自动应用这一过滤器。这意味着在对话中每次大语言模型给出回应时,都会考虑到这些系统提示。系统提示一般包括以下几个部分:任务定义:确保大语言模型(LLM)在整个对话中清楚自己的任务。输出格式:指导LLM如何格式化其回答。操作边界:明确LLM不应采取的行为。这些边界是LLM治理中新兴的一个方面,旨在界定LLM的操作范围。例如,系统提示可能是这样的:每一部分对应的内容如下图所示:

GPT、DALL·E、Sora,为什么 OpenAI 可以跑通所有 AGI 技术栈?

对于OpenAI,目前的目标很明确:就是all in AGI,一切研究围绕着探索通往AGI的路径。而商业模式上也很简单:SaaS,直接给API,接口设计内部自己决定,付多少钱用多少,不想用就不用,这样省去了很多产品设计,marketing,BD的时间,伺候甲方的时间(有比较可靠的消息称即使Microsoft的Copilot等产品也是直接用的API,没有花功夫做太多的定制),整个公司可以集中精力开发AGI。有人可能说:不是啊,OpenAI不是还有ChatGPT的用户界面,手机端语音聊天,以及GPTs吗?但是仔细想想,这几个部分OpenAI可以说是「非常不用心」了。比如ChatGPT Plus是怎么自动融合搜索,图片生成,代码调用等工具的?单独做了一套深度优化?不,答案是OpenAI给了一个巨大的prompt,让模型自己去选。OpenAI是怎么和各种第三方插件结合的,是单独做了匹配和接口?不,答案是直接让这些plugins描述自己是什么,然后模型自己调用,至于调用得对不对那就是另外一件事情了。这里最典的是最近OpenAI怎么实现「记忆」的,给大家看看OpenAI的完整prompt(李博杰提供的,每个人可以诱导ChatGPT说出这些,OpenAI也不在乎):OpenAI直接用prompt让GPT-4调用bio这个工具记录需要记忆的内容(「to=xxx」是调用内部工具的语法,比如"to=python"是GPT调用code interpreter的方式)。然后每次新的对话开始时,在prompt的最后直接加上所有之前的记录的内容(## Model Set Context)。就是这么简单粗暴。

OpenAI将在11月6日举办首次开发者大会

而使用Stateful API,开发者只需要传入最新的对话记录,大模型会结合该记录和其维护的历史记录,依据上下文产生新的文内容(图3)。Altman表示,基于Stateful API,用户不用再“Pay for the same tokens from the same conversation history again and again”。图3:Stateful OpenAI API其次,Stateful API的实现机制应类似于KV Cache。在Statful API的信息披露之后,X(Twitter)上就有开发者马上意识到Stateful API,类似于KV Cache机制,将有可能指数级(O(N^2 => O(N))降低大模型应用的开销(图4)。图4 Stateful API类似于KV CacheKV Cache旨在提升大模型的计算速度。在Transformer中,Key和Value用于计算“scaled dot-product attention”,其以矩阵的形式存在。在以GPT为代表的Decoder大模型中,没有KV Caching的情况下,每次计算新attention都会重复计算该token前面所有tokens的attentions,导致算力和时间的浪费。而KV Cache的作用就是缓存前面的计算结果,让大模型专注于新token的计算,下图详细比对了无/有KV Caching的计算过程(图5):图5:没有KV Caching vs有KV Caching**KV Cache对计算速度提升明显,例如,在不使用cache的情况下,使用GPT-2生成1000个Token将耗时56秒,而使用cache的耗时则被降低为11秒。可以预期的是,Stateful API应该会采用类似于KV Cache的机制,缓存用户对话的历史记录,并在每次API调用中,使用增量信息结合服务端的历史记录生成文本,并以此降低计算规模(图6)。图6:计算规模,Stateful vs Stateless

Others are asking
用AI总结长文的prompt怎么写比较好
以下是关于用 AI 总结长文的一些提示词编写建议: 1. 单人发言版:基于李继刚老师的“通知消息整理助手”修改“文字排版大师”的 Prompt,重点 Prompt 语句需标出。 2. 多人发言版: 明确跟 GPT 说明需要其帮忙总结文字内容。 将提示词和文字原文发送给 GPT,等待其输出完毕后复制粘贴到文本编辑器中,整理并删掉无关内容,替换掉不美观的符号。 3. 法律相关: 格式:【设定角色+任务目标+上下文和背景信息+(正面要求)详细需求和细节性信息+(负面要求)限制和不需要的内容+回答的语言风格和形式】 讲清楚背景和目的,例如律师处理交通事故案件时应清晰描述案件事实、法规等。 学会提问,使用清晰、具体的语言,避免模糊表述,了解 AI 工作原理和限制。 拆解工作流程,将复杂任务分解成更小、更具体的环节。 4. 通用写作方面: 第一部分:说清楚要解决的问题及背景,可能导致的损失。 第二部分:以案例引入,写明案号、案件事实经过、裁判结果、关键依据等要点。 第三部分:对案例进一步分析,写明注意关键点,不给建议。 第四部分:给出具体操作建议,包括事前、事中、事后的注意事项和补救措施。 第五部分:结语及作者宣传。 文章结构需有结构化理解,所有结论应有案例基础,不能违反法律规定,文字简练精准,信息密度足够,建议具体细致且易于操作。
2025-01-24
12个prompt 框架
以下是 12 种 Prompt 框架: 1. Instruction(指令):即希望 AI 执行的具体任务,如翻译或写一段文字。 2. Context(背景信息):给 AI 更多背景信息,引导模型做出更贴合需求的回复。 3. Input Data(输入数据):告知模型需要处理的数据。 4. Output Indicator(输出引导):告知模型输出的类型或风格。 5. Capacity and Role(能力和角色):ChatGPT 应扮演的角色。 6. Insight(见解):提供请求背后的见解、背景和上下文。 7. Statement(声明):说明要求 ChatGPT 做什么。 8. Personality(个性):希望 ChatGPT 以何种风格、个性或方式回应。 9. Experiment(实验):请求 ChatGPT 回复多个示例。 10. Background(背景):说明背景,为 ChatGPT 提供充足信息。 11. Role(角色):希望 ChatGPT 扮演的角色。 12. Objectives(目标):希望实现的目标。 此外,还有以下框架: 1. TASK(任务):定义特定任务。 2. ACTION(行动):描述需要做的事情。 3. GOAL(目标):解释最终目标。 4. INPUT(输入):描述信息或资源。 5. STEPS(步骤):询问详细的步骤。 6. EXPECTATION(期望):描述所需的结果。 7. REQUEST(请求):描述您的要求。 8. Key Result(关键结果):要什么具体效果,试验并调整。 9. Evolve(试验并改进):三种改进方法自由组合,包括改进输入、改进答案、重新生成。 10. CONTEXT(上下文背景):为对话设定舞台。 11. OBJECTIVE(目的):描述目标。 12. SCENARIO(方案):描述场景。 同时,还有一些特定的框架,如 ICIO 框架、CRISPE 框架、BROKE 框架等。
2025-01-23
1.AI搜索的prompt怎么写 2.AI搜论文的prompt怎么写比较好
以下是关于 AI 搜索和 AI 搜论文的 prompt 写作的相关指导: 对于 AI 搜索的 prompt 写作: 1. 明确具体的描述:使用更具体、细节的词语和短语来描述您的需求,避免过于笼统。 2. 添加视觉参考:若可能,在 prompt 中插入相关图片参考,以提高 AI 理解意图和细节要求的能力。 3. 注意语气和情感:根据需求,用合适的形容词、语气词等调整 prompt 的整体语气和情感色彩。 4. 优化关键词组合:尝试不同的关键词搭配和语序,找到最准确表达需求的描述方式。 5. 增加约束条件:为避免意外输出,添加如分辨率、比例等限制性条件。 6. 分步骤构建 prompt:将复杂需求拆解为逐步的子 prompt,引导 AI 先生成基本结构,再逐步完善。 7. 参考优秀案例:研究 AI 社区流行且有效的 prompt 范例,借鉴写作技巧和模式。 8. 反复试验、迭代优化:通过多次尝试不同写法,并根据输出效果反馈持续优化。 对于 AI 搜论文的 prompt 写作,您可以参考以下要点: 1. 设定角色为资深学术研究者,明确具备高效的学术论文阅读、总结能力。 2. 遵循“二八原则”进行论文总结。 3. 输出阅读的总结文字,包括列出论文的明确方法论、经过验证的结论等关键信息。 4. 采用结构化的内容组织方式,如使用编号、子标题和列表。 5. 按照规定概述内容解读结语的结构写作,先概述规定内容,然后解读具体内容,最后以结语结束。 6. 结合案例和挑战,增强说服力并提供解决方案。 7. 引入法规内容和实际操作案例,提供详细解释和建议。 8. 使用商业术语,确保专业性和针对性。 9. 注意文章结构,标题要开门见山、切中要害并引起目标群体悬念;第一部分说清楚要解决的问题及背景和可能导致的损失;第二部分以案例引入;第三部分对案例进一步分析;第四部分给出具体操作建议,包括事前、事中、事后的注意事项和措施。 总之,编写高质量的 prompt 需要不断实践和总结经验,熟悉 AI 模型的能力边界,保持开放思维并尝试创新描述方式。
2025-01-22
怎么在coze的智能体总加入一个使用MARKDOWN编写的代码的prompt?
在 Coze 的智能体中加入使用 Markdown 编写的代码的 prompt 可以参考以下方法: 首先,了解相关的任务和目标,比如像实现输入任意文章链接后,AI 自动生成适合微信分享的文章推荐卡片。为达到这一效果,大模型对话产品通常需要完成网页爬取、内容总结、二维码生成、卡片样式生成等关键步骤。 在编写 prompt 时,可以发现新的词生卡 Prompt 组织方法,把设计要求拆分为“设计规范”和“内容结构”,再细分为“布局与尺寸”“字体规范”“颜色规范”的独立模块,并结合“内容结构”进行要求提示。这种提示词组织方式具有模型通用性、提示简易性和生成稳定性等显著优势。 对于刚入门的朋友,首推 LangGPT 结构化提示词,直观易懂,可以快速上手。对于想要进阶的用户,一方面可以继续选择 LangGPT,另一方面如有额外精力和好奇心,不妨尝试刚哥推崇的 Lisp 伪代码格式,有助于精炼提示词和提升对措辞理解、概念认知的能力。但需要注意的是,真正重要的不是提示词的外在形式,而是内容是否与 AI 的“理解机制”相契合。同时,在实际应用中,还需要经过多次调试,并根据测试 bug 微调提示词,直至稳定运行。
2025-01-19
仿写公众号的prompt
以下是关于仿写公众号 prompt 的相关内容: 1. 对于使用 GPT 模仿创作内容的万能思路: 明确目标是找到教 GPT 创作的方法论,即“know how”。 把方法论和示例写到 prompt 中,可改写大佬写好的 prompt,如 JK 老师的欢乐多朋友圈段子生产 V0.3,模仿改写出自己的小红书视频笔记标题产出助手 0.1。 把拆解得到的方法论和示例写到 Skills 部分,运用 COT(少样本提示)技巧。 若之前未写过结构化的 prompt,可打开云中江树老师的 LangGPT 项目学习 https://github.com/yzfly/LangGPT/blob/main/README_zh.md 了解。 0.1 版的使用效果。 2. 提示词快闪答疑: 新教师辅导专家的 prompt 编写要根据教学业务知识,写备课助手、上课助手和课后反思助手等,并融入“如何做好这些事”的方法论。 对于宋小涛 FewShot 产生更好内容的问题,可能是未把握模仿说话或写作风格的要素,需有关键词和方法论。 不同模型之间的区别一般通过实际使用总结经验,也可参考他人测评,如 。 当 ChatGPT 总结提炼文本效果差时,要描述清楚总结的方法、基于的规则、总结的内容以及期望的结果,如“请为我总结以下文档,提炼出每个段落中和 XXX 有关的核心内容,并把其中关于 XXX 的部分加粗显示”。 3. 专业的战争分析官 prompt:包括原始 prompt 和仿写 prompt 。
2025-01-16
prompt是什么
Prompt 是您提供给 AI 的文本,用于引发相关输出。它通常以问题或指示的形式出现,例如“为什么天空是蓝色的?”。在不同的 AI 应用中,如 Claude、Midjourney 等,其具体含义和使用方式有所不同。 在一般情况下,Prompt 是一段指令,用于指挥 AI 生成您所需要的内容。每个单独的提示词叫 tag(关键词)。支持的语言包括英语,emoji 也可以使用。语法规则方面,用英文半角符号逗号来分隔 tag,逗号前后有空格或者换行不影响效果。还可以改变 tag 权重,有两种写法,一种是通过设置权重数值,另一种是通过添加括号改变权重。此外,在某些高级玩法中,还可以进行 tag 的步数控制。 在 Midjourney 中,提示是您提供的文本命令,用来指示 AI 创建什么内容。它可以是一个单词、一句话,或者是一个详细的描述,结合各种元素来引导 AI 塑造输出内容。提示设计得越周到,结果就越有可能符合您的预期。例如,一个简单的提示可以是“An alien humanoidv 6.1”,更详细的提示可以是“A lowangle shot of an alien humanoid creature with a glowing screen on its face,looking down from the side,atmospheric lighting,and a minimalist backgroundv 6.1”。但需要注意的是,生成结果可能不稳定,影响提示的元素或组成部分不稳定。
2025-01-15
1. laptop 2. artificial intelligence 3. generative 4. log in 5. AI-driven 6. bluetooth headset 7. video call 8. platform Write some interesting sentences with these words
以下是为您生成的包含这些关键词的有趣句子: 当我使用配备强大 GPU 的 AI 笔记本电脑,如戴尔 Precision 移动工作站,通过蓝牙耳机关闭了周围的噪音,登录到专门的 AI 驱动平台,与远方的朋友进行视频通话,探讨生成式人工智能的奇妙之处,感觉真是太棒了! 在微星 Creator/Workstation 系列的 AI 笔记本上,我利用预装的深度学习框架,如 NVIDIA CUDA 和 cuDNN,进行着生成式模型的训练,同时通过蓝牙连接着蓝牙耳机,享受着不受干扰的创作过程,然后登录到特定的平台分享我的成果,这一切都由 AI 驱动,借助高速的网络实现了如同面对面的视频通话交流。 联想 ThinkPad P 系列的 AI 笔记本,拥有出色的散热和续航,让我能长时间专注于生成式项目的开发。我戴上蓝牙耳机,登录 AI 平台,与团队进行视频通话,共同推动项目前进,这一切都离不开 AI 驱动的强大力量。
2025-01-20
vidu如何使用
Vidu 的使用方法如下: 访问 Web 端:https://www.vidu.studio/ 极速生成,实测 30 秒最快推理速度 具有动漫风格,万物皆可二次元 角色可控,任意场景、任何动作,角色保持一致 精准理解,镜头、文字、动作,理解更准、生成更稳 大片质感,影视级画面和特效一键直出 关于如何使用“文生视频”“图生视频(用作起始帧)”“参考人物角色生成视频”,您可以参考以下链接获取相关视频: 为了保证更好地画面效果,丰富而准确的提示词对于将要创作的视频至关重要。本指南提供了基本示例结构、关键词以及风格化提示技巧,以帮助您更好地呈现创意灵感。请谨记,这些示例仅仅只是起点,您可以自由探索和创新,发挥自己天马行空的想象。
2025-01-19
D-ID
DID 是一家以色列 AI 创业公司推出的产品。该公司此前的“Deep Nostalgia”(将老照片中失散已久的亲人的脸动画化)和“LiveStory”(在动画照片中添加音频,让照片中的人讲述自己的生活史)等项目在 Tiktok 等社交媒体上疯传。DID 主打 AI Avatar 生成视频,推出了 Express 和 Premium+两款新数字人工具。Express 通过一分钟视频训练模型,支持同步头部动作;Premium+需要更长视频训练,可支持手部和躯干动作。DID 表示互动视频广告的点击率和转化率分别提升了 30%和 35%。DID 提供了更多 credits(20 个)让用户试用。除了 AI 视频生成器之外,该公司还提供与 Microsoft PowerPoint 兼容的 AI Presenters,允许用户将虚拟演示者添加到幻灯片中并创建更具吸引力和互动性的演示文稿。但实际测试效果远不如 HeyGen 自然,嘴部模糊较多。官网地址:https://app.heygen.com
2025-01-18
如何访问midjourney社区
要访问 Midjourney 社区,您可以按照以下步骤进行: 1. 拥有一个 Discord 账号:如果没有,可参考进行验证。 2. 订阅 Midjourney 计划:访问了解有关定价和各层可用功能的信息。 3. 加入 Midjourney 服务器: 打开 Discord 并找到左侧边栏上的服务器列表。 按服务器列表底部的“+”按钮。 在弹出窗口中,单击“Join a Server”按钮。 粘贴或输入以下 URL:。 4. 转到任何“General”或“Newbie”频道:加入 Midjourney 服务器后,您会在侧边栏中看到列出的几个频道。 此外,您的 Midjourney 订阅使您可以访问 Niji 社区。要为 Niji 模型版本创建风格调谐器或代码,请加入并以与 Midjourney Bot 交互的方式与 Niji 机器人交互。
2025-01-14
nvidia
以下是关于您提到的“nvidia”的相关信息: 1. 英伟达在 AI 领域有新的动作,推出了通过画图提示词自动生成匹配的 ComfyUI 工作流的 ComfyGen,目前仅支持文生图模型。英伟达称其可以生成高质量的图并泛化到其他领域,效果甚至更符合人类对提示词的判断和理解,且在与其他模型和人类写的提示词的对比中略胜一筹,但项目未开源。 2. 英伟达起步于看到游戏市场的需求,如今在 AI 领域有重要地位。 3. 在 2024 年,全球芯片出口管制下,中国仍是重要市场。美国商务部长警告英伟达,中国在美芯片制造商中所占份额减少,但中国当地分支机构目前未受控制。字节跳动通过美国的甲骨文租用 NVIDIA H100 访问权限,阿里巴巴和腾讯与 NVIDIA 就在美国建立自己的数据中心进行谈判,同时谷歌和微软向中国大型企业推销云服务。 4. 2024 年,提供强大模型的成本下降,如 OpenAI 成本下降 100 倍,Google Gemini 也有价格下降且性能强劲。由于计算成本高,模型构建者越来越依赖与大型科技公司建立合作伙伴关系,反垄断监管机构担心这将巩固现有公司的地位。
2025-01-09
midjourney 教程
以下是关于 Midjourney 的一些教程: 1. 利用一致性 MJ 出海马体写真: 超低学习成本,会用任意手机修图软件即可。 得益于 cref,能迅速达成角色一致性目的,无需 Lora。cref 代表 character reference(角色参考),cw 代表 character weight(参考权重),默认为 100,会参考角色的人脸和服装特点。若只想关注人脸,可调低到 0。 风格复制和服装替换,用提示词(prompt)和 sref,默认值 100,越高越接近参考图像的风格。 用 /describe 指令反推海马体的提示词,配合 sref复制图像风格。回车前检查提示词,避免出现和 sref 风格差异过大的 prompt,也可增加有用的 prompt。 对最满意的图进行 Upscale,解决“形似而神不似”的问题,即 MJ 直出和原人物在五官等地方的细微差距。 2. 线稿上色 Midjourney + Stable Diffusion: 用 Midjourney 生成线稿,PS 修正错误,再用 ControlNet 控制,Stable Diffusion 上色,多套 AI 组合提高出图质量和效率。 例如生成可爱猫卡通 IP 角色的线稿,mj 关键词:Black and white line drawing illustration of a cute cat cartoon IP character,black line sketch,wearing a fortune hat,wearing a collar around the neck,Carrying a huge bag containing scrolls and ingots,matching rope and straps at his wrists,Chinese element style,popular toys,blind box toys,Disney style,white backgroundniji 5style expressive。 3. 小白 30min 加入离谱村: 选工具,如 SD 或 Midjourney。 抄 prompt,从教程和导航中找喜欢的风格,摘取提示词。 找 ChatGPT 改写提示词。 把提示词喂给 Midjourney 机器人,初学者可多按 VU 让其自由修改,先弄出满意的图,如 V1V4 基于某图修改出 4 张,U1U4 选定某图细节调整。
2025-01-08
以豆包为例,如何通过API调用豆包大模型?
要通过 API 调用豆包大模型,以下是一些相关步骤和信息: 1. 直接调用大模型(之前完成过 coze 对接的同学,直接去二、百炼应用的调用): 百炼首页:https://bailian.console.aliyun.com/ 以调用“qwenmax”模型为例,在/root/chatgptonwechat/文件夹下,打开 config.json 文件,需要更改"model",和添加"dashscope_api_key"。 获取 key 的视频教程: 获取 key 的图文教程:以下是参考配置。 注意:需要“实名认证”后,这些 key 才可以正常使用,如果对话出现“Access to mode denied.Please make sure you are eligible for using the model.”的报错,那说明您没有实名认证,点击去,或查看自己是否已认证。 2. 创建大模型问答应用: 首先可以通过创建一个百炼应用,来获取大模型的推理 API 服务,用于实现 AI 助手。 创建应用: 进入百炼控制台的,在页面右侧点击新增应用。在对话框,选择智能体应用并创建。 在应用设置页面,模型选择通义千问Plus,其他参数保持默认。您也可以选择输入一些 Prompt,比如设置一些人设以引导大模型更好的应对客户咨询。 在页面右侧可以提问验证模型效果。不过您会发现,目前它还无法准确回答你们公司的商品信息。点击右上角的发布,我们将在后面的步骤中去解决这一问题。 获取调用 API 所需的凭证: 在我的应用>应用列表中可以查看所有百炼应用 ID。保存应用 ID 到本地用于后续配置。 在顶部导航栏右侧,点击人型图标,点击 APIKEY 进入我的 APIKEY 页面。在页面右侧,点击创建我的 APIKEY,在弹出窗口中创建一个新 APIKEY。保存 APIKEY 到本地用于后续配置。 3. 配置 FastGpt、OneAPI: 首先配置 OneAPI,还记得刚刚让您白嫖的大模型 API 吗?阿里的接口,这时要派上用场了,去阿里模型的链接里创建 ApiKey,并复制下来。然后在 OneAPI 的页面,点击【渠道】添加新渠道。添加时,类型选择阿里通义千问,名称自己取个,类型选择好后模型是会默认加进去,您不用删减,还有就把刚刚阿里那复制的 ApiKey 粘贴到秘钥里去。这样就 OK 了。后续有其他的大模型也是一样的添加方式。
2025-01-23
哪些应用或者是web服务可以使用api
以下是一些可以使用 API 的应用和 Web 服务: 1. TMDB 提供了搜索电影的 API,其文档网址为 https://developer.themoviedb.org/reference/searchmovie 。在该网站的开发者相关页面或 API 文档中,可获取 API 规则。通过在右上角的认证里能看到 API 读访问令牌,配置文件中包含了如 url、请求方法 get、查询参数 query 和 language 等。输入关键词和相关语言设置,如“奥本海默”和“zhCN”,点击 Try it 即可获取数据,返回的数据格式为 JSON。 2. RAG 加速器的数据抽取服务,基于 FastAPI 和 Postgresql 搭建,并提供了标准的 REST API 接口,附带有 dockercompose 文件方便搭建服务环境。该服务支持定义并持久化“抽取器”,包含抽取结构的图式(Schema)、抽取上下文的指令(Prompt)和抽取样例(Reference examples)。此外,提供了提交文件进行抽取的端点和通过 RemoteRunnable 使抽取服务在 LangChain Expression Language链中更易用的端点。预设了基于 MIME 类型的解析器,支持 PDF 和 HTML 文档的解析,还可扩展支持其他文件类型。使用时可通过 JSON 模式定义提取信息、指定样例提升提取结果质量,传入原始文本或二进制文件。 如果您对 Action 很感兴趣,可以从以下方向继续学习: 1. 系统学习 API 相关知识。 2. 在网上寻找可用的 API 进行练习。 3. 发掘 GPT Action 的更多潜力。
2025-01-23
Whisper API
以下是关于您提到的“Whisper API”的相关信息: 在不同的 API 端点中,与 Whisper 相关的有: /v1/audio/transcriptions:支持的型号名称为 whisper1。 /v1/audio/translations:支持的型号名称为 whisper1。
2025-01-21
在comfyUI中可以接入哪些api,又和3D相关的吗
在 ComfyUI 中可以接入以下与 3D 相关的 API: 1. @CSM_ai:可以将文本、图像或草图转换为 3D 素材,并直接应用于游戏中,无需后期处理。体验地址:https://cube.csm.ai ,https://x.com/xiaohuggg/status/1763758877999587757?s=20 2. Move AI 推出的 Move API:可以从 2D 视频生成 3D 运动数据,支持多种 3D 文件格式导出,为 AR 应用、游戏开发等提供高质量 3D 运动数据。链接:https://move.ai/api ,https://x.com/xiaohuggg/status/1761590288576061573?s=20 3. ComfyUI 3D Pack 引入 3D 图像处理:可以快速将图片转换为 3D 模型,支持多角度查看,使用 3D 高斯扩散技术提升模型质量,支持多种格式导出,集成先进 3D 处理算法。链接:https://github.com/MrForExample/ComfyUI3DPack/tree/main ,https://x.com/xiaohuggg/status/1755824687811346514?s=20 此外,ZHO 博主有关于 ComfyUI 的更新记录: 1. 4 月 18 日,ComfyUI Stable Diffusion 3 API 已更新为 V1.5 版,图生图和 SD3 Turbo 都可以正常使用,但 SD3 图生图模式不支持选择比例,SD3 Turbo 模型不支持负面提示词。使用方法是先申请 API,然后填入 config.json 文件即可(每账户 25 免费积分),SD3 每张图 6.5 积分(比较贵)。项目地址:https://github.com/ZHOZHOZHO/ComfyUIStableDiffusion3API ,SD3 API ComfyUI 节点测试成功。 2. 4 月 17 日,Stability AI 刚刚发布了 Stable Diffusion 3 和 Stable Diffusion 3 Turbo,现在已经可通过 Stability AI 开发者平台 API 使用,SAI 计划在不久的将来通过会员资格提供模型权重。详情:https://bit.ly/3W43FjY
2025-01-14
国内coze调用api的例子
以下是国内 Coze 调用 API 的一些例子: 1. 通过已有服务 API 创建插件: 进入 Coze 个人空间,选择插件,新建一个插件并命名,如 api_1。 在插件的 URL 部分,填入 Ngrok 随机生成的 https 链接地址。 按照 Coze 的指引配置输出参数,测试后发布插件。 2. 手捏简单的 Bot 并接入创建的插件:创建测试 API 的 Bot,将创建的 api_1 插件接入,在 prompt 里让其调用插件。 3. 测试 AI Bot 时可能遇到的情况:Coze 国内版刚发布不久,有些官方和第三方插件的 API 调用和返回结果不太稳定,可能出现回答不完整的情况,但相信官方会尽快解决。 4. 获取 Coze 的 accessToken 和 botid: 获取 accessToken:在 Coze 界面右侧扣子 API 授权,或者打开链接 https://www.coze.cn/open/oauth/pats,添加令牌,设置名称、过期时间和权限,完成后点击确定按钮并复制下拉令牌。 获取 botid:通过工作空间获取,从“工作空间”打开一个 bot,点击商店按钮查看地址栏中的数字即为 botid。 发布为 bot api:注意在前端使用 bot 必须发布成为 API,点击发布并选择 API,等待审核通过后可按上述方法拿到 botid。 获取空间 id:进入 Coze 后,左边打开工作空间,找到 url 中的 id 并复制。
2025-01-12
如何通过程序代码调用coze的api?
要通过程序代码调用 Coze 的 API,大致步骤如下: 1. 创建一个插件: 填入插件名和插件描述。 选择云侧插件作为创建方式。 选择 Python 作为 IDE 运行时。 点击【在 IDE 中创建工具】。 在创建工具面板里: 填入工具名称。 填入工具介绍。 2. API 接入相关操作: Glif 允许通过 API 调用平台上的应用,API 接入:https://docs.glif.app/api/gettingstarted 。 去创建一个新的 Token 并复制备用。 将自己发布的 glif 链接上的 id 复制备用。 3. 在 Coze 的 IDE 中: 引入依赖和编写 handler 方法。 代码中对应的数据字段在元数据 Tab 中设置: 填写入参字段和描述,对完整链接要写清楚。 填写出参字段。 左侧的依赖包添加【requests】。 填入测试数据运行,测试通过后即可发布。 4. 创建一个 Bot,挂载新创建的插件,在 Prompt 中做一些对入参的校验和约束。 5. 测试从 Coze 调用 Glif 功能跑通,发布 Coze。 另外,获取 Coze 的 accessToken 和 botid 时,需要了解以下内容: 1. OAuth 授权的范围控制: 个人空间:访问个人创建的 bot。 团队空间:可以跨账号授权,比如让其他团队成员访问你创建的 bot。 2. 跨账号授权流程: 用户 A 在用户 B 的团队空间创建了 bot。 用户 A 要使用这个 bot,需要: 先让空间所有者安装这个 OAuth 应用。 然后用户 A 才能获取授权码访问其在该团队空间创建的 bot。 3. OAuth 和 PAT的主要区别: OAuth token 有效期更短,安全性更高。 OAuth 可以实现跨账号的授权。 PAT 只能访问个人的资源。 在 Coze 中用现有服务创建自己的 plugin 时: 1. 进入 Coze,在个人空间中选择插件,新建一个插件,起名并填写描述。 2. 在插件的 URL 部分,填入 Ngrok 随机生成的 https 的链接地址。 3. 配置输出参数。 4. 测试后发布插件。 5. 创建 Bot 并接入创建的插件,在 prompt 中设置调用插件的相关要求。
2025-01-12
openai 的产品分析
OpenAI 的产品具有以下特点和发展情况: 去年 11 月发布了基于 GPT3.5 最新版本的消费级产品 ChatGPT,其具有强大的功能,能提供各种回答和完成多种任务,但也存在捏造事实的问题。ChatGPT 被视为 GPT4 的台标。 OpenAI 内部对于是否发布功能强大的工具存在争论,发布被视为让公众适应 AI 改变日常生活现实的战略一部分。 OpenAI 目前严重受限于 GPU,这影响了其多项计划,包括 API 的可靠性和速度、更长上下文窗口的推广、微调 API 以及专用容量的提供。 Sam Altman 分享了 OpenAI 近期路线,如 2023 年的首要任务是更便宜、更快的 GPT4,以及实现更长的上下文窗口、扩展微调 API 和推出有状态的 API。 2024 年 10 月有相关的视频和文章对 OpenAI 进行分析和介绍新产品,如剖析其从理想主义走向商业化的历程,以及介绍了四款创新 AI 产品。
2025-01-11
openai中学生写作的建议
以下是 OpenAI 针对中学生写作的一些建议: 1. 写作过程分为五个阶段:前期调研、框架构建、论证深化、反馈改进和调整格式。 2. 包含 12 条具体建议,如快速了解主题、创建反向大纲、寻求反馈和规范引用等技巧。 3. 强调将 AI 作为思维的催化剂,而非替代品。 4. 获得更好结果的六种策略: 写清楚说明:包括在问题中包含细节以获取更相关的答案、要求模型采用一个角色、使用分隔符清晰地表示输入的不同部分、指定完成任务所需的步骤、提供示例、指定期望的输出长度。 提供参考文本:指示模型使用参考文本回答、指示模型使用参考文本中的引用来回答。 将复杂任务拆分成更简单的子任务。 给 GPT 时间「思考」。 使用外部工具。 系统地测试更改。
2025-01-10
OpenAI过去12天的发布会总结
以下是 OpenAI 过去 12 天发布会的总结: 自媒体记录方面: 夕小瑶科技说:o3 发布,可能影响码农工作。 孔某人的低维认知:OpenAI 圣诞 12 天总评,感谢大佬赏饭。 MAX 01Founder:一文详解 o3,虽接近 AGI 但使用成本高。 南瓜博士:使用 o3 钱包和脑子可能不够。 数字生命卡兹克:OpenAI 正式发布 o3,通往 AGI 路上已无障碍。 具体发布内容: Day12:o3 与 o3 mini 正式亮相。 Day11:ChatGPT 桌面应用,Option+空格快速唤起。 Day10:OpenAI 发布电话倾诉功能 18002428478。 Day9:o1 满血版 API 和 4o 实时语音 API 更新。 Day8:AI 搜索功能免费开放,并支持实时语音搜索。 Day7:ChatGPT 全新“项目”功能发布。 Day6:实时视频通话&圣诞老人模式正式上线。 Day5:ChatGPT 与 Apple 的深度合作。 Day4:直播“翻车”的 Canvas。 Day3:Sora 终于上线,有案例和功能详解。 Day2:微调 O1 模型,低成本高效率。 Day1:强化学习微调的实操案例。 宝玉日报 12 月 18 日: AI 架构与技术选型的 4 条原则:选主流框架、确保测试覆盖率、避免私有框架、采用模块化设计。 OpenAI 12 天发布会第 9 天:o1 API 正式版速度更快成本降低,支持多种新功能;语音交互升级,引入 WebRTC 支持,处理费用降低;新增偏好微调功能和工具包,简化 API 密钥申请流程。 易观分析报告预测了 AI 技术未来的关键发展方向,德邦证券报告对 OpenAI 十二日发布会进行深度总结,认为随着大模型能力提升和应用场景扩展,AI 应用商业价值有望实现,建议关注相关领域。
2024-12-31
openai
以下是关于 OpenAI 的相关信息: AGI 的 5 个等级: 聊天机器人(Chatbots):具备基本对话能力,主要依赖预设脚本和关键词匹配,用于客户服务和简单查询响应。 推理者(Reasoners):具备人类推理水平,能解决复杂问题,如 ChatGPT,可根据上下文和文件提供详细分析和意见。 智能体(Agents):不仅具备推理能力,还能执行全自动化业务,但目前许多 AI Agent 产品执行任务后仍需人类参与,尚未达到完全智能体水平。 创新者(Innovators):能够协助人类完成新发明,如谷歌 DeepMind 的 AlphaFold 模型,可预测蛋白质结构,加速科学研究和新药发现。 组织(Organizations):最高级别的 AI,能够自动执行组织的全部业务流程,如规划、执行、反馈、迭代、资源分配和管理等。 模型: GPT4(Beta):一组改进 GPT3.5 的模型,可理解和生成自然语言或代码。 GPT3.5:一组改进 GPT3 的模型,可理解并生成自然语言或代码。 DALL·E(Beta):可以在给定自然语言提示的情况下生成和编辑图像的模型。 Whisper(Beta):可以将音频转换为文本的模型。 Embeddings:一组可以将文本转换为数字形式的模型。 Codex(Limited Beta):一组可以理解和生成代码的模型,包括将自然语言转换为代码。 Moderation:可以检测文本是否敏感或不安全的微调模型。 GPT3:一组可以理解和生成自然语言的模型。 GPT、DALL·E、Sora 相关:Sora 的出现证明了 OpenAI 试图让计算机模拟真实物理世界的野心及对自身技术路线的坚持。从 OpenAI 发布的 Sora 的技术报告中可看到对过往大语言模型训练成功经验的复用。加州大学伯克利分校计算机科学 PHD、知乎作者 SIY.Z 从技术实现上分析了 Sora 成功的部分原因,以及从商业和技术趋势上分析了 OpenAI 能跑通全部技术栈的原因,并尝试预测了 OpenAI 下一步的进展。
2024-12-27
openai 发布的sora最新模型中,生成视频的提示词与一般问答提示词有什么区别或者注意事项?
Sora 是 OpenAI 于 2024 年 2 月发布的文本到视频的生成式 AI 模型。 生成视频的提示词与一般问答提示词的区别和注意事项如下: 1. 对于视频生成,神经网络是单射函数,拟合的是文本到视频的映射。由于视频的动态性高,值域大,因此需要丰富且复杂的提示词来扩大定义域,以学好这个函数。 2. 详细的文本提示能迫使神经网络学习文本到视频内容的映射,加强对提示词的理解和服从。 3. 和 DALL·E 3 一样,OpenAI 用内部工具(很可能基于 GPT4v)给视频详尽的描述,提升了模型服从提示词的能力以及视频的质量(包括视频中正确显示文本的能力)。但这会导致在使用时的偏差,即用户的描述相对较短。OpenAI 用 GPT 来扩充用户的描述以改善这个问题,并提高使用体验和视频生成的多样性。 4. 除了文本,Sora 也支持图像或者视频作为提示词,支持 SDEdit,并且可以向前或者向后生成视频,因此可以进行多样的视频编辑和继续创作,比如生成首尾相连重复循环的视频,甚至连接两个截然不同的视频。 以下是一些 Sora 的案例提示词,如:“小土豆国王戴着雄伟的王冠,坐在王座上,监督着他们广阔的土豆王国,里面充满了土豆臣民和土豆城堡。”“咖啡馆的小地图立体模型,装饰着室内植物。木梁在上方纵横交错,冷萃咖啡站里摆满了小瓶子和玻璃杯。”“一张写有‘SORA’的写实云朵图像。”“一群萨摩耶小狗学习成为厨师的电影预告片‘cinematic trailer for a group of samoyed puppies learning to become chefs’”
2024-12-27
openai
OpenAI 的相关信息如下: 模型: OpenAI API 由多种具有不同功能和价位的模型提供支持,还可通过微调针对特定用例对原始基本模型进行有限定制。 具体模型包括:GPT4(Beta),是一组改进 GPT3.5 的模型,能理解和生成自然语言或代码;GPT3.5,是一组改进 GPT3 的模型,能理解并生成自然语言或代码;DALL·E(Beta),能在给定自然语言提示的情况下生成和编辑图像;Whisper(Beta),能将音频转换为文本;Embeddings,能将文本转换为数字形式;Codex(Limited Beta),能理解和生成代码,包括将自然语言转换为代码;Moderation,能检测文本是否敏感或不安全的微调模型;GPT3,能理解和生成自然语言。 为何能跑通所有 AGI 技术栈: 方法论明确:通用模型能用到更多数据,减少技术栈,OpenAI 未来可能会继续走通用模型的道路,降低微调等特化的需求,继续增加模型的上下文长度。 用一个模型为另一个模型提供标注:OpenAI 的 Dall E 和 Sora 都用到了大量可能来自于 GPT vision 的数据标注,未来可能会继续加强各个模型的连接。 Transformer 架构:其在各个模态和技术栈具有优势,能复用模型参数和使用一套基础设施框架训练不同模型,新模型若要取代,需通过缩放定律的检验。 稀疏模型。
2024-12-25