Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

openai的接口怎么调用,提示词怎么写

Answer

以下是关于 OpenAI 接口调用和提示词编写的相关知识:

OpenAI 接口调用: OpenAI API 可应用于众多涉及生成自然语言、代码或图像的任务。提供了不同能力级别的模型,适用于不同任务,还能微调自定义模型。这些模型可用于内容生成、语义搜索、分类等众多领域。

提示词编写

  1. 设计提示词本质上是对模型进行“编程”,通常通过提供指令或示例完成,与多数专为单个任务设计的 NLP 服务不同,补全和聊天补全几乎可用于任何任务,如内容或代码生成、摘要、扩展、对话、创意写作、风格转换等。
  2. 遵循最简化原则:
    • 不需要包含作者信息,如“author”“version”等不相关信息。
    • 避免分类错误,将输出错误分类到目标中,如“提供改进建议,以及改进原因”和“对用户的 Prompt 进行评分 1~10 分,10 分为满分”应明确区分。
    • 注意拼写正确,如“Constraints”的正确拼写。
    • 常见的限制条件包括内容长度限制、内容类型限制、逻辑和一致性限制、风格和语调限制。
    • 避免无意义或重复的描述,如“理解中文语义”“评估和打分文本质量”“提供文本改进建议”等。
    • 注意 Markdown 格式的正确使用,如“# Profile:## Goals:”的结构错误,应将 Goals 放到“# Role”层级下面。

在给定的 API 请求中处理的 Token 数量取决于输入和输出长度。对于英文文本,1 个 Token 大约相当于 4 个字符或 0.75 个单词。您的文本提示词和生成的补合起来不能超过模型的最大上下文长度(对于大多数模型,这是 2048 个 Token,或大约 1500 个单词)。可以查看 OpenAI 的分词器工具来了解有关文本如何转换为 Token 的更多信息。

Content generated by AI large model, please carefully verify (powered by aily)

References

快速开始

OpenAI API可以应用于几乎所有涉及生成自然语言、代码或图像的任务。我们提供了一系列不同能力级别的[模型](https://ywh1bkansf.feishu.cn/wiki/R70MwasSpik2tgkCr7dc9eTmn0o),适用于不同任务的,并且能够[微调(Fine-tune)](https://ywh1bkansf.feishu.cn/wiki/ATYCwS5RRibGXNkvoC4ckddLnLf)您自己的自定义模型。这些模型可以用于从内容生成到语义搜索和分类的所有领域。[heading2]提示词Prompts[content]设计提示词本质上就是对模型进行“编程”,这通常是通过提供一些指令或几个示例来完成。这与大多数其他NLP服务不同,后者是为单个任务设计的,例如情绪分类或命名实体识别。相反,补全(Completions)和聊天补全(Chat Completions)几乎可用于任何任务,包括内容或代码生成、摘要、扩展、对话、创意写作、风格转换等。[heading2]标记Token[content]我们的模型通过将文本分解为标记(Token)来理解和处理文本。Token可以是单词,也可以是字符块。例如,单词“hamburger”被分解成标记“ham”、“bur”和“ger”,而很短且常见的单词像“pear”是一个Token。许多Token以空格开头,例如“ hello”和“ bye”。在给定的API请求中处理的Token数量取决于您的输入和输出长度。作为一个粗略的经验法则,对于英文文本,1个Token大约相当于4个字符或0.75个单词。要记住的一个限制是,您的文本提示词和生成的补全合起来不能超过模型的最大上下文长度(对于大多数模型,这是2048个Token,或大约1500个单词)。可以查看我们的[分词器工具](https://platform.openai.com/tokenizer)来了解有关文本如何转换为Token的更多信息。

如何调教 AI,提示词,就应该和打字一样简单!

[title]如何调教AI,提示词,就应该和打字一样简单![heading1]遵循最简化原则我想基于以下这个结构化提示词,来和大家分析一下,为什么这个提示词违反了最简化原则。同时写Prompt应该首先分析,我想达到的任务所需要的模块是什么。理解,模块并不是一成不变的,需要根据任务增减。1.不需要包含作者信息像是作者author,version这种信息,属于不相关信息。不需要告诉大模型。一些提示词网站复制过来的都包含这个信息,确实有的作者会写进去,也有些是复制的时候系统自动添加的。不管哪种情况,在问大模型的时候不需要这个模块。2.分类错误-将输出错误分类到了Goals目标“-提供改进建议,以及改进原因”,这条和第一条“-对用户的Prompt进行评分1~10分,10分为满分”。这两个目标非常相似但又有点不同,难免造成一定的困惑,这个机器人的目标是评分还是提供改进建议?改进建议,和改进原因。这句话不清晰,改进原因,是为什么模型这么去改提示词。这个动作发生在模型回复答案之前。而改进建议,是未来这个提示词,怎么再继续优化。这是未来动作。放到一起会引起歧义。更佳的做法是放到,达成目标后的输出(Output)这个模块,促使模型给出分数后,一并给出原因。“-输出改进后的完整Prompt”,这也是属于需要输出的内容,不是这个机器人的目标。3.注意拼写正确Constrains:Constraints:翻译为限制,限制一般包括具体的字数限制。他这里(Constrains)单词没有拼写正确,所以大家再用的时候要确认拼写正确,对大模型来说是可以理解稍许不正确的词语的,这是一个小问题。正确的拼写方法是Constraints。限制条件,要确保你的限制条件清晰和可以被大模型执行。以下是一些常见的限制条件:

如何调教 AI,提示词,就应该和打字一样简单!

[title]如何调教AI,提示词,就应该和打字一样简单![heading1]遵循最简化原则1.内容长度限制:这是最直观的一种限制,确保模型的输出不会超过用户设定的字数或者信息量。2.内容类型限制:这种限制确保模型不会生成不恰当的或不相关的内容。例如,可以通过预先设定的过滤规则来避免生成不适宜的语言或主题。3.逻辑和一致性限制:为了让模型的输出更加符合逻辑,可以通过增加对模型理解和处理逻辑关系的能力来设定。4.风格和语调限制:在某些情况下,你可能希望模型的输出符合特定的写作风格或语调。没有遵循最简原则Skill:“-理解中文语义”:这类描述是没有意义的,因为这是大模型的基础设定。也可以理解为环境设定,系统预设就必然理解语言,不提更好,防止他过度理解。“-评估和打分文本质量”:目标已经包含打分这个任务,这里不需要再提。“-提供文本改进建议”:这个也是在目标中重复出现。Markdown格式错误# Profile:## Goals:这样的结构,就是错误的把Goals放到了作者信息里面。应该放到# Role层级下面代表这是这个机器人的目标。Initialization “欢迎用户,并提示用户输入信息”,这里也可以细化一下,“明白以上要求后请回复:“请提供需要打分的提示词:””。这里就更加清晰的指代,用户下一句回复的信息,是需要打分的提示词。“我是小圆点,加入我的私人AI讨论组吧!vx:novatude ”

Others are asking
openai 的产品分析
OpenAI 的产品具有以下特点和发展情况: 去年 11 月发布了基于 GPT3.5 最新版本的消费级产品 ChatGPT,其具有强大的功能,能提供各种回答和完成多种任务,但也存在捏造事实的问题。ChatGPT 被视为 GPT4 的台标。 OpenAI 内部对于是否发布功能强大的工具存在争论,发布被视为让公众适应 AI 改变日常生活现实的战略一部分。 OpenAI 目前严重受限于 GPU,这影响了其多项计划,包括 API 的可靠性和速度、更长上下文窗口的推广、微调 API 以及专用容量的提供。 Sam Altman 分享了 OpenAI 近期路线,如 2023 年的首要任务是更便宜、更快的 GPT4,以及实现更长的上下文窗口、扩展微调 API 和推出有状态的 API。 2024 年 10 月有相关的视频和文章对 OpenAI 进行分析和介绍新产品,如剖析其从理想主义走向商业化的历程,以及介绍了四款创新 AI 产品。
2025-01-11
openai中学生写作的建议
以下是 OpenAI 针对中学生写作的一些建议: 1. 写作过程分为五个阶段:前期调研、框架构建、论证深化、反馈改进和调整格式。 2. 包含 12 条具体建议,如快速了解主题、创建反向大纲、寻求反馈和规范引用等技巧。 3. 强调将 AI 作为思维的催化剂,而非替代品。 4. 获得更好结果的六种策略: 写清楚说明:包括在问题中包含细节以获取更相关的答案、要求模型采用一个角色、使用分隔符清晰地表示输入的不同部分、指定完成任务所需的步骤、提供示例、指定期望的输出长度。 提供参考文本:指示模型使用参考文本回答、指示模型使用参考文本中的引用来回答。 将复杂任务拆分成更简单的子任务。 给 GPT 时间「思考」。 使用外部工具。 系统地测试更改。
2025-01-10
OpenAI过去12天的发布会总结
以下是 OpenAI 过去 12 天发布会的总结: 自媒体记录方面: 夕小瑶科技说:o3 发布,可能影响码农工作。 孔某人的低维认知:OpenAI 圣诞 12 天总评,感谢大佬赏饭。 MAX 01Founder:一文详解 o3,虽接近 AGI 但使用成本高。 南瓜博士:使用 o3 钱包和脑子可能不够。 数字生命卡兹克:OpenAI 正式发布 o3,通往 AGI 路上已无障碍。 具体发布内容: Day12:o3 与 o3 mini 正式亮相。 Day11:ChatGPT 桌面应用,Option+空格快速唤起。 Day10:OpenAI 发布电话倾诉功能 18002428478。 Day9:o1 满血版 API 和 4o 实时语音 API 更新。 Day8:AI 搜索功能免费开放,并支持实时语音搜索。 Day7:ChatGPT 全新“项目”功能发布。 Day6:实时视频通话&圣诞老人模式正式上线。 Day5:ChatGPT 与 Apple 的深度合作。 Day4:直播“翻车”的 Canvas。 Day3:Sora 终于上线,有案例和功能详解。 Day2:微调 O1 模型,低成本高效率。 Day1:强化学习微调的实操案例。 宝玉日报 12 月 18 日: AI 架构与技术选型的 4 条原则:选主流框架、确保测试覆盖率、避免私有框架、采用模块化设计。 OpenAI 12 天发布会第 9 天:o1 API 正式版速度更快成本降低,支持多种新功能;语音交互升级,引入 WebRTC 支持,处理费用降低;新增偏好微调功能和工具包,简化 API 密钥申请流程。 易观分析报告预测了 AI 技术未来的关键发展方向,德邦证券报告对 OpenAI 十二日发布会进行深度总结,认为随着大模型能力提升和应用场景扩展,AI 应用商业价值有望实现,建议关注相关领域。
2024-12-31
openai
以下是关于 OpenAI 的相关信息: AGI 的 5 个等级: 聊天机器人(Chatbots):具备基本对话能力,主要依赖预设脚本和关键词匹配,用于客户服务和简单查询响应。 推理者(Reasoners):具备人类推理水平,能解决复杂问题,如 ChatGPT,可根据上下文和文件提供详细分析和意见。 智能体(Agents):不仅具备推理能力,还能执行全自动化业务,但目前许多 AI Agent 产品执行任务后仍需人类参与,尚未达到完全智能体水平。 创新者(Innovators):能够协助人类完成新发明,如谷歌 DeepMind 的 AlphaFold 模型,可预测蛋白质结构,加速科学研究和新药发现。 组织(Organizations):最高级别的 AI,能够自动执行组织的全部业务流程,如规划、执行、反馈、迭代、资源分配和管理等。 模型: GPT4(Beta):一组改进 GPT3.5 的模型,可理解和生成自然语言或代码。 GPT3.5:一组改进 GPT3 的模型,可理解并生成自然语言或代码。 DALL·E(Beta):可以在给定自然语言提示的情况下生成和编辑图像的模型。 Whisper(Beta):可以将音频转换为文本的模型。 Embeddings:一组可以将文本转换为数字形式的模型。 Codex(Limited Beta):一组可以理解和生成代码的模型,包括将自然语言转换为代码。 Moderation:可以检测文本是否敏感或不安全的微调模型。 GPT3:一组可以理解和生成自然语言的模型。 GPT、DALL·E、Sora 相关:Sora 的出现证明了 OpenAI 试图让计算机模拟真实物理世界的野心及对自身技术路线的坚持。从 OpenAI 发布的 Sora 的技术报告中可看到对过往大语言模型训练成功经验的复用。加州大学伯克利分校计算机科学 PHD、知乎作者 SIY.Z 从技术实现上分析了 Sora 成功的部分原因,以及从商业和技术趋势上分析了 OpenAI 能跑通全部技术栈的原因,并尝试预测了 OpenAI 下一步的进展。
2024-12-27
openai 发布的sora最新模型中,生成视频的提示词与一般问答提示词有什么区别或者注意事项?
Sora 是 OpenAI 于 2024 年 2 月发布的文本到视频的生成式 AI 模型。 生成视频的提示词与一般问答提示词的区别和注意事项如下: 1. 对于视频生成,神经网络是单射函数,拟合的是文本到视频的映射。由于视频的动态性高,值域大,因此需要丰富且复杂的提示词来扩大定义域,以学好这个函数。 2. 详细的文本提示能迫使神经网络学习文本到视频内容的映射,加强对提示词的理解和服从。 3. 和 DALL·E 3 一样,OpenAI 用内部工具(很可能基于 GPT4v)给视频详尽的描述,提升了模型服从提示词的能力以及视频的质量(包括视频中正确显示文本的能力)。但这会导致在使用时的偏差,即用户的描述相对较短。OpenAI 用 GPT 来扩充用户的描述以改善这个问题,并提高使用体验和视频生成的多样性。 4. 除了文本,Sora 也支持图像或者视频作为提示词,支持 SDEdit,并且可以向前或者向后生成视频,因此可以进行多样的视频编辑和继续创作,比如生成首尾相连重复循环的视频,甚至连接两个截然不同的视频。 以下是一些 Sora 的案例提示词,如:“小土豆国王戴着雄伟的王冠,坐在王座上,监督着他们广阔的土豆王国,里面充满了土豆臣民和土豆城堡。”“咖啡馆的小地图立体模型,装饰着室内植物。木梁在上方纵横交错,冷萃咖啡站里摆满了小瓶子和玻璃杯。”“一张写有‘SORA’的写实云朵图像。”“一群萨摩耶小狗学习成为厨师的电影预告片‘cinematic trailer for a group of samoyed puppies learning to become chefs’”
2024-12-27
openai
OpenAI 的相关信息如下: 模型: OpenAI API 由多种具有不同功能和价位的模型提供支持,还可通过微调针对特定用例对原始基本模型进行有限定制。 具体模型包括:GPT4(Beta),是一组改进 GPT3.5 的模型,能理解和生成自然语言或代码;GPT3.5,是一组改进 GPT3 的模型,能理解并生成自然语言或代码;DALL·E(Beta),能在给定自然语言提示的情况下生成和编辑图像;Whisper(Beta),能将音频转换为文本;Embeddings,能将文本转换为数字形式;Codex(Limited Beta),能理解和生成代码,包括将自然语言转换为代码;Moderation,能检测文本是否敏感或不安全的微调模型;GPT3,能理解和生成自然语言。 为何能跑通所有 AGI 技术栈: 方法论明确:通用模型能用到更多数据,减少技术栈,OpenAI 未来可能会继续走通用模型的道路,降低微调等特化的需求,继续增加模型的上下文长度。 用一个模型为另一个模型提供标注:OpenAI 的 Dall E 和 Sora 都用到了大量可能来自于 GPT vision 的数据标注,未来可能会继续加强各个模型的连接。 Transformer 架构:其在各个模态和技术栈具有优势,能复用模型参数和使用一套基础设施框架训练不同模型,新模型若要取代,需通过缩放定律的检验。 稀疏模型。
2024-12-25
以下是大致可以采用的步骤来实现这样一个能自动在大语言模型网站生成不同场景机器人图片的程序(以下以Python语言示例,不过不同平台具体实现会有差异且需遵循对应网站的使用规则和接口规范): ### 1. 选择合适的大语言模型网站及确认其API(应用程序编程接口)情况 不同大语言模型网站对于图片生成通常会提供相应的API来允许外部程序与之交互,比如部分知名的AI绘画相关平台。你需要先确定要使用哪些网站,然后去注册开发者账号等,获取对应的API Key以及详细的API文档,了解如何通过代码向其发起图
以下是为您整合的相关内容: Ollama 框架: 1. 支持多种大型语言模型,如通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 2. 易于使用,适用于 macOS、Windows 和 Linux 系统,支持 cpu 和 gpu,用户能轻松在本地环境启动和运行大模型。 3. 提供模型库,用户可从中下载不同模型,这些模型有不同参数和大小以满足不同需求和硬件条件,可通过 https://ollama.com/library 查找。 4. 支持用户自定义模型,例如修改模型的温度参数来调整创造性和连贯性,或者设置特定的系统消息。 5. 提供 REST API 用于运行和管理模型,以及与其他应用程序的集成选项。 6. 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 7. 安装:访问 https://ollama.com/download/ 进行下载安装。安装完后,确保 ollama 后台服务已启动(在 mac 上启动 ollama 应用程序,在 linux 上通过 ollama serve 启动),可通过 ollama list 确认。 基于 COW 框架的 ChatBot 实现步骤: 1. COW 是基于大模型搭建的 Chat 机器人框架,将多模型塞进自己的微信里实现方案。 2. 基于张梦飞同学的教程: 。 3. 实现内容: 打造属于自己的 ChatBot(文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等)。 常用开源插件的安装应用。 4. 正式开始前需知: ChatBot 相较于在各大模型网页端使用区别:本实现思路需要接入大模型 API 的方式实现(API 单独付费)。 风险与注意事项: 微信端因非常规使用,有封号危险,不建议主力微信号接入。 只探讨操作步骤,请依法合规使用。 大模型生成的内容注意甄别,确保所有操作均符合相关法律法规要求。 禁止用于任何非法目的。 处理敏感或个人隐私数据时注意脱敏,以防滥用或泄露。 5. 多平台接入:微信、企业微信、公众号、飞书、钉钉等。 6. 多模型选择:GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等。 7. 多消息类型支持:能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能。 8. 多部署方法:本地运行、服务器运行、Docker 的方式。
2024-12-29
马斯克脑机接口最新发展
马斯克脑机接口的最新发展包括以下方面: 脑虎科技创始人彭雷指出脑机接口是人类脑计划的核心底层工具,能长期稳定读取大规模神经元活动信号。脑机接口是交叉领域,存在侵入式解决方案,如马斯克采用的柔性脑机结构,其柔性丝比头发细很多,通道无上限,可通过脑机信号控制物体。 2024 年 8 月 4 日,《马斯克最新 6 万字访谈!8.5 小时详解脑机接口、机器人、外星人,以及 AI 与人类的未来(一)》发布,这是马斯克第 5 次参加 Lex Fridman 播客,也是有史以来时间最长、最完整、信息量最大的一次,全球首位 Neuralink 脑机接口植入者 Noland 也参与了对话。 2024 年 1 月 30 日,马斯克宣布首例人类大脑芯片植入手术成功。
2024-11-16
脑机接口可以实现视力恢复吗
目前,悉尼科技大学开发了一种能够解码大脑中的想法并将其转换为文本的技术。随着大脑活动重建图像的技术成熟、大脑匹配视觉和听觉位置的系统完善以及无线脑机接口(BCI)的临床试验,脑机接口在医疗、宇宙探索、家庭、娱乐、游戏等多个场景有了应用的可能性。人类甚至可以在闭着眼睛的状态下进行信息获取、内容输出和娱乐体验。 相关技术链接: 大脑活动重建图像: 大脑匹配视觉和听觉位置: 无线脑机接口(BCI):[https://neuralink.com/blog/firstclinicaltrialopenfor 但就目前的技术水平而言,脑机接口在视力恢复方面还处于研究和探索阶段,尚未能完全实现视力的恢复。
2024-11-16
我是一名资讯人员,早会分享脑机接口,时间只有10分钟,希望使用通俗易懂的语言分享,重点说说脑机的应用实例。
以下是为您整理的关于脑机接口的分享内容: 脑机接口的应用实例: 1. 斯坦福大学开发的 NOIR 脑机接口系统,能够通过脑电波操作机器人执行任务,并在 20 项家务活动中成功应用。这一项目意义重大,未来有望帮助残疾人提升生活质量。 脑机接口的工作原理: 1. 分为输入端和输出端。输入端是填充和消费不同模态的内容,如音频、文本、视频,AI 能加速消化过程,提高学习主动性,且双向可提问。 2. 输出端是利用知识解决手头工作或完成目标,极端情况下自己借助知识干活,或者让 AI 助理基于收藏或保存的知识点完成任务,如写文章、输出代码。 关于脑机接口适合的应用场景,目前如对长视频进行快速获取信息的总结等。
2024-11-16
如何用大模型和数据接口对话
以下是关于如何用大模型和数据接口对话的相关内容: 大模型入门指南 动手实验 由于作者使用的是 macOS 系统,因此采用 GGML 量化后的模型。官方开源出来的模型大都以 Python 为主,效率一般。作者通常会采用社区内的其他实现,比较有名的项目有: ggerganov/llama.cpp:Port of Facebook's LLaMA model in C/C++ ggerganov/whisper.cpp:Port of OpenAI's Whisper model in C/C++ LLama 首先是编译,为了利用 Metal 的 GPU,可以用如下命令编译。之后需要去 Llama27BChatGGML中下载模型,3G 到 7G 不等,读者可以按需尝试。此外,llama.cpp 还提供了 WebUI 供用户使用,首先启动 server,它默认监听 8080 端口,打开浏览器就可以对话。 Whisper 和 llama 类似,采用 make 命令编译,之后去 ggerganov/whisper.cpp下载量化好的模型,然后转换音频即可,目前只接受 wav 格式,可以用 ffmpeg 转化。输出的 srt 文件如下所示: |Size|Parameters|Englishonly model|Multilingual model|Required VRAM|Relative speed| ||||||| |tiny|39 M|tiny.en|tiny|~1 GB|~32x| |base|74 M|base.en|base|~1 GB|~16x| |small|244 M|small.en|small|~2 GB|~6x| |medium|769 M|medium.en|medium|~5 GB|~2x| |large|1550 M|N/A|large|~10 GB|1x| 一般来说,英文的音频 small 模型就足够了,但是如果是中文,最好用最大的模型。 数据库 通过在工作流中添加数据库节点对数据表进行操作。在工作流中可通过 NL2SQL 方式和代码方式进行调用,支持完整读写模式。 参考以下操作,在工作流中添加并配置工作流节点。在工作流中配置数据库节点前,确保已经搭建了一个 Bot,并在这个 Bot 中创建好了数据表。 1. 单击页面顶部的工作流页签,然后单击创建工作流。 2. 输入工作流名称和工作流的使用描述,然后单击确认。工作流名称和描述可以帮助大语言模型理解什么场景下需要调用该工作流。 1. 在基础节点页签下,将数据库节点拖入到工作流配置画布区域。 2. 根据以下信息配置数据库节点。 2.1. 输入:添加 SQL 执行中需要的参数,可以是一个变量,也可以是一个固定值。 2.2. SQL:输入要执行的 SQL 语句,可以直接使用输入参数中的变量。 可单击自动生成使用大模型生成 SQL。在弹出的页面中,选择这个数据库工作流生效的 Bot 和数据表,然后使用自然语言描述要执行的操作,单击自动生成生成 SQL 语句,最后单击使用。 不支持 Select语法。不支持多表 Join 操作。最多返回 100 行数据。 手把手教你本地部署大模型以及搭建个人知识库 通过 Open WebUI 使用大模型 使用 Open WebUI 1. 首先访问如下网址。当打开这个页面的时候,会让你登陆,这个时候随便使用一个邮箱注册一个账号即可。 1. 和本地大模型进行对话。登陆成功之后,如果已经使用过 ChatGPT 等类似的大模型对话网站,对这个页面应该不陌生。Open WebUI 一般有两种使用方式:第一种是聊天对话;第二种是 RAG 能力,也就是可以让模型根据文档内容来回答问题。这种能力就是构建知识库的基础之一。如果要求不高的话,已经搭建了一个本地大模型了,并且通过 Web UI 实现了和大模型进行对话的功能。 相信通过这么一通折腾,就理解了 ChatGPT 的信息流。至于为什么 ChatGPT 的访问速度比我们自己的要快,而且回答效果要好,有两个原因:快是因为 GPT 大模型部署的服务器配置高;好是因为 GPT 大模型的训练参数多,数据更优以及训练算法更好。如果想要更加灵活的掌握知识库,请接着往下看。
2024-10-21
基于飞书的知识库RAG的搭建,需要什么接口进行全文搜索
基于飞书的知识库 RAG 搭建,可用于全文搜索的接口方式主要有以下几种: 1. 语义检索:语义匹配关注查询和文档内容的意义,而非仅仅表面的词汇匹配。通过向量的相似性来判断语义的相似性。 2. 全文检索:这是基于关键词的检索方式。例如,对于句子“猫的饮食习惯包括吃鱼和鸡肉”,输入“猫”“饮食”“猫的饮食习惯”“吃鱼”等关键词可搜索到该句子,但输入“猫喜欢吃什么呀”则无法搜索到。 3. 混合检索:结合了语义匹配和全文检索的优点,通常系统先进行全文检索获取初步结果,然后再对这些结果进行语义匹配和排序。 此外,在本地部署资讯问答机器人实现 RAG 时,会涉及加载所需的库和模块,如 feedparse 用于解析 RSS 订阅源,ollama 用于在 python 程序中跑大模型。还会为文档内容生成向量,如使用文本向量模型 bgem3 等。 在开发 LangChain 应用开发指南中,实现 LangChain 和 RAG 的结合时,需要加载数据、分割文档、转换嵌入并存储到向量存储器、创建检索器以及聊天模型等步骤。
2024-10-17
怎么调用qwen?
要调用 qwen ,有以下几种情况和步骤: 1. 调用百炼“应用”: 创建一个百炼应用,假设命名为“苏苏”。 在/root/chatgptonwechat/文件夹下,打开config.json文件。 更改"model":"qwen",并添加"qwen_access_key_id"、"qwen_access_key_secret"、"qwen_agent_key"、"qwen_app_id"四项配置。 配置项获取可参考视频教程: 图文教程及参考配置也有提供。 注意:需要“实名认证”后,这些key才可以正常使用,如果对话出现“Access to mode denied.Please make sure you are eligible for using the model.”的报错,那说明您没有实名认证,点击去,或查看自己是否已认证。 2. 直接调用大模型: 百炼首页:https://bailian.console.aliyun.com/ 在/root/chatgptonwechat/文件夹下,打开config.json文件。 以调用“qwenmax”模型为例,需要更改"model",和添加"dashscope_api_key"。 获取 key 可参考视频教程: 图文教程及参考配置也有提供。 注意:需要“实名认证”后,这些key才可以正常使用,如果对话出现“Access to mode denied.Please make sure you are eligible for using the model.”的报错,那说明您没有实名认证,点击去,或查看自己是否已认证。 3. 创建知识库应用并调用: 地址输入浏览器:http://这里替换为您宝塔左上角的那一串:3000/ 进入后,点击应用并创建,选择 qwen 模型。 创建知识库。点击知识库 选择 qwen Embedding 1 点击确认创建。 上传文件,等待处理,最后文本状态是“已就绪”。 回到刚刚创建的应用,关联上创建的知识库。 点击两个发布。之前第一个叫做保存。 点击新建,创建 key。创建后保存同时将 API 根地址最后加上/v1 也保存下来。 回到宝塔,打开【终端】 依次粘贴并回车:cd/root git clone https://github.com/zhayujie/chatgptonwechat cd chatgptonwechat/ pip install r requirements.txt pip install r requirementsoptional.txt 等待执行完成。 到“文件”菜单中去执行,点击文件 找到 root,进入 root 文件夹,找到 chatgptonwechat 文件夹,并进入。
2025-01-20
国内有哪些开源ai可以调用?
国内有以下一些开源 AI 可供调用: MiniMax 推出的 Hailuo Audio HD 此外,还有一些应用于不同领域的 AI 技术和产品,如: 在游戏领域,有根据玩家需求推荐游戏道具的 AI 游戏道具推荐系统。 在天气领域,彩云天气的分时预报利用了 AI 提供精准的分时天气预报。 在医疗领域,医渡云的病历分析系统利用 AI 分析医疗病历,辅助诊断。 在会议领域,讯飞听见的会议总结功能利用 AI 自动总结会议发言内容。 在书法领域,书法临摹软件利用 AI 识别书法作品的笔画和结构,为用户提供临摹指导和评价。
2025-01-20
如何准确调用知识库的内容?
要准确调用知识库的内容,可以从以下方面进行: 维护知识库内容: 为提升召回准确率,可删除、新增或修改知识库内容。 在知识库页面,能看到已创建的知识库及每个知识库内的单元数量和创建时间等信息。单击知识库或编辑图标,可进入知识库详情页面。在详情页可进行新增内容、删除内容、更新单元内的分段、开启引用等操作。若不开启引用,即便 Bot 中使用了所属的知识库,该单元内容也不会被召回。 使用知识库: 可以将知识库直接与 Bot 进行关联用于响应用户回复,也可以在工作流中添加知识库节点。 在 Bot 内使用知识库: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 4. 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 5. (可选)添加知识库后,可在自动调用下拉界面内,调整知识库的配置项,如最大召回数量、最小匹配度、调用方式等。在预览与调试区域调试 Bot 能力时,扩展运行完毕的内容可以查看知识库命中并召回的分片内容。 在工作流内使用 Knowledge 节点: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在页面顶部进入工作流页面,并打开指定的工作流。 4. 在左侧基础节点列表内,选择添加 Knowledge 节点。 关于让 AI+知识库回答更准确的示例: 以问答机器人为例,其配置包括 AI 模型、提示词、知识库。大语言模型如同拥有无穷智慧的人,提示词是设定其角色和专注技能,知识库则是工作手册。例如设定 AI 模型为阿里千问模型,提示词角色为“美嘉”,知识库为《爱情公寓》全季剧情,让“美嘉”拥有相关“记忆”。
2025-01-18
工作流中如何调用插件
在工作流中调用插件的方式如下: 1. 触发器触发: 为 Bot 设置触发器,可选择定时触发或事件触发。 触发时执行任务的方式包括 Bot 提示词、调用插件、调用工作流。 调用插件时,需为触发器添加一个插件,触发后 Bot 会调用该插件获取返回结果并发送给用户。 一个 Bot 内的触发器最多可添加 10 个,且仅当 Bot 发布飞书时生效。 2. 在 Bot 内使用插件: 在 Bots 页面,选择指定 Bot 并进入 Bot 编排页面。 在 Bot 编排页面的插件区域,单击加号图标添加插件,或者单击自动添加图标,让大语言模型自动添加适用的插件。使用大语言模型自动添加插件后,需检查被添加的插件是否可以正常使用。 在添加插件页面,展开目标插件查看工具,然后单击添加。单击我的工具,可查看当前团队下可用的插件。 在 Bot 的人设与回复逻辑区域,定义何时使用插件,然后在预览与调试区域测试插件功能是否符合预期。 3. 在工作流中使用插件节点: 在页面顶部进入工作流页面,然后创建工作流或选择一个已创建的工作流。 在页面左侧,单击插件页签。 搜索并选择插件,然后单击加号图标。 在工作流的画布内,连接插件节点,并配置插件的输入和输出。 需要注意的是,即使是官方插件也可能存在不稳定的情况,需要自己去尝试,找到适合当前场景的插件。
2025-01-14
国内coze调用api的例子
以下是国内 Coze 调用 API 的一些例子: 1. 通过已有服务 API 创建插件: 进入 Coze 个人空间,选择插件,新建一个插件并命名,如 api_1。 在插件的 URL 部分,填入 Ngrok 随机生成的 https 链接地址。 按照 Coze 的指引配置输出参数,测试后发布插件。 2. 手捏简单的 Bot 并接入创建的插件:创建测试 API 的 Bot,将创建的 api_1 插件接入,在 prompt 里让其调用插件。 3. 测试 AI Bot 时可能遇到的情况:Coze 国内版刚发布不久,有些官方和第三方插件的 API 调用和返回结果不太稳定,可能出现回答不完整的情况,但相信官方会尽快解决。 4. 获取 Coze 的 accessToken 和 botid: 获取 accessToken:在 Coze 界面右侧扣子 API 授权,或者打开链接 https://www.coze.cn/open/oauth/pats,添加令牌,设置名称、过期时间和权限,完成后点击确定按钮并复制下拉令牌。 获取 botid:通过工作空间获取,从“工作空间”打开一个 bot,点击商店按钮查看地址栏中的数字即为 botid。 发布为 bot api:注意在前端使用 bot 必须发布成为 API,点击发布并选择 API,等待审核通过后可按上述方法拿到 botid。 获取空间 id:进入 Coze 后,左边打开工作空间,找到 url 中的 id 并复制。
2025-01-12
如何通过程序代码调用coze的api?
要通过程序代码调用 Coze 的 API,大致步骤如下: 1. 创建一个插件: 填入插件名和插件描述。 选择云侧插件作为创建方式。 选择 Python 作为 IDE 运行时。 点击【在 IDE 中创建工具】。 在创建工具面板里: 填入工具名称。 填入工具介绍。 2. API 接入相关操作: Glif 允许通过 API 调用平台上的应用,API 接入:https://docs.glif.app/api/gettingstarted 。 去创建一个新的 Token 并复制备用。 将自己发布的 glif 链接上的 id 复制备用。 3. 在 Coze 的 IDE 中: 引入依赖和编写 handler 方法。 代码中对应的数据字段在元数据 Tab 中设置: 填写入参字段和描述,对完整链接要写清楚。 填写出参字段。 左侧的依赖包添加【requests】。 填入测试数据运行,测试通过后即可发布。 4. 创建一个 Bot,挂载新创建的插件,在 Prompt 中做一些对入参的校验和约束。 5. 测试从 Coze 调用 Glif 功能跑通,发布 Coze。 另外,获取 Coze 的 accessToken 和 botid 时,需要了解以下内容: 1. OAuth 授权的范围控制: 个人空间:访问个人创建的 bot。 团队空间:可以跨账号授权,比如让其他团队成员访问你创建的 bot。 2. 跨账号授权流程: 用户 A 在用户 B 的团队空间创建了 bot。 用户 A 要使用这个 bot,需要: 先让空间所有者安装这个 OAuth 应用。 然后用户 A 才能获取授权码访问其在该团队空间创建的 bot。 3. OAuth 和 PAT的主要区别: OAuth token 有效期更短,安全性更高。 OAuth 可以实现跨账号的授权。 PAT 只能访问个人的资源。 在 Coze 中用现有服务创建自己的 plugin 时: 1. 进入 Coze,在个人空间中选择插件,新建一个插件,起名并填写描述。 2. 在插件的 URL 部分,填入 Ngrok 随机生成的 https 的链接地址。 3. 配置输出参数。 4. 测试后发布插件。 5. 创建 Bot 并接入创建的插件,在 prompt 中设置调用插件的相关要求。
2025-01-12
mj提示词
以下是关于 MJ 提示词的相关内容: 1. MidJourney 图片生成大师能够根据您的故事内容创作出全面的分镜提示词,包括分镜描述、人物描述、环境描述、氛围描述、灯光描述、色彩描述、构图描述、风格描述等。还会考虑您所使用的相机类型、摄影风格和镜头位置,您分享故事内容和具体需求即可获得专业服务。 2. 在提示词中,文本前置、后置等效果相近,过长的文本难以控制文本出现的位置,建议只要求 AI 生成部分主要文本内容,自行嵌字仍是当前最佳方法。加入引号“”包裹文本能达到 MJ 生成文字的效果,不必要特殊说明“生成一段文本......”等内容。MJ 能够自行判断文本应当存在的位置,会将文本安排在符合逻辑的位置上。后续有机会可进一步测试【局部重绘】能否控制文本在规定位置出现。总结来说,MJ 进行文本输出任务,提示词没有特别固定的语法结构,只需要认识其文本生成的能力范围和使用场景,即可高效应用 V6 模型生成有趣画面内容。 3. 让 Claude 出 MJ 提示词的提示词结构是:让大模型告诉你如何出 MJ 提示词效果会更好+让大模型出提示词+加上一些要求。先让大模型告诉你如何出 MJ 提示词效果会更好,因为大模型输出的过程也是思考的过程,所以对大模型循循善诱效果更好。对于有名的产品,如奔驰 E300L,每个出图的提示词都需包含“奔驰 E300L”。再加上一些要求,比如参数“ar 16:9”是要求 MJ 生成比例图片 16:9 的宽频图片,“q 2”是画面质量最高的参数。出 MJ 提示词还有更方便好用的办法,就是使用 chatgpt 里面的 gpts,如“Mid Journey V6 Prompt Creator”。可以理解为:chatgpt 是手机安卓系统,gpts 就是手机里的 app,不同的 gpts 能实现不同的功能,有的能绘画,有的能帮您总结文献,有的能生成更专业的 MJ 提示词。
2025-01-22
推荐3个ai 提示词工具
以下为您推荐 3 个 AI 提示词工具: 1. OpenPromptStudio:这是一款帮助撰写 MJ 和 SD 提示词的工具,支持将大段的 Prompt 提示词翻译成单词块、可拖拽单词块调整顺序、点击隐藏单词块使其在大段 Prompt 中消失、点击空白处新建单词块、提示词词典连接个人 Notion 数据库。整体交互设计出色,准确洞察了大家写提示词时的痛点。访问地址:https://moonvy.com/apps/ops/ 。 2. Majinai: 。 3. 词图: 。
2025-01-22
ai视频提示词
以下是关于 AI 视频提示词的相关知识: 在制作 AI 视频时,提示词非常关键。对于小白来说,思路清晰很重要。比如,描述一个场景时,应明确主体(什么东西)、动作(干啥了)、场景和镜头(怎么拍)。例如:“一个中年妇女辅导 12 岁的女儿作业,女孩看着妇女,妇女挠挠头,表情沉重。然后拿出手机对着桌子上的书拍照,然后放下手机,跟小姑娘说话,表情舒缓,欣慰,温柔。侧面镜头,镜头环绕到正面”。 同时要注意提示词的准确性,避免使用不确切的描述,如“一个女生备考,用纳米 AI 定制模拟专题练习,最后成功上岸”,AI 可能不理解其中的“备考”“纳米 AI 搜索”“专题练习”“上岸”等词汇,应改为更合理的描述。 提示词在文生视频、图生视频和角色生视频中广泛使用。准确的提示词能让 PixVerse 更容易生成您想要的视频,减少试错成本。在 AI 视频生成中,提示词指的是用于指导或引导 AI 模型生成特定视频内容的描述性文本或指令,您需要在提示词中描述想要生成的视频画面,一般包含描述性文字、指令参数、情感氛围、参考风格等方面。 另外,推荐使用英文输入提示词,因为 PixVerse 对英文的理解能力最佳,效果最好。但如果您对英文不熟悉,也可以使用自己的语言,PixVerse 的模型可以处理任何语言输入。
2025-01-21
runway 提示词
以下是关于 Runway 提示词的相关内容: 相机运动类型: 1. 静态拍摄:镜头保持固定。 2. 平移:摄像机水平移动(向左或向右)。 3. 倾斜:摄像机垂直移动(向上或向下)。 4. 滑轨:摄影机向或远离拍摄对象移动。 5. 跟踪拍摄:摄像机跟踪拍摄对象。 6. 起重机/摇臂拍摄:使用起重机或摇臂移动摄像机。 7. 斯坦尼康拍摄:使用了斯坦尼康稳定器的平稳跟拍。 8. 手持式:摄像机以自然的手持方式移动。 9. 变焦:相机放大或缩小。 10. 鞭状平移:摄像机快速平移,产生模糊效果。 11. 焦点变化:相机在不同主体之间移动焦距。 12. 荷兰角:摄像机向一侧倾斜。 13. 弧形拍摄:摄像机围绕拍摄对象做圆周运动。 提示结构: 1. 基本提示: 纯文本提示:当它们遵循一个清晰的结构,将。注意:重复或加强在不同部分中关键想法可以帮助提高输出的遵守度。例如,你可能会注意到摄像机在超速镜头中快速穿越场景。 非纯文本提示:Image+Text Base Prompt,使用输入图像时,请专注于描述您希望在输出中看到的动作,而不是图像的内容。
2025-01-21
有制作爆款短视频的ai提示词吗?
以下是一些制作爆款短视频的 AI 提示词相关内容: 1. 写脚本方面: 可以选择 Kimi、Claude、Chatgpt 等大模型,对于科学上网困难的小伙伴,可优先选择免费好用的 kimi(https://kimi.moonshot.cn/),有条件可选功能更强大的 chatgpt(https://chatgpt.com/),本作品用的是 Claude(https://claude.ai/new),Claude 在脚本创作方面有优势。 脚本提示词的结构是:我要做什么样的视频+视频要包含哪些关键的元素+对脚本的输出有什么要求。例如,要做 30 秒时长的广告宣传片脚本、做一个孩子们喜欢的儿童绘本脚本等;重点要把产品的特性或者想要的广告风格说出来,如奔驰高端商务、豪华舒适的特性,苹果香脆多汁、红润饱满的特点;按照一定的格式输出,推荐使用 Markdown 格式输出,方便后续操作。 2. 单镜头内容注意:要给 AI 确切的画面描述,杜绝不确切描述,如将“一个女生备考,用纳米 AI 定制模拟专题练习,最后成功上岸”改为“一个中年妇女辅导 12 岁的女儿作业,女孩看着妇女,妇女挠挠头,表情沉重。然后拿出手机对着桌子上的书拍照,然后放下手机,跟小姑娘说话,表情舒缓,欣慰,温柔。侧面镜头,镜头环绕到正面”。 3. 提示词网站分享: Learn Prompting https://learnprompting.org/docs/intro AI Short https://www.aishort.top/en/ AIPRM https://www.aiprm.com/prompts/ Prompt Library https://promptlibrary.org/
2025-01-20
lisp提示词
Lisp 语言在提示词编程中的应用具有以下特点: 1. Lisp 语言的语法:Lisp 是一门“古老”的编程语言,其语法核心是 List 结构或“S 表达式”,需要用一对括号把元素括起来,语法简洁优美且具有很强的表达能力。 2. 与 Markdown 的比较:平时写提示词更多用的是 Markdown 语法,它简单且大语言模型能很好理解,如标题、列表、加粗强调等。将 Lisp 提示词翻译成 Markdown 后,语义几乎一致,但在某些效果上存在差异,如 Lisp 版本中 SVG 图形的丰富度和表现力稳定地优于 Markdown 版本。此外,Markdown 版本在执行过程中会输出中间“思考”过程,多数场景下这样一步一步思考有正向收益,还能调试优化流程。而 Lisp 版本很难让大语言模型有条理地执行流程。 3. LLM 对 Lisp 程序的理解:一段 Lisp 提示词可能描述了简单的工作流,如对用户输入文本处理生成小确幸表达和生成 SVG 卡片等。虽然 Lisp 擅长描述程序且压缩信息能力强,但程序难懂,需要大量解码和按特定逻辑解读。大语言模型能解释 Lisp 程序,但作为提示词让其按程序逻辑运行很难,尤其对于复杂的函数调用,且难以保证程序里定义的子步骤被正确且无遗漏地执行。
2025-01-20