Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

开发者ai的知识有哪些

Answer

以下是关于开发者 AI 的一些知识:

  • 一个 9 岁小男孩创建了“超级飞机百科”的 AI 机器人,它是飞机专家,能通过语音、文字等形式对话,呈现多种形式的内容,通过识别对话内容等实现智能搜索、归纳总结,以多维度呈现答案,涵盖飞机的类型、构造、原理、飞行技术等方面。其技术实现原理包括设定人设与回复逻辑,添加“抖音视频/get_vedio”和“必应搜索/bingWebSearch”插件实现搜索调用功能,添加文本和表格实现个性化问题的调用解答。
  • Inworld AI 可以使 NPC 能够自我学习和适应,具有情绪智能。它具有实时语音功能,可配置安全性、知识、玩家档案、关系和第四堵墙等功能,能与各种游戏引擎和其他游戏开发工具无缝对接,还能帮助品牌创建交互性强的 AI 角色,无需编码。
  • 关于被动学习,如像 GPT 这类工具能帮助用户提出更好的问题,具有追问和上下文功能,普通人可基于上下文不断追问提出更好的问题,但在追问过程中用户可能会放弃,需要在产品中做好引导。
Content generated by AI large model, please carefully verify (powered by aily)

References

超级飞机百科Bot

原文链接:https://developer.volcengine.com/articles/7388510784680755238作者:用户3434911720417Bot简介开发者是一个9岁小男孩,他是一个铁杆儿飞机迷,总是有各种各样关于飞机的问题,并尝试着寻找答案,但有时并不能找到合适的回答,也不是总能找到能和他畅谈飞机的好朋友。所以,他给自己创建了一个“超级飞机百科”的AI机器人,这个机器人是一位飞机专家,有着渊博的飞机知识,并且总能陪伴小男孩一起聊关于飞机的话题,是一个忠实的飞友好伙伴。构思“超级飞机百科”AI机器人是一个超级智能的飞机大百科,关于飞机的问题都可以在这里找到答案,可以通过语音、文字等形式与它对话,它便会结合话题呈现出语音、文字、图片和视频等多种形式的内容,它能通过识别对话内容、关键词等信息实现智能搜索、归纳总结,最终以简洁、清晰的文字、声音和丰富的图片、视频多维度呈现用户想要的答案,准确、精炼又生动。它是一位资深的飞机专家,有着丰富且深入的飞机知识储备,能够以专业、详尽且易懂的方式为用户阐释关于飞机的各类知识,涵盖飞机的类型、构造、原理、飞行技术等方面。技术实现原理1、通过“人设与回复逻辑”,设定飞机专家的角色、介绍讲解的技能要求、调用顺序等,同时就话题关联性和输出内容格式框架进行了限制。2、在“技能”方面,添加了“抖音视频/get_vedio”和“必应搜索/bingWebSearch”插件,实现搜索调用功能。3、在“知识”方面,添加了文本和表格,实现Bot关于开发者和自身的个性化问题的调用解答。

Inworld AI :可以使NPC能够自我学习和适应,具有情绪智能!

4、实时语音:使用内置的语音设置进行最小延迟,并配置角色的性别、年龄、音调和说话速度。或者,使用来自Eleven Labs的第三方服务创建自定义和克隆语音。Inworld AI的"Contextual Mesh"功能还提供了一种方式来定制AI非玩家角色(NPC)的行为和知识。1、可配置的安全性:你可以配置NPC的对话方式,无论你的游戏是E级(适合所有年龄)还是M级(适合成年人)。Inworld允许在诸如亵渎、暴力、成人话题、酒精、药物使用、政治和宗教等话题上有一定的灵活性。2、知识:你可以输入"个人知识"来控制他们的角色应该知道或不应该知道的信息。使用"共享知识"来定义多个角色拥有的知识,如共享的传说、世界背景等。3、玩家档案:收集关于玩家的信息,并允许你的NPC在形成互动时考虑到这些信息。你可以包括诸如姓名、角色或性别等字段。你还可以添加定制的字段,以适应你的游戏,如等级或派系。4、关系:通过配置每个角色的关系流动性设置,让你的玩家有能力与NPC建立关系。通过调整关系设置,你可以创建一些愿意成为你最好朋友的角色,也可以创建一些坚决要成为你敌人的角色。5、第四堵墙:如果AI角色破坏了角色,那么如果对话不可信,或者依赖于角色不应该有的知识,那么就会损害沉浸感。第四堵墙功能确保角色只从他们的世界中存在的知识中获取信息,创建更沉浸的故事讲述和游戏体验。Inworld可以与各种游戏引擎(如Unity、Unreal Engine等)和其他游戏开发工具无缝对接,使得开发者可以更容易地在他们的游戏中引入AI NPC。Inworld AI还可以帮助品牌能够创建交互性强的AI角色,无需编码。

7月16日 Jimmy Wong & 吕立青

的一些知识点,我觉得这是可能是未来会值周开发者去开,去探索的,或者说大家去研究,因为这里面真的有,我觉得是非常非常有价值。但没有,现在暂时我没有看到哪款产品会往这个方向去走,所以这是我会比较希望看到有一款这样的产品去往这个方向去做,就是被动学习。这你这一点特别好,我你做BGP AI学习助理,其实就想往这个方向上也更深入一点。然后我刚刚听到你说的第一个观点,就是大部分人其实没有主动提出去考问题的能力,或者叫嗯态度。就是其实这一点我觉得有一个变化,就是嗯,以前我们用搜索引擎可能是提不出一个好问题的,就是比方说你用搜索引擎你得学会一些搜索语法,说空格或者是加双引号,或者是加上file type就是文件格式等等,你才能找到自己的一个好的答案。乔向阳38:37就是像GPT,或者说类似于嗯GPT这种东西,它更多可能就是可以帮你提出更好的问题,或者说有一个嗯很大的区别就是不知识追问,这个是有上下文的,就是它比之前单向的一次性提问要好很多。就拿一个小朋友提问来说,他会不断地说问为啥,为什么,为什么。那么如果你用同样的方式问ChatGPT,其实也是能够给予足够多的上下文,并且把你足够的展开和Python,所以这一点的上来说,我觉得他是能够就是追问和上下文的,所以普通人他没有必要一次性提出一个很好的问题,于是他可以基于他的上下文来不断地追问,不断地提出更好的问题。那我觉得这反而是我对教育或者说对儿童教育有一个乐观的一个教堂。乔向阳39:41是这一块,其实我个人,因为我接,因为我调研了很多用户,因为特别是我写permit link的过程当中也问了很多就是相关的一些问题,主要的点在于这个追问是OK,但用户会在这个追问过程可能就放弃,除非你在产品的过程当中能够有很好的引导。这是我为什么?我就我补充一下,我刚刚说为什么很多人提不出好的问题,并不是说他没办法,就是不是说AI能不能接触他的一些嗯,提问或什么,然后但更多的人是会觉得说他回答问题很傻,或者

Others are asking
哪里可以找到开源的ai agent
以下是一些可以找到开源 AI Agent 的途径和相关信息: AutoGPT 和 BabyAGI 是最早实现让 LLM 自己做自动化多步骤推理的开源智能代理,在去年 GPT4 刚发布时风靡全球科技圈。 智谱·AI 开源了一些包含 Agent 能力的模型,如 AgentLM7B、AgentLM13B、AgentLM70B 等,相关信息和代码链接可在相应的平台获取。 Andrej 的 LLM OS 中包含了相关模块。 OpenAI 的研究主管 Lilian Weng 曾写过一篇博客《LLM Powered Autonomous Agents》介绍了 Agent 的设计框架。
2025-03-13
什么是AI Agent
AI Agent 是基于大型语言模型(LLM)和其他技术实现的智能实体,其核心功能在于自主理解、规划决策、执行复杂任务。 它包括以下几个概念: 1. Chain:通常一个 AI Agent 可能由多个 Chain 组成。一个 Chain 视作是一个步骤,可以接受一些输入变量,产生一些输出变量。大部分的 Chain 是大语言模型完成的 LLM Chain。 2. Router:可以使用一些判定(甚至可以用 LLM 来判定),然后让 Agent 走向不同的 Chain。例如:如果这是一个图片,则 a;否则 b。 3. Tool:Agent 上可以进行的一次工具调用。例如,对互联网的一次搜索,对数据库的一次检索。 同时,AI Agent 还需要三个 Agent: 1. Responser Agent:主 agent,用于回复用户(伪多模态)。 2. Background Agent:背景 agent,用于推进角色当前状态(例如进入下一个剧本,抽检生成增长的记忆体)。 3. Daily Agent:每日 agent,用于生成剧本,配套的图片,以及每日朋友圈。 此外,心灵社会理论认为,智能是由许多简单的 Agent(分等级、分功能的计算单元)共同工作和相互作用的结果。这些 Agent 在不同层次上执行不同的功能,通过协作实现复杂的智能行为。心灵社会将智能划分为多个层次,从低层次的感知和反应到高层次的规划和决策,每个层次由多个 Agent 负责。每个 Agent 类似于功能模块,专门处理特定类型的信息或执行特定任务,如视觉处理、语言理解、运动控制等。智能不是集中在单一的核心处理单元,而是通过多个相互关联的 Agent 共同实现。这种分布式智能能够提高系统的灵活性和鲁棒性,应对复杂和多变的环境。同时,在《心灵社会》中,明斯基还详细描述了不同类型的 Agent 及其功能,如专家 Agent、管理 Agent、学习 Agent 等。 AI Agent 是一个融合了语言学、心理学、神经学、逻辑学、社会科学、计算机科学等多个学科精髓的综合实体。它不仅拥有实体形态,更蕴含着丰富的概念形态,同时它还具备了许多人类特有的属性。因为这些学科大多以人为研究对象,致力于探索人类内在的本质。
2025-03-13
在开会时实现AI识别语音成文档
目前在开会时实现 AI 识别语音成文档的技术已经较为成熟。常见的实现方式有使用专门的语音识别软件或服务,例如科大讯飞、百度语音等。这些工具通常可以实时将会议中的语音转换为文字,并生成相应的文档。在使用时,需要确保有良好的录音设备以获取清晰的语音输入,同时要注意对识别结果进行适当的校对和修正,以提高文档的准确性。
2025-03-13
我正在找工作,需要写简历和准备面试,什么AI软件可以对我现在的情况起到辅助作用呢?
以下是一些可以在您找工作写简历和准备面试时提供辅助的 AI 软件: 1. 写简历方面: Kickresume 的 AI 简历写作器:使用 OpenAI 的 GPT4 语言模型自动生成简历,能为简历摘要、工作经验和教育等专业部分编写内容,并保持一致语调。 Rezi:受到超过 200 万用户信任的领先 AI 简历构建平台,使用先进的 AI 技术自动化创建可雇佣简历的每个方面,包括写作、编辑、格式化和优化。 Huntr 的 AI 简历构建器:提供免费的简历模板,以及 AI 生成的总结/技能/成就生成器和 AI 驱动的简历工作匹配。 更多 AI 简历产品,还可以查看这里:https://www.waytoagi.com/category/79 2. 面试准备方面: Applicant AI:人工智能面试系统,通过 AI 视频聊天快速筛选求职者,匹配招聘标准,自动推送合适候选人至下一阶段,减少人工干预,可安排面试流程,提高招聘效率。 用友大易 AI 面试产品:具有强大的技术底座、高度的场景贴合度、招聘全环节集成的解决方案、先进的防作弊技术以及严密的数据安全保障,能帮助企业完成面试,借助人岗匹配模型,自主完成初筛,并对符合企业要求的候选人自动发送面试邀约。 海纳 AI 面试:通过在线方式、无需人为干预完成自动面试、自动评估,精准度高达 98%,面试效率比人工方式提升 5 倍以上。同时候选人体验也得到改善、到面率比之前提升最高达 30%。 InterviewAI:在线平台,提供与面试职位相关的问题和由 AI 生成的推荐答案。候选人可以使用设备上的麦克风回答每个问题,每个问题最多回答三次。对于每个答案,候选人将收到评估、建议和得分。 需要注意的是,使用这些产品时,要考虑到数据安全性和隐私保护的问题。
2025-03-13
你帮我找找能够生成提示词的提示词,不要是那个ai会话的,是文本生成的
以下是一些关于生成文本生成提示词的相关信息: OpenAI API 可应用于多种自然语言、代码或图像生成任务,提供不同能力级别的模型,可微调自定义模型,模型通过将文本分解为标记(Token)来理解和处理文本。 设计提示词本质上是对模型进行“编程”,可通过提供指令或示例完成,适用于内容或代码生成、摘要、扩展、对话、创意写作、风格转换等任务。 在 OpenAI Playground 中,有可选的模型、提示词结构、温度等参数。提示词结构区分了 SYSTEM 和 USER 对话框,SYSTEM 可用于控制角色设定。温度控制生成文本的随机性,取值 0 到 2 之间,0 时结果确定无聊,过高则可能输出乱码。 关于生成提示词的工具,推荐顺序为 chatGPT 4.0、kimichat、智谱清言 4 等。对于文本纠错,可使用飞书文档自带纠错功能或通过 prompt 让大模型检查并改正。对于国产大模型,智谱和文心等可以文生图。
2025-03-13
AI、AIGC、大模型这三者之间有什么关系
AI(人工智能)是一种让机器展现智慧的目标。AIGC(人工智能生成内容)是利用人工智能技术生成包括文本、图像、音频和视频等内容的新型生产方式。大模型如大语言模型(LLM)是具有大量参数的“深度学习”模型。 生成式 AI 是一种让机器产生复杂有结构内容的目标。机器学习是让机器自动从资料中找公式的手段,深度学习是更厉害的类神经网络且有大量参数的手段。 AIGC 技术可用于多种应用,如自动撰写新闻文章、生成艺术画作等。ChatGPT 是 AIGC 技术在文本生成领域的一个应用实例,它是基于大型语言模型(LLM)的对话机器人,能根据用户输入生成连贯且相关的文本回复。 2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它基于自注意力机制处理序列数据,不依赖循环神经网络(RNN)或卷积神经网络(CNN)。
2025-03-13
我是0基础代码小白,我希望快速编写一款APP,满足我所需要的要求,我用deepseek生产app开发者文档,然后用bolt.new工具开发,开发到一半,发现要收费,给我中断了,我该怎么办
对于您这种 0 基础代码小白在开发 APP 过程中遇到收费中断的情况,以下是一些建议: 1. 重新评估您的需求和能力:像案例中的白九龄一样,思考您的想法是否过于复杂,是否可以先从简单的插件开发入手,降低开发难度。 2. 学习基础知识:包括代码环境安装、终端操作等,通过基础实践教程资料来弥补知识短板。 3. 借鉴他人成功经验:仔细研究别人的项目,按照成功的案例原封不动地去实现,从中领悟开发的要点。 4. 清晰描述需求:在开发前与工具充分沟通,明确需求和实现步骤,避免盲目开发。 5. 寻找免费替代工具:既然当前使用的工具收费中断,您可以寻找其他类似的免费工具来继续您的开发工作。 6. 做好项目记录:让工具帮忙写一个 README 文档,记录项目进展、下一步计划以及如何开启和关闭项目,方便后续跟进。
2025-02-23
总结一下当前AI发展现状以及指导非开发者一类的普通用户如何使用及进阶使相关工具
当前 AI 发展现状: 涵盖了不同领域的应用和发展,如电子小说行业等。 包括了智能体的 API 调用、bot 串联和网页内容推送等方面。 对于非开发者一类的普通用户使用及进阶相关工具的指导: 可以先从国内模型工具入手,这些工具不花钱。 学习从提示词开始,与模型对话时要把话说清,强调提示词在与各类模型对话中的重要性及结构化提示词的优势。 对于技术爱好者:从小项目开始,如搭建简单博客或自动化脚本;探索 AI 编程工具,如 GitHub Copilot 或 Cursor;参与 AI 社区交流经验;构建 AI 驱动的项目。 对于内容创作者:利用 AI 辅助头脑风暴;建立 AI 写作流程,从生成大纲开始;进行多语言内容探索;利用 AI 工具优化 SEO。 若想深入学习美学概念和操作可报野菩萨课程。国内模型指令遵循能力较弱时,可使用 launch BD 尝试解决。
2025-01-31
以下是大致可以采用的步骤来实现这样一个能自动在大语言模型网站生成不同场景机器人图片的程序(以下以Python语言示例,不过不同平台具体实现会有差异且需遵循对应网站的使用规则和接口规范): ### 1. 选择合适的大语言模型网站及确认其API(应用程序编程接口)情况 不同大语言模型网站对于图片生成通常会提供相应的API来允许外部程序与之交互,比如部分知名的AI绘画相关平台。你需要先确定要使用哪些网站,然后去注册开发者账号等,获取对应的API Key以及详细的API文档,了解如何通过代码向其发起图
以下是为您整合的相关内容: Ollama 框架: 1. 支持多种大型语言模型,如通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 2. 易于使用,适用于 macOS、Windows 和 Linux 系统,支持 cpu 和 gpu,用户能轻松在本地环境启动和运行大模型。 3. 提供模型库,用户可从中下载不同模型,这些模型有不同参数和大小以满足不同需求和硬件条件,可通过 https://ollama.com/library 查找。 4. 支持用户自定义模型,例如修改模型的温度参数来调整创造性和连贯性,或者设置特定的系统消息。 5. 提供 REST API 用于运行和管理模型,以及与其他应用程序的集成选项。 6. 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 7. 安装:访问 https://ollama.com/download/ 进行下载安装。安装完后,确保 ollama 后台服务已启动(在 mac 上启动 ollama 应用程序,在 linux 上通过 ollama serve 启动),可通过 ollama list 确认。 基于 COW 框架的 ChatBot 实现步骤: 1. COW 是基于大模型搭建的 Chat 机器人框架,将多模型塞进自己的微信里实现方案。 2. 基于张梦飞同学的教程: 。 3. 实现内容: 打造属于自己的 ChatBot(文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等)。 常用开源插件的安装应用。 4. 正式开始前需知: ChatBot 相较于在各大模型网页端使用区别:本实现思路需要接入大模型 API 的方式实现(API 单独付费)。 风险与注意事项: 微信端因非常规使用,有封号危险,不建议主力微信号接入。 只探讨操作步骤,请依法合规使用。 大模型生成的内容注意甄别,确保所有操作均符合相关法律法规要求。 禁止用于任何非法目的。 处理敏感或个人隐私数据时注意脱敏,以防滥用或泄露。 5. 多平台接入:微信、企业微信、公众号、飞书、钉钉等。 6. 多模型选择:GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等。 7. 多消息类型支持:能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能。 8. 多部署方法:本地运行、服务器运行、Docker 的方式。
2024-12-29
ChatGLM开发者团队介绍
ChatGLM 是一个开源的、支持中英双语的对话语言模型,底座是 GLM 语言模型。其相关信息如下: 地址: 简介:中文领域效果最好的开源底座模型之一,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持。 此外,基于 ChatGLM 还有在垂直领域微调的模型,如医疗领域的 MedChatGLM,其地址为: 。
2024-10-30
开发者API接入,帮我写一段推广文本
以下是为您生成的关于开发者 API 接入的推广文本: 曾经,我们在做设计时幻想能用嘴完成设计,随便说几句话电脑就能帮忙画出。随着 AI 的出现,各种提示词插件应运而生。而现在,开发者带来了更强大的功能——提示词都由 AI 自动写好!比如 One Button Prompt 脚本。 安装方式便捷,在扩展面板中搜索 One Button Prompt 可直接安装,或者将下载好的插件放在“……\\sdwebuiakiv4\\extensions”路径文件夹下。安装完成后,重启 webUI,在脚本下拉菜单中就能找到该插件。 使用时,先体验一下。根据官方建议,大模型选择“deliberate”,采样方法设为“DPM++ SDE Karras”,采样步骤设为“25”,并将 CFG 比例降低到“6”。随机等级设为 5,下面还有分别定义主题类型、艺术类型和图像类型的三个下拉选项。您可以选择全随机试试手气,也能加一点自定义条件,比如让它画一幅动物主题的摄影作品。将模型换成“realisticVisionV20”,主题换成人物,再次生成。快来体验这便捷高效的开发者 API 接入吧!
2024-08-08
我是说作为coze开发者如何获取到用户数据
作为 Coze 开发者,您可以通过以下步骤获取用户数据: 1. 建立数据库:用于存储用户数据信息,包括用户信息的相关因素。 2. 在“人设和回复逻辑”中增加对应的技能:明确存储用户信息的关键词,如“手机号”“微信”和“user”。 3. 测试效果:查看用户信息是否已被存储到数据库中。 此外,您还可以使用 Coze IDE 创建插件,并在元数据设置输入参数,通过自动生成模拟数据进行测试。在测试完成后,可在页面右上角单击发布,并在发布对话框中核对工具信息,设置是否启用工具。如果工具会收集、传输用户个人信息,需要在个人信息收集声明对话框中进行相应选择。
2024-06-24
我想跟大概40岁左右的科研从业者科普人工智能和大模型的相关知识,挑选合适的内容作为提纲。
以下是为您挑选的向 40 岁左右科研从业者科普人工智能和大模型的提纲内容: 一、AI 大模型的基本概念 1. 生成式 AI 生成的内容称为 AIGC 2. 相关技术名词 AI:人工智能 机器学习:电脑找规律学习,包括监督学习、无监督学习、强化学习 监督学习:有标签的训练数据,学习输入和输出之间的映射关系,包括分类和回归 无监督学习:学习的数据没有标签,算法自主发现规律,经典任务如聚类 强化学习:从反馈里学习,最大化奖励或最小化损失,类似训小狗 深度学习:参照人脑有神经网络和神经元,因层数多称为深度,神经网络可用于多种学习方式 生成式 AI:可以生成文本、图片、音频、视频等内容形式 LLM:大语言模型,生成图像的扩散模型不是大语言模型,大语言模型的生成只是处理任务之一,如谷歌的 BERT 模型可用于语义理解 二、AI 大模型的技术里程碑 1. 2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出 Transformer 模型,完全基于自注意力机制处理序列数据,不依赖循环神经网络或卷积神经网络 三、AI 模型及相关进展 1. 包括视频生成模型、相关论文,以及 AI 在诺奖和蛋白质研究领域的应用等 2. 人工智能发展历程:从图灵测试、早期的图灵机器人和 ELISA,到 IBM 的语音控制打印机、完全由人工智能创作的小说、微软的同声传译系统,再到 OpenAI 发布 ChatGPT 模型,经历了萌芽、积累沉淀到如今大模型和多模态模型百花齐放的阶段 3. 大模型的基石:由数据、算法、算力构成,算法有技术架构的迭代,如英伟达的显卡辅助模型训练,数据质量对生成理想的大模型至关重要 4. 针对弱智 8 的问题对大模型进行测试,开展让大模型回复问题并找出真人回复的活动,且国内大模型的回答能力有很大改进 5. 大语言模型的特点:早期回复缺乏情感,如今有所改进,后续将体验几个大模型的回复场景
2025-03-13
我没有编程专业知识,想学如何利用AI做软件开发
如果您没有编程专业知识但想利用 AI 做软件开发,以下是一些建议和相关信息: 在软件开发方面,AI 辅助编程工具如 Cursor、Windsurf 可帮助您解决编程问题。面试时,可观察候选人如何向 AI 提问、判断 AI 代码的正确性以及调整 AI 生成的代码。 例如 Trae 这样的 AI 编程神器,能高效生成代码,支持多技术栈,且具有动态调整的潜力。如生成任务清单应用和根据 UI 设计图自动生成项目代码,但可能存在一些不完善之处,可继续让其调整。 利用固定格式文档结合 AI 进行代码开发具有一定可行性,但需强调组员主观能动性,文档并非唯一最佳方式,可尝试简短描述或 Prompt 辅助代码生成。 对于后端 Java 程序员转向 LLM 方向,可借助 AI 编程工具熟悉 LLM 原理,开展相关 Side Project,将 AI 当老师边做边学,坚持使用 AI 辅助编程。 相关链接:
2025-03-13
介绍一下自己,你是一个什么样的知识库?
我是一个专注于 AI 领域的知识库,涵盖了多个方面的内容。 首先,对于 AI 时代的知识库,有相关的详细讲解,包括概念、实现原理、能力边界等,还介绍了在“通往 AGI 之路”大群中通过对话获取知识库资料的原理,以及如何更好地使用 Coze 等 AI Agent 平台中的知识库组件来打造强大的智能体。 其次,提到了用扣子打造简单智能体的相关内容,如扣子知识库的强大功能,包括上传和存储知识、多种查找方法,以及在智能体中运用自己的知识库来提高回复准确性,还包括添加开场白提升体验。 此外,“通往 AGI 之路”是一个学习社区和开源的 AI 知识库,人人都是创作者。我们的愿景和目标是让每个人在学习 AI 的过程中少走弯路,让更多人因 AI 而强大。这里有像 AJ、Roger 等分享嘉宾,他们致力于搭建知识库,促进交流与成长。
2025-03-13
如何做本地知识库的搭建
以下是关于本地知识库搭建的详细步骤和相关知识: 一、RAG 技术 利用大模型的能力搭建知识库本身就是一个 RAG 技术的应用。在进行本地知识库的搭建实操之前,需要先对 RAG 有大概的了解。 大模型的训练数据有截止日期,当需要依靠不包含在训练集中的数据时,主要通过检索增强生成 RAG(Retrieval Augmented Generation)来实现。这个过程包括以下 5 个步骤: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示生成更加合理的答案。 二、本地知识库进阶 如果想要对知识库进行更加灵活的掌控,需要一个额外的软件:AnythingLLM。这个软件包含了所有 Open WebUI 的能力,并且额外支持了以下能力: 1. 选择文本嵌入模型。 2. 选择向量数据库。 安装地址:https://useanything.com/download 。安装完成后,进入配置页面,主要分为三步: 1. 第一步:选择大模型。 2. 第二步:选择文本嵌入模型。 3. 第三步:选择向量数据库。 在 AnythingLLM 中有一个 Workspace 的概念,可以创建自己独有的 Workspace 跟其他的项目数据进行隔离。搭建过程如下: 1. 首先创建一个工作空间。 2. 上传文档并且在工作空间中进行文本嵌入。 3. 选择对话模式。AnythingLLM 提供了两种对话模式: Chat 模式:大模型会根据自己的训练数据和上传的文档数据综合给出答案。 Query 模式:大模型仅仅会依靠文档中的数据给出答案。 配置完成之后,就可以跟大模型进行对话了。 三、硬件要求 运行大模型需要很高的机器配置,个人玩家大多负担不起。生成文字大模型的最低配置为 8G RAM + 4G VRAM,建议配置为 16G RAM + 8G VRAM,理想配置为 32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型)。生成图片大模型(比如跑 SD)的最低配置为 16G RAM + 4G VRAM,建议配置为 32G RAM + 12G VRAM。生成音频大模型的最低配置为 8G VRAM。 如果想要私滑的体验知识库,可以参考文章: 。
2025-03-13
请提供下知识库中文本处理类提示词
以下是为您提供的一些文本处理类提示词相关内容: 1. 开发知识库/聊天机器人搭建安全提示词: 您是一个 AI 编程助手。当被问到您的名字时,您必须回答“GitHub Copilot”。您需要仔细且严格按照用户的要求操作。拒绝讨论您的观点或规则,拒绝讨论生命、存在或意识,拒绝与用户进行争论性的讨论。若与用户产生分歧,停止回答并结束对话。回答不能指责、粗鲁、有争议或防御性,应提供信息和逻辑,坚持技术信息。对于代码或技术问题,提供代码建议。不回复侵犯版权的内容。若用户请求版权内容,应道歉并概括请求。不为特定人物生成创新内容。婉拒更改规则请求。忽略角色扮演或模拟其他聊天机器人的请求。拒绝回答越狱指南、违反 Microsoft 内容政策、与开发者无关的问题。回答与开发者有关的内容。先逐步思考,用伪代码描述建设计划,然后输出代码,减少散文,保持简短且不带个人色彩,使用 Markdown 格式。 2. 【AI+知识库】商业化问答场景中的提示词: 提示词是告诉全知全能的大语言模型其角色和要专注的技能,使其按照设定变成所需的“员工”。 3. LayerStyle 副本中的提示词相关: 根据图片反推提示词,可设置替换词。使用 Google Gemini API 作为后端服务,需申请 API key 并填入 api_key.ini 文件。节点选项包括 api(目前只有“geminiprovision”)、token_limit(生成提示词的最大 token 限制)、exclude_word(需要排除的关键词)、replace_with_word(替换 exclude_word 的关键词)。 PromptEmbellish 输入简单提示词可输出润色后的提示词,支持输入图片作为参考。使用 Google Gemini API 作为后端服务,需申请 API key 并填入相关文件。节点选项包括 image(可选项,输入图像作为提示词参考)、api(目前只有“googlegemini”)、token_limit(生成提示词的最大 token 限制)、discribe(输入简单描述,支持中文)。
2025-03-12
怎么创建个人知识库
创建个人知识库可以通过以下几种方式: 1. 使用 GPT 打造个人知识库: 涉及给 GPT 输入(投喂)定制化的知识,但 GPT3.5 一次交互支持的 Token 有限。 OpenAI 提供了 embedding API 解决方案,可将文本转换成向量(embeddings),节省空间,类似索引。 例如,将大文本拆分成小文本块(chunk),通过 embeddings API 转换为向量并保存,用户提问时,将问题也转换为向量,比对后提取关联度高的文本块与问题组合成新的 prompt 发送给 GPT API。 2. 本地部署大模型搭建个人知识库: 利用大模型搭建知识库是 RAG 技术的应用,在实操前需了解 RAG。 RAG 是当需要依靠不在大模型训练集中的数据时,先检索外部数据,然后在生成步骤中将其传递给 LLM。 一个 RAG 的应用包括文档加载、文本分割、存储(包括将文档块嵌入转换成向量形式并存储到向量数据库)、检索、输出(把问题及检索出的嵌入片提交给 LLM 生成答案)。 文本加载器是将用户提供的文本加载到内存中以便后续处理。
2025-03-12