直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

如果要创建一个和你一样的ai,你可以把技术栈给我罗列出来吗,从数据库到后端到前端分别用到了哪些技术

回答

如果要创建一个类似我的 AI ,以下是从数据库到后端到前端可能用到的技术栈: 前端:推荐使用 React.js 或 Vue.js 框架,它们适合构建动态的用户界面,且有丰富的组件库支持多媒体内容展示。 后端:采用 Node.js 加上 Express.js ,能使用 JavaScript 同时开发前端和后端,简化开发过程,Node.js 的非阻塞 IO 特性适合处理实时通讯需求。 数据库:选择 MongoDB ,对于可能需要存储的文档形式数据(如离谱生物档案和相关事件),它在存储此类灵活数据方面表现良好。 语音处理:可以考虑使用 Google Cloud Speech-to-Text 和 Text-to-Speech API 来实现语音与文本的相互转换,以支持语音对话。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

齐码蓝:你(或孩子)还需要学编程吗?AI编程Master GPTs

考虑到你的项目需要网页开发、后端逻辑处理,以及可能的语音对话功能,我推荐使用以下技术栈:前端:React.js或Vue.js,因为这两个框架都非常适合构建动态的用户界面,并且有丰富的组件库支持多媒体内容的展示。后端:Node.js加上Express.js,这样可以让你使用JavaScript同时开发前端和后端,简化开发过程。Node.js的非阻塞IO特性也非常适合处理实时通讯的需求。数据库:MongoDB,因为你可能需要存储的数据(离谱生物档案和相关事件)是文档形式的,MongoDB作为一个NoSQL数据库,在存储此类灵活数据方面表现良好。语音处理:可以考虑使用Google Cloud Speech-to-Text和Text-to-Speech API来实现语音与文本的相互转换,以支持与离谱生物的语音对话。

其他人在问
去ai味
要去除 AI 味,可以从以下几个方面入手: 1. 对于聊天 AI,使其变得不正经、放肆、幽默、通俗。注意语气的自然化,比如使用语气词嗯、吧、啊、哈哈哈等,让回答更自然、贴近日常对话风格。还要注意口语化词语(相对于书面语)的使用,不过增加网络语言语料库需谨慎,以免生搬硬套带来副作用。 2. 对于睿声生成的配音,若语速慢有 AI 味儿,可使用剪映的音频变速功能加速配音,以消除 AI 味儿并配合视频前段的快节奏。 3. 对于 GPT 的回复,避免其用 1、2、3、4 或“首先、其次、最后”这种模式,可让其扮演特定角色并给出明确输出要求。但这种方法可能换汤不换药,要想让其更有趣,可让它在回复中加点感情,比如用括号补充动作,营造特定环境等。
2024-09-19
可以建立知识库的ai有哪些
以下是一些可以建立知识库的 AI 工具和平台: 1. 飞书软件:例如“通往 AGI 之路”,您可以在飞书大群中与机器人对话获取对应的资料。 2. Coze:在“大圣:胎教级教程:万字长文带你使用 Coze 打造企业级知识库”中有相关介绍。 3. Mem:如 https://get.mem.ai/ ,它可以保存组织中每次会议的记录,并在人们开始新项目时主动建议相关的决策、项目或人员,节省时间。 4. GPT:通过 OpenAI 的 embedding API 解决方案,可以搭建基于 GPT API 的定制化知识库,但需要注意其免费版 ChatGPT 一次交互的容量限制。
2024-09-19
notion ai的功能
Notion AI 具有以下功能: 直接在 Notion 中接入 AI 的能力,能让工作更迅速,写作更出色,思考更伟大。 可以在笔记和文档中应用 AI 的力量。 能够实现 AI 数据库自动填充功能。 可以改变知识管理的方式,让人们摆脱繁琐的信息组织工作,用户只需简单地将信息丢到 Notion 中,就可以通过各种方式进行检索。
2024-09-19
PopAI的功能
PopAI 是一款办公效率工具,具有以下功能: 1. 类似 ChatGPT 的聊天功能。 2. 集成了众多工作中可用的效率工具,如 PPT 和流程图生成、提示生成等。 3. 率先集成了 GPT4V 的图像 API 且调教良好,能清晰解释图像相关内容。 4. 具有创新的交互,在回答内容后可进行如翻译为中文、扩写重新排版并添加内容变为一篇文章等“Enrich”操作。 5. “Enrich”操作不仅不是干巴巴的填充,还会配合相关图片,必要时绘制流程图。
2024-09-19
popai 的功能
Poe 是一个 AI 聊天网站,支持与多个智能 AI 机器人(如 GPT4 等)进行实时在线交流。注册账号后可免费使用,部分功能需要付费订阅。不同的 AI 机器人有不同特点,可根据需求选择使用。总体而言,Poe 为用户提供了便捷的智能对话体验。其官网地址是:https://poe.com/ ,在官网帮助中心上可以找到具体教程。 此外,Poe 平台还推出了其他多种功能,比如多个机器人一起聊天、文件上传和视频输入等。Odyssey 是一个能提供好莱坞级别的 AI 视频生成和编辑工具的项目。PaintsUndo 可以输入静态图像自动生成整个绘画的全过程视频,该项目主要研究和再现数字绘画中的绘画行为,为数字艺术创作提供新的工具和方法。更多详细介绍可参考:https://xiaohu.ai/p/10996 、https://x.com/imxiaohu/status/1810574723048489063 、https://xiaohu.ai/p/11005 、https://x.com/imxiaohu/status/1810589354114626008 、https://xiaohu.ai/p/11010 、https://lllyasviel.github.io/pages/paints_undo/
2024-09-19
可用于记笔记的ai有哪些
以下是一些可用于记笔记的 AI 相关产品: 1. MeetRecord:这是一家专注于销售通话记录和辅导的软件公司。其核心功能包括 AI 驱动的笔记记录,能通过人工智能技术自动记录和分析销售通话,提供会议内容的关键词和主题分析,自动生成会议纪要和行动项;还有个性化辅导计划,能生成个性化的辅导计划,模仿表现最好的销售人员,并实施自动呼叫评分系统;此外,还具备交易智能和推荐、CRM 自动化、多语言支持以及安全性与企业化支持等功能。 2. 目前没有更多明确提及专门用于记笔记的其他 AI 产品的相关信息。但在一些关于人工智能的讨论中,提到了手写笔记对于信息留存和思维培养的重要性,例如在关于防止 AI 取代人类思考的论述中,指出手写笔记有助于将信息从短期记忆转移到长期记忆,成为更好的概念思考者。
2024-09-19
AI的关键技术有哪些,比如langchain
AI 的关键技术包括以下方面: 1. 编排(Orchestration):涉及到的公司如 DUST、FIAVIE、LangChain 等提供的工具帮助开发人员管理和协调各个部分和任务,以确保系统的流畅运行。 2. 部署、可扩展性和预训练(Deployment, Scalability & PreTraining):这个类别的公司如 UWA mosaicm、NMAREL、anyscale 等提供工具,帮助开发人员部署模型,保证模型的可扩展性,以及在模型使用前进行预训练。 3. 上下文和嵌入(Context & Embeddings):这个类别的公司如 TRUDO,Llamalndex,BerriAI 等提供工具,帮助模型处理和理解语言上下文,以及将词语和句子转化为计算机可以理解的形式。 4. 质量保证和可观察性(QA & Observability):这个类别的公司如 Pinecone,drant,Vald 等提供工具,以确保模型的表现,并能够监控模型的性能和状态。 LangChain 作为一个框架,具有以下特点和作用: 1. 与 RAG 的关系:作为一个框架,为 RAG 提供了实现所必需的工具和组件。允许开发者通过其模块化组件来构建 RAG 应用程序,简化了 RAG 应用程序的开发过程,提高性能,支持构建复杂的 RAG 应用,如智能问答系统、内容推荐引擎等。 2. 在 ProductHunt 2023 年度最佳产品榜单中的表现:入围了 AI Infra 类别,帮助 AI 创作者为他们的产品选择合适的 AI API 并在它们之间切换,快速创建和部署 LLM 插件或 LLM 应用程序,以及追踪和调试复杂的 LLM 应用程序。例如,Langfuse 为大模型应用提供开源可观测性和分析功能;Langdock 可在几分钟内创建、部署、测试和监控 ChatGPT 插件。
2024-09-19
你好,请帮我阐述一下最新的AI技术可以帮我做什么
以下是最新的 AI 技术能为您做的一些事情: 1. 大模型(如 GPT、PaLM 等):能够处理和生成自然语言文本,帮助您进行写作、回答问题、翻译等工作。 2. 多模态 AI(如视觉语言模型 CLIP、Stable Diffusion):实现视觉和语言的交互,例如根据语言描述生成图片,或者理解图片内容并用语言描述。 3. 自监督学习(如自监督预训练、对比学习、掩码语言模型等):提高模型的学习效率和效果。 4. 小样本学习(如元学习、一次学习、提示学习等):在数据有限的情况下也能进行有效的学习和预测。 5. 可解释 AI(如模型可解释性、因果推理、符号推理等):让您更好地理解模型的决策过程和结果。 6. 机器人学(如强化学习、运动规划、人机交互等):助力机器人更智能地完成各种任务,如工业生产、服务等。 7. 量子 AI(如量子机器学习、量子神经网络等):为复杂问题的解决提供新的思路和方法。 8. AI 芯片和硬件加速:提升 AI 计算的速度和效率。 在专利审查领域,AI 技术也得到了广泛应用,它可以通过自动化和智能化的手段,帮助专利审查员更高效地处理大量的专利申请、检索相关文献、评估专利性和创新性等任务。 在教育方面,例如小学课堂,AI 技术也有很多应用。如 2020 年的 GPT3 擅长用电脑写文章和做其他很多语言相关的事情,2022 年的 DALLE 可以根据语言描述画出想象中的图画。现在的 AI 还能够写文章、制作视频、创作音乐,还有像聊天机器人这样可以像朋友一样与您交流的 AI,以及能根据文字描述创造全新图片和视频的 AI。
2024-09-19
RAG技术实现的原理步骤
RAG 技术实现的原理步骤主要包括以下几个方面: 1. 理解问题:AI 模型首先需要理解用户的提问或指令。 2. 文档加载:从多种不同来源加载文档,如包括 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。 3. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 4. 存储: 将切分好的文档块进行嵌入转换成向量的形式。 将 Embedding 后的向量数据存储到向量数据库。 5. 检索:通过某种检索算法从向量数据库中找到与输入问题相似的嵌入片。 6. 检索相关知识:AI 模型根据对问题的理解,从外部知识库中检索相关的信息。 7. 整合知识与推理:AI 模型将检索到的知识与自身的推理能力相结合,生成最终的答案或内容。 例如,在医疗领域,RAG 技术可以帮助医疗 AI 助手获取最新的医学知识和临床案例,从而提高其诊断和治疗建议的准确性。但需要注意的是,在将大型文档转换为可检索内容的过程中,如文档解析和文本切分、嵌入向量生成等步骤,每一步都可能导致信息损失,复合损失会显著影响 RAG 响应的效果。
2024-09-17
RAG技术原理
RAG(RetrievalAugmented Generation,检索增强生成)是一种自然语言处理技术,主要用于提高语言模型的效果和准确性。其原理包括以下几个方面: 1. 由于大模型的训练数据有截止日期,当需要依靠不在训练集中的数据时,RAG发挥作用。 2. 过程包括文档加载,从多种来源加载包括非结构化、结构化和代码等不同类型的文档。 3. 进行文本分割,把文档切分为指定大小的块。 4. 涉及存储环节,包括将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 5. 通过某种检索算法从向量数据库中检索出与输入问题相似的嵌入片。 6. 结合了检索和生成两种主要的自然语言处理方法。 检索部分从大量文本数据中检索出与输入问题最相关的信息,通常使用检索系统在大规模文档集合中寻找相关文段。 生成部分使用类似 GPT 的语言模型,根据检索到的信息生成响应或回答,涉及理解检索内容并生成连贯、相关且信息丰富的文本。 7. RAG 的出现解决了语言模型仅依靠固定资料回答问题的局限性,允许模型到搜索引擎上搜索相关资料,并结合自身知识体系综合回复。 其中的检索环节并非简单操作,还包含对输入问题的纠错、补充、拆分以及对搜索内容的权重逻辑等。
2024-09-17
RAG技术
RAG 即检索增强生成(RetrievalAugmented Generation),是一种结合了检索(检索外部知识库中相关信息)和生成(利用大型语言模型生成文本)的技术。 其工作原理包括以下几个步骤: 1. 理解问题:AI 模型首先理解用户的提问或指令。 2. 检索相关知识:根据对问题的理解,从外部知识库中检索相关信息。例如,用户问“埃菲尔铁塔有多高?”,AI 模型会从知识库中检索关于埃菲尔铁塔的信息。 3. 整合知识与推理:将检索到的知识与自身的推理能力相结合,生成最终的答案或内容。 RAG 技术的优势在于能够将 AI 模型与外部知识库连接起来,从而扩展 AI 模型的知识范围,提高其回答问题和生成内容的准确性。例如在医疗领域,可帮助医疗 AI 助手获取最新的医学知识和临床案例,提高诊断和治疗建议的准确性。 RAG 由两部分组成:一个“检索器”和一个“生成器”。检索器从外部知识中快速找到与问题相关的信息,生成器则利用这些信息来制作精确和连贯的答案。这种结合使得 RAG 非常适合处理需要广泛知识的任务,如问答系统,能够提供详细而准确的回答。 LangChain 是一个用于构建高级语言模型应用程序的框架,与 RAG 的关系在于,RAG 能够为大型语言模型提供来自外部知识源的附加信息,使得模型在应对下游任务时能够生成更精确和上下文相关的答案,并减少幻觉现象,而 LangChain 的设计主张集中在模块化组件上,为开发人员使用大型语言模型创建应用程序提供便利。
2024-09-17
利用人工智能技术搭建知识库系统
利用人工智能技术搭建知识库系统可以参考以下内容: 大圣的相关文章:大圣致力于使用 AI 技术将自己打造为超级个体的程序员。其文章如也是以 AI 时代的知识库作为例子进行了讲解。 知识管理体系:知识管理体系是一套流程、工具和策略的组合,用于系统地管理个人或组织的知识资产。它包括但不限于收集信息、整理知识、分享经验、促进学习和创新。一个有效的知识管理体系通常包括以下几个关键组成部分: 知识的捕捉:收集个人或组织在日常工作和学习中产生的知识和信息。 知识的组织:通过分类、标签和索引等方式,使知识易于访问和检索。 知识的分享:促进知识在个人或组织内部的流动,增加协作和创新的机会。 知识的应用:确保知识被有效利用,以支持决策制定、问题解决和新知识的创造。 专家系统:符号人工智能的早期成就之一是专家系统——为充当某个有限问题领域的专家而设计的计算机系统。它们基于从一个或多个人类专家那里提取的知识库,并包含一个推理引擎,在此基础上进行推理。专家系统就像人类的推理系统一样,包含短期记忆和长期记忆。同样,在以知识为基础的系统中,会区分以下几个部分: 问题记忆:包含与当前要解决的问题有关的知识,如病人的体温或血压、是否有炎症等。这种知识也被称为静态知识,因为它包含了快照信息,记录着我们在当前状态下对问题的了解——即所谓的问题状态。 知识库:代表某个问题领域的长期知识。它是从人类专家那里人工提取的,不会因外部的咨询而改变。由于它允许我们从一个问题状态前往另一个问题状态,因此也被称为动态知识。 推理引擎:协调在问题状态空间中搜索的整个过程,必要时向用户提问。它还负责找到适用于每个状态的正确规则。例如,下面这个专家系统是根据动物的物理特征来判断动物的。
2024-09-17
国内外的智能体平台都有哪些?尽可能罗列出来
国内外的智能体平台有: 国内:Dify.AI、字节扣子、腾讯元器。 需要注意的是,个人比较常用的国内智能体平台是字节扣子,相关文章主要对比了字节扣子和腾讯元器。智能体相当于个人的数字员工,可以不断提效,帮助实现制定的目标,这和现实中老板给员工下达任务有相似之处。
2024-08-31
向量数据库
向量数据库是大语言模型从工具走向生产力实践中热门的 RAG 方式所必备的基础设施。 RAG 能够从海量文本数据中检索相关信息并生成高质量文本输出,而向量数据库在其中发挥着重要作用。 目前市面上的向量数据库众多,操作方式无统一标准。本文将基于 LangChain 提供的 VectorStore 类中的统一操作方法,以 chroma 向量数据库作为示例,从最为基础的 CRUD 入手介绍其使用方法。 向量数据库的工作原理如下: 如果是文本,会通过模型转换成向量对象,对象存入数据库中再去使用。传统数据库以表格形式存储简单数据,向量数据库处理的是复杂的向量数据,并使用独特方法进行搜索。常规数据库搜索精确匹配数据,向量数据库则使用特定相似性度量寻找最接近匹配,使用特殊的近似近邻(ANN)搜索技术,包括散列搜索和基于图的搜索等方法。 要理解向量数据库的工作原理及其与传统关系数据库(如 SQL)的不同,必须先理解嵌入的概念。非结构化数据(如文本、图像和音频)缺乏预定义格式,给传统数据库带来挑战。为在人工智能和机器学习应用中利用这些数据,需使用嵌入技术将其转换为数字表示,嵌入就像给每个项目赋予独特代码,以捕捉其含义或本质。
2024-09-02
如何在coze的prompt中调用数据库
在 Coze 的 prompt 中调用数据库可以参考以下步骤: 1. 基础框架: 本 bot 由提示词、数据库和工作流三部分构成。提示词使用结构化框架,要求大模型根据不同行为调用不同工作流。数据库用于记录不同用户历史记账记录,工作流中会用到。 2. 工作流: 增加记账记录 add_accounting_record: 开始:定义一个{{prompt}},把用户在 bot 输入的记账内容传入进来。 大模型:任务简单,使用任意模型均可,无需调整参数。输入定义了{{input}}引用开始节点的 prompt 参数。提示词让大模型拆解用户输入内容,识别【记账事项】、【发生时间】、【变动金额】,并分别赋值到{{item}}、{{occurrence_time}}、{{balance_change}}。输出定义了相应的{{item}}、{{occurrence_time}}、{{balance_change}}。 数据库——插入记账记录:输入定义了{{item}}、{{occurrence_time}}、{{balance_change}},用于接收大模型节点输出传入的内容。SQL 命令中,因数据库存入金额最小单位是分,所以当用户输入花费金额时,需乘以 100 存储。 3. 使用数据表: 用户通过自然语言与 Bot 交互来插入或查询数据库中的数据。Bot 会根据用户输入自动创建新记录并存储,也可根据用户查询条件检索数据返回。 在 Prompt 中添加并使用数据表时: 明确说明要执行的操作和涉及的字段,包括字段使用说明,以使大语言模型更准确执行操作。 在数据库功能区域添加要操作的数据表。 在调试区域进行测试,可单击调试区域右上方的已存数据查看数据表中的数据。
2024-09-02
向量数据库高效储存是什么意思 举个例子
向量数据库高效储存指的是专门用于存储高维向量,以实现快速准确的相似性搜索。在人工智能领域,尤其是自然语言处理和计算机视觉等方面,模型会生成并处理大量高维向量,传统数据库难以有效应对,向量数据库则为这些应用提供了高度优化的环境。 例如,像 GPT3 这样的大型语言模型,有 1750 亿个参数,会产生大量向量化数据,传统数据库很难有效处理,而向量数据库能够有效地管理和查询这些向量。 从系统角度看,预处理管道中向量数据库至关重要,负责高效存储、比较和检索多达数十亿的嵌入(即向量)。市场上常见的选择如 Pinecone,完全由云托管,容易上手,具备大型企业在生产中所需的多种功能。同时,还有 Weaviate、Vespa 和 Qdrant 等开源系统,通常具有出色的单节点性能,可针对特定应用定制;Chroma 和 Faiss 等本地向量管理库,有丰富的开发人员经验,便于启动小型应用程序和开发实验;pgvector 之类的 OLTP 扩展,对于特定开发人员和企业也是一种解决方案。 向量存储是用于存储和检索文本嵌入向量的工具,这些向量是文本数据的数值表示,能让计算机理解和处理自然语言。其主要功能包括高效存储大量文本向量、快速检索相似文本向量以及支持复杂的查询操作,如范围搜索和最近邻搜索。
2024-08-27
向量数据库高效存储与内存的关系
向量数据库的高效存储与内存有着密切的关系。 在生成式人工智能领域,通过扩展上下文窗口,模型能够处理更大量的文本并更好地保持上下文,但仅扩展上下文窗口并不能充分改善内存,因为推理的成本和时间与提示的长度呈准线性甚至二次方关系。此时,检索机制就显得尤为重要,它通过与提示相关的上下文数据增强和完善 LLM 的原始训练语料库。向量数据库(例如 Pinecone)已成为高效检索相关信息的事实标准,并作为 LLM 的内存层,使模型更容易快速准确地搜索和引用海量信息中的正确数据。 向量数据库专门用于存储高维向量,以实现快速准确的相似性搜索。由于人工智能模型,尤其是自然语言处理和计算机视觉领域的模型会生成并处理这些向量,所以对高效存储和检索系统的需求变得至关重要。像 GPT3 这样的大型语言模型,因其处理的数据量和复杂性,产生了大量向量化数据,传统数据库难以有效处理,所以基于 GPT3 和类似模型构建的应用在很大程度上依赖于向量数据库来有效地管理和查询这些向量。 例如,Marqo 向量数据库具有嵌入式存储在内存中的 HNSW 索引,实现了最先进的搜索速度,还能利用横向索引分片将规模扩大到亿级文档索引,支持异步和非阻塞数据上传和搜索,使用来自 PyTorch、Huggingface、OpenAI 等公司的最新机器学习模型,可从预先配置的模型开始或自带模型,内置 ONNX 支持和转换功能,可实现更快的推理和更高的吞吐量,并支持 CPU 和 GPU。
2024-08-27
1. 国内各个大模型有什么区别,请基于数据库/擅长方向分析 2. 推荐好用的搜索ai工具,需要查询权威资料,要求信息源可靠
以下是关于您提出的问题的回答: 国内各个大模型的区别: 北京企业机构: 百度(文心一言):https://wenxin.baidu.com 抖音(云雀大模型):https://www.doubao.com 智谱 AI(GLM 大模型):https://chatglm.cn 中科院(紫东太初大模型):https://xihe.mindspore.cn 百川智能(百川大模型):https://www.baichuanai.com/ 上海企业机构: 商汤(日日新大模型):https://www.sensetime.com/ MiniMax(ABAB 大模型):https://api.minimax.chat 上海人工智能实验室(书生通用大模型):https://internai.org.cn 在聊天状态下能生成 Markdown 格式的有智谱清言、商量 Sensechat;目前不能进行自然语言交流的有昇思(可以对文本进行是否由 AI 生成的检测,类似论文查重,准确度不错);受限制使用的有 MiniMax(无法对生成的文本进行复制输出,且只有 15 元的预充值额度进行体验,完成企业认证后可以进行充值)。特色功能方面,昇思可以生图,MiniMax 可以语音合成。 关于好用的搜索 AI 工具:目前没有明确的权威资料推荐特定的搜索 AI 工具。但需要指出的是,中国大模型在数据方面存在一些问题。在人工智能领域,数据质量至关重要。虽然 OpenAI 训练大模型所用的中文数据也源自中国的互联网平台,但他们在数据处理上更加精细,类似于将粗糙的原石打磨成璀璨的钻石。而在中国,高质量的数据处理服务相对稀缺,国内大模型主要以中文数据为基础,但中文互联网数据的质量普遍被认为相对较低。这导致在 IT 从业者搜索专业信息时,往往会首选 Google、arXiv 或 Bing 等国际平台,而不是国内的搜索引擎。
2024-08-26
Cow好像接不上coze 的数据库,在coze 上能正常使用,到cow上就无法获取信息
以下是关于 Cow 接不上 coze 数据库的可能解决方法: 1. 服务器设置方面: 点击“Docker”中的“编排模板”中的“添加”按钮。 备注说明版和无备注干净版的操作有所不同。 将编译好的内容复制进来。 在“容器编排”中“添加容器编排”,选择在“编排模板”里创建的“coze2openai”。提示运行成功,如果无法正常启动,请看文档后面的“常见问题”。 2. 直接调用大模型方面: 当在 COW 中直接调用千问的某一个大模型时,只需要更改 key 和 model 即可。以调用“qwenmax”模型为例,在/root/chatgptonwechat/文件夹下,打开 config.json 文件,需要更改"model",和添加"dashscope_api_key"。获取 key 的方式有视频教程和图文教程。注意需要“实名认证”后,这些 key 才可以正常使用,如果对话出现“Access to mode denied.Please make sure you are eligible for using the model.”的报错,那说明没有实名认证,可点击去,或查看自己是否已认证。 3. 安装并接入 cow 方面: 回到宝塔,打开【终端】。 依次粘贴并回车:cd /root ;git clone https://github.com/zhayujie/chatgptonwechat 。出现下方的样子,就是成功了。如果失败,或者没反应,刷新一下,重新再试一次。 继续依次输入:cd chatgptonwechat/ ;pip install r requirements.txt ;pip install r requirementsoptional.txt 。 到“文件”菜单中执行,点击文件找到 root,进入 root 文件夹,找到 chatgptonwechat 文件夹,并进入。 点击文件夹上方功能栏中的【终端】(注意,不是左侧一级菜单里的终端,是文件夹上方那一行的终端电脑)。 粘贴并回车:cp configtemplate.json config.json ,刷新页面。在当前目录下,找到 config.json 文件。删除文件里的所有代码,复制提供的代码粘贴到文件里。
2024-08-13