Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

AI基础名词和知识

Answer

以下是关于 AI 基础名词和知识的介绍:

Python 相关

  • 属性和方法:学习为类定义属性和方法,并通过对象调用。
  • 继承和多态:了解类之间的继承关系及多态的实现。
  • 异常处理:包括理解异常的概念及在 Python 中的工作方式,学会使用 try 和 except 语句处理错误。
  • 文件操作:掌握文件的读写,以及文件路径的处理和目录下文件的列举。

AI 背景知识

  • 基础理论:明晰人工智能、机器学习、深度学习的定义及相互关系。
  • 历史发展:简要回顾 AI 的发展历程和重要里程碑。

数学基础

  • 统计学基础:熟悉均值、中位数、方差等统计概念。
  • 线性代数:了解向量、矩阵等基本概念。
  • 概率论:掌握基础的概率论知识,如条件概率、贝叶斯定理。

算法和模型

  • 监督学习:了解常用算法,如线性回归、决策树、支持向量机(SVM)。
  • 无监督学习:熟悉聚类、降维等算法。
  • 强化学习:了解其基本概念。

评估和调优

  • 性能评估:知道如何评估模型性能,如交叉验证、精确度、召回率等。
  • 模型调优:学习使用网格搜索等技术优化模型参数。

对于新手学习 AI,建议:

  • 了解 AI 基本概念:阅读相关资料熟悉术语和基础概念,了解主要分支及联系,浏览入门文章。
  • 开始 AI 学习之旅:在特定的学习路径中找到为初学者设计的课程,通过在线教育平台按自己节奏学习,可获取证书。
  • 选择感兴趣的模块深入学习:根据自身兴趣选择特定领域(如图像、音乐、视频等)深入钻研。
Content generated by AI large model, please carefully verify (powered by aily)

References

写给不会代码的你:20分钟上手 Python + AI

继承和多态:了解类之间的继承关系以及如何实现多态。异常处理理解异常:了解什么是异常,以及它们在Python中是如何工作的。异常处理:学习如何使用try和except语句来处理程序中可能发生的错误。文件操作文件读写:学习如何打开文件、读取文件内容以及写入文件。文件与路径操作:理解如何使用Python来处理文件路径,以及如何列举目录下的文件。对于AI,可以尝试了解以下内容,作为基础AI背景知识基础理论:了解人工智能、机器学习、深度学习的定义及其之间的关系。历史发展:简要回顾AI的发展历程和重要里程碑。数学基础统计学基础:熟悉均值、中位数、方差等统计概念。线性代数:了解向量、矩阵等线性代数基本概念。概率论:基础的概率论知识,如条件概率、贝叶斯定理。算法和模型监督学习:了解常用算法,如线性回归、决策树、支持向量机(SVM)。无监督学习:熟悉聚类、降维等算法。强化学习:简介强化学习的基本概念。评估和调优性能评估:了解如何评估模型性能,包括交叉验证、精确度、召回率等。模型调优:学习如何使用网格搜索等技术优化模型参数。神经网络基础

写给不会代码的你:20分钟上手 Python + AI

属性和方法:学习如何为类定义属性和方法,以及如何通过对象来调用它们。继承和多态:了解类之间的继承关系以及如何实现多态。异常处理理解异常:了解什么是异常,以及它们在Python中是如何工作的。异常处理:学习如何使用try和except语句来处理程序中可能发生的错误。文件操作文件读写:学习如何打开文件、读取文件内容以及写入文件。文件与路径操作:理解如何使用Python来处理文件路径,以及如何列举目录下的文件。对于AI,可以尝试了解以下内容,作为基础AI背景知识基础理论:了解人工智能、机器学习、深度学习的定义及其之间的关系。历史发展:简要回顾AI的发展历程和重要里程碑。数学基础统计学基础:熟悉均值、中位数、方差等统计概念。线性代数:了解向量、矩阵等线性代数基本概念。概率论:基础的概率论知识,如条件概率、贝叶斯定理。算法和模型监督学习:了解常用算法,如线性回归、决策树、支持向量机(SVM)。无监督学习:熟悉聚类、降维等算法。

问:新手如何学习 AI?

学习人工智能(AI)是一个既刺激又富有挑战的旅程,它将带领你进入一个充满创新和发现的世界。如果你想开始学习AI,这里有一份详细的学习路径指南,可以帮助你从基础概念到实际应用,逐步建立起你的AI知识体系。1.了解AI基本概念:首先,建议阅读「[从这里启程](https://waytoagi.feishu.cn/wiki/PFXnwBTsEiGwGGk2QQFcdTWrnlb?table=blkjooAlLFNtvKJ2)」部分,熟悉AI的术语和基础概念。了解什么是人工智能,它的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。浏览入门文章,这些文章通常会介绍AI的历史、当前的应用和未来的发展趋势。1.开始AI学习之旅:在「[入门:AI学习路径](https://waytoagi.feishu.cn/wiki/ZYtkwJQSJiLa5rkMF5scEN4Onhd?table=tblWqPFOvA24Jv6X&view=veweFm2l9w)」中,你将找到一系列为初学者设计的课程。这些课程将引导你了解生成式AI等基础知识,特别推荐李宏毅老师的课程。通过在线教育平台(如Coursera、edX、Udacity)上的课程,你可以按照自己的节奏学习,并有机会获得证书。1.选择感兴趣的模块深入学习:AI领域广泛(比如图像、音乐、视频等),你可以根据自己的兴趣选择特定的模块进行深入学习。

Others are asking
我需要一款免费的AI软件 可以帮助我将网课视频内容进行深度总结,并形成听课笔记和思维导图
以下为您推荐两款可能满足您需求的免费 AI 软件: 1. 360AI 浏览器: 功能 1:看长视频,敲黑板划重点。可以帮您观看 B 站的字幕视频,短短几秒就能总结概要生成脑图,告诉您视频的重点和高潮剧情在哪。例如用 360AI 浏览器观看《2007 年 iPhone 发布会》,能生成内容摘要和思维导图,视频全程 20 个看点,点击其中任一看点,就能定位到进度条对应位置,直接观看感兴趣的重点内容。还可以对英文字幕进行翻译,帮助您理解内容。同时可通过 AI 助手对话,就视频内容进行追问和扩展提问。 功能 2:阅读国内外长论文和著作,自动翻译自动提炼,3 分钟 get 要点。目前支持 360k 长文本阅读。以《三体》为例,360AI 浏览器可以呈现《三体》两册完整的故事框架,还支持生成思维导图。 官网地址:ai.se.360.cn 2. Boardmix 博思 AI 白板:在 12 月数据国内总榜中,其属于思维导图分类。
2025-02-14
能对数据表格进行分析,生成分析报告的ai软件
以下是一些能够对数据表格进行分析并生成分析报告的 AI 软件及相关信息: 1. 在撰写专业区域经济报告方面: 信息收集:可利用 AI 搜索与权威网站结合获取关键数据,AI 能辅助提取结构化表格数据或编写抓取程序。 内容拆分:针对报告需求拆分内容,避免 AI 单次处理任务过长。 数据处理:借助传统工具如 Excel,结合 AI 指导高效操作数据筛选与图表生成。 分析与撰写:通过整理数据,利用 AI 辅助分析后撰写报告初稿,可指定风格并校验数据与结论准确性。但需注意,AI 仅作辅助,最终内容需人工主导校验,避免误导性结论。 2. 在金融服务领域: 生成式 AI 可以帮助金融服务团队从更多的数据源中获取数据,并自动化突出趋势、生成预测和报告的过程。 预测方面:生成式 AI 可以帮助编写 Excel、SQL 和 BI 工具中的公式和查询,实现分析的自动化,还能帮助发现模式,并从更广泛、更复杂的数据集中为预测建议输入。 报告方面:生成式 AI 可以帮助自动创建文本、图表、图形等内容,并根据不同的示例调整此类报告,无需手动将数据和分析整合到外部和内部报告中。 会计和税务方面:生成式 AI 可以帮助综合、总结,并就税法和潜在的扣除项提出可能的答案。 采购和应付账款方面:生成式 AI 可以帮助自动生成和调整合同、采购订单和发票以及提醒。 3. 在法律风险方面: 以菲林诉百度网讯案为例,北京互联网法院认为计算机软件智能生成的报告不构成著作权法意义上的作品,不受著作权法的保护。但该分析报告仍具备传播价值,被认定为“法人作品”。软件开发者(所有者)可通过收取软件使用费用等方式获得利益,软件使用者不能以作者的身份在分析报告上署名,但可以采用合理方式表明其享有相关权益。
2025-02-14
jasper ai
很抱歉,目前知识库中没有关于“jasper ai”的相关内容。但据我所知,Jasper AI 是一款知名的人工智能写作工具,它可以帮助用户生成各种类型的文本内容,例如文章、广告文案、社交媒体帖子等。如果您能提供更具体的关于 Jasper AI 的问题,我将尽力为您解答。
2025-02-14
普通人学习ai生图方式
以下是为普通人提供的学习 AI 生图的相关内容: 如何判断一张图片是否 AI 生成: 当我们接触的 AI 制品增多,可通过“整体看光影,细节看结构”的技术要点来找出画面 bug。通过大量分析 AIGC 画作,人们会在脑中形成“判断模型”,但起初可能“知其然,不知其所以然”。从本质上看,人类绘画创作是线性发展,而 AI 是以积累数据、扩散噪声、再降噪收束的路径生图,会导致同一张图呈现不同绘画级别的细节。 Liblibai 简易上手教程: 1. 首页模型广场:展示其他用户的模型,可查看详情、收藏并用于生图。 2. Checkpoint:生图必需的基础模型,必选。 3. Lora:低阶自适应模型,类似 Checkpoint 的小插件,可有可无,用于控制细节。 4. VAE:编码器,类似滤镜,调整生图饱和度,可无脑选 840000。 5. CLIP 跳过层:用于生成图片后控制、调整构图变化,一般设为 2。 6. Prompt 提示词:想要 AI 生成的内容。 7. 负向提示词 Negative Prompt:想要 AI 避免产生的内容。 8. 采样方法:选择让 AI 生图的算法。 AI 线上绘画教程: 如果需要大量商用且具艺术美感的图片,AI 生图是高效办法。主流工具如 midjourney 付费成本高,stable diffusion 硬件门槛不低,可选择免费在线 SD 工具网站如。本教程适用于入门玩家,旨在让读者半小时内自由上手创作绘图。
2025-02-14
langchain与dify哪个更有发展前景
LangChain 和 Dify 都是在 LLM 应用开发领域具有特点和优势的工具,难以简单地判断哪个更有发展前景。 LangChain 是一个编排框架,在提示链细节抽象、与外部 API 接口、从向量数据库检索上下文数据以及在多个 LLM 调用中维持内存等方面表现出色,为多种常见应用提供模板,在业余爱好者和初创公司中被广泛使用。但它目前仍是相对新的项目,且一些开发者在生产中更愿意切换到原生 Python 以消除额外依赖性。 Dify 是一个开源的 LLM 应用开发平台,具有快速部署、创意文档生成、长文档摘要、自定义 API、连接全球 LLM、更接近生产环境等优势。它允许用户编排从代理到复杂 AI 工作流的 LLM 应用,并配备了 RAG 引擎,旨在为特定行业提供聊天机器人和 AI 助手。 两者的发展前景取决于多种因素,如技术创新、市场需求、社区支持等。在不同的应用场景和需求下,它们各自都有发挥作用的空间和潜力。
2025-02-14
langchain会被淘汰吗
LangChain 目前不太可能被淘汰。它是 LLM 应用程序编排框架中的领导者,在提示链细节抽象、与外部 API 接口、上下文数据检索以及维持内存等方面表现出色,为业余爱好者和初创公司广泛使用,并已开始有构建的应用转入生产。 虽然 LangChain 仍是相对新的项目,一些开发者特别是 LLM 的早期采用者,更愿意在生产中切换到原生 Python 以消除额外的依赖性,但预计这种自行制作的方法在大多数用例中的使用会随时间减少,这与传统的 web 应用堆栈情况类似。 同时,高级提示词工程技术的普及促进了一系列工具和框架的发展,LangChain 已成为提示词工程工具包景观中的基石,最初专注于链条,后扩展到支持包括智能体和网络浏览功能在内的更广泛功能,其全面的功能套件使其成为开发复杂 LLM 应用的宝贵资源。
2025-02-14
AI的历史和一些关键名词介绍
以下是关于 AI 的历史和一些关键名词的介绍: AI 的历史: 始于二十世纪中叶,最初符号推理流行,带来专家系统等重要进展。 20 世纪 70 年代出现“人工智能寒冬”,因从专家提取知识等任务复杂且成本高。 随着计算资源变便宜、数据增多,神经网络方法在计算机视觉、语音理解等领域展现出色性能,过去十年中“人工智能”常被视为“神经网络”的同义词。 关键名词: 机器学习:是 AI 的一个重要分支,研究如何让计算机通过数据学习和改进。 深度学习:基于神经网络的一种学习方法。 自然语言处理:使计算机理解和处理人类语言。 在学习 AI 时,您可以: 了解基本概念,阅读相关部分熟悉术语和基础概念,如“”。 浏览入门文章,了解历史、应用和发展趋势。 在“”中找到初学者课程,推荐李宏毅老师的课程。 通过在线教育平台按自己节奏学习。 选择感兴趣的模块深入学习,如图像、音乐、视频等。 掌握提示词技巧。 进行实践,尝试使用各种产品做出作品。 体验如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人。
2025-02-07
我想借助AI帮我理解学术名词,需要如何操作?
要借助 AI 帮助您理解学术名词,您可以采取以下几种操作方式: 1. 使用在线智能语言模型工具,如 ChatGPT 等,向其清晰准确地描述您想要理解的学术名词,并提出您的疑问和需求。 2. 利用知识问答类的 APP 或网站,输入相关学术名词,获取相关的解释和说明。 3. 对于一些特定领域的学术名词,还可以查找专门针对该领域的 AI 辅助学习工具。 在与 AI 交流时,尽量详细地描述您的困惑和期望,以便获得更准确和有用的回答。
2024-12-26
学习ai的名词
以下是关于 AI 相关名词的解释: AGI:通用人工智能,指具备与人类同等智能水平和能力的人工智能。 AIGC:利用人工智能技术生成的内容。 Agent:智能体,能够自主感知、决策和行动的实体。 Prompt:提示词,用于引导 AI 生成特定的输出。 此外,还有以下相关名词和概念: 人工智能(AI):使计算机模拟人类智能的技术。 机器学习:电脑通过找规律进行学习,包括监督学习、无监督学习、强化学习。 监督学习:使用有标签的训练数据,学习输入和输出之间的映射关系,包括分类和回归。 无监督学习:学习的数据没有标签,算法自主发现规律,经典任务包括聚类。 强化学习:从反馈中学习,以最大化奖励或最小化损失,类似训小狗。 深度学习:一种参照人脑的方法,具有神经网络和神经元,因层数多被称为深度。神经网络可用于监督学习、无监督学习、强化学习。 生成式 AI:能够生成文本、图片、音频、视频等内容形式。 LLM:大语言模型。对于生成式 AI,生成图像的扩散模型不是大语言模型;对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。 建议您通过与 AI 对话或李继刚老师的课程来深入理解这些名词。
2024-12-09
Aigc 常见名词解释
以下是一些 AIGC 常见名词的解释: AIGC:AI generated content,又称为生成式 AI,意为人工智能生成内容。例如 AI 文本续写,文字转图像的 AI 图、AI 主持人等,都属于 AIGC 的应用。类似的名词缩写还有 UGC(普通用户生产),PGC(专业用户生产)等。能进行 AIGC 的产品项目和媒介众多,包括语言文字类(如 OpenAI 的 GPT,Google 的 Bard,百度的文心一言,还有一种国内大佬下场要做的的 LLM)、语音声音类(如 Google 的 WaveNet,微软的 Deep Nerual Network,百度的 DeepSpeech 等,还有合成 AI 孙燕姿大火的开源模型 Sovits)、图片美术类(如早期的 GEN 等图片识别/生成技术,去年大热的扩散模型带火的 Midjourney,先驱者谷歌的 Disco Diffusion,一直在排队测试的 OpenAI 的 Dalle·2,以及 stability ai 和 runaway 共同推出的 Stable Diffusion)。 SD:是 Stable Diffusion 的简称。是由初创公司 StabilityAI、CompVis 与 Runway 合作开发,2022 年发布的深度学习文本到图像生成模型。它主要用于根据文本的描述产生详细图像。Stable Diffusion 是一种扩散模型(diffusion model)的变体,叫做“潜在扩散模型”(latent diffusion model; LDM)。SD 的代码模型权重已公开发布,可以在大多数配备有适度 GPU 的电脑硬件上运行。当前版本为 2.1 稳定版(2022.12.7)。源代码库:github.com/StabilityAI/stablediffusion 。 chatGPT:是由致力于 AGI 的公司 OpenAI 研发的一款 AI 技术驱动的 NLP 聊天工具,于 2022 年 11 月 30 日发布,目前使用的是 GPT4 的 LLM。 AI:人工智能(Artificial Intelligence)。 AGI:通用人工智能(Artificial General Intelligence)能够像人类一样思考、学习和执行多种任务的人工智能系统。 NLP:自然语言处理(Natural Language Processing),就是说人话。 LLM:大型语言模型(Large Language Model),数据规模很大,没钱搞不出来,大烧钱模型。 此外,还有一些相对较难的名词解释: NAI: 咒语:prompts,关键词 施法/吟唱/t2i:Text2Image 魔杖:t2i/i2i 参数 i2i:Image2Image,一般特指全部图片生成 inpaint:i2i 一种 maskredraw,可以局部重绘 ti/emb/炼丹:Train 中的文本反转,一般特指 Embedding 插件 hn/hyper/冶金:hypernetwork,超网络 炸炉:指训练过程中过度拟合,但炸炉前的日志插件可以提取二次训练 废丹:指完全没有训练成功 美学/ext:aesthetic_embeddings,emb 一种,特性是训练飞快,但在生产图片时实时计算。 db/梦展:DreamBooth,目前一种性价比高(可以在极少步数内完成训练)的微调方式,但要求过高 ds:DeepSpeed,微软开发的训练方式,移动不需要的组件到内存来降低显存占用,可使 db 的 vram 需求降到 8g 以下。开发时未考虑 win,目前在 win 有兼容性问题故不可用 8bit/bsb:一般指 Bitsandbyte,一种 8 比特算法,能极大降低 vram 占用,使 16g 可用于训练 db。由于链接库问题,目前/预计未来在 win 不可用
2024-11-08
Ai名词解释
以下是关于 AI 的一些名词解释和相关信息: 名词解释: AI:人工智能(Artificial Intelligence) AGI:通用人工智能(Artificial General Intelligence),能够像人类一样思考、学习和执行多种任务的人工智能系统 NLP:自然语言处理(Natural Language Processing),是让电脑把输入的语言变成有意思的符号和关系,然后根据目的再处理,包括认知、理解、生成等部分 LLM:大型语言模型(Large Language Model),数据规模很大,耗费资金多 机器学习:是人工智能的一个分支,是以机器学习为手段,解决人工智能中的部分问题,涉及多门学科 推理:指利用训练好的模型,使用新数据推理出各种结论,也叫预测或推断 训练:通过大数据训练出一个复杂的神经网络模型,通过大量标记过的数据来训练相应的系统,使其能够适应特定的功能 AI 的应用场景: 医疗保健:包括医学影像分析、药物研发、个性化医疗、机器人辅助手术等。 金融服务:涵盖风控和反欺诈、信用评估、投资分析、客户服务等。 零售和电子商务:有产品推荐、搜索和个性化、动态定价、聊天机器人等。 制造业:包含预测性维护、质量控制、供应链管理、机器人自动化等。 交通运输:(未详细说明具体应用)
2024-10-29
AI名词解释
以下是关于 AI 的一些名词解释、相关概念及应用场景: 名词解释: AI:人工智能(Artificial Intelligence) AGI:通用人工智能(Artificial General Intelligence),能够像人类一样思考、学习和执行多种任务的人工智能系统 NLP:自然语言处理(Natural Language Processing),即让电脑处理和理解人类语言 LLM:大型语言模型(Large Language Model),数据规模大,耗费资金多 机器学习:是人工智能的一个分支,是实现人工智能的途径之一,涉及多门学科,近 30 多年已发展为多领域科际集成。 推理:指利用训练好的模型,使用新数据推理出各种结论,也叫预测或推断。 训练:通过大数据训练出复杂的神经网络模型,用大量标记过的数据训练系统以适应特定功能。 自然语言:自然语言(NLP)的认知和理解是让电脑把输入的语言变成有意义的符号和关系,然后根据目的再处理。自然语言生成系统则是把计算机数据转化为自然语言,是人工智能和语言学领域的分支学科,包括认知、理解、生成等部分。 应用场景: 医疗保健:医学影像分析、药物研发、个性化医疗、机器人辅助手术等。 金融服务:风控和反欺诈、信用评估、投资分析、客户服务等。 零售和电子商务:产品推荐、搜索和个性化、动态定价、聊天机器人等。 制造业:预测性维护、质量控制、供应链管理、机器人自动化等。 交通运输:(未详细说明具体应用)
2024-10-29
涉及到deepseek的所有知识
以下是关于 DeepSeek 的相关知识: 媒体报道和网络文章: 作者“通往 AGI 之路”的《关于 DeepSeek 的所有事情【知识库持续更新中】》,类型为基础认知,链接:https://mp.weixin.qq.com/s/n0WrrJL0fVX6zLeTBWpZXA 。 作者“数字生命卡兹克”的《DeepSeek 的提示词技巧,就是没有技巧。》,类型为基础认知,链接:https://mp.weixin.qq.com/s/KwFfItlMvS9FCDwNbvVWu7A 。 作者“宝玉”的《教你如何破解 DeepSeek R1 系统提示词》,类型为提示词破解,链接:https://mp.weixin.qq.com/s/vAp2wI5ozTw7R6jreLMw 。 作者“橘子汽水铺”的《中国开源,震撼世界:DeepSeek R1 的变革、启示与展望》,类型为基础认知,链接:https://mp.weixin.qq.com/s/yGUgehbxKisVaHlOkxhuaw 。 作者“橘子汽水铺”的《自学成才之路,DeepSeek R1 论文解读》,类型为基础认知,链接:https://mp.weixin.qq.com/s/gmdHyh6fsUdj1JhM1sV9bg 。 作者“新智元”的《史上首次,DeepSeek 登顶中美 AppStore!NYU 教授:全球「AI 霸权」之争已结束》,类型为基础认知,链接:https://mp.weixin.qq.com/s/ybvV8RMX0yyS5YfG1qNWgg 。 作者“一支烟花 AI”的《用流程图对比 DeepSeekR1,OpenAI O1,Claude 说明强化学习在 AI 大模型训练、推理的创新和意义》,类型为基础认知,链接:https://mp.weixin.qq.com/s/mdGtOcg1RuQOEBn31KhxQ 。 作者“腾讯科技”的《一文读懂|DeepSeek 新模型大揭秘,为何它能震动全球 AI 圈》,类型为基础认知,链接:https://mp.weixin.qq.com/s/cp4rQx09wygE9uHBadI7RA 。 作者“张小珺腾讯科技”的《一场关于 DeepSeek 的高质量闭门会:比技术更重要的是愿景》,类型为进阶思考,链接:https://mp.weixin.qq.com/s/a7C5NjHbMGh2CLYk1bhfYw 。 【今晚 8 点】聊聊你怎么使用 DeepSeek!2025 年 2 月 6 日: DP 模型的功能:能进行自然语言理解与分析、编程、绘图,如 SVG、MA Max 图表、react 图表等。 使用优势:可以用更少的词让模型做更多事,思维发散,能给出创意思路和高级内容。 存在问题:思维链长不易控制,可能输出看不懂或胡编乱造的内容,增加纠错成本。 审核方法:可以用其他大模型来解读 DP 模型给出的内容。 使用建议:使用时要有自己的思维雏形,多看思考过程,避免被模型冲刷原有认知。 使用场景:包括阅读、育儿、写作、随意交流等方面。 案例展示:通过与孩子共读时制作可视化互动游戏,以及左脚踩右脚式的模型交互来展示 DP 模型的应用。 音系学研究:对音系学感兴趣,通过对比不同模型的回答来深入理解,如 bug 和 DIFF SIG,探讨语言概念在音系学下的心理印象等。 大模型取队名:与大模型进行多轮对话来取队名,通过不断约束和披露喜好,最终得到满意的队名及相关内容。 Deepseek 文档分享:在 3 群和 4 群分享了 Deepseek 的相关文档,也可在 v to a gi 的飞书知识库中搜索获取。 Deepseek 使用介绍:介绍了 Deepseek 的模型、收录内容、提示词使用技巧和好玩的案例等。 未来活动预告:明天后天在摩纳社区提供免费算力资源带大家学习炼丹,周一晚上学习多维表格中接入 Deepseek。
2025-02-14
怎么建立自己的知识库
要建立自己的知识库,可以参考以下两种方法: 方法一:用 GPT 打造个人知识库 1. 理解 embeddings: Embeddings 是一个浮点数字的向量(列表),两个向量之间的距离衡量它们的关联性。小距离表示高关联度,大距离表示低关联度。 向量是数学中表示大小和方向的一个量,通常用一串数字表示。在计算机科学和数据科学中,向量通常用列表(list)来表示。 向量之间的距离是一种度量两个向量相似性的方法,最常见的是欧几里得距离。 2. 使用 embeddings: 将大文本拆分成若干个小文本块(chunk),通过 embeddings API 将小文本块转换成 embeddings 向量。 在一个地方(向量储存库)中保存这些 embeddings 向量和文本块,作为问答的知识库。 当用户提出一个问题时,该问题先通过 embeddings API 转换成问题向量,然后将这问题向量与向量储存库的所有文本块向量比对,查找距离最小的几个向量,把这几个向量对应的文本块提取出来,与原有问题组合成为新的 prompt(问题/提示词),发送给 GPT API。 方法二:用 Coze 免费打造自己的微信 AI 机器人 1. 设计你的 AI 机器人: 确定功能范围。 编写【prompt】提示词,设定 Bot 的身份和目标。 2. 创建知识库: 整理“关键字”与“AI 相关资料链接”的对应关系,并将信息存储起来。 创建知识库路径:个人空间 知识库 创建知识库。 知识库文档类型支持:本地文档、在线数据、飞书文档、Notion 等,本次使用【本地文档】。 按照操作指引上传文档、分段设置、确认数据处理。 小技巧:知识库好不好用,跟内容切分粒度有很大关系,可以在内容中加上一些特殊分割符,比如“”,以便于自动切分数据。分段标识符号要选择“自定义”,内容填“”。最终的知识库结果中,同一颜色代表同一个数据段,如果内容有误需要编辑,可以点击具体内容,鼠标右键会看到“编辑”和“删除”按钮,可以编辑或删除。
2025-02-14
知识库中是否有搭建在线RAG知识库的相关内容?
知识库中有搭建在线 RAG 知识库的相关内容。 RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型提供额外的、来自外部知识源的信息。 自顶向下,RAG 的流程分为离线数据处理和在线检索两个过程。离线数据处理的目的是构建知识库,知识按某种格式及排列方式存储在其中等待使用。在线检索是利用知识库和大模型进行查询的过程。 对于 RAG 来讲,检索的质量直接影响生成的结果,常见的检索方法有关键词检索和语义检索。关键词检索是最传统和基础的方法,基于查询词与文档中词语的精确或近似匹配,实现简单但难以处理同义词和上下文语义。语义检索将查询和文档映射到同一语义空间,通过计算向量相似度判断相关性,能捕捉深层语义但计算成本较高。 在构建知识库的流程中,在线检索各个流程的“是什么”与“为什么”同等重要。例如在检索环节,选择合适的检索方法或组合对系统性能至关重要。 大模型存在无法记住所有知识尤其是长尾知识、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高等缺点,而 RAG 具有数据库存储和更新稳定、数据更新敏捷且可解释、降低大模型输出出错可能、便于管控用户隐私数据、降低大模型训练成本等优点。
2025-02-14
建立本地AI知识库有什么意义
建立本地 AI 知识库具有以下重要意义: 1. 灵活掌控:通过使用像 AnythingLLM 这样的软件,可以对知识库进行更灵活的管理和操作。例如选择文本嵌入模型、向量数据库等。 2. 数据隔离:在 AnythingLLM 中创建独有的 Workspace,能与其他项目数据进行隔离,保障数据的独立性和安全性。 3. 多样对话模式:提供 Chat 模式和 Query 模式。Chat 模式综合大模型训练数据和上传文档数据给出答案,Query 模式仅依靠文档数据回答。 4. 深入理解技术:虽然大多数人不需要自行部署大模型,但通过本地部署和搭建知识库的实操,可以更深入地了解相关技术,如 RAG 技术,包括其文档加载、文本分割、存储、检索和输出等过程,以及文本加载器的作用。 5. 个性化定制:可以根据个人需求上传文档并进行文本嵌入,实现个性化的知识储备和应用。 6. 测试与优化:完成配置后可进行对话测试,不断优化和改进知识库的性能和回答质量。
2025-02-14
如何进行知识蒸馏
知识蒸馏(Knowledge Distillation)是一种将复杂模型的知识转移到简单模型中的方法。其核心思想是利用预训练好的复杂模型(教师模型)指导较小模型(学生模型)的训练,使学生模型能模仿教师模型的行为,同时保持较小规模和较高效率。 蒸馏的核心在于让学生模型学习教师模型的输出分布,而非仅仅是硬标签(ground truth)。具体而言,教师模型为输入文本生成软标签(soft labels),即概率分布,学生模型通过模仿教师模型的软标签来学习。 目前以 Ollama 上下载的模型为例,最小的有 DeepSeekR1DistillQwen1.5B,最大的有 DeepSeekR1DistillLlama70B,都是来自于 Deepseek R1 671B 的蒸馏,而非官方的 Deepseek 版本。仔细观察模型名称可以看到,Distill 代表“蒸馏”,Qwen 或者 Llama 代表使用的基础模型,一般是千问或者 Llama 。
2025-02-14
如何建立自己知识库
建立自己的知识库可以参考以下方法: 1. 利用 GPT 打造个人知识库: 给 GPT 输入(投喂)定制化的知识,但需注意 GPT3.5(即当前免费版的 ChatGPT)一次交互(输入和输出)只支持最高 4096 个 Token,约等于 3000 个单词或 2300 个汉字,容量对于绝大多数领域知识可能不够。 OpenAI 提供了 embedding API 解决方案,embeddings 是一个浮点数字的向量(列表),两个向量之间的距离衡量它们的关联性,小距离表示高关联度,大距离表示低关联度。向量是数学中表示大小和方向的一个量,通常用一串数字表示,在计算机科学和数据科学中,向量通常用列表(list)来表示。向量之间的距离是一种度量两个向量相似性的方法,最常见的是欧几里得距离。 可以先把大文本拆分成若干个小文本块(也叫 chunk),通过 embeddings API 将小文本块转换成 embeddings 向量,这个向量跟文本块的语义相关。在一个地方(向量储存库)中保存这些 embeddings 向量和文本块,作为问答的知识库。当用户提出一个问题时,该问题先通过 embeddings API 转换成问题向量,然后将这问题向量与向量储存库的所有文本块向量比对,查找距离最小的几个向量,把这几个向量对应的文本块提取出来,与原有问题组合成为新的 prompt,发送给 GPT API。 2. 本地部署大模型以及搭建个人知识库: 利用大模型的能力搭建知识库本身就是一个 RAG 技术的应用,在进行本地知识库的搭建实操之前,需要先对 RAG 有一个大概的了解。 RAG 应用包括文档加载(从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器)、文本分割(把 Documents 切分为指定大小的块)、存储(将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库)、检索(通过某种检索算法找到与输入问题相似的嵌入片)、Output(把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案)。 文本加载器就是将用户提供的文本加载到内存中,便于进行后续的处理。
2025-02-13
如何零基础入门
以下是零基础入门 AI 的一些建议: 1. 学习 Cursor: 下载 Cursor:https://www.cursor.com/ 注册账号,可用邮箱如 google/github/163/qq 邮箱,接受二维码登录。 安装中文包插件。 参考相关文章: 在设置中 Rule for AI 配置,按 ctrl/cmd+i 输入需求。 2. 成为 AI 提示词工程师: 岗位技能要求包括市场调研、观察目标群体工作流、创造并拆解需求、选型现有 AI 解决方案做成产品来解决需求、抽象出来集成为一个互联网 APP 产品、写 PRD、画 APP 产品原型图、组织团队进行 APP 产品开发。 零基础小白学习建议:找网上的基础课程,看科普类教程,阅读 OpenAI 的文档以理解参数作用。 推荐练手的 Prompt 工具和相关教程文档。 3. 学习 Stable Diffusion: 可参考 Nenly 发布的零基础入门课及配套学习文档。 了解安装攻略,包括如何安装、启动软件。 下载课程内提及的模型文件、扩展插件及所需素材。
2025-02-14
零基础如何学习AGI
对于零基础学习 AGI,以下是一些建议和相关学习资源: 1. 参加“AI 编程共学”活动,例如: 10 月 28 日 20:00 开始,麦橘分享的“0 基础做小游戏分享:通往 AGI 之路增量小游戏、转生之我是野菩萨”,回放链接:。 10 月 29 日 20:00 开始,梦飞分享的“0 编程基础入门 Cursor 极简使用指南”,回放链接:。 10 月 30 日 20:00 开始,银海分享的“0 基础学做 AI 拍立得:Coze 工作流实现手把手教学、AI 拍立得开源代码开箱即用”,回放链接:。 10 月 31 日 20:00 开始,南墙分享的“0 基础做小游戏分享:猪猪🐷撞南墙”,回放链接:。 2. 记住,学习 AI 是一个长期的过程,需要耐心和持续的努力。不要害怕犯错,每个挑战都是成长的机会。 3. 完整的学习路径建议参考「通往 AGI 之路」的布鲁姆分类法,设计自己的学习路径。
2025-02-13
我是AI小白,希望到这里学习AI基础知识
以下是为您整理的 AI 基础知识学习内容: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能、机器学习、深度学习的定义及其之间的关系,以及其主要分支和联系。 浏览入门文章,了解 AI 的历史、当前应用和未来发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,如图像、音乐、视频等,可根据兴趣选择特定模块深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解其工作原理和交互方式,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 6. 数学基础: 统计学基础:熟悉均值、中位数、方差等统计概念。 线性代数:了解向量、矩阵等线性代数基本概念。 概率论:基础的概率论知识,如条件概率、贝叶斯定理。 7. 算法和模型: 监督学习:了解常用算法,如线性回归、决策树、支持向量机(SVM)。 无监督学习:熟悉聚类、降维等算法。 强化学习:简介强化学习的基本概念。 8. 评估和调优: 性能评估:了解如何评估模型性能,包括交叉验证、精确度、召回率等。 模型调优:学习如何使用网格搜索等技术优化模型参数。 9. 神经网络基础: 网络结构:理解神经网络的基本结构,包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)。 激活函数:了解常用的激活函数,如 ReLU、Sigmoid、Tanh。
2025-02-12
图生图 / img2img:上传一张图片,然后系统会在这个图片的基础上生成一张新图片,修改一些提示词(Prompt)来改变新图片的效果 , 给我推荐这类大模型
以下为您推荐可用于图生图(img2img)的大模型: 1. Stable Diffusion(SD)模型:由 Stability AI 和 LAION 等公司共同开发,参数量约 1B,可用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等任务。在图生图任务中,SD 模型会根据输入的文本提示,对输入图片进行重绘以更符合文本描述。输入的文本信息通过 CLIP Text Encoder 模型编码成机器能理解的数学信息,用于控制图像生成。 2. Adobe Firefly image 2 模型:上周发布了 Beta 测试版本,增加了众多功能,模型质量提升。默认图片分辨率为 20482048,对图片的控制能力增强,具有更高质量的图像和插图生成、自定义选项和改进的动态范围。支持生成匹配(img2img),应用预先选择的图像集中的风格或上传自己的风格参考图像以创建相似图像,还有照片设置、提示建议、提示链接共享、反向提示词等功能。
2025-02-12
零基础学习 ai
以下是为零基础学习 AI 提供的指导: 一、了解 AI 基本概念 1. 建议阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能的定义、主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 2. 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 二、开始 AI 学习之旅 1. 在「」中,您将找到一系列为初学者设计的课程,特别推荐李宏毅老师的课程。 2. 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 三、选择感兴趣的模块深入学习 AI 领域广泛,比如图像、音乐、视频等,您可以根据自己的兴趣选择特定的模块进行深入学习。同时,掌握提示词的技巧,它上手容易且很有用。 四、实践和尝试 1. 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。 2. 在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 五、体验 AI 产品 与现有的 AI 产品进行互动是学习 AI 的另一种有效方式。尝试使用如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 六、如果希望继续精进 1. 对于 AI,可以尝试了解以下内容作为基础: AI 背景知识:包括基础理论,如人工智能、机器学习、深度学习的定义及其之间的关系,以及简要回顾 AI 的发展历程和重要里程碑。 数学基础:熟悉统计学基础(均值、中位数、方差等统计概念)、线性代数(向量、矩阵等基本概念)、概率论(条件概率、贝叶斯定理等基础的概率论知识)。 算法和模型:了解监督学习(线性回归、决策树、支持向量机等常用算法)、无监督学习(聚类、降维等算法)、强化学习的基本概念。 评估和调优:包括性能评估(交叉验证、精确度、召回率等)、模型调优(使用网格搜索等技术优化模型参数)。 神经网络基础:理解神经网络的基本结构(前馈网络、卷积神经网络、循环神经网络)和常用的激活函数(ReLU、Sigmoid、Tanh)。 2. 像二师兄一样,从 AI 绘画入手,不断学习和实践,积累经验。
2025-02-12
我是一个零基础的小白用户,可以给我制定一个周期为两个月的关于大模型知识的学习计划么
以下是为您制定的一个为期两个月的大模型知识学习计划: 第一个月: 第一周: 了解 AI 的基本概念,包括人工智能、机器学习、监督学习、无监督学习和强化学习等。 熟悉生成式 AI 生成的内容(AIGC)。 第二周: 深入学习大语言模型(LLM)的概念,区分其与其他生成式 AI 模型的不同。 研究 Transformer 模型,理解其基于自注意力机制处理序列数据的原理。 第三周: 学习不同类型的大模型架构,如 encoderonly、encoderdecoder 和 decoderonly 模型,并了解其应用场景。 了解大模型预训练数据的来源和规模。 第四周: 研究大模型的参数规模和其对性能的影响。 分析大模型在自然语言处理中的任务,如分类、情感分析、翻译和摘要等。 第二个月: 第一周: 比较不同大模型的特点和优势,如 GPT3 和 ChatGPT。 学习大模型在安全性方面的问题和挑战。 第二周: 探索大模型在实际应用中的案例,如文本生成、故事写作等。 了解大模型的发展趋势和未来方向。 第三周: 复习和巩固之前所学的大模型知识,查漏补缺。 尝试自己动手实践一些简单的大模型应用。 第四周: 总结所学的大模型知识,形成自己的理解和体系。 思考如何将大模型知识应用到实际工作或学习中。
2025-02-11