Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

stable diffusion 如何使用

Answer

Stable Diffusion 是一种扩散模型的变体,以下是关于其使用的相关内容:

  • 模型原理:
    • 在传统扩散模型中存在计算效率挑战,稳定扩散为解决此问题而提出。
    • 其核心组件包括将用户输入的 Prompt 文本转化成 text embedding 的 CLIP、VAE Encoder-Decoder 以及进行迭代降噪和在文本引导下进行多轮预测的 UNET。
  • 安装配置:
    • 电脑系统需为 Win10 或 Win11,避免使用更低版本系统。
    • 电脑需满足以下性能要求:运行内存 8GB 以上,为英伟达(N 卡)显卡且显卡内存 4GB 以上。可通过在桌面上找到“我的电脑”右键点击“属性”查看 Windows 规格,以及鼠标右击桌面底部任务栏点击“任务管理器”查看电脑的运行内存和 GPU 来检查配置。
  • 训练过程:
    • 初始选择十亿个随机数字作为参数值,此时模型无用。
    • 通过训练这一数学过程,基于输入和期望输出的差异,运用基本微积分对参数值进行调整,经过多次训练,模型逐渐优化,最终达到无法从进一步训练中受益的点,作者会发布参数值供免费使用。

此外,ComfyUI 存放路径为 models/checkpoints/,模型包括 SD1.5、SDXL 等基础预训练模型,还有如 DreamBooth 等训练方法,存在 EMA-only&pruned VS Full、FP16&FP32 等格式,以及模型自带已适配的 VAE 和微调模型等。同时存在融合模型,如 checkpoint+checkpoint、Lora+Lora、checkpoint+Lora 等形式。

Content generated by AI large model, please carefully verify (powered by aily)

References

第二课 《ComfyUI基础知识》 By 郭佑萌 @ 🌈WaytoAGI 2024.8.15 .pdf

‎的去噪结果。然而,这种迭代性质在计算效率上带来了挑战,特别是在处理大尺寸图像和‎大量扩散步骤(T)时。在采样过程中,从高斯噪声中去噪图像可能需要很长时间。为了解‎决这一问题,一组研究人员提出了一种新的方法,称为稳定扩散(Stable Diffusion),‎最初称为潜在扩散模型(Latent Diffusion Models)‎Stable Diffusion‎Stable Diffusion是一种扩散模型(diffusion model)的变体,叫做“潜在扩散模[heading1]‎型”(Latent Diffusion Models)[content]‎CLIP‎将用户输入的Prompt文本转化成text embedding‎核心的组件‎VAE Encoder-Decoder‎UNET‎UNET进行迭代降噪,在文本引导下进行多轮预测‎High-Resolution Image Synthesis with Latent Diffusion Models‎ComfyUI存放路径:models/checkpoints/‎SD1.5‎SD基础预训练模型‎SDXL‎SD1.5‎模型实例‎SDXL‎训练方法‎DreamBooth,by Google‎EMA-only&pruned VS Full‎FP16&FP32‎格式‎.pt VS.safetensor‎Bake in VAE‎模型自带已适配的VAE‎SD微调模型‎概念学习‎Checkpoint‎作用‎source:stable-diffusion-art.com/models/#How_are_models_created‎1puppy‎训练要求‎sd1.5‎12G VARM‎SDXL‎16G VARM‎The merged model sits between the realistic F222 and the anime Anything V3‎styles.It is a very good model for generating illustration art with human figures.‎(source:stable-diffusion-art.com/models/#Example_of_a_merged_model)‎融合模型‎checkpoint+checkpoint‎Lora+Lora‎形式‎checkpoint+Lora‎Baking VAE

教程:超详细的Stable Diffusion教程

为了大家能够更加顺利的安装和使用Stable Diffusion(简称“SD”)在正式安装之前希望大家先一起查看一下自己的电脑配置,需要注意的是以下两点:01.电脑系统是Win10或者Win11为了避免一些奇怪的兼容性问题,不要选择更低版本的系统。查看电脑系统的方法:在桌面上找到“我的电脑”——鼠标右键点击——点击“属性”——查看Windows规格02.检查电脑性能这里是检查自己的电脑配置能不能带动SD(Stable Diffusion)需要满足3个要求:电脑运行内存8GB以上是英伟达(俗称N卡)的显卡显卡内存4GB以上检查方法:①鼠标右击桌面底部任务栏——点击“任务管理器”②查看电脑的运行内存在“性能”里面找到“内存”,这里的内存不是电脑的存储内存,而是运行内存噢!只要看图中划线的那一个参数就可以8GB:那就说明你的电脑配置内存是勉强达到标准的16GB:那就说明你的内存配置可以正常使用32GB:那么你就可以非常自由的使用SD啦!③查看“GPU”GPU就是显卡的意思首先先看右上角显卡的名字或者型号必须确认的第一个是NVIDIA,代表的是英伟达的显卡(俗称N卡),这里是N卡我们才可以进行下一步,如果这个地方是AMD或者是Intel,可能你的电脑会不太支持SD,网上的安装教程也比较麻烦,

稳定扩散(Stable Diffusion)是如何运作的

显然,作者不可能坐下来决定尝试什么数字。尤其是当你考虑到它们不是像1、2、3这样的“整数”,而是我们计算机迷所说的“浮点”值时——你在表格中看到的小的、非常精确的分数。我们不仅没有选择这些数字——我们甚至无法解释其中的任何一个!这就是为什么我们无法完全解释稳定扩散的工作原理。我们对这些方程式的作用有一些直观的理解,但是很多事情都隐藏在那些数字的值中,我们不能完全理解。很疯狂,对吧?那么我们是如何找出这些数字的呢?我们首先选择十亿个随机数字来使用。有了这些初始的随机参数值,模型完全无用——在我们找出更好的参数值来使用之前,它无法做出任何有价值的事情。因此,我们应用了一个我们称之为训练的数学过程,该过程逐渐将值调整为有效的值。训练的工作方式是我们完全理解的东西——它是一些基本的微积分(尽管应用于一个非常大的方程),基本上保证有效,并且我们对为什么有效有清晰的理解。训练涉及到一个巨大的训练样本集。一个单独的训练样本由一个输入和一个期望的输出组成。(我会在另一篇文章中解释对于稳定扩散来说,一个训练样本看起来是什么样子)。当我们运行第一个训练输入(参数值完全随机)时,模型吐出的东西将完全不像期望的输出。但是,利用实际输出和期望输出之间的差异,我们可以对这些方程应用一些非常基本的微积分,这些方程将告诉我们,对于这十亿个数字中的每一个,我们应该加上或减去特定的数量。(每个单独的参数都进行了不同的少量调整!)在我们做了那些调整之后,模型在数学上保证会生成一个我们更期望的输出图像。所以我们用许多不同的训练样本做了很多次(数亿次),模型越来越好。然而,随着我们训练的进行,收益逐渐减少,最终我们会到达一个模型无法从进一步训练中受益的点。一旦作者们完成了模型的训练,他们就发布了参数值供所有人免费使用!

Others are asking
为本地部署的stable diffusion增加中文提示词支持
要为本地部署的 Stable Diffusion 增加中文提示词支持,可以采取以下方法: 1. 如果使用的秋叶整合包,里面包含提示词联想插件。输入简单字符如“1”,能看到下方联想热门提示词,适合英文不好、记不住单词的朋友。 2. 一般情况可使用翻译软件,如 DeepL 翻译(网址:https://www.deepl.com/translator ,可下载客户端)或网易有道翻译(可通过 ctrl+alt+d 快速截图翻译),但复制粘贴来回切换较麻烦。 3. 介绍自动翻译插件 promptallinone,安装方式:在扩展面板中搜索 promptallinone 直接安装,或把下载好的插件放在“……\\sdwebuiakiv4\\extensions”路径文件夹下。安装完成后重启 webUI,可看到提示词区域变化。 一排小图标中,第一个用来设置插件语言,直接设为简体中文。 第二个图标是设置,点开后点击第一个云朵图标可设置翻译接口,点击第一行下拉菜单能选择翻译软件,有一些免费软件可任意选择并试验哪款翻译准确。 关于 Stable Diffusion 文生图写提示词: 1. 下次作图时,先选模板,点击倒数第二个按钮可快速输入标准提示词。 2. 描述逻辑通常包括人物及主体特征(服饰、发型发色、五官、表情、动作),场景特征(室内室外、大场景、小细节),环境光照(白天黑夜、特定时段、光、天空),画幅视角(距离、人物比例、观察视角、镜头类型),画质(高画质、高分辨率),画风(插画、二次元、写实)等,通过这些详细提示词能更精确控制绘图。 3. 新手可借助功能型辅助网站写提示词,如: http://www.atoolbox.net/ ,通过选项卡方式快速填写关键词信息。 https://ai.dawnmark.cn/ ,每种参数有缩略图参考,更直观选择提示词。 还可去 C 站(https://civitai.com/)抄作业,每张图有详细参数,点击复制数据按钮,粘贴到正向提示词栏,点击生成按钮下第一个按键,Stable Diffusion 可自动匹配所有参数,但要注意图像作者使用的大模型和 LORA,也可取其中较好的描述词使用。
2025-02-03
forge diffusion的layer diffuse插件不管用是什么原因
Forge Diffusion 的 layer diffuse 插件不管用可能有以下原因: 1. 未正确安装 SD WebUI 的 Forge 版本:在安装 layer diffuse 插件之前,需要确保已安装正确的 。 2. 插件安装步骤有误:应在 Forge 界面点击“Extensions”,选中“layerdiffusion”插件,然后点击安装,并等待安装完成。 3. 部分功能未完成:透明 img2img 功能尚未完成(大约一周内完成)。 4. 代码处于动态变化阶段:插件的代码非常动态,可能在接下来的一个月内发生大幅变化。 此信息来自标记狮社区,原文链接:https://mmmnote.com/article/7e8/03/articlee395010da7c846a3.shtml
2025-01-29
stablediffusion学习
以下是关于系统学习 Stable Diffusion(SD)的相关内容: 学习 SD 的提示词: 学习 Stable Diffusion 的提示词是一个系统性的过程,需要理论知识和实践经验相结合。具体步骤如下: 1. 学习基本概念:了解 Stable Diffusion 的工作原理和模型架构,理解提示词如何影响生成结果,掌握提示词的组成部分(主题词、修饰词、反面词等)。 2. 研究官方文档和教程:通读 Stable Diffusion 官方文档,了解提示词相关指南,研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例:熟悉 UI、艺术、摄影等相关领域的专业术语和概念,研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧:学习如何组合多个词条来精确描述想要的效果,掌握使用“()”、“”等符号来控制生成权重的技巧,了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈:使用不同的提示词尝试生成各种风格和主题的图像,对比提示词和实际结果,分析原因,总结经验教训,在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库:根据主题、风格等维度,建立自己的高质量提示词库,将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿:关注 Stable Diffusion 的最新更新和社区分享,及时掌握提示词的新技术、新范式、新趋势。 学习 SD 的 Web UI: 学习 Stable Diffusion Web UI 可以按照以下步骤进行: 1. 安装必要的软件环境:安装 Git 用于克隆源代码,安装 Python 3.10.6 版本,确保勾选“Add Python 3.10 to PATH”选项,安装 Miniconda 或 Anaconda 创建 Python 虚拟环境。 2. 克隆 Stable Diffusion Web UI 源代码:打开命令行工具,输入命令 git clone https://github.com/AUTOMATIC1111/stablediffusionwebui.git,将源代码克隆到本地目录。 3. 运行安装脚本:进入 stablediffusionwebui 目录,运行 webuiuser.bat 或 webui.sh 脚本,它会自动安装依赖项并配置环境,等待安装完成,命令行会显示 Web UI 的访问地址。 4. 访问 Web UI 界面:复制命令行显示的本地 Web 地址,在浏览器中打开,即可进入 Stable Diffusion Web UI 的图形化界面。 5. 学习 Web UI 的基本操作:了解 Web UI 的各种设置选项,如模型、采样器、采样步数等,尝试生成图像,观察不同参数对结果的影响,学习使用提示词(prompt)来控制生成效果。 6. 探索 Web UI 的扩展功能:了解 Web UI 支持的各种插件和扩展,如 Lora、Hypernetwork 等,学习如何导入自定义模型、VAE、embedding 等文件,掌握图像管理、任务管理等技巧,提高工作效率。 通过这些步骤,相信您可以快速上手 Stable Diffusion Web UI,开始探索 AI 绘画的乐趣。后续还可以深入学习 Stable Diffusion 的原理,以及在不同场景中的应用。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-01-16
有什么AI模型可以制作瞬息宇宙?比如Stable Diffusion,还有别的吗?
以下是一些可以用于制作类似效果的 AI 模型: 1. Adobe Firefly:内置在各种 Adobe 产品中,不过在质量方面稍逊于 DALLE 和 Midjourney,但它只使用有权使用的图像进行训练。 2. Stable Diffusion:开源模型,可以在任何高端计算机运行。开始时需要学会正确制作提示,一旦掌握能产生很好的结果,尤其适合将 AI 与其他源的图像结合。 3. DALLE:来自 OpenAI,已纳入 Bing(需使用创意模式)和 Bing 图像创建器,系统可靠但效果比 Midjourney 稍差。 4. Midjourney:2023 年中期最好的系统,学习曲线最低,只需键入特定指令就能得到很好的结果,需要 Discord。 此外,在游戏制作领域,已经出现了用于游戏中几乎所有资产的生成式人工智能模型,从 3D 模型到角色动画,再到对话和音乐。但文中未提及具体的模型名称。
2025-01-10
stable diffusion和国内的这些AI绘画的模型有什么区别
Stable Diffusion 和国内的 AI 绘画模型主要有以下区别: 1. 数据集和学习方式: 在线的国内模型可以访问庞大且不断更新扩展的数据集,还能实时从用户的弱监督学习中获得反馈,从而不断调整和优化绘画策略。而 Stable Diffusion 通常受限于本地设备的计算能力,其数据集和学习反馈相对有限。 2. 计算能力: 在线的国内模型能利用云计算资源进行大规模并行计算,加速模型的训练和推理过程。Stable Diffusion 受本地设备计算能力限制,性能可能不如在线模型。 3. 模型更新: 在线的国内模型可以随时获得最新的版本和功能更新,更好地适应不断变化的绘画风格和技巧。Stable Diffusion 的模型更新相对较慢。 4. 协同学习: 在线的国内模型可以从全球范围内的用户中学习,更好地理解各种绘画风格和技巧。Stable Diffusion 则只能依赖于有限的本地模型,对绘画可能性的了解可能不够全面。 例如,Niji·journey 5 在二次元角色设计领域就展现出比 Stable Diffusion 更强大的性能和实用性。同时,国内还有 DeepSeek、阿里巴巴的 Qwen2 系列、清华大学的 OpenBMB 项目等在不同方面表现出色的模型。
2025-01-08
Stable Diffusion 学习教程
以下是关于 Stable Diffusion 学习的教程: 学习提示词: 1. 学习基本概念:了解 Stable Diffusion 的工作原理和模型架构,理解提示词如何影响生成结果,掌握提示词的组成部分(主题词、修饰词、反面词等)。 2. 研究官方文档和教程:通读 Stable Diffusion 官方文档,研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例:熟悉 UI、艺术、摄影等相关领域的专业术语和概念,研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧:学习如何组合多个词条来精确描述想要的效果,掌握使用“()”、“”等符号来控制生成权重的技巧,了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈:使用不同的提示词尝试生成各种风格和主题的图像,对比提示词和实际结果,分析原因,总结经验教训,在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库:根据主题、风格等维度,建立自己的高质量提示词库,将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿:关注 Stable Diffusion 的最新更新和社区分享,及时掌握提示词的新技术、新范式、新趋势。 核心基础知识: 1. Stable Diffusion 系列资源。 2. 零基础深入浅出理解 Stable Diffusion 核心基础原理,包括通俗讲解模型工作流程(包含详细图解)、从 0 到 1 读懂模型核心基础原理(包含详细图解)、零基础读懂训练全过程(包含详细图解)、其他主流生成式模型介绍。 3. Stable Diffusion 核心网络结构解析(全网最详细),包括 SD 模型整体架构初识、VAE 模型、UNet 模型、CLIP Text Encoder 模型、SD 官方训练细节解析。 4. 从 0 到 1 搭建使用 Stable Diffusion 模型进行 AI 绘画(全网最详细讲解),包括零基础使用 ComfyUI 搭建推理流程、零基础使用 SD.Next 搭建推理流程、零基础使用 Stable Diffusion WebUI 搭建推理流程、零基础使用 diffusers 搭建推理流程、生成示例。 5. Stable Diffusion 经典应用场景,包括文本生成图像、图片生成图片、图像 inpainting、使用 controlnet 辅助生成图片、超分辨率重建。 6. 从 0 到 1 上手使用 Stable Diffusion 训练自己的 AI 绘画模型(全网最详细讲解),包括训练资源分享、模型训练初识、配置训练环境与训练文件。 其他资源: 1. 了解 Stable diffusion 是什么: 。 2. 入门教程: 。 3. 模型网站:C 站 。 4. 推荐模型:人像摄影模型介绍:https://www.bilibili.com/video/BV1DP41167bZ 。
2025-01-06
Stable Diffusion、comfyui
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,您可以将其想象成集成了 stable diffusion 功能的 substance designer。它具有以下特点: 优势: 对显存要求相对较低,启动和出图速度快。 生成自由度更高。 可以和 webui 共享环境和模型。 能搭建自己的工作流程,可导出流程并分享,报错时能清晰发现错误所在。 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势: 操作门槛高,需要有清晰的逻辑。 生态没有 webui 丰富(但常用的都有),也有一些针对 Comfyui 开发的有趣插件。 其生图原理如下: 基础模型:ComfyUI 使用预训练的扩散模型作为核心,通常是 Stable Diffusion 模型,包括 SD1.5、SD2.0、SDXL、SD3、FLUX 等。 文本编码:当用户输入文本提示时,ComfyUI 首先使用 CLIP 文本编码器将文本转换为向量表示,以捕捉文本的语义信息。 Pixel Space 和 Latent Space: Pixel Space(像素空间):图的左边表示输入图像的像素空间,在 ComfyUI 中,对应于“图像输入”模块或直接从文本提示生成的随机噪声图像,生成过程结束时会将处理后的潜在表示转换回像素空间生成最终图像。 Latent Space(潜在空间):ComfyUI 中的许多操作都在潜在空间中进行,如 KSampler 节点执行采样过程,通过节点调整对潜在空间的操作,如噪声添加、去噪步数等。 扩散过程(Diffusion Process): 噪声的生成和逐步还原:扩散过程表示从噪声生成图像的过程,在 ComfyUI 中通常通过调度器控制,如 Normal、Karras 等,可通过“采样器”节点选择不同调度器控制处理噪声和逐步去噪回归到最终图像。 时间步数:在生成图像时,扩散模型会进行多个去噪步,通过控制步数影响图像生成的精细度和质量。 官方链接:https://github.com/comfyanonymous/ComfyUI (内容由 AI 大模型生成,请仔细甄别)
2025-01-06
小白怎么最快时间熟悉使用各种AI热门工具
以下是帮助小白最快熟悉使用各种 AI 热门工具的方法: 1. 对于不太熟悉 AI 常见工具的,可以先阅读。 2. 了解 Coze 工具: 可以直接向 AI 询问相关问题。 Coze 上手极其简单,更新特别快,插件比较多。 能一键生成思维导图等,还能通过工作流实现多种功能,如靠谱搜索、搜索结果出图等。感受各种插件和工作流组合的效果,可参考。 3. 对于普通人直观初接触 AI,主要有两个方面: 最低成本能直接上手试的工具是什么,自己能否试试。 现在最普遍/最好的工具是什么、能达到什么效果。 为了更便捷展示 AI 能力,可选择聊天工具、绘画工具、视频工具、音乐工具展开说明。
2025-02-06
怎么使用chat-gpt
以下是关于如何使用 ChatGPT 的相关内容: 对于产品经理: 1. 背景前提:若不是专业的 BI 工程师,对数据治理、SQL 优化思路等不太了解,可跟着 GPT 的提示及查询资料逐步进行。本次使用的是免费的 ChatGPT3.5 版本。 2. 完整使用过程: Step1:旧代码输入 首先将需要优化的旧代码输入到 ChatGPT 模型中,若直接粘贴 1900 行的旧代码会提示报错,可进行分次输入。分段输入后再联合,让 GPT 理解旧代码实现的效果以及熟悉查询表和字段,方便后续生成优化代码时可直接复制粘贴到数据库中运行。 Step2:需求及现状问题输入 在完成第一步的原 SQL 输入后,将真实的业务需求场景以及现在的问题输入给 GPT。这能帮助 GPT 更好地理解旧代码背后的真实业务需求,结合旧代码运行的问题,让 GPT 进一步给出针对性的优化建议,输出更符合需求的代码。此过程可能有好几轮的输入输出,需要不断强化 GPT 对真实需求的认知。 Step3:根据优化结果不断调试 在输入完旧代码、需求和问题之后,GPT 模型会给出新的代码。需要不断地根据 GPT 的结果进行调试和优化,直到生成满足需求的新代码。过程可能比较繁琐,包括查资料、报错、纠正 GPT、不断补充需求细节等,需要有一定的耐心。 对于英文学习: 推特博主的英语老师制作了一个 GPT 工作流,基于每个人的日常需求生成定制素材。具体使用方法: 1. 先把整段 prompt 喂给 ChatGPT(建议开一个新的对话专门用来学习英文)。 2. 然后 ChatGPT 会扮演你的美国好朋友,每当输入英文和中文表达,ChatGPT 都会返回更地道的表达,并且对其中的俚语部分加粗,更容易帮助学习和记忆。同时针对发送的话题,ChatGPT 会举一反三,结合欧美流行的内容给出更多例子,帮助更好理解和记忆。 3. 建议使用方式:开一个窗口,复制 prompt;手机端打开这条历史记录;点右上角的耳机图标,开始打电话;打电话又能练口语又能练听力;结束之后看回顾,可以帮助阅读。群友也写了一个类似的版本,并放在讯飞上做了尝试,效果不错。
2025-02-06
deepseek使用手册
以下是关于 DeepSeek 的使用手册: 使用地址:https://chat.deepseek.com/(有手机客户端) 模型下载地址:https://github.com/deepseekai/DeepSeekLLM?tab=readmeovfile API 文档地址:https://apidocs.deepseek.com/zhcn/ DeepSeek 的提示词使用方法比较长,单独列了一篇 公司简介: DeepSeek(深度求索)是一家专注于人工智能基础技术研究的科技公司,致力于探索 AGI(通用人工智能)的实现路径。 成立时间:2023 年 总部:中国杭州 定位:聚焦大模型研发与应用,提供高效、安全、可控的 AI 技术解决方案。 效果对比: 用 Coze 做了个小测试,大家可以对比看看,相关视频: 如何使用: Step1:搜索 www.deepseek.com,点击“开始对话” Step2:将装有提示词的代码发给 Deepseek Step3:认真阅读开场白之后,正式开始对话 设计思路: 1. 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担 2. 通过提示词文件,让 DeepSeek 实现:同时使用联网功能和深度思考功能 3. 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性 4. 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改 5. 用 XML 来进行更为规范的设定,而不是用 Lisp(对我来说有难度)和 Markdown(运行下来似乎不是很稳定) 完整提示词:v 1.3 特别鸣谢: 李继刚:【思考的七把武器】在前期为我提供了很多思考方向 Thinking Claude:这个项目是我现在最喜欢使用的 Claude 提示词,也是我设计 HiDeepSeek 的灵感来源 Claude 3.5 Sonnet:最得力的助手
2025-02-06
deepseek使用
以下是关于 DeepSeek 的使用相关信息: 效果对比:用 Coze 做了小测试,可对比查看 如何使用: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 DeepSeek。 认真阅读开场白之后,正式开始对话。 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担。 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改。 用 XML 来进行更为规范的设定,而不是用 Lisp(对我来说有难度)和 Markdown(运行下来似乎不是很稳定)。 完整提示词:v 1.3 特别鸣谢:李继刚的【思考的七把武器】在前期为提供了很多思考方向;Thinking Claude 是现在最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源;Claude 3.5 Sonnet 是最得力的助手。 公司简介:DeepSeek(深度求索)是一家专注于人工智能基础技术研究的科技公司,致力于探索 AGI(通用人工智能)的实现路径。成立时间为 2023 年,总部在中国杭州,定位是聚焦大模型研发与应用,提供高效、安全、可控的 AI 技术解决方案。 相关链接: 使用地址:https://chat.deepseek.com/(有手机客户端) 模型下载地址:https://github.com/deepseekai/DeepSeekLLM?tab=readmeovfile API 文档地址:https://apidocs.deepseek.com/zhcn/ DeepSeek 的提示词使用方法: 此外,在生成 2048 游戏代码方面,DeepSeek 是新手推荐的选择,网址为 https://www.deepseek.com/zh ,国内能访问,网页登录方便,目前完全免费。点击开始对话,左边选择代码助手即可。
2025-02-06
如何快速掌握ai的使用
以下是快速掌握 AI 使用的方法: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,可根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 对于小白快速掌握 Python 结合 AI 的方法: 1. 掌握最少必要知识,尽快开始并度过这个过程。 2. 参考:。 3. 结合 ChatGPT,不懂的都可以问,注意提示词。 另外,还有一份 20 分钟上手 Python + AI 的简明入门,旨在让大家更快掌握 Python 和 AI 的相互调用,并在接下来的 20 分钟内,循序渐进完成以下任务: 1. 完成一个简单程序。 2. 完成一个爬虫应用,抓取公众号文章。 3. 完成一个 AI 应用,为公众号文章生成概述。
2025-02-06
大学老师可以使用哪些人工智能软件帮助提升教学效率
以下是一些大学老师可以使用来提升教学效率的人工智能软件和相关应用: 1. 个性化学习计划方面:能够分析学生表现,根据知识差距和个人学习风格创建定制的学习路径。 2. 课程开发/学习沉浸方面:包括生成模型生成图像、文本和视频,转化为补充教育材料、作业和练习题。例如可以想象与牛顿本人讨论牛顿第三定律,或者在亚利桑那州立大学的 VR 实验室中学习生物学。 3. 社会互动/沟通方面:与新的 AI 工具(如口语形式的 GPT4o)结合学习,可以为学生提供更好的准备工具,以应对依赖口语/展示沟通的高等教育和职场环境。 4. 备课助手方面:如星火教师助手、知网备课助手。 5. 作文批改评分方面:BigModel 智谱 AI 大模型开放平台可以凭借其卓越的数据处理能力以及广泛的应用潜力,为教师提供帮助。 6. 语言学习方面:像 Speak、Quazel 和 Lingostar 这样的应用可以作为 AI 驱动的语言老师,能够实时交流,并对发音或措辞给予反馈。 7. 数学学习方面:Photomath 和 Mathly 这样的应用可以指导学生解决数学问题。 8. 历史学习方面:PeopleAI 和 Historical Figures 可以通过模拟与杰出人物的聊天来教授历史。 9. 写作方面:Grammarly、Orchard 和 Lex 等工具可以帮助学生克服写作难题,并提升写作水平。 10. 演示文稿制作方面:Tome 和 Beautiful.ai 可以协助创建演示文稿。
2025-02-06