直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

SD 在线上哪里可以使用?

回答

以下是一些可以在线使用 SD 的地方:

  1. 哩布哩布 AI:其在线 SD 界面与本地部署的界面区别不大,每天有一百次的生成次数,且已集成最新的 SDXL 模型。
  2. stability AI 公司推出的 Clipdrop(https://clipdrop.co/stable-diffusion):和 midjourney 的使用方法相似,输入提示词即可直接生成,每天免费 400 张图片,但需要排队,出四张图大概需要二三十秒的时间。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

【SD】向未来而生,关于SDXL你要知道事儿

在了解了关于SD的本地部署之后,很多小伙伴已经心痒难耐了。但是因为手中的电脑配置不够,而体验不了最新的模型怎么办呢?没关系,网上还有一些可以在线体验的地方。一个是我们的哩布哩布AI,它的在线SD界面,和我们本地部署的界面区别不大,每天可以有一百次的生成次数。而且,它已经集成了最新的SDXL模型,可以帮助我们很好的体验这个船新的版本。第二个是到stability AI公司推出的Clipdrop上进行生成——https://clipdrop.co/stable-diffusion它和midjourney的使用方法很像,只需要输入提示词就可以直接生成,每天免费400张图片,需要排队,出四张图大概需要二三十秒的时间。作为官网推出的产品,效果也是杠杠的。

【SD】向未来而生,关于SDXL你要知道事儿

SDXL的大模型分为两个部分:第一部分,base+refiner是必须下载的,base是基础模型,我们使用它进行文生图的操作;refiner是精炼模型,我们使用它对文生图中生成的模型进行细化,生成细节更丰富的图片。第二部分,是SDXL还有一个配套的VAE模型,用于调节图片的画面效果和色彩。这三个模型,我已经放入了云盘链接中,大家可以关注我的公众号【白马与少年】,然后回复【SDXL】获取下载链接。想要在webUI中使用SDXL的大模型,首先我们要在秋叶启动器中将webUI的版本升级到1.5以上。接下来,将模型放入对应的文件夹中,base和refiner放在“……\sd-webui-aki-v4.2\models\Stable-diffusion”路径下;vae放在“……\sd-webui-aki-v4.2\models\VAE”路径下。完成之后,我们启动webUI,就可以在模型中看到SDXL的模型了。我们正常的使用方法是这样的:先在文生图中使用base模型,填写提示词和常规参数,尺寸可以设置为1024*1024,进行生成。我这边使用了一个最简单的提示词“1girl”,来看看效果。生成的图片大家可以看一下,我觉得是相当不错的。我知道大家心里可能会想——“就这,还好吧,也没有那么惊艳吧?”,那么,我用同样的参数再给你画一幅sd1.5版本的图像,你就能看出进步有多大了。是不是没有对比就没有伤害?SDXL,真香!还没完,我们到现在还只使用了一个base模型,接下来,将图片发送到图生图当中,大模型切换为“refiner”,重绘幅度开小一点,再次点击生成。

【SD】向未来而生,关于SDXL你要知道事儿

可以看到细节又提升了不少,可惜的是,现在还不能配合tile来使用。在生成时间上,我的显卡是4080ti,速度在十秒左右。所以sdxl对于高配电脑还是可以接受的,但配置较低的朋友需要自己去测试一下了。当然,有人可能会说,这个操作好麻烦,生成一张图要去两个界面来回倒腾。在这里,我给大家再介绍一款插件。我们来到扩展列表中,搜索refine,点击安装插件,然后重启。启用这个插件,就可以让我们在文生图的界面直接使用refine模型,进一步到位的绘画。我填写一段正向提示词:a girl looks up at the sky in the city of cyberpunk,close-up,wearing a helmet,fantasy elements,game original,starry_sky,点击生成,生产过程中的显存使用情况,显存基本跑满。最终的生成图像用时36秒,效果我觉得非常好,很难想象这是曾经的sd能够直出的效果。然后,我用同样的提示词在midjourney里面进行了生成。从心里的实话来说,我觉得midjourney的美感把握和图像的细节绘制还是要更胜一筹的。但对于SD而言,它的优势并不在于美图直出,而是它强大的可操控性,只要继续在SDXL上去发展,它的未来是不可限量的。

其他人在问
SD 安装包
以下是关于 SD 安装包的相关内容: 一、Roop 插件安装 1. 安装时间较长,需耐心等待。安装好后,打开 SD 文件目录下的特定文件夹,在地址栏输入“cmd”并回车。 2. 在打开的 dos 界面中,粘贴“python m pip install insightface==0.7.3 user”代码,自动安装 insightface。若此阶段出错,建议下载最新的秋叶 4.2 整合包(6 月 23 号更新),后台回复【SD】可在云盘下载。 3. 安装完成后,重新打开启动器,后台会继续下载模型,全程需科学上网。 4. 选用真实系模型“realisticVisionV20”,启用 ROOP 插件,选择要替换的人物照片,面部修复选择“GFPGAN”,根据需求设置右边参数和放大算法,点击生成。若人脸像素偏低,可发送到“图生图”并使用 controlnet 中的 tile 模型重绘。 5. 想要插件可添加公众号【白马与少年】回复【SD】。 二、SD 云端部署 1. 部署流程 浏览器上按照腾讯云>控制台>云服务器的路径找到购买的实例,点击启动,输入购买时设置的密码进入远程的 Windows 系统环境,安装显卡驱动、配置环境变量。 2. 安装显卡驱动 用内置的 IE 或下载 Chrome,打开英伟达网站,根据购买机器时选定的显卡型号、Windows 版本号下载对应的驱动并安装。 3. 配置环境变量 驱动安装完成后,复制驱动所在目录(一般是在「C:\\Program Files\\NCIDIA Corporation」),找到环境变量配置入口(控制面板>系统和安全>系统),选择「高级系统设置」,在「系统变量」里的 Path 环境变量中新建并粘贴驱动安装地址保存。 4. 下载安装 SD 整合包 以秋叶的 SD 整合包为例,下载地址为:https://pan.baidu.com/s/1uavAJJdYYWhpnfjwQQDviQ?pwd=a123 ,提取码:a123。建议在服务器上安装提高下载速度的工具或有百度会员。安装后打开安装包一级目录,双击启动器运行依赖,安装完成后即可启动 SD。 三、Roop 换脸插件安装的其他步骤 1. 将 inswapper_128.onnx 文件移动到“sdwebuiakiv4\\models\\roop ”目录下(若没有该目录则创建)。 2. 将.ifnude 和.insightface 目录移动到 C:\\Users\\您的用户名目录下(用户名因人而异)。 3. 启动 webui,它会同步内部组件,可能需 5 30 分钟,耐心等待。加载完成后在浏览器打开,可在图生图、文生图中下面列表标签看到 roop V0.0.2。 特别提醒:此插件谨慎使用,切勿触犯法律。
2024-11-22
sd 人物的模样及服装等统一
以下是关于人物模样及服装的 SD 关键词描述: 人物类型:肌肉公主、舞者、啦啦队等。 性别:单人,包括女人和男人。 身体特征:有光泽的皮肤、苍白皮肤、白皙皮肤等。 头发样式:直发、卷发、波浪卷等。 头发颜色:挑染、内层挑染、头发内变色等。 头发长度:长发、很短的头发、短发等。 具体人物:初音未来、绫波(碧蓝航线)、比那名居天子、蛮啾(碧蓝航线)、爱宕、时崎狂三、洛琪希、西住美穗、星街彗星、时雨、蒂法·洛克哈特、中野一花、南达科他州(碧蓝航线)、白上吹雪、白井黑子、岛风等。 发型特点:身前,单侧编发,人妻发型;挑染,条纹发色;短碎发等。 面部特征:死鱼眼、晒痕、眼睛发光、垂耳(狗)等。
2024-11-20
SD 下载
以下是关于 SD 下载的相关内容: 1. 模型下载与安装: 二维码做好后,进入 SD 版块,需下载两个 SD 的 ControlNET 模型和一个预处理器。您可以添加公众号【白马与少年】,回复【SD】获取。 在【QR ControlNET】的文件夹中,后缀为【.yaml】的放在“……\\sdwebuiakiv4.2\\extensions\\sdwebuicontrolnet\\models”路径下,后缀为【.safetensors】的放在“……\\sdwebuiakiv4.2\\models\\ControlNet”路径下。 系统要求为 Win10 或 Win11。Win 系统查看配置:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格;查看电脑配置时,需满足 3 个要求(推荐):电脑运行内存 8GB 以上,是英伟达的显卡,显卡内存 4GB 以上。 配置达标可跳转至对应安装教程页。 如果不会科学上网,也可去启动器的界面直接下载模型。将下载的大模型放在根目录的【……\\models\\Stablediffusion】文件夹下,在左上角的模型列表中选择(看不到就点旁边的蓝色按钮刷新)。 2. 其他相关文件下载与放置: VAE 可直接在启动器里面下载,下载的 VAE 放在根目录的【……\\models\\VAE】文件夹。 Embedding 可在 C 站通过右上角的筛选 Textual Inversion 找到,放在根目录下的 embeddings 文件夹里。
2024-11-18
sd 下载
以下是关于 SD 下载的相关内容: 1. 模型安装设置: 二维码做好后,进入 SD 版块,需下载两个 SD 的 ControlNET 模型和一个预处理器。可添加公众号【白马与少年】,回复【SD】获取。 在【QR ControlNET】的文件夹中,后缀为【.yaml】的放在“……\\sdwebuiakiv4.2\\extensions\\sdwebuicontrolnet\\models”路径下,后缀为【.safetensors】的放在“……\\sdwebuiakiv4.2\\models\\ControlNet”路径下。 选择模型,填入关键词,设置迭代步数为 15,采样选择 DPM++ 2M Karras,图像大小设置为 768768。 2. SD 的安装: 系统需为 Win10 或 Win11。 Win 系统查看配置: 查看电脑系统:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。 查看电脑配置:检查电脑能否带动 SD,需满足 3 个要求(推荐):电脑运行内存 8GB 以上,是英伟达的显卡,显卡内存 4GB 以上。打开任务管理器(同时按下 ctrl+shift+esc),查看电脑运行内存和显卡内存(显存)。8GB 运行内存可勉强运行 SD,推荐 16GB 以上运行内存;4GB 显存可运行 SD,推荐 8GB 以上显存。 配置达标可跳转至对应安装教程页: 。 配置不够可选择云端部署(Mac 也推荐云端部署): 。 备选:SD 难的话,可先试试简单的无界 AI: 。 3. 软件原理傻瓜级理解: 不会科学上网,可在启动器界面直接下载模型,下载的大模型放在根目录的【……\\models\\Stablediffusion】文件夹下,在左上角模型列表中选择,看不到就点旁边蓝色按钮刷新。 VAE 相当于给模型增加提高饱和度的滤镜和局部细节微调,有的大模型自带 VAE,可不用再加。VAE 可在启动器里下载,放在根目录的【……\\models\\VAE】文件夹下。 Embedding 是提示词打包功能,可在 C 站通过右上角筛选 Textual Inversion 找到,放在根目录下的 embeddings 文件夹里。 LORA 功能强大,可将人物或物品接近完美复刻进图像中,使用时需注意版权和法律问题。
2024-11-18
SD好的模型分享
以下是为您分享的关于 SD 模型的相关内容: 对于 SDXL 的 ControlNet 模型中的 Canny 硬边缘模型,有不同型号,如 4080ti 笔记本测试中,12G 显存下,sdxl base+refiner 模型,使用 diffusers 的 2.5Gfull 模型绘制 10241024 尺寸图片需 2 分 57 秒,320Mb 的 small 模型用时 34s,质量差距不大但时间优势明显。其他作者如 kohya 的用时 33 秒,更接近真实质感。sai 的 128lora 和 256lora 分别用时 39 秒和 1 分 08 秒,偏绘画感觉。t2i 的用时 34s,偏插画。关闭 refiner 能节省一半左右时间,平均 17 秒左右。 在 Depth 深度模型测试中,图形尺寸 6641024,diffusers 的 full 模型用时 2 分 48 秒,small 模型用时 23s,kohya 模型用时 42 秒,sai 模型用时 1 分 12 秒,sargezt 模型用时 1 分 52 秒。 用 Stable Diffusion 时,要先确定照片风格,如生成真人 AI 小姐姐可选用 chilloutmix 的大模型。部分常用大模型可在分享的链接中根据文件夹名称找到。文章第三部分会详细介绍模型下载位置和存放位置。 对于 ControlNet 中线条约束类的预处理器和模型,作者已整理好,如需获取可添加公众号【白马与少年】回复【SD】。同时作者还附上一张图帮助理解 ControlNet 模型的命名规则。
2024-11-17
sd模型
Stable Diffusion(SD)模型是由 Stability AI 和 LAION 等公司共同开发的生成式模型,参数量约 1B,可用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等任务。 文生图任务是将一段文本输入到 SD 模型中,经过一定迭代次数生成符合文本描述的图片。例如输入“天堂,巨大的,海滩”,模型生成美丽沙滩的图片。 图生图任务在输入文本基础上再输入一张图片,模型根据文本提示将输入图片重绘以更符合文本描述。比如在之前生成的沙滩图片上添加“海盗船”。 输入的文本信息需通过“桥梁”CLIP Text Encoder 模型转换为机器数学信息。该模型作为 SD 模型中的前置模块,将输入文本信息编码,生成 Text Embeddings 特征矩阵,用于控制图像生成。 CLIP 模型包含 Text Encoder 和 Image Encoder 两个模型,在 Stable Diffusion 中主要使用 Text Encoder 模型。它将输入的文本 Prompt 编码转换成 Text Embeddings(文本的语义信息),通过 UNet 网络中的 CrossAttention 模块嵌入 Stable Diffusion 中作为 Condition,对生成图像的内容进行控制与引导。目前 SD 模型使用的是中的 Text Encoder 模型。 CLIP ViTL/14 中的 Text Encoder 是只包含 Transformer 结构的模型,由 12 个 CLIPEncoderLayer 模块组成,模型参数大小是 123M,输出的 Text Embeddings 维度为 77x768。 以下是相关资源获取方式: SD 模型权重百度云网盘:关注 Rocky 的公众号 WeThinkIn,后台回复:SD 模型,即可获得包含多种模型权重的资源链接。 SD 保姆级训练资源百度云网盘:关注 Rocky 的公众号 WeThinkIn,后台回复:SDTrain,即可获得包含数据处理、模型微调训练及基于 SD 的 LoRA 模型训练代码等全套资源。 Stable Diffusion 中 VAE,UNet 和 CLIP 三大模型的可视化网络结构图下载:关注 Rocky 的公众号 WeThinkIn,后台回复:SD 网络结构,即可获得网络结构图资源链接。
2024-11-17
stablediffusion在线webui如何开发
开发 Stable Diffusion 在线 Web UI 可以按照以下步骤进行: 1. 安装必要的软件环境: 安装 Git 用于克隆源代码。 安装 Python 3.10.6 版本,确保勾选“Add Python 3.10 to PATH”选项。 安装 Miniconda 或 Anaconda 创建 Python 虚拟环境。 2. 克隆 Stable Diffusion Web UI 源代码: 打开命令行工具,输入命令 git clone https://github.com/AUTOMATIC1111/stablediffusionwebui.git ,将源代码克隆到本地目录。 3. 运行安装脚本: 进入 stablediffusionwebui 目录,运行 webuiuser.bat 或 webui.sh 脚本,它会自动安装依赖项并配置环境。等待安装完成,命令行会显示 Web UI 的访问地址。 4. 访问 Web UI 界面: 复制命令行显示的本地 Web 地址,在浏览器中打开,即可进入 Stable Diffusion Web UI 的图形化界面。 5. 学习 Web UI 的基本操作: 了解 Web UI 的各种设置选项,如模型、采样器、采样步数等。尝试生成图像,观察不同参数对结果的影响。学习使用提示词(prompt)来控制生成效果。 6. 探索 Web UI 的扩展功能: 了解 Web UI 支持的各种插件和扩展,如 Lora、Hypernetwork 等。学习如何导入自定义模型、VAE、embedding 等文件。掌握图像管理、任务管理等技巧,提高工作效率。 在完成了依赖库和 repositories 插件的安装后,还需要进行以下配置: 将 Stable Diffusion 模型放到/stablediffusionwebui/models/Stablediffusion/路径下。然后到/stablediffusionwebui/路径下,运行 launch.py 即可。运行完成后,将命令行中出现的输入到本地网页中,即可打开 Stable Diffusion WebUI 可视化界面。进入界面后,在红色框中选择 SD 模型,在黄色框中输入 Prompt 和负向提示词,在绿色框中设置生成的图像分辨率(推荐设置成 768x768),然后点击 Generate 按钮进行 AI 绘画。生成的图像会展示在界面右下角,并保存到/stablediffusionwebui/outputs/txt2imgimages/路径下。 如果选用 Stable Diffusion 作为 AIGC 后台,需要注意: DallE 缺乏室内设计能力,MidJourney 出图效果好但无法基于现实环境重绘,Stable Diffusion 出图成功率较低,但可调用 controlnet 的 MLSD 插件捕捉现实环境线条特征做二次设计。安装 Stable Diffusion WEB UI 后,修改 webuiuser.bat 文件加上 listen 和 API 参数,让 Stable Diffusion 处于网络服务状态。代码如下: @echo off set PYTHON= set GIT= set VENV_DIR= set COMMANDLINE_ARGS=xformers nohalfvae listen api git pull call webui.bat 让 Stable Diffusion 具有 AI 室内设计能力的步骤: 1. 下载室内设计模型(checkpoint 类型),放到 stable diffusion 目录/models/stablediffusion 下面。 2. 安装 controlnet 插件,使用 MLSD 插件,实现空间学习。 通过 API 方式让前端连接到 Stable Diffusion 后台的具体代码在前端开发详细展开,API 参考文档可选读。
2024-11-01
文字在线生成PPT
以下为您介绍文字在线生成 PPT 的相关内容: 国内有无需魔法的网站“闪击”,地址为:https://ppt.isheji.com/?code=ysslhaqllp&as=invite 。使用时先选择模版,输入大纲和要点(由于闪击的语法和准备的大纲内容可能有偏差,可以参考官方使用指南:https://zhuanlan.zhihu.com/p/607583650 ,将大纲转换成适配闪击的语法),然后点击文本转 PPT 并在提示框中选择确定即可生成 PPT,还可进行在线编辑,但导出有会员限制。 “增强版 Bot”也是一个基于 AI 驱动的智能创作平台,能实现一站式内容生成,包括图片、PPT、PDF 等。在对话框输入诉求,如“帮我生成一篇包含以上架构风格的完整 PPT”,即可生成幻灯片内容及相关模板选择。 目前市面上大多数 AI 生成 PPT 按照以下思路完成设计和制作: 1. AI 生成 PPT 大纲 2. 手动优化大纲 3. 导入工具生成 PPT 4. 优化整体结构 推荐您阅读 2 篇市场分析文章作为扩展: 1. 《》 2. 《》 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-10-30
有没有直接抓取在线视频内容关键点的的AI工具
目前有一些可以抓取在线视频内容关键点的方法和相关工具: 1. 对于将小说做成视频的情况: 可以使用 AI 工具如 ChatGPT 分析小说内容,提取关键场景、角色和情节。 利用工具如 Stable Diffusion 或 Midjourney 生成角色和场景的视觉描述。 使用 AI 图像生成工具创建角色和场景的图像。 将提取的关键点和生成的图像组合成视频脚本。 利用 AI 配音工具如 Adobe Firefly 将小说文本转换为语音,添加背景音乐和音效。 使用视频编辑软件如 Clipfly 或 VEED.IO 将图像、音频和文字合成为视频,并进行后期处理。 2. 对于总结 B 站视频: 如果视频有字幕,可以安装油猴脚本如,下载字幕。 将字幕内容复制发送给 AI 如 GPTs 进行总结。 3. 关于视频配音效的 AI 工具: 例如 Vidnoz AI,支持 23 多种语言的配音,音质高保真,支持文本转语音和语音克隆功能,提供语音参数自定义和背景音乐添加工具,并提供面向个人和企业的经济实惠的定价方案。 需要注意的是,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。
2024-10-28
ai与在线教育结合的成功案例
以下是一些 AI 与在线教育结合的成功案例: 教学方面:帮助学生做好组会准备,使用 Claude + Gamma.app 节省时间。 调研方面:用特定的 prompt ,2 小时帮同学完成 3 篇调研报告;用 ChatGPT 做调研。 医疗方面:蛋白质结构预测和蛋白质合成,AI 加速医疗健康生物制药的研究,在抗癌、抗衰老、早期疾病防治等研究应用中发挥重要作用。 教师方面:AI 赋能教师全场景。 未来教育方面:探讨未来教育如果跟不上 AI 可能出现的裂缝。 化学方面:使用大型语言模型进行自主化学研究。 翻译方面:介绍把一份英文 PDF 完整翻译成中文的 8 种方法。
2024-10-12
如何在线编译PYTHON代码
目前在线编译 Python 代码有多种方式,以下为您介绍几种常见的方法: 1. 在线 Python 编译器网站:例如 repl.it、PythonAnywhere 等,您可以在这些网站上直接编写和运行 Python 代码。 2. Jupyter Notebook:它支持多种编程语言,包括 Python,您可以通过在线平台(如 Google Colab)使用。 希望这些信息对您有所帮助,如果您在使用过程中遇到问题,可以随时向我咨询。
2024-10-11
有在线使用的PPT AI 制作工具
以下是一些在线使用的 PPT AI 制作工具: 1. Gamma:这是一个在线 PPT 制作网站,允许用户通过输入文本和想法提示快速生成幻灯片。它支持嵌入多媒体格式,如 GIF 和视频,以增强演示文稿的吸引力。网址:https://gamma.app/ 2. 美图 AI PPT:由知名图像编辑软件“美图秀秀”的开发团队推出。用户通过输入简单的文本描述来生成专业的 PPT 设计,包含丰富的模板库和设计元素,可根据需求选择不同风格和主题的模板,适用于多种场合。网址:https://www.xdesign.com/ppt/ 3. Mindshow:一款 AI 驱动的 PPT 辅助工具,提供自动布局、图像选择和文本优化等智能设计功能,还包括互动元素和动画效果。网址:https://www.mindshow.fun/ 4. 讯飞智文:由科大讯飞推出的 AI 辅助文档编辑工具,利用科大讯飞在语音识别和自然语言处理领域的技术优势,提供智能文本生成、语音输入、文档格式化等功能。网址:https://zhiwen.xfyun.cn/ 此外,还有用户卓 sir 分享的经验,他在完成 PPT 作业时使用了 GPT4、WPS AI 和 chatPPT 这三个工具。同时,在教学中应用生成式人工智能制作 PPT 时,免费工具推荐讯飞智文(http://zhiwen.xfyun.cn),付费工具推荐百度文库,如 Gamma.app 也有自动 PPT 效果。
2024-10-03
如果我想让快速提取网页内容,并将其中的数据提取为表格或文档,我应该使用哪一款AI软件?
以下是一些可以帮助您快速提取网页内容并将数据提取为表格或文档的 AI 软件及相关建议: 1. 利用 AI 搜索与权威网站结合获取关键数据,AI 可辅助提取结构化表格数据或编写抓取程序。但要注意,信息收集过程中,AI 仅作辅助,最终内容需人工主导校验,避免误导性结论。 2. 对于数据处理,可以借助传统工具如 Excel,结合 AI 指导高效操作数据筛选与图表生成。 3. 分析与撰写时,通过整理数据,利用 AI 辅助分析后撰写报告初稿,可指定风格并校验数据与结论准确性。 此外,Mistral 发布了全新聊天应用,基于 Pixtral Large 124B 多模态模型,支持网络搜索、写作画布与 Flux Pro 图像生成功能。其网络搜索工具可获取最新信息,写作画布功能适合文档创作与协作,高质量图像生成工具 Flux Pro 支持免费使用。您可以通过在线体验: 了解更多。
2024-11-22
对于一个什么都不懂的 AI小白,你建议他从哪个AI技能开始学?如何一步步开始强大自己使用AI的能力
对于一个 AI 小白,以下是一些学习建议: 1. 编程语言:可以从 Python、JavaScript 等编程语言开始学习,掌握编程语法、数据结构、算法等基础知识,为后续的 AI 学习打下基础。 2. AI 工具和平台:使用 ChatGPT、Midjourney 等 AI 生成工具,体验 AI 的应用场景。探索面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 3. AI 基础知识: 了解 AI 背景知识,包括基础理论(人工智能、机器学习、深度学习的定义及其关系)、历史发展(回顾 AI 的发展历程和重要里程碑)。 掌握数学基础,如统计学基础(熟悉均值、中位数、方差等统计概念)、线性代数(了解向量、矩阵等基本概念)、概率论(基础的概率论知识,如条件概率、贝叶斯定理)。 熟悉算法和模型,包括监督学习(了解常用算法,如线性回归、决策树、支持向量机(SVM))、无监督学习(熟悉聚类、降维等算法)、强化学习(简介强化学习的基本概念)。 学习评估和调优,了解如何评估模型性能(包括交叉验证、精确度、召回率等),以及如何使用网格搜索等技术优化模型参数。 掌握神经网络基础,理解网络结构(包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)),了解常用的激活函数,如 ReLU、Sigmoid、Tanh。 4. 实践项目:参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动,尝试利用 AI 技术解决生活中的实际问题,培养动手能力。 5. 关注前沿动态:关注 AI 领域的权威媒体和学者,了解 AI 技术的最新进展,思考 AI 技术对未来社会的影响,培养对 AI 的思考和判断能力。 总之,AI 小白可以从编程基础、工具体验、知识学习、实践项目等多个方面入手,全面系统地学习 AI 知识和技能,逐步提升自己使用 AI 的能力。
2024-11-22
如何使用Claude
以下是关于如何使用 Claude 及相关信息的介绍: Claude AI 是由 Anthropic 公司开发的一款基于自然语言处理技术和人工智能算法的聊天机器人,以克劳德·香农(Claude Shannon)的名字命名,能利用先进技术为多种应用提供支持。 使用方法: 1. 操作说明: 使用 Claude 时,输入特定的 Prompt。 输入 Prompt 后,再输入想要解释的中文或英文。 若输出样式不满意,可重新开窗口、修改或刷新原始 Prompt 以找到满意风格,并在此持续对话,会继承该审美。 2. 注册步骤: 访问 Claude 的官方网站。 点击注册或登录界面中的“Sign Up”或“Continue with email”选项。 填写邮箱地址并设置密码,提交表单。 系统会向邮箱发送验证邮件,打开邮件使用其中验证码完成邮箱验证。 注册时若遇到需海外手机号接收验证码的问题,可尝试以下解决方法: 1. 使用虚拟海外号服务,如 SMSActivate、SMSPool 等,购买海外虚拟手机号接收验证码。 2. 借助第三方服务网站如 uiuihao.com 完成注册。 3. 请海外朋友帮忙接收验证码并告知。 完成注册后,若希望升级到 Claude Pro 版本获取更强大功能和更高 API 调用限额,需填写支付信息并选择合适订阅计划。但订阅可能需海外支付方式。 此外,李继刚 10 月 13 日在通往 AGI 之路视频号进行直播分享了「如何与 AI 对话」,视频回放地址为 https://www.bilibili.com/video/BV137mEYcEid 。李继刚还开了公众号,地址为 https://mp.weixin.qq.com/s/ebE3jadXcNEoA0BAwMOkRw 。其介绍了用 Claude 制作生成记忆卡片和创新概念解释器,以创新和通俗易懂的方式帮助初学者快速掌握新概念。在写 Prompt 过程中,可能会感觉到词汇量、审美能力、抽象能力这三项能力的不足。 欢迎大家在评论区贴上自己的测试效果。
2024-11-22
我想要学习AI提示词的使用方法
以下是关于 AI 提示词使用方法的详细介绍: 一、什么是提示词 提示词用于描绘您想要的画面。星流通用大模型与基础模型 F.1、基础模型 XL 使用自然语言(如一个长头发的金发女孩),基础模型 1.5 使用单个词组(如女孩、金发、长头发),并且支持中英文输入。启用提示词优化后,能帮您扩展提示词,更生动地描述画面内容。 二、如何写好提示词 1. 预设词组:小白用户可以点击提示词上方官方预设词组进行生图。 2. 提示词内容准确:包含人物主体、风格、场景特点、环境光照、画面构图、画质等,比如:一个女孩抱着小猫,背景是一面红墙,插画风格、孤独感,高质量。 3. 调整负面提示词:点击提示框下方的齿轮按钮,弹出负面提示词框。负面提示词可以帮助 AI 理解我们不想生成的内容,比如:不好的质量、低像素、模糊、水印。 4. 利用“加权重”功能:可在功能框增加提示词,并进行加权重调节,权重数值越大,越优先。还可以对已有的提示词权重进行编辑。 三、辅助功能 1. 翻译功能:一键将提示词翻译成英文。 2. 删除所有提示词:清空提示词框。 3. 会员加速:加速图像生图速度,提升效率。 四、关于 Prompt 的语法规则 1. Prompt 是一段指令,用于指挥 AI 生成您所需要的内容,每个单独的提示词叫 tag(关键词)。 2. 支持的语言为英语(不用担心英语不好的问题,),另外 emoji 也可以用。 3. 语法规则:用英文半角符号逗号,来分隔 tag。注意逗号前后有空格或者换行都不影响效果。改变 tag 权重有两种写法:括号,权重就重 1.1 倍,每加一层括号就反向减弱 1.1 倍。还可以进行 tag 的步数控制。 如果您是新手学习 AI,建议先了解 AI 基本概念,阅读「」中找到适合初学者的课程。选择感兴趣的模块深入学习,掌握提示词技巧,通过实践和尝试巩固知识,体验如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 产品。
2024-11-22
帮我推荐一些适合产品经理使用的AI产品吧
以下是为产品经理推荐的一些 AI 产品: 用户研究、反馈分析:Kraftful(kraftful.com) 脑图:Whimsical(whimsical.com/aimindmaps)、Xmind(https://xmind.ai) 画原型:Uizard(https://uizard.io/autodesigner/) 项目管理:Taskade(taskade.com) 写邮件:Hypertype(https://www.hypertype.co/) 会议信息:AskFred(http://fireflies.ai/apps) 团队知识库:Sense(https://www.senseapp.ai/) 需求文档:WriteMyPRD(writemyprd.com) 敏捷开发助理:Standuply(standuply.com) 数据决策:Ellie AI(https://www.ellie.ai/) 企业自动化:Moveworks(moveworks.com) 此外,还有以下相关内容供您参考: 《AI 市场与 AI 产品经理分析——2024 是否是 AI 应用创业的好机会》中提到,AI 产品经理可分为入门级、研究级和落地应用级。入门级能通过开源网站或课程了解 AI 概念并实践;研究级有技术和商业化研究两条路径;落地应用级则有成功案例和商业化价值。 余一相关的内容,如《AI 时代个人生存/摸鱼探索指南.Beta》的迭代更新,以及《从 2023 年报,看中国上市公司怎么使用生成式 AI》等。 相关链接: 创新公司观察: 2022 2024 年融资 2000w 美金以上的公司列表和详细公司分析:https://ameliadev.notion.site/202220242000w08f50fafd81b420fa7f26ecd6c0b3243?pvs=4 AI Grant 公司列表和详细公司分析(三期):https://ameliadev.notion.site/AIGranta52f291e81f34b418c9919497961e831?pvs=4 AIGC 行业与商业观察(2024.1):https://gamma.app/docs/AIGCDev9q1bax2pspnlxqu AI 产品/功能构建: 顶级科技公司产品团队正在构建哪些 AI 功能【总览】:https://gamma.app/docs/AIzawqmb2ff3cv958 顶级科技公司产品团队正在构建哪些 AI 功能【产品分析】:https://gamma.app/docs/AItebxqet8ubz3rje 顶级科技公司产品团队正在构建哪些 AI 功能【思考借鉴】
2024-11-21
如何高效使用你
以下是关于高效使用相关的内容: 检查使用情况:您可以在)页面上检查您的使用情况。您也可以在 Cursor 应用程序中访问此页面,在 Cursor Settings > General > Account 下,然后按“Manage Subscription”(管理订阅)(专业用户)或“Manage”(管理)(对于商业用户)。游标使用情况会根据您的订阅开始日期每月重置一次。 Cursor 官方介绍: Cursor 旨在让您极其高效,它是使用 AI 进行编码的最佳方式。 从您的代码库中获得最佳答案——或参考特定文件或文档。一键使用模型中的代码。 Cursor 通过预测您的下一个编辑,让您轻松完成更改。 预先填写 Claude 的回答:使用 Claude 时,您可以通过预先填写助手消息来引导其响应。这种技术能让您引导 Claude 的行为、控制输出格式,在角色扮演场景中帮助 Claude 保持性格。在 Claude 表现不如预期时,填充几个句子能改善其表现。您可以查看博客文章《Claude 2.1 的长上下文提示示例》了解高效填充的示例。
2024-11-21