直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

怎么用大模型帮你图片转文字

回答

以下是使用大模型进行图片转文字的相关方法:

选择 ControlNet 模型

  • 将字体参考图放进 ControlNet 中,预处理器选择 invert(from white bg&black line),控制类型不要选择预设的。invert 比较适合完全还原字体的细节,若字形本身识别度很高,也可使用 Canny 等模型。选好预处理后点击💥按钮预览。
  • 然后选择 Control 模型,如 Depth 景深模型或 Scribble 涂鸦模型,使用 Canny 描边的预处理也可用 Canny 模型,但控制力稍差。选择好之后,记得点击启用,开启 ControlNet。

选择生图大模型: 大模型决定最终的风格,如真实系、动画二次元等。生成真实场景下的字体时,经过尝试可选择真人效果卓绝的大模型 lofi.v2,不同的大模型对 ControlNet 模型的控制力有不同的适应度,需要微调参数。

制作思路

  • 将中文字做成白底黑字,存成图片样式。
  • 使用文生图的方式,使用大模型真实系,如作者用的 realisticVisionV20_v20.safetensors[e6415c4892]ControlNet 预设置。
  • 输入关键词,如奶油的英文单词 Cream + Cake(加强质感),反关键词:Easynegative(负能量),反复刷机,得到满意的效果。
  • 同理可输出 C4D 模型,可自由贴图材质效果,3d,blender,oc rendering。
  • 如果希望有景深效果,也可以打开 depth(增加阴影和质感)。
  • 打开高清修复,分辨率建议 1024 以上,步数:29 - 60。

此外,可图大模型是由快手可图团队开发的基于潜在扩散的大规模文本到图像生成模型。Kolors 在数十亿图文对下进行训练,在视觉质量、复杂语义理解、文字生成(中英文字符)等方面有优势,支持中英双语,在中文特色内容理解方面更具竞争力。更多信息可查看其技术报告。

相关教程:

  • Nenly 同学的视频教程:【“牛逼”的教程来了!一次学会 AI 二维码+艺术字+光影光效+创意 Logo 生成,绝对是 B 站最详细的 Stable Diffusion 特效设计流程教学!AI 绘画进阶应用 - 哔哩哔哩】https://b23.tv/c33gTIQ
  • 群友根据教程制作的视频教程也很详细。

另外,https://firefly.adobe.com/也可以实现类似功能,但 Stable Diffusion 的可操控性更强,尤其是中文字体。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

SD的优势区间,ControlNet做字体!(实战篇)

这里不是绝对唯一答案,因为很多CN模型能实现相似效果,或者更有故事性的效果的。以比较容易出效果为例:将字体参考图放进ControlNet中,预处理器选择invert(from white bg&black line),注意控制类型就不要选择预设的了,因为很有可能处理模型不是一一对应的。invert比较适合完全还原字体的细节。当然如果字形本身识别度很高的话,也可以使用Canny等模型。选好预处理可以点击💥按钮预览一下。然后选择Control模型,可以选择Depth景深模型,也可以选择Scribble涂鸦模型,使用Canny描边的预处理这里也可以用Canny的模型,但控制力稍差。选择好之后,记得点击启用,开启ControlNet。[heading1]选择生图大模型[content]插件暂时简单的设置完毕,要选择生图模型了,大模型决定了我们的最终的风格,是真实系,是动画二次元,还是什么,这决定你对模型熟悉程度。生成一个真实场景下的字体,文章开始图片相似的风格,是我的目标,以此为例:经过一些尝试,我选了真人效果卓绝的大模型lofi.v2,(还有一些其他比较真实的模型都可以备选,只是会有一些参数变化需要注意)不同的大模型,会对CN模型的控制力有不同的适应度,所以需要微调参数。

延伸阅读

可图大模型是由快手可图团队开发的基于潜在扩散的大规模文本到图像生成模型。Kolors在数十亿图文对下进行训练,在视觉质量、复杂语义理解、文字生成(中英文字符)等方面,相比于开源/闭源模型,都展示出了巨大的优势。同时,Kolors支持中英双语,在中文特色内容理解方面更具竞争力。更多的实验结果和细节请查看我们的[技术报告](https://github.com/Kwai-Kolors/Kolors/blob/master/imgs/Kolors_paper.pdf)。

教程:SD 做中文文字-持续更新中

Nenly同学的视频教程来了:【“牛逼”的教程来了!一次学会AI二维码+艺术字+光影光效+创意Logo生成,绝对是B站最详细的Stable Diffusion特效设计流程教学!AI绘画进阶应用-哔哩哔哩】https://b23.tv/c33gTIQ还有个群友根据下面的教程自己做了个视频教程非常详细1.将中文字做成白底黑字,存成图片样式2.使用文生图的方式,使用大模型真实系,作者用的realisticVisionV20_v20.safetensors[e6415c4892]ControlNet预设置3.输入关键词,如奶油的英文单词,Cream + Cake(加强质感),反关键词:Easynegative(负能量),反复刷机,得到满意的效果即可。4.同理可输出C4D模型,可自由贴图材质效果,3d,blender,oc rendering5.如果希望有景深效果,也可以打开depth(增加阴影和质感)6.打开高清修复,分辨率联系1024以上,步数:29-60本来想方一个b站视频,但是没有按照上面的实测,等看完之后再推荐当然https://firefly.adobe.com/也可以,但是sd感觉可操控性更强,尤其是中文字体

其他人在问
如何用大模型写公众号文章
以下是使用大模型写公众号文章的步骤: 1. 搭建工作流: 大模型批量总结文章内容: 模型选择:默认的豆包 32k 够用,怕上下文长度不够可选择更大的模型,如 kimi128k。 配置参数:选择批处理,批处理输入参数包括读取的文章内容正文、代码处理后的 url 链接和标题。下方的输入参数选择大模型节点输出的 content 正文、title 标题、url 文章链接、author 作者。提示词输入相关内容,将这四部分内容一起送给大模型进行总结,最终拼接成 markdown 格式输出。 汇总格式化最终输出内容:使用代码节点,将大模型输出的内容进行最终输出的格式化。参数配置包括输入选择上一步输出的 outputList,在 IDE 中编辑选择 Python 并输入相关代码,配置输出项为 result。 公众号总结推送到微信:根据 Server 酱的 API 文档,自建插件实现把格式化好的内容推送到用户微信。配置包括 title 为汇总公众号总结页面的标题,参数值选择“输入”并起名;desp 为页面主体内容,选择上一步最终输出内容;key 引用开始节点的 key。 2. 获取指定网站内容:比如获取 36kr 网站 AI 频道资讯:https://36kr.com/information/AI/ ,并在 Coze 中设置提示词和输出结果。 3. 使用工作流重写: 工作流思路:将获取的新闻让大模型重新按照自己的风格创作新闻内容,如搞笑、严肃、中二风格等,甚至加入个人元素。 搭建工作流:使用 GetToutiaoNews、大模型等组件,配置 GetToutiaoNews 和大模型。 4. 使用 Webpilot 插件:省去工作流获取新闻列表,让 Webpilot 去分析,思考是否可增加大模型重写及相关配置。 5. 同步飞书:将数据同步到飞书,可变为训练数据。 此外,还有关于【SD】大模型/Lora 触发词插件 loraprompttool 的介绍,安装该插件后可直接看到官方例图并一键拷贝提示词和设置参数,有助于学习关键提示词写法。若想要该插件,可添加公众号【白马与少年】,回复【SD】获取。
2024-10-17
如何使用大模型搜索本地文件连接
使用大模型搜索本地文件连接的方法如下: 1. 对于 SDXL 大模型: 首先,获取模型。您可以关注公众号【白马与少年】,回复【SDXL】获取下载链接。 要在 webUI 中使用,需将 webUI 的版本在秋叶启动器中升级到 1.5 以上。 然后,将 base 和 refiner 模型放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下,将 vae 模型放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。 启动 webUI 后,即可在模型中看到 SDXL 模型。 正常使用时,先在文生图中使用 base 模型,填写提示词和常规参数生成图片,再将图片发送到图生图中,切换大模型为“refiner”重绘。 2. 对于其他模型: 大多数模型可在 Civitai(C 站)https://civitai.com/ 下载。使用方法为:科学上网,点击右上角筛选按钮找到所需模型类型,如 Checkpoint=大模型、LoRA=Lora,查看感兴趣的照片并下载,或通过左上角“Images”查看他人已做好的图片并获取相关信息。 模型下载地址:大模型存放在下载 SD 时的根目录;Lora 和 VAE 也有相应存放位置。 若不知下载的模型类型,可使用秋叶的模型解析工具 https://spell.novelai.dev/,将模型拖动到空白处查看模型信息。 常用的模型网站还有: 下载模型后,不同类型的模型放置在不同目录下。大模型(Ckpt)放入 models\\Stablediffusion;VAE 模型放置在 models\\Stablediffusion 或 models\\VAE 目录并在 webui 的设置栏目选择;Lora/LoHA/LoCon 模型放入 extensions\\sdwebuiadditionalnetworks\\models\\lora 或 models/Lora 目录;Embedding 模型放入 embeddings 目录。
2024-10-09
如果借用大模型进行本地训练
借用大模型进行本地训练的相关内容如下: 对于 SDXL 大模型: 1. 模型组成:分为两个部分,base+refiner 是必须下载的,base 用于文生图操作,refiner 用于细化生成的模型以获得更丰富的细节;还有一个配套的 VAE 模型用于调节图片的画面效果和色彩。 2. 下载途径:三个模型的下载链接可关注公众号【白马与少年】,回复【SDXL】获取。 3. 部署步骤:首先在秋叶启动器中将 webUI 的版本升级到 1.5 以上。然后将 base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下,vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。完成后启动 webUI 即可在模型中看到 SDXL 模型。 4. 使用方法:先在文生图中使用 base 模型,填写提示词和常规参数,尺寸可设为 10241024 进行生成。 部署和训练自己的大模型的主要步骤: 1. 选择合适的部署方式,包括本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,根据自身的资源、安全和性能需求选择。 2. 准备训练所需的数据和计算资源,确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础,如开源的预训练模型 BERT、GPT 等,也可自行训练一个基础模型。 4. 针对目标任务进行模型微调训练,根据具体应用场景对预训练模型进行微调训练,优化模型结构和训练过程以提高性能。 5. 部署和调试模型,将训练好的模型部署到生产环境,对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护,大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 对于基于百川大模型的训练: 选择 Baichuan27BChat 模型作为底模,配置模型本地路径和提示模板。在 Train 页面里,选择 sft 训练方式,加载定义好的数据集 wechat 和 self_cognition。学习率和训练轮次非常重要,需根据数据集大小和收敛情况设置。使用 FlashAttention2 可减少显存需求、加速训练速度。显存小的朋友可减少 batch size 和开启量化训练,内置的 QLora 训练方式好用。需要用到 xformers 的依赖,显存占用 20G 左右,需耐心等待。
2024-09-20
本地知识库系统如何利用大语言模型
以下是关于本地知识库系统如何利用大语言模型的相关内容: 一、部署大语言模型 1. 下载并安装 Ollama 根据电脑系统,从 https://ollama.com/download 下载 Ollama。 下载完成后,双击打开,点击“Install”。 安装完成后,将 http://127.0.0.1:11434/ 复制进浏览器,若出现相关字样则表示安装完成。 2. 下载 qwen2:0.5b 模型(0.5b 方便测试,设备充足可下载更大模型) Windows 电脑:点击 win+R,输入 cmd 点击回车。 Mac 电脑:按下 Command(⌘)+ Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,选择“终端”应用程序。 复制相关命令行并粘贴回车,等待自动下载完成。(下载久了若卡住,鼠标点击窗口,键盘点空格可刷新) 二、了解 RAG 利用大模型的能力搭建知识库是 RAG 技术的应用。在进行本地知识库搭建实操前,需对 RAG 有大概了解。大模型训练数据有截止日期,当需要依靠不在训练集中的数据时,主要通过检索增强生成 RAG 实现。RAG 应用可抽象为 5 个过程: 1. 文档加载:从多种来源加载文档,LangChain 提供 100 多种不同的文档加载器,包括 PDF 等非结构化数据、SQL 等结构化数据以及代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或“文档片”。 3. 存储:涉及将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 三、通过 Open WebUI 使用大模型 1. 首先访问相关网址,打开页面时使用邮箱注册账号。 2. Open WebUI 一般有两种使用方式: 聊天对话。 RAG 能力,可让模型根据文档内容回答问题,这是构建知识库的基础之一。 3. ChatGPT 访问速度快、回答效果好的原因: 快:GPT 大模型部署的服务器配置高。 好:GPT 大模型的训练参数多、数据更优以及训练算法更好。
2024-09-17
个人使用大模型有什么注意的可以保护隐私呢
个人使用大模型保护隐私需要注意以下几点: 1. 隐私泄露类型: 记忆隐私泄露:自回归语言模型在训练中可能会记住一些数据,即使查询无恶意,模型也可能返回他人隐私信息。模型的记忆形式类似人类,减少模型见数据的次数可降低记忆能力。 系统隐私泄露:如“骗取 GPTs 的 System Prompt”。 上下文隐私泄露。 2. 应对措施: 针对记忆隐私泄露,可通过减少模型见数据的次数来缓解。 对于系统隐私泄露和上下文隐私泄露,目前尚未有明确的统一应对方法。 此外,部署和训练自己的大模型时也需注意安全性和隐私保护,大模型涉及大量数据和隐私信息,要重视安全性和合规性。部署和训练自己的大模型的主要步骤包括: 1. 选择合适的部署方式,如本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源,确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础,可使用开源的预训练模型如 BERT、GPT 等,也可自行训练基础模型。 4. 针对目标任务进行模型微调训练,优化模型结构和训练过程以提高性能。 5. 部署和调试模型,将训练好的模型部署到生产环境,并进行在线调试和性能优化。
2024-09-13
为审计人员利用大模型本地化部署进行数据分析的电脑如何配置
对于审计人员利用大模型本地化部署进行数据分析的电脑配置,以下是相关建议: 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型) 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 需要注意的是,最低配置运行速度可能非常慢。另外,对于 SDXL 的大模型,分为两个部分: 第一部分,base + refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于对生成的模型进行细化,生成细节更丰富的图片。 第二部分,还有一个配套的 VAE 模型,用于调节图片的画面效果和色彩。 想要在 webUI 中使用 SDXL 的大模型,首先要在秋叶启动器中将 webUI 的版本升级到 1.5 以上。接下来,将模型放入对应的文件夹中,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。完成之后,启动 webUI,就可以在模型中看到 SDXL 的模型。
2024-09-12
推荐一下国内可以通过对话微调的预训练模型
以下是为您推荐的国内可以通过对话微调的预训练模型相关信息: 为优化 Llama2 的中文能力,可使用以下数据: 网络数据:互联网上公开的网络数据,包括百科、书籍、博客、新闻、公告、小说等高质量长文本数据。 :中文 Wikipedia 的数据。 :中文悟道开源的 200G 数据。 :Clue 开放的中文预训练数据,经过清洗后的高质量中文长文本数据。 竞赛数据集:近年来中文自然语言处理多任务竞赛数据集,约 150 个。 :MNBVC 中清洗出来的部分数据集。 社区提供预训练版本 Atom7B 和基于 Atom7B 进行对话微调的模型参数供开放下载,关于模型的进展详见社区官网 https://llama.family。 另外,关于会话补全(Chat completions): gpt3.5turbo 和 textdavinci003 两个模型能力相似,但前者价格只是后者的十分之一,在大部分情况下更推荐使用 gpt3.5turbo。 gpt3.5turbo 模型不支持微调。从 2023 年 3 月 1 日起,只能对基于 GPT3.5 的模型进行微调。有关如何使用微调模型的更多细节,请参阅微调指南。 从 2023 年 3 月 1 日起,OpenAI 会将您通过 API 发送的数据保留 30 天但不会使用这些数据来提升模型。 关于安仔:Coze 全方位入门剖析 免费打造自己的 AI Agent(国内版): 目前国内版暂时只支持使用“云雀大模型”作为对话引擎,其携带上下文轮数默认为 3 轮,可修改区间是 0 到 30,具体轮数可根据业务需求决定。 在 Bot 编排页面的“技能”区域,可为 Bot 配置所需技能。不懂插件时,可选择区域右上角的“优化”按钮让 AI Bot 根据提示词自动选择插件。也可自定义添加所需插件,点击插件区域的“+”号选择加入具体插件。 在 Bot 编排页面的“预览与调试”区域,可测试 Bot 是否按预期工作,可清除对话记录以开始新的测试,确保 Bot 能理解用户输入并给出正确回应。
2024-10-18
推荐一下个人可以使用的通过对话微调的模型
以下是一些个人可以使用的通过对话微调的模型相关信息: 会话补全(Chat completions): GPT3.5 系列中,gpt3.5turbo 和 textdavinci003 有相似能力,但 gpt3.5turbo 价格仅为 textdavinci003 的十分之一,在多数情况下更推荐使用 gpt3.5turbo。不过,gpt3.5turbo 不支持微调,从 2023 年 3 月 1 日起,只能对基于 GPT3.5 的模型进行微调。 微调(Finetuning): 案例研究: 客户支持聊天机器人:通常包含相关上下文、对话摘要及最近消息,可能需要几千个示例处理不同请求和客户问题,建议审查对话样本确保代理消息质量,可使用单独文本转换微调模型生成摘要。 基于技术属性列表的产品描述:将输入数据转换为自然语言很重要,确保完成基于所提供描述,若常查阅外部内容,自动添加此类内容可提高性能,若描述基于图像,提取图像文本描述可能有帮助。 模型(Models): GPT3.5 模型可理解和生成自然语言或代码,其中功能最强大、最具成本效益且针对聊天优化的型号是 gpt3.5turbo,建议使用它而非其他 GPT3.5 模型,因其成本更低。 gpt3.5turbo:功能强大,针对聊天优化,成本低,会使用最新模型迭代更新,最大 Token 数 4096,训练数据截至 2021 年 9 月。 gpt3.5turbo0301:2023 年 3 月 1 日的快照,不会更新,仅在 2023 年 6 月 1 日结束的三个月内提供支持,最大 Token 数 4096,训练数据截至 2021 年 9 月。 textdavinci003:能完成任何语言任务,支持文本中插入补全,最大 Token 数 4097,训练数据截至 2021 年 6 月。 textdavinci002:与 textdavinci003 类似,使用监督微调而非强化学习训练,最大 Token 数 4097,训练数据截至 2021 年 6 月。 codedavinci002:针对代码完成任务优化,最大 Token 数 8001,训练数据截至 2021 年 6 月。 请注意,OpenAI 模型具有不确定性,相同输入可能产生不同输出,将温度设置为 0 可使输出大部分具有确定性,但可能仍有少量可变性。
2024-10-18
个人使用可以通过对话微调的大模型
大模型是指输入大量语料,使计算机获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。可以用“上学参加工作”来类比大模型的训练和使用过程: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练。 2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:用合适的算法让大模型更好理解 Token 之间的关系。 4. 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:完成就业指导后,进行如翻译、问答等工作,在大模型里称为推导(infer)。 在 LLM 中,Token 被视为模型处理和生成的文本单位,能代表单个字符、单词、子单词等,具体取决于分词方法。将输入分词时会数字化形成词汇表。 个人动手实验方面: macOS 系统可采用 GGML 量化后的模型。有名的项目如 ggerganov/llama.cpp:Port of Facebook's LLaMA model in C/C++ ,首先编译,利用 Metal 的 GPU 用相应命令编译,然后去下载模型,还提供了 WebUI,启动 server 后默认监听 8080 端口,打开浏览器可对话。 Whisper 与 llama 类似,用 make 命令编译,去指定地址下载量化好的模型,转换音频,目前只接受 wav 格式,可用 ffmpeg 转化。 张梦飞的教程《用聊天记录克隆自己的 AI 分身》全程本地操作,目标是把微信聊天记录导出,用其微调模型,最终接入微信替你回复消息。
2024-10-18
国内能通过对话微调的语言大模型
以下是国内一些能通过对话微调的语言大模型: 教育领域:桃李(Taoli) 地址: 简介:在国际中文教育领域数据上进行了额外训练的模型,基于国际中文教育教材等构建资源库和问答数据集,并利用数据进行指令微调,让模型习得将知识应用到具体场景中的能力。 数学领域:chatglmmaths 地址: 简介:基于 chatglm6b 微调/LORA/PPO/推理的数学题解题大模型,样本为自动生成的整数/小数加减乘除运算,可 gpu/cpu 部署,开源了训练数据集等。 文化领域:Firefly 地址: 简介:中文对话式大语言模型,构造了许多与中华文化相关的数据,如对联、作诗、文言文翻译、散文、金庸小说等,以提升模型在这方面的表现。 金融领域: Cornucopia(聚宝盆) 地址: 简介:开源了经过中文金融知识指令精调/指令微调的 LLaMA7B 模型。通过中文金融公开数据+爬取的金融数据构建指令数据集,并在此基础上对 LLaMA 进行了指令微调,提高了 LLaMA 在金融领域的问答效果。基于相同的数据,后期还会利用 GPT3.5 API 构建高质量的数据集,另在中文知识图谱金融上进一步扩充高质量的指令数据集。 BBTFinCUGEApplications 地址: 简介:开源了中文金融领域开源语料库 BBTFinCorpus,中文金融领域知识增强型预训练语言模型 BBTFinT5 及中文金融领域自然语言处理评测基准 CFLEB。 XuanYuan(轩辕) 地址: 简介:国内首个开源的千亿级中文对话大模型,同时也是首个针对中文金融领域优化的千亿级开源对话大模型。在 BLOOM176B 的基础上针对中文通用领域和金融领域进行了针对性的预训练与微调,不仅可以应对通用领域的问题,也可以解答金融相关的各类问题,为用户提供准确、全面的金融信息和建议。
2024-10-18
我的app应用想要对接大语言模型,结合APP用户自身的数据,实现更精准的对话,是否有行业比较成功的案例可以借鉴
以下是一些在 APP 应用对接大语言模型方面比较成功的案例,可供您借鉴: 1. Poe: 由 Quora 开发,有 APP 版本,支持跨端使用。 集成了 Chat GPT、GPT4、Claude+、Claude、Dragonfly 等模型,同时支持用户自建 Chatbot。 不同语言模型回复效果有差异,适合需要调用多种大语言模型的用户。 Dragonfly 擅长给出较短的回答,并擅长在输入中给出示例时遵循指示。 Claude 更擅长创造性回复,配合 Poe 中的提问引导,非常适合在查阅资料时使用。 支持分享用户和模型的对话内容,但 GPT4、Claude+产品需要付费订阅使用。 访问地址: Poe 中的提问引导真的能够启发到用户,midjourney prompt 扩写 Chatbot 能力很惊人。 2. Perplexity.ai: 本质是个可联网的搜索引擎,完全免费,支持网页版、APP(目前支持 iOS,安卓即将推出)、Chrome 插件。 网页版能力全面,能够根据提问从互联网上搜寻信息并给出总结后的答案。 很多 Chat GPT 中调用插件才能解决的事情(联网查询、旅行、住宿、商品推荐)靠 Perplexity 就可以解决。 能给出信息来源网址,并根据搜索内容给出继续对话的问题建议。 最新推出的 Copilot 能力支持根据搜索内容进行信息补充,每 4h 内使用 5 次,调用 GPT4。 支持分享聊天内容到多渠道。 首页推荐当下流行的新闻、搜索内容。 支持筛选 Academic(包含不同领域的学术研究论文)、Wolfram|Alpha(包含数学、科学、经济学、语言学、工程学、社会科学、文化等领域的知识库)、Wikipedia(维基百科)、Youtube、Reddit(娱乐、社交和新闻网站)、News 进行搜索。 Chrome 插件可针对当前页面给出即时摘要。 访问地址:
2024-10-18
大模型合规
大模型的安全问题包括以下方面: 1. 对齐保障:通过对齐(指令调优),如 ChatGPT 从 GPT3 经过对齐而来,使其更好地理解人类意图,增加安全保障,确保不输出有害内容。对齐任务可拆解为监督微调及获取奖励模型和进行强化学习来调整输出分布。例如 LLAMA2 使用安全有监督微调确保安全,强化学习能让模型根据人类反馈更细粒度思考答案的安全性,面对训练分布外数据也能拒绝不当回答。 2. 数据过滤:在预训练阶段对数据进行过滤,如 baichuan2 采用此技术减少有害输出,但因数据关联性,仅靠此方法可能不够,模型仍可能从关联中学到有害内容,且面对不良信息时可能因缺少知识而处理不当。 3. 越狱问题:用户可能通过越狱(Jailbreak)使模型的对齐失效,重新回答各种问题。 大模型的特点包括: 1. 架构:分为 encoderonly、encoderdecoder、decoderonly 三类,目前熟知的 AI 助手多为 decoderonly 架构,由 transformer 衍生而来。 2. 规模:预训练数据量大,来自互联网的多种来源,且参数众多,如 GPT3 已达 170B 的参数。 GPT3 与 ChatGPT 相比,除形式不同外,安全性也有差别。
2024-10-18
生成分享图片工具
以下为一些生成分享图片的工具及相关方法: 1. Midjourney V6:可用于生成场景模型。 放大工具:Comfy Ui、Magnific Ai、Upscayl 深度图:Leia Pix 法线图:Shadermap 2. 辅助工具生成透明背景图像: 安装好插件后,在生成图片时勾选“layerdiffusion enabled”。 在“layerdiffusion method”中选择生成透明图像的模式,如“Only Generate Transparent Image”。 提示中输入透明物体的描述,如“玻璃杯”,点击生成可得到透明背景的玻璃杯图像。 也可上传背景图像,在“layerdiffusion method”中选择“From Background to Blending”,然后生成透明图像。 反之,也可以先生成透明的前景,然后选择“From Foreground to Blending”模式,生成背景。 特定模型: layer_xl_transparent_attn:用于将 Stable Diffusion XL 模型转化为透明图像生成器的模型。 layer_xl_transparent_conv:与 layer_xl_transparent_attn 类似,通过修改 conv 层的 offset 实现。 layer_xl_fg2ble:用于将 XL 模型转化为前景图像到混合图像的生成模型。 layer_xl_fgble2bg:用于基于前景和混合图像生成背景的模型。 layer_xl_bg2ble:将 XL 模型转化为根据背景图像生成混合图像的模型。 layer_xl_bgble2fg:将 XL 模型转化为根据背景和混合图像生成前景的模型。 vae_transparent_encoder:图像编码器,用于从像素空间中提取潜在偏移,帮助透明图像的生成。 vae_transparent_decoder:图像解码器,输出真实的 PNG 图像。 3. Aimwise WaytoAGI 百家号文旅分享中的方法: 开启 controlnet 边缘类模型,导入需要处理的 logo,调整合适的 cn 参数。 开启 controlnet IP adapter 功能性模型,导入风格参考图,调整合适的 cn 参数,可快速进行风格迁移和融合,提升出图效率。
2024-10-18
ai现在拍摄一本书的图片能够识别到这是什么书么
目前的 AI 技术在拍摄一本书的图片并识别其是什么书方面已经取得了一定的进展。 在图像识别领域,神经网络发挥着重要作用。例如,对于识别印刷体图片,通常会先将图片转换为黑白,调整至固定尺寸,然后与数据库中的内容进行对比以得出结论。但实际情况较为复杂,存在多种字体、不同拍摄角度等多种例外情况,单纯依靠添加规则的方法不可行,而神经网络专门处理这类未知规则的情况。 不过,要准确识别一本书,还面临一些挑战,如书籍的版本、封面设计的多样性等。但随着技术的不断发展和数据的积累,未来 AI 识别一本书的准确性有望不断提高。 同时,也有一些相关的实验和研究,比如通过设计工作流让 AI 自举式地进行创造,从作家的作品中提取名场面并转译成绘画指令等。
2024-10-17
怎么用AI绘制一个我指定的动漫人物原型的各类图片,例如日漫《好想告诉你》中的黒沼爽子
要使用 AI 绘制指定的动漫人物原型,如日漫《好想告诉你》中的黑沼爽子,您可以按照以下步骤进行: 1. 选择合适的 AI 绘画工具:目前有许多在线的 AI 绘画平台和软件可供选择,例如 DALL·E2、StableDiffusion 等。 2. 明确描述特征:在输入描述时,尽可能详细地描述黑沼爽子的外貌特征,包括发型(如黑色的长直发)、眼睛(如大而明亮的眼睛)、服装(如校服的款式和颜色)、表情(如羞涩的微笑)等。 3. 参考相关图片:如果可能,找到黑沼爽子的官方图片或其他粉丝绘制的作品,作为参考提供给 AI 绘画工具,以帮助其更好地理解您的需求。 4. 不断调整和优化:根据生成的初步结果,对描述进行调整和优化,例如修改某些特征的描述、增加更多细节等,以获得更符合您期望的图片。 需要注意的是,AI 绘画的结果可能会受到多种因素的影响,不一定能完全符合您的预期,但通过不断尝试和优化,您有机会获得较为满意的作品。
2024-10-17
有可以查询图片的快速方法吗?
以下为一些快速查询图片的方法: 1. 利用 Perplexity.AI 的 Search Images 功能:点击搜索结果旁的加号,可快速浏览并选择与主题紧密相连的图片资源。在挑选图片时,要避免使用带有水印、画质不清晰或分辨率较低的图片。图片出处主要在 twitter 和官方网站。 2. 对于 Midjourney 生成的图片: 作业 ID 是其唯一标识符,格式类似于 9333dcd0681e4840a29c801e502ae424,可以在图像文件名的第一部分、网站上的 URL 和图像文件名中找到。 在网页上,可通过选择...> Copy...>作业 ID 来在作品库中查找任何图像的作业 ID。 从 URL 中,可在打开作品的网页链接末尾找到 Job ID。 从文件名中,Job ID 在文件名的最后一部分。 使用表情符号✉️可以将已完成的作业发送到私信中,私信中将包括图像的 seed 号和作业 ID,但✉️表情符号只适用于您自己的作业。 3. 如果不喜欢用模板找封面图,可根据文章内容搜索匹配的封面。比如在公众号中搜索同行的封面,直接“拿来主义”。若文章正文里没有封面图,可用壹伴浏览器插件的“查看封面”按钮(需会员),或者使用秘塔 AI 搜索工具,输入文章链接获取封面。相关在线工具链接:https://www.mgpaiban.com/tool/wxfm.html ,为方便使用可将其收藏。
2024-10-16
有相关图片识别的相关知识和工具么?
以下是关于图片识别的相关知识和工具: 知识: 图片识别中,对于印刷体图片的识别,可能先将图片变为黑白、调整为固定尺寸,再与数据库对比得出结论。但实际情况复杂,存在多种字体、拍摄角度等例外情况,传统基于规则的方法不可行。 神经网络专门处理未知规则的情况,其发展得益于生物学研究支持和数学方向的指引,能处理如手写体识别等未知情况。 图像融合是将两个或多个图像合成为一个新的图像,以获得更全面和丰富的信息,可通过像素级、特征级和决策级融合等技术实现,在多个领域有应用。 目标检测是在图像或视频中准确识别和定位特定对象,多模态信息融合可提高其性能和鲁棒性。 工具和参考文献: 推荐阅读《这就是 ChatGPT》这本书,有助于深入了解相关内容。 以下是一些相关的参考文献: VisionLanguage Models for Vision Tasks:A Survey Visual Instruction Tuning towards GeneralPurpose Multimodal Model:A Survey ViTs are Everywhere:A Comprehensive StudyShowcasing Vision Transformers in Different Domain Multimodal Foundation Models:From Specialists to GeneralPurpose Assistants VisionLanguage Pretraining:Basics,Recent Advances,and Future Trends An Image is Worth 16x16 Words:Transformers for Image Recognition at Scale COGVLM:VISUAL EXPERT FOR LARGE LANGUAGE MODELS CogAgent:A Visual Language Model for GUI Agents AppAgent:Multimodal Agents as Smartphone Users Gemini:A Family of Highly Capable Multimodal Models QwenVL:A Versatile VisionLanguage Model for Understanding,Localization,Text Reading,and Beyond arxiv:ChatVideo:A Trackletcentric Multimodal and Versatile Video Understanding System arxiv:Video Understanding with Large Language Models:A Survey arxiv:Vid2Seq:LargeScale Pretraining of a Visual Language Model for Dense Video Captioning CSDN 博客:视频理解多模态大模型(大模型基础、微调、视频理解基础) CSDN 博客:逐字稿| 9 视频理解论文串讲(下)【论文精读】_视频理解论文串讲(下) Youtube:Twostream Convolutional Networks for Action Recognition in Videos arxiv:Is SpaceTime Attention All You Need for Video Understanding? 相关算法: 图像融合的相关算法有:小波变换、基于金字塔变换的多分辨率融合、基于区域的图像融合、基于特征的图像融合等。 目标检测的相关算法有:基于深度学习的目标检测算法(如 RCNN、Fast RCNN、Faster RCNN、YOLO、SSD 等)、基于传统计算机视觉技术的目标检测算法(如 HOG、SIFT、SURF 等)。
2024-10-16
现在最新的 AI 生成图片产品有哪些
目前最新的 AI 生成图片产品主要有以下这些: 1. Artguru AI Art Generator:在线平台,能生成逼真图像,为设计师提供灵感,丰富创作过程。 2. Retrato:AI 工具,可将图片转换为非凡肖像,有 500 多种风格供选择,适合制作个性头像。 3. Stable Diffusion Reimagine:新型 AI 工具,通过稳定扩散算法生成精细、具细节的全新视觉作品。 4. Barbie Selfie Generator:专为喜欢梦幻童话风格的人设计,能将上传的照片转换为芭比风格,效果出色。 此外,还有一些用于设计海报的 AI 产品: 1. Canva(可画):https://www.canva.cn/ ,是受欢迎的在线设计工具,提供大量模板和设计元素,AI 功能可协助选择颜色搭配和字体样式。 2. 稿定设计:https://www.gaoding.com/ ,智能设计工具采用先进人工智能技术,自动分析和生成设计方案。 3. VistaCreate:https://create.vista.com/ ,简单易用的设计平台,提供大量设计模板和元素,用户可使用 AI 工具创建个性化海报,智能建议功能可帮助快速找到合适设计元素。 4. Microsoft Designer:https://designer.microsoft.com/ ,通过简单拖放界面,可快速创建演示文稿、社交媒体帖子等视觉内容,集成丰富模板库和自动图像编辑功能。 以下是图像生成的 Top30 AI 产品数据: |排名|产品名|分类|6 月访问量(万 Visit)|相对 5 月变化| |||||| |1|Adobe firefly|图像生成|28890|0.053| |2|Freepik|图像生成|8341|0.076| |3|Shutterstock|图像生成|6389|0.068| |4|Civitai|图像生成|2592|0.046| |5|Leonardo.Ai|图像生成|1680|0.027| |6|Midjourney|图像生成|1673|0.109| |7|Yodayo|图像生成|1554|0.044| |8|Ideogram|图像生成|1140|0.081| |9|Picsart Al|图像生成|1103|0| |10|Sea Art AI|图像生成|912|0.018| |11|PixAI|图像生成|899|0.07| |12|Openart|图像生成|650|0.074| |13|NovelAI|图像生成|639|0.052| |14|Playground|图像生成|631|0.065| |15|Krea|图像生成|611|0.119| |16|nightcafe|图像生成|606|0.039| |17|Media.io|图像生成|551|0.086|
2024-10-16
我有一个内容很长的现场录音转文字发言稿,有什么工具可以去掉里面的语气词,自动处理为正常可读的文字稿
目前有一些工具可以帮助您处理这类需求,例如: 1. 讯飞听见:具有语音转文字及文字优化处理的功能。 2. 网易见外:能对转写的文字进行一定的优化和整理。 您可以根据自己的需求和使用习惯选择适合的工具。
2024-10-18
有发小红书视频链接,能自动提取完整文字文案的bot或者工具吗,谢谢~
以下为您介绍一款可以自动提取小红书视频链接完整文字文案的工具: 名称:小红书文案专家 功能价值: 见过多个爆款文案,只需输入网页链接或视频链接,就能生成对应的小红书文案。 可辅助创作者生成能一键复制发布的初稿,提供创意和内容,节约 10 倍文字内容创作时间。 应用链接:https://www.coze.cn/s/ij5C6LWd/ 设计思路: 痛点:个人时间有限,希望有人帮忙写初稿再进行二创,同时希望能生成配图。 实现思路:为自己和团队设计工作流,让 AI 按照运营日常思路和流程工作。 一期产品功能: 可以提取任何链接中的标题和内容。 按照小红书平台文案风格重新整理内容。 加入 emoji 表情包,使文案更有活力。 为文案配图片。 二期计划功能: 持续优化升级。 增加全网搜索热点功能。 提炼热点新闻或事件关键信息。 结合用户想要生成的内容方向,输出文案和配图。 另外,在使用类似工具时,需要将需求做细颗粒度的分解,把大任务拆成小任务,小任务拆成更小的任务,并为每个小任务选择合适的工具/模型来实现。
2024-10-17
你好,文字生图,常用格式有哪些
文字生图常用格式包括以下方面: 对于文字生成视频: Pika:擅长动画制作,支持视频编辑。 SVD:可作为 Stable Diffusion 的插件,在图片基础上生成视频。 Runway:老牌工具,提供实时涂抹修改视频功能,但收费。 Kaiber:能将原视频转换成各种风格的视频。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多相关网站可查看: 对于 Stable Diffusion 文生图的提示词: 分为内容型提示词和标准化提示词,内容型提示词主要描述想要的画面。例如:1 个女孩,黑发,长发,校服,向上看,短袖,粉红色的花,户外,白天,蓝色的天空,云,阳光,上身,侧面(使用翻译软件翻译成英文)。 采样迭代步数通常控制在 20 40 之间,步数越高绘画越清晰,但速度越慢。 采样方法常用的有:Euler a;DPM++2S a Karras;DPM++2M Karras;DPM++ SDE Karras;DDIM。有的模型会有指定算法,搭配效果更好。 比例设置为 800:400,注意尺寸并非越大越好,模型练图通常基于 512x512 的框架,高宽比尽量接近此数值。
2024-10-17
我想把bilibili上的视频转成文字,你有什么工具推荐给我吗?
目前在将 B 站视频转换成文字方面,以下是一些常见的工具供您参考: 1. 网易见外工作台:功能较为全面,支持多种视频格式的转写。 2. 讯飞听见:语音转写准确率较高。 您可以根据自己的需求和使用习惯选择适合的工具。
2024-10-16
有什么可以把中文字幕翻译成英文字幕并添加到原视频的工具推荐给我吗?
以下是为您推荐的可以把中文字幕翻译成英文字幕并添加到原视频的工具: 1. 按照一种方案,您可以: 用 whisper 生成原视频的英文字幕。 让 GPT 结合字幕全文翻译,并根据原英文字幕的拆分,将译文进行同样行数的拆分。 将 GPT 译文拆分的结果插入到原英文字幕文件中形成一个新的双语字幕文件。这个过程中的执行脚本可以让 GPT 写。 2. 另外,还有以下单独的视频自动字幕工具推荐: Reccloud:免费的在线 AI 字幕生成工具,可上传视频精准识别,能对识别的字幕进行翻译,自动生成双语字幕。已处理 1.2 亿+视频,识别准确率接近 100%。 绘影字幕:一站式专业视频自动字幕编辑器,提供字幕制作和翻译服务,支持 95 种语言,准确率高达 98%,可自定义字幕样式。 Arctime:能对视频语音自动识别并转换为字幕,支持自动打轴,支持 Windows 和 Linux 等主流平台及 SRT 和 ASS 等字幕功能。 网易见外:国内知名语音平台,支持视频智能字幕功能,转换正确率较高,支持音频转写功能。 以上工具各有特点,您可以根据自身需求选择最适合的。请注意,部分内容由 AI 大模型生成,请仔细甄别。
2024-10-15
哪个AI可以获取视频的文字内容
以下是一些可以获取视频文字内容的方法和相关的 AI 工具: 准备视频播放的文字内容:可以自己编写,也可以利用 AI 生成。 利用剪映 App 处理视频:在电脑端打开剪映 App,点击“开始创作”,选择顶部工具栏中的“文本”,添加文字内容轨道并替换默认文本,为数字人提供语音播放内容和生成相应口型。 文字生成视频的 AI 产品: Pika:擅长动画制作,支持视频编辑。 SVD:可作为 Stable Diffusion 的插件,在图片基础上生成视频。 Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多工具可查看 总结视频内容: 对于文章,可复制给 GPTs 进行总结。 对于有字幕的 B 站视频,可安装油猴脚本提取字幕,然后复制发送给 GPTs 总结。总结完还可继续提问或探讨。
2024-10-15