直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

有没有对监控图像清晰度处理较好的模型

回答

以下为一些对监控图像清晰度处理较好的模型及相关方法:

  1. 【SD】超清无损放大器 StableSR:
    • 需要使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stable-diffusion-webui/models/Stable-Diffusion/文件夹中。
    • StableSR 模块(约 400M 大小)放入 stable-diffusion-webui/extensions/sd-webui-stablesr/models/文件夹中。
    • 还有一个 VQVAE(约 750MB 大小)放在 stable-diffusion-webui/models/VAE 中。
    • 测试表明,StableSR 的放大效果在处理一些图像时,能够较好地保留人物细节,如眼神更锐利等。
  2. 【SD】最强控制插件 ControlNet 的 tile 模型:
    • 可用于高清修复小图,如将分辨率不高的食物图片进行高清化处理。
    • 能修复和增加图像细节,如处理细节不足或结构错误的小屋图像。
  3. 图像高清修复放大流程:
    • 整个流程分为输入原始图像、修复图像、放大并重绘图像三部分。
    • 图像输入时不建议上传大分辨率图片,以免处理时间过长。
    • 图像高清修复时,Checkpoint 大模型使用 Iceclear/StableSR,并搭配 Stable SR Upscaler 模型,提示词应包含想要达到的目的内容。
    • 图像高清放大时,用 realisticVision 底膜,使用提示词反推 node 提取画面提示词,搭配 tile ControlNet 提升画面细节感,然后用合适的高清放大模型进行二次放大。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

【SD】超清无损放大器StableSR

[title]【SD】超清无损放大器StableSR这个修复必须要使用StabilityAI官方的Stable Diffusion V2.1 512 EMA模型,放入stable-diffusion-webui/models/Stable-Diffusion/文件夹中。然后是StableSR模块(约400M大小)放入stable-diffusion-webui/extensions/sd-webui-stablesr/models/文件夹中。还有一个VQVAE(约750MB大小)放在你的stable-diffusion-webui/models/VAE中。这三个文件我会放在百度云盘的链接中。安装好之后,我们用一张从网上找的神仙姐姐的照片来做一个测试,这张图片的分辨率为512x768。放大之后看是比较模糊的,脸上有很多噪点,头发丝也糊在一起了。我们先使用“Ultimate SD upscale”脚本放大看一下,哪怕是重绘幅度只开到0.1,也可以看到人物细节的变化,比如嘴角、眼睛等部位,而且整个人磨皮很严重,失去了真实感。重绘幅度开到0.4之后,基本上就变了一个人了。所以,想要还原一些老照片,追求最大保真度的话,用重绘的方法是不太好的。接下来,我们再试验一下“后期处理”的放大方法,缩放3倍。眼神变得更锐利了一些,但是头发还是模糊的,因为原图就很模糊。最后,我们再测试一下StableSR的放大,先将大模型和VAE分别调整为我们刚才下载安装的“Stable Diffusion V2.1 512 EMA ”和“VQGAN vae”。打开脚本下拉,选择“StableSR”,模型选择和大模型对应的这个,放大倍数为3,下面勾选“pure noise”。

【SD】最强控制插件ControlNet(4)细节狂魔tile

[title]【SD】最强控制插件ControlNet(4)细节狂魔tile作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-05-19 20:01原文网址:https://mp.weixin.qq.com/s/HtSbc1l5BpOgl_dIoH0T7w随着ControlNet1.1的更新,tile模型横空出世,其强大的功能让之前的一些模型变得有点黯然失色。今天我们就来盘点一下,这个神奇的Tile模型都有哪些用法。高清修复小图在我们做设计的时候,经常会遇到一些分辨率不高的素材图片,我们需要将它进行高清化处理。比如这张食物的图片,先把它拖进“WD 1.4标签器”,可以进行反推关键词,然后发送到图生图。我们可以通过翻译软件检查一下提示词有没有问题,这边通过反推得到的提示词是——“没有人,食物,食物焦点,现实,水果,静物,草莓,模糊,蛋糕,糕点,景深,甜点,模糊背景,奶油”。基本上与原图相符,可以先不调整。接下来,我们使用大模型“dreamshaper”。调整参数尺寸,放大为2K,提示词引导系数(CFG Scale)官方推荐在15以上,重绘幅度在0.5以上。打开ControlNet,导入图片。tile的预处理器是用来降低原图的分辨率的,为的是给新图有足够的空间来添加像素和细节。如果你的图片本身像素就很低,可以不使用预处理器,直接使用tile模型。可以看到放大后的图片,清晰度和细节都有了很好的提升。对比一下使用tile模型处理前后的区别。修复和增加细节我们先随便绘制一张小屋的图,可以看出,这张图中的细节不足,而且有些地方的结构也是错误的。

图像高清修复,无损放大 N 倍

整个图像修复放大的流程分为三部分:输入原始图像、修复图像、放大并重绘图像。下面将详细拆解每一部分的生成原理。[heading3]一、图像输入[content]第一部分添加Load Image节点加载图像,只需上传需要处理的图片即可。不建议上传大分辨率的图片,图片分辨率越大,处理的时间就越长。[heading3]二、图像高清修复[content]第二部分进行高清修复,把原本模糊的图片修复,并进行2倍放大。Checkpoint大模型使用Iceclear/StableSR,这是一种新颖的方法来利用封装在预先训练的文本到图像扩散模型中的先验知识来实现盲超分辨率(SR)。具体来说,就是通过时间感知编码器,在不改变预先训练的合成模型的情况下实现有希望的恢复结果,从而保留生成先验并最小化训练成本。并且需要搭配Stable SR Upscaler模型才能在最大程度上修复图像,推理图片每个噪点,以还原图像。提示词部分应包含我们想要达到的目的内容,在此场景中如正向:(masterpiece),(best quality),(realistic),(very clear),反向:3d,cartoon,anime,sketches,(worst quality),(low quality)(杰作),(最高品质),(逼真的),(非常清晰);3D,卡通,动漫,素描,(最差质量),(低质量)全程采取两次高清修复,这一次修复原始图像分辨率并且放大,已经很完美还原,但是分辨率并不够,继续进行下一步。[heading3]三、图像高清放大[content]这一步主要针对第一次放大修复后的图像,进行二次修复。这里用realisticVision底膜最合适,这个模型在重绘扩图放大等领域效果非常好。使用提示词反推node对图像进行画面提示词提取,搭配tile ControlNet提升画面细节感,然后需用合适的高清放大模型,对图像进行二次放大。

其他人在问
视频压缩软件推荐(清晰度最好无损,用上ai技术,支持8G容量大的mp4文件压缩)
目前市面上支持您需求的视频压缩软件相对较少。不过,您可以关注以下几款可能符合部分要求的软件: 1. HandBrake:这是一款开源的视频转码工具,虽然没有明确提及使用 AI 技术,但在压缩视频时可以较好地保持画质。 2. Adobe Premiere Pro:专业的视频编辑软件,具有一定的视频压缩功能,但其主要优势在于视频编辑,对于大文件的处理能力较强。 需要注意的是,要实现无损压缩且支持 8G 容量大的 MP4 文件,同时还运用 AI 技术,可能较难完全满足。在实际使用中,您可能需要根据具体情况进行尝试和调整。
2024-10-10
提升图片清晰度
以下是一些提升图片清晰度的方法: 1. 对于清影工具: 选用尽可能清晰的图片,上传图片比例最好为 3:2(横版),支持上传 png 和 jpeg 图像。 如果原图不够清晰,可采用分辨率提升工具将其变清晰。 提示词要简单清晰,可以选择不写 prompt,直接让模型自己操控图片动起来;或者明确想动起来的主体,并以“主体+主题运动+背景+背景运动”的方式撰写提示词(一定要有主体,不然可能会出现 AI 狂乱景象)。若不明确大模型如何理解图片,可将照片发送到清言对话框进行识图,明确主体的描述。 2. 利用 AI 技术进行图像修复: 可以让模糊的旧照片重现清晰,保留珍贵回忆。 适用于人像的修复,让每一张人像照片都焕发新生,提升照片质量至高清境界。 不仅能修复图片,还可用于图像分辨率的无限扩大且不失真。 3. 在 Stable Diffusion 中: AI 出图的默认分辨率为 512x512,通常做法是提高分辨率,增加提高精细度的关键词等,但直接拉高分辨率可能会导致出图效率变低和构图问题。 可使用文生图功能中的内置高清修复(HiresFix)功能,将初始分辨率设置为适当值,选择合适的放大倍率,理论上放大倍率越高图片越清晰,但实际效果与电脑配置和显卡显存有关。先以较低分辨率画图,然后利用生成图的种子值固定图片。
2024-09-09
修复视频清晰度用什么软件
以下是一些可用于修复视频清晰度的软件及相关操作: 1. Ebsynth Utility:选择前面模糊的片段,点击 DELETE 键或退格键删除,处理完成后点击右上角的导出按钮导出新视频,注意导出名称最好使用英文。同时,若下载的视频比例不标准,需丢进剪影处理。对于分辨率很模糊的视频,可先提升分辨率再绘制,提升分辨率推荐使用插件 TopazVideoAI。 2. WinkStudio(美图旗下):用得最多的是画质修复,有锐化效果,能让视频清晰,但可能会锐化过头。人像增强效果不错。还包括画质超分和视频补帧功能,但补帧最大导入 2K 的视频。
2024-08-21
图片清晰度修复的工具
图片清晰度修复的工具有:Photoshop Generative AI 功能、Remove tool、Clone brush、Generative fill、Neural filters、SD 图生图。
2024-03-20
ai将二维线稿生成三维图像
以下是关于将二维线稿生成三维图像的相关知识: 关键词和主题描述: 为生成想要的图像,可将图片内容分为二维插画和三维立体两种形式。 主题描述时,可描述场景、故事、元素、物体或人物细节等。比如一个动物园,里面有老虎、狮子等;一个女孩在森林里搭帐篷,要注意对场景中的人物进行独立描述,拆分元素,避免一长串文字,否则 AI 可能识别不到。 设计风格: 设计师较难直接表达设计风格,可找风格类关键词参考或垫图/喂图,让 AI 结合主题描述生成相应风格的图片。 研究某些材质如玻璃、透明塑料等的关键词时,会发现其中门道很多,需针对某一种风格单独进行“咒语测试”。 生成三维图像的相关公司和技术: 往创建 3D 模型方向发展的初创公司包括 Kaedim、Mirage 和 Hypothetic 等,大公司如 Nvidia 的 Get3D 和 Autodesk 的 ClipForge 也在关注。 Kaedim 公司总部在伦敦,主要通过 2D 图像生成 3 维模型。 像 BariumAI、Ponzu 和 ArmorLab 等公司在三维纹理生成领域努力。 线稿相关的 AI 应用: 可以用 Midjourney 生成线稿,PS 修正错误,再用 ControlNet 控制,Stable Diffusion 上色,多套 AI 组合提高出图质量和效率。
2024-11-02
优秀的AI图像生成产品
以下是一些优秀的 AI 图像生成产品: 1. Artguru AI Art Generator:这是一个在线平台,能够生成逼真图像,为设计师提供灵感,丰富创作过程。其在不同月份的访问量排名较为靠前,且有一定的变化。 2. Retrato:AI 工具,可将图片转换为非凡肖像,拥有 500 多种风格选择,适合制作个性头像。 3. Stable Diffusion Reimagine:新型 AI 工具,通过稳定扩散算法生成精细、具有细节的全新视觉作品。 4. Barbie Selfie Generator:专为喜欢梦幻童话风格的人设计的 AI 工具,能将上传的照片转换为芭比风格,效果出色。 需要注意的是,这些 AI 模型通过组合技术如扩散模型、大型视觉转换器等,可以根据文本或参考图像生成具有创意且质量不错的相似图像输出,但仍存在一些局限,如偶尔会出现性能不稳定、生成内容不当等问题。
2024-10-30
可以生成图像吗
Sora 模型能够生成图像。具体实现方式是通过在具有一个帧的时间范围的空间网格中排列高斯噪声的分块。该模型可以生成不同大小的图像,分辨率高达 2048x2048。 生成式人工智能也能够生成文本和图像,涵盖博客文章、程序代码、诗歌和艺术品等。例如,像 Midjourney 等在线社区和 HuggingFace 等开源提供商也创建了生成模型。但这些模型在很大程度上仅限于大型科技公司,因为训练它们需要大量数据和计算能力。
2024-10-27
图像ai用哪个
在图像 AI 领域,为您推荐以下产品: 国内产品: 可灵:由快手团队开发,主要用于生成高质量的图像和视频。图像质量高,最初采用内测邀请制,现向所有用户开放。价格相对较高,重度用户年费最高可达几千元,平均每月使用成本在 400 到 600 元,也有每日免费点数和 60 多元单月的最便宜包月选项,适合轻度用户尝试。 通义万相:在中文理解和处理方面表现出色,用户可选择多种艺术和图像风格,生成图像质量高、细节丰富,操作界面简洁直观、用户友好度高,可与阿里其他产品和服务无缝整合。重点是现在免费,每天签到获取灵感值即可。但存在一些局限性,如为符合国内监管要求,某些类型图像无法生成,处理非中文语言或国际化内容可能不如国际工具出色,处理多元文化内容可能存在偏差。 此外,以下人员在工作中也使用了相关图像 AI 产品: Labzen:用于画图。 张雷:用于视频。 徐洋:用于行业场景细分应用 AI,通过学习 AI 赋能行业解决问题,如市场投放效率、数据化运营升级、电网资和现场销售的人员能力和效率提升等。 皮皮虾:用于文生图和图生视频。 薄荷:用于电商应用出图,辅助创意落地。 龙飞:用于海报生成。 Crossing:用于 AI 摄影、图生视频等。 朔:用于大图像以及视频工作流。 Roger:用于工作。 秦梧御:用于视频。 dwing3:用于出图。 May:用于应用。 王西西:情况还不清楚。 丘嘉杰:用于文生图、图生图、图生视频。 吴林林:用于电商应用。 朱鹏:用于广告出图。 水水:用于视频制作。 韩影:用于作图、做视频。 斌哥:用于自媒体。
2024-10-24
使用主模型及微调模型进行图像生成的过程是什么?
使用主模型及微调模型进行图像生成的过程通常包括以下步骤: 1. 对于像 Video LDM 这样的模型,首先训练一个 LDM(隐扩散模型)图像生成器。 2. 以 OpenAI 的文本到图像模型为例,在大量由图像和描述图像的文本组成的数据集上进行训练。训练时,先将字符串用分词器分解为离散的 token,通过最大化似然函数构建文本语言模型,然后对图像进行调整将其转换为描述生成器。 3. 为改进在图像生成数据集上的描述效果,对描述生成器进行微调。例如,OpenAI 构建小规模描述数据集来描述图像主对象,诱导模型偏向于描述主对象,此为“短合成描述”;或者创建更长、更丰富的文本数据集来描述图像内容。 4. 对于视频生成,如 Video LDM 向解码器添加额外的时间层,并使用用 3D 卷积构建的逐块时间判别器在视频数据上进行微调,同时编码器保持不变,以实现时间上一致的重建。类似于 Video LDM,Stable Video Diffusion(SVD)也是基于 LDM,在每一个空间卷积和注意力层之后插入时间层,并在整个模型层面上执行微调。 5. 在视频生成的微调过程中,长度为 T 的输入序列会被解释成用于基础图像模型的一批图像,然后再调整为用于时间层的视频格式。其中有 skip 连接通过学习到的融合参数导向时间层输出和空间输出的组合。在实践中,实现的时间混合层有时间注意力和基于 3D 卷积的残差模块等。但 LDM 的预训练自动编码器存在只能看见图像、永远看不见视频的问题,直接用于生成视频会产生闪动伪影和时间一致性差的情况,所以需要进行上述微调操作。
2024-10-19
以图像识别,为小白科普相关知识和交叉领域,并为研究生提供参考选题
图像识别是指利用计算机技术对图像进行处理和分析,以识别和理解图像中的内容。 对于小白来说,图像识别是让计算机像人一样“看懂”图像。它基于深度学习、机器学习等技术,通过对大量图像数据的学习和训练,能够自动提取图像的特征,并进行分类、识别等操作。 图像识别的应用非常广泛,比如在安防领域,用于人脸识别、车牌识别等;在医疗领域,辅助疾病诊断、医学影像分析;在交通领域,实现交通标志识别、车辆检测等。 图像识别与多个领域存在交叉,如计算机视觉,它不仅关注图像的识别,还包括图像的生成、处理等;与人工智能的其他分支如自然语言处理也有结合,实现图文转换等功能;在工业领域,与自动化生产相结合,进行产品质量检测等。 对于研究生来说,以下是一些参考选题: 1. 基于小样本学习的图像识别算法研究。 2. 融合多模态信息的图像识别模型优化。 3. 针对特定场景(如复杂环境、低光照等)的图像识别改进。 4. 图像识别在医疗诊断中的精准度提升策略。 5. 结合深度学习和传统方法的图像识别性能比较。 6. 基于新型神经网络架构的图像识别应用。
2024-10-19
如何使用AI监控淘宝平台竞店数据
使用AI监控淘宝平台竞店数据可以通过多种方式实现,包括利用专业的电商数据分析平台和工具。以下是一些推荐的方法和工具: 1. 鲸参谋数据分析平台:这是一个电商大数据分析平台,提供品牌数据查询和行业竞争分析。它能够提供淘宝、天猫、京东全类目的行业销量、销额、均价等数据,并支持店铺和商品的定向监控,包括销量、销额、均价等详细数据 。 2. 店查查:这个工具可以帮助用户查询店铺、宝贝、关键词和快递等信息。它通过淘宝网站公开页面整理数据,不涉及隐私数据和不正当行为 。 3. 店透视:提供一键下载主图、视频、SKU和详情图的功能,支持多维度数据分析,包括评论、问大家、买家秀下载,以及店铺基本信息、销售、销售额等数据的分析 。 4. 知衣科技:提供电商数据分析软件,专注于淘宝、天猫、京东等平台的数据分析。它覆盖了400000家淘宝及天猫不同行业下旺铺数据,提供SKU级的详尽数据,并基于大数据分析解读趋势,赋能电商 。 5. 淘宝官方工具生意参谋:这是淘宝提供的一个官方工具,可以进行竞品分析、竞店监控等。通过生意参谋,商家可以观察几十项数据的对比,包括流量指数、交易指数、搜索人气等,并可以手动复制数据到Excel里进行建模分析 。 使用这些工具和平台,商家可以有效地监控竞店数据,分析竞争对手的销售策略和市场表现,从而优化自己的运营策略和提高竞争力。
2024-07-11
开源大模型ChatGLM 系列有哪些版本
ChatGLM 系列的开源版本包括: ChatGLM36B:第三代 ChatGLM 对话模型,采用全新设计的 Prompt 格式,原生支持工具调用、代码执行和 Agent 任务等复杂场景。 ChatGLM36Bbase:第三代 ChatGLM 基座模型,采用更多样的训练数据、更充分的训练步数和更合理的训练策略,在 10B 以下的基础模型中性能较强。 ChatGLM36B32k:第三代 ChatGLM 长上下文对话模型,在 ChatGLM36B 的基础上进一步强化了对长文本的理解能力,能处理最多 32K 长度的上下文。
2024-11-04
智谱清言的开源大模型哪些种类
智谱清言的开源大模型种类包括: 多模态模型: CogAgent18B:基于 CogVLM17B 改进的开源视觉语言模型,拥有 110 亿视觉参数和 70 亿语言参数,支持 11201120 分辨率的图像理解,具备 GUI 图像的 Agent 能力。代码链接:、始智社区。 CogVLM17B:强大的开源视觉语言模型(VLM),在多模态权威学术榜单上综合成绩优异。代码链接:。 Visualglm6B:开源的支持图像、中文和英文的多模态对话语言模型,语言模型基于 ChatGLM6B,具有 62 亿参数;图像部分通过训练 BLIP2Qformer 构建起视觉模型与语言模型的桥梁,整体模型共 78 亿参数。代码链接:。 RDM:Relay Diffusion Model,级联扩散模型,可以从任意给定分辨率的图像快速生成,而无需从白噪声生成。代码链接:。 此外,智谱清言是智谱 AI 和清华大学推出的大模型产品,基础模型为 ChatGLM 大模型。2023 年 10 月 27 日,智谱 AI 于 2023 中国计算机大会(CNCC)上,推出了全自研的第三代基座大模型 ChatGLM3 及相关系列产品。智谱清言在工具使用排名国内第一,在计算、逻辑推理、传统安全能力上排名国内前三。总体来看,智谱清言更擅长专业能力,但在代码能力上还有一定优化空间,知识百科与其他第一梯队模型相比稍显不足。综合来看,智谱清言是一个很有竞争力的大模型。可应用的场景相对广泛,根据 SuperCLUE 测评结果,优先推进在 AI 智能体方面相关的应用,包括任务规划、工具使用及一些长文本记忆相关的场景。另外在较复杂推理应用上的效果会比较不错,在广告文案、文学写作方面也是一个很好的选择。
2024-11-04
通义千问开源大模型种类
通义千问开源了多种大模型,其中 Qwen 2 模型性能超越目前所有开源模型和国内闭源模型。以下是相关信息: 性能突破:在中国大模型领域,开源模型显示出超越最强闭源模型的势头,从性能到生态都具备了媲美美国 Llama3 的能力。开源模型用实力证明其正在变得越来越强。 开源历程:2023 年 8 月,阿里云成为国内首个宣布开源自研模型的科技企业,推出通义千问第一代开源模型 Qwen;2024 年 2 月,1.5 代开源模型 Qwen1.5 发布;不到 4 个月后,Qwen2 开源。不到一年时间,通义先后开源数十款不同尺寸的模型,包括大语言模型、多模态模型、混合专家模型、代码大模型。 性能特点:Qwen 2 包括 5 种尺寸的预训练和指令调整模型,如 Qwen20.5B、Qwen21.5B、Qwen27B、Qwen257BA14B 和 Qwen272B。除英语和中文外,还接受过另外 27 种语言的数据训练,在大量基准评估中表现出最先进的性能,代码和数学性能显著提高,全面超越 llama3,增大了上下文长度支持。相比 Qwen1.5,Qwen2 实现了整体性能的代际飞跃。在国际权威测评中,Qwen272B 获十几项世界冠军,超过美国的 Llama3。 体验和下载:Qwen2 系列已上线魔搭社区 ModelScope 和阿里云百炼平台,开发者可在魔搭社区体验、下载模型,或通过阿里云百炼平台调用模型 API。同时,Qwen272binstruct 模型已经上线中国大语言模型评测竞技场 Compass Arena,所有人都可以登录体验 Qwen2 的性能,或者选择 Qwen2 模型与其他大模型进行对比测评。测评地址为。Compass Arena 是由上海人工智能实验室和魔搭社区联合推出的大模型测评平台,集齐了国内主流的 20 多款大模型。 您还可以通过玉宝搞的 LLM 在线评估(https://www.llmrank.cn/)查看国内各个闭源大模型的 HUMANEVAL 测评得分,并与 QWEN2 对比。
2024-11-04
联想异能者配置i5-12450八核,32GB内存,1TB固态硬盘,用于本地部署开源大模型可以部署哪些开源大模型
以下是一些您的联想异能者配置(i512450 八核,32GB 内存,1TB 固态硬盘)可部署的开源大模型及相关信息: ComfyUI 相比 WebUI 配置更低,系统资源占用更少,出图速度更快。ComfyUI 最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。玩 SDwebui 和 ComfyUI 建议使用 6GB 以上的显存的 NVIDIA 显卡(N 卡),内存在 16G 以上。硬盘会影响加载模型的速度,所以最好把软件和模型部署在 SSD(固态硬盘)上。 截止 2024 年 5 月,主流的 AI 笔记本电脑主要是一些专门为人工智能和深度学习设计的高性能移动工作站。一些知名品牌包括微软第 11 代 Surface Pro、微星 Creator/Workstation 系列、技嘉 Aero/Aorus 系列、戴尔 Precision 移动工作站、惠普 ZBook 移动工作站、联想 ThinkPad P 系列。这些笔记本通常配备强大的 GPU(如 NVIDIA RTX 系列)、大容量内存(32GB 以上)和高速固态硬盘,还通常预装了 NVIDIA CUDA、cuDNN 等深度学习框架,以及各种 AI 开发工具。但这类高端 AI 笔记本价格相对较高,通常在 2000 美元以上。用户可根据自身需求和预算选择合适型号,并关注散热、续航等实际使用体验。 请注意,配置上不封顶,您可根据自己的需求和预算来选择。
2024-11-04
用户体验设计与大模型的关系
用户体验设计与大模型密切相关。 在构建基于大模型的应用方面: 开发大模型应用复杂,涉及众多步骤和环节,包括框架选择、提示词设计等。 提示词的精心设计和调试至关重要,直接影响模型输出质量和应用效果。 构建有效的大型语言模型应用需要遵循一系列要点,如进行工程化、选择合适框架、了解业务需求、设计提示词、遵守安全和伦理标准、测试迭代、持续维护更新等。 在 AI 战场的发展趋势方面: 2023 年认为训练最好的模型就能吸引用户,但 2024 年大量消费者 AI 应用将通过提供最佳用户体验而非单纯提升模型性能来竞争,大模型可作为差异化优势之一,但老式护城河仍可能决定长期赢家。 关于大模型的道德观念: 大型语言模型本身不具有真正的道德观念或意识,它们是通过大量数据训练模拟语言统计规律的。 开发者和研究人员会采取多种方法确保模型输出符合社会道德和伦理标准,如数据清洗、算法设计、制定准则、保持透明度、用户反馈、持续监控、人工干预、教育和培训等,但这仍是复杂且持续的挑战。
2024-11-04
AI模型
以下是关于 AI 模型的相关信息: OpenAI API 由多种具有不同功能和价位的模型提供支持,还可通过微调针对特定用例对原始基本模型进行有限定制。具体模型包括: GPT4 Beta:一组改进 GPT3.5 的模型,能理解和生成自然语言或代码。 GPT3.5:一组改进 GPT3 的模型,能理解并生成自然语言或代码。 DALL·E Beta:能在给定自然语言提示的情况下生成和编辑图像的模型。 Whisper Beta:能将音频转换为文本的模型。 Embeddings:一组能将文本转换为数字形式的模型。 Codex Limited Beta:一组能理解和生成代码的模型,包括将自然语言转换为代码。 Moderation:能检测文本是否敏感或不安全的微调模型。 GPT3:一组能理解和生成自然语言的模型。 OpenAI 于 9.12 发布新模型,开发了一系列旨在花更多时间思考后再做出响应的新 AI 模型,能推理完成复杂任务并解决更难问题。已发布该系列在 ChatGPT 和 API 中的第一个,这是一个预览,期待定期更新和改进,还包括下一次更新的评估,目前正在开发中。 大模型与当下智能语音技能的 NLU 存在本质差别。语音技能 NLU 是通过一系列规则、分词策略等训练而成,运作逻辑规律可观测,具有 ifelse 式逻辑性。而大模型凭借海量数据在向量空间中学习知识的关联性形成,运作逻辑难以观测,脱离了 ifelse 的层面。汪华老师认为此次 AI 变革量级 100%能抵达与移动互联网同一级别,50%有可能发展至与蒸汽机出现同量级,能否到达 AGI 尚不明确。
2024-11-03