Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

视觉理解技术最新动态和趋势

Answer

以下是视觉理解技术的最新动态和趋势:

一、视觉分析技术

  1. Transformer 视觉模型优点
  2. Transformer 视觉模型的局限

二、图像-语言模型

三、视频-语言模型

四、LLM 多模态 Agent

五、应用场景

  1. 多模态内容理解与处理
  2. 智能交互与自动化
  3. 具身智能
  4. 未来发展趋势(2024 - ?)
  5. 视频生成模型 mapping

六、未来发展方向

  1. 技术路径而言:利用预训练 LLMs 进行指令调整
    • 最初,多模态融合方法常采用预训练的目标检测器,如 ViLBERT、VisualBERT 和 Unicoder-VL,通过提取图像特征和执行交叉模态预训练任务,为后续的图像 - 文本任务奠定基础。
    • 随着 ViT 的出现和普及,更多方法开始利用 ViT 作为图像编码器,强调大规模预训练,以提高模型的性能和泛化能力,例如 Flamingo。
    • 近期,向多模态 LLMs 发展,从进行预训练到向指令调整(instruction tuning)转变,如 LLaVA 和 MiniGPT-4,融合视觉和语言信息,能更有效地完成视觉理解相关任务,提升模型对于指令的理解能力和零样本性能,更好地泛化到未见过的任务和领域。
  2. 应用场景而言:赋予机器理解多模态的能力

此外,李飞飞在 2015 年的 TED 演讲《我们怎么教计算机理解图片?》中提到了计算机视觉方面的研究进展,指出虽然在科技上取得了很多进步,但在计算机视觉方面仍存在一些问题,如自动驾驶车辆的视觉敏锐度、向盲人传递画面、无人机的视觉技术等。

Content generated by AI large model, please carefully verify (powered by aily)

References

质朴发言:视觉-语言理解模型的当前技术边界与未来应用想象|Z 研究第 2 期

原文链接:https://mp.weixin.qq.com/s/dYLqW8dNOcQw59UtQwXNgA来源:质朴发言发文时间:2024.01.22近期,生成式AI领域的浪潮催化了多模态模型的探索,研究人员不断尝试使用更多模态数据的编码,以训练出能够理解和处理多种类型数据的模型。本份研究报告集中讨论了基于Transformer架构的视觉-语言模型,这些模型优化了从视觉输入到语言输出的转换过程。报告的范围专注于视觉和语言之间的交互,而不考虑单纯的视觉到视觉的计算机视觉任务。综上,本报告旨在为所有关心大模型事业的伙伴,提供一个全面而深入的视角,以理解视觉-语言理解模型的发展历程、现状及未来趋势。🌊目录建议结合要点进行针对性阅读。👇一、视觉分析技术1、Transformer视觉模型优点2、Transformer视觉模型的局限二、图像-语言模型三、视频-语言模型四、LLM多模态Agent五、应用场景1、多模态内容理解与处理2、智能交互与自动化3、具身智能4、未来发展趋势(2024-?)5、视频生成模型mapping六、未来发展方向1、技术路径而言:利用预训练LLMs进行指令调整2、应用场景而言:赋予机器理解多模态的能力七、References八、附录

质朴发言:视觉-语言理解模型的当前技术边界与未来应用想象|Z 研究第 2 期

最初,多模态融合方法常采用预训练的目标检测器,例如ViLBERT、VisualBERT和Unicoder-VL。这些方法通过提取图像特征和执行交叉模态预训练任务,为后续的图像-文本任务奠定了基础。随着ViT的出现和普及,更多方法开始利用ViT作为图像编码器。这些方法强调大规模预训练,以提高模型的性能和泛化能力,例如Flamingo。近期,我们见证了向多模态LLMs的发展趋势,从进行预训练到向指令调整(instruction tuning)转变。例如LLaVA和MiniGPT-4,它们通过融合视觉和语言信息,能够更有效地完成视觉理解相关的任务。这进一步提升模型对于指令的理解能力,提升零样本性能,使模型能够更好地泛化到未见过的任务和领域,对于实现具有高度智能的通用人工智能,是一个重要的进步。

李飞飞的两次 TED 演讲

链接:https://www.ted.com/talks/fei_fei_li_how_we_re_teaching_computers_to_understand_pictures?language=zh-CN我先来给你们看点东西。(视频)女孩:好吧,这是只猫,坐在床上。一个男孩摸着一头大象。那些人正准备登机。那是架大飞机。李飞飞:这是一个三岁的小孩在讲述她从一系列照片里看到的东西。对这个世界,她也许还有很多要学的东西,但在一个重要的任务上,她已经是专家了:去理解她所看到的东西。我们的社会已经在科技上取得了前所未有的进步。我们把人送上月球,我们制造出可以与我们对话的手机,或者订制一个音乐电台,播放的全是我们喜欢的音乐。然而,哪怕是我们最先进的机器和电脑也会在这个问题上犯难。所以今天我在这里,向大家做个进度汇报:关于我们在计算机视觉方面最新的研究进展。这是计算机科学领域最前沿的、具有革命性潜力的科技。是的,我们现在已经有了具备自动驾驶功能的原型车,但是如果没有敏锐的视觉,它们就不能真正区分出地上摆着的是一个压扁的纸袋,可以被轻易压过,还是一块相同体积的石头,应该避开。我们已经造出了超高清的相机,但我们仍然无法把这些画面传递给盲人。我们的无人机可以飞越广阔的土地,却没有足够的视觉技术

Others are asking
有没有视觉识别的模型
以下是一些视觉识别的模型: 1. siglipso400mpatch14384:由 Google 开发的视觉特征提取模型,负责理解和编码图像内容。工作流程包括接收输入图像、分析图像的视觉内容(如物体、场景、颜色、纹理等)、将这些视觉信息编码成一组特征向量。可在 ComfyUI\models\clip 中下载,若因环境问题,也可在网盘中下载。下载好后,目录的文件包括 image_adapter.pt(适配器),其连接视觉模型和语言模型,优化数据转换。工作流程包括接收来自视觉模型的特征向量、转换和调整这些特征使其适合语言模型处理、进行一些特定任务的优化或微调(如图片到文字)。可通过 https://huggingface.co/spaces/fancyfeast/joycaptionprealpha/tree/main/wpkklhc6 下载,放到 models 的 Joy_caption 文件夹里,若该文件夹不存在,新建一个。 2. Comfyui IPAdapter 中的图像模型: ,下载并重命名。 ,下载并重命名。下载后放入/ComfyUI/models/clip_vision。需要注意的是,clip vison 只能编码 224x224 大小的正方形图片,后续使用时若图片不是正方形,需进行裁剪。
2024-12-19
我想找关于视觉识别相关的api
很抱歉,目前知识库中没有关于视觉识别相关 API 的具体信息。但您可以通过以下途径寻找: 1. 一些知名的云服务提供商,如阿里云、腾讯云、百度云等,它们通常提供视觉识别相关的 API 服务。 2. 专门的人工智能和计算机视觉技术公司的官方网站,可能会有相关的 API 介绍和使用文档。 3. 技术社区和开发者论坛,例如 CSDN、掘金等,您可以在这些地方与其他开发者交流,获取相关的推荐和经验分享。
2024-12-19
国内做视觉理解的大模型厂商有哪些
国内做视觉理解的大模型厂商有以下这些: 北京: 百度(文心一言):https://wenxin.baidu.com 抖音(云雀大模型):https://www.doubao.com 智谱 AI(GLM 大模型):https://chatglm.cn 中科院(紫东太初大模型):https://xihe.mindspore.cn 百川智能(百川大模型):https://www.baichuanai.com 上海: 商汤(日日新大模型):https://www.sensetime.com MiniMax(ABAB 大模型):https://api.minimax.chat 上海人工智能实验室(书生通用大模型):https://internai.org.cn 此外,在 0 基础手搓 AI 拍立得的模型供应商选择中,还有以下视觉类大模型厂商: 智谱 GLM4V:通用视觉类大模型,拍立得最早使用的模型,接口响应速度快,指令灵活性差一些,一个接口支持图片/视频/文本,视频和图片类型不能同时输入,调用成本为 0.05 元/千 tokens, 阿里云百炼 qwenvlplus:通用视觉类大模型,拍立得目前使用的模型,指令灵活性比较丰富,接口调用入门流程长一些,密钥安全性更高,调用成本为¥0.008/千 tokens,训练成本为¥0.03/千 tokens, 阶跃星辰:通用视觉类大模型,响应速度快,支持视频理解,输入成本为¥0.005~0.015/千 tokens,输出成本为¥0.02~0.07/千 tokens, 百度 PaddlePaddle:OCR,垂直小模型,文本识别能力补齐增强,私有化部署服务费,API 调用在¥0.05~0.1/次,
2024-12-19
有哪些好的将文本转换为视觉的AI工具
以下是一些将文本转换为视觉的 AI 工具: 1. Pika:出色的文本生成视频 AI 工具,擅长动画制作,支持视频编辑。 2. SVD:Stable Diffusion 的插件,可在图片基础上生成视频,由 Stability AI 开源。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频功能,但收费。 4. Kaiber:视频转视频 AI,能将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 6. Napkin AI:将文本内容转换为视觉图像,生成图表、流程图等,可编辑和个性化设计元素,并导出多种格式。 7. Trellis AI:能从非结构化内容中提取数据,将复杂数据源高效转换成结构化的 SQL 格式。 更多的文生视频的网站可以查看:https://www.waytoagi.com/category/38 。 此外,在软件架构设计中,以下工具可用于绘制逻辑视图、功能视图和部署视图: 1. Lucidchart:流行的在线绘图工具,支持多种图表创建。 2. Visual Paradigm:全面的 UML 工具,提供多种架构视图创建功能。 3. ArchiMate:开源建模语言,与 Archi 工具配合使用支持逻辑视图创建。 4. Enterprise Architect:强大的建模、设计和生成代码工具,支持多种架构视图创建。 5. Microsoft Visio:广泛使用的图表和矢量图形应用程序,提供丰富模板。 6. draw.io(现称 diagrams.net):免费在线图表软件,支持多种图表创建。 7. PlantUML:文本到 UML 转换工具,可自动生成多种视图。 8. Gliffy:基于云的绘图工具,提供架构图创建功能。 9. Archi:免费开源工具,支持逻辑视图创建。 10. Rational Rose:IBM 的 UML 工具,支持多种视图创建。
2024-12-12
(defun 生成记忆卡片 (单词) "生成单词记忆卡片的主函数" (let* ((词根 (分解词根 单词)) (联想 (mapcar #'词根联想 词根)) (故事 (创造生动故事 联想)) (视觉 (设计SVG卡片 单词 词根 故事))) (输出卡片 单词 词根 故事 视觉))) (defun 设计SVG卡片 (单词 词根 故事) "创建SVG记忆卡片" (design_rule "合理使用负空间,整体排版要有呼
以下是关于生成记忆卡片和 SVG 卡片的相关信息: 卡片类的应用被定义为词生卡片,如李继刚的《汉语新解》、一泽的《名片设计》、云中江树的《AI 简历》等,都是通过给大模型优化过的 Prompt,让其生成 HTML 代码或 SVG 代码,再通过浏览器渲染效果。 把提示词丢给 Claude ,如在 Poe 平台上的 Claude 模型,大概率会直接输出 SVG 代码,但对于子步骤是否执行等情况难以知晓。Andrej Karpathy 认为,模型需要 tokens 来思考,如果大语言模型未将思考过程外化,则几乎等于没思考。 甲木介绍了让 Claude 生成古诗词卡片的方法,流程包括输入 Prompt 、用户输入主题和风格,AI 输出最终结果。获取提示词已开源,创作过程主要是根据给定主题和方向生成匹配的中国古诗词,创建设计感强烈、富有中国传统美学的 SVG 卡片展示诗词,并提供相关信息,还支持根据用户提供的主题和方向生成对应语境的 prompt 并配图生成 SVGCard 。但对于“逼格高”的看法因人而异,可将选择权交给 AI 。
2024-11-28
gpt4o视觉模型
GPT4o 是 OpenAI 推出的模型。开发人员现在可在 API 中将其作为文本和视觉模型进行访问。与 GPT4 Turbo 相比,具有速度快 2 倍、价格减半、速率限制高出 5 倍的优势。未来几周计划向 API 中的一小群受信任的合作伙伴推出对其新音频和视频功能的支持。 GPT4o(“o”代表“omni”)是迈向更自然人机交互的一步,能接受文本、音频和图像的任意组合作为输入,并生成文本、音频和图像输出的任意组合。它在 232 毫秒内可响应音频输入,平均为 320 毫秒,与人类响应时间相似。在英语文本和代码上的 GPT4 Turbo 性能相匹配,在非英语语言的文本上有显著改进,在 API 中更快且便宜 50%,在视觉和音频理解方面表现出色。 在 GPT4o 之前,语音模式由三个独立模型组成的管道实现,存在信息丢失等问题。而 GPT4o 是在文本、视觉和音频上端到端训练的新模型,所有输入和输出都由同一个神经网络处理,但对其能做什么及局限性仍在探索。
2024-11-14
如何根据虑库存水平、需求预测、补货成本、库存持有成本等因素,使用线性规划、动态规划、随机优化等方法来调整库存结构呢
很抱歉,目前没有关于如何根据您提到的库存水平、需求预测、补货成本、库存持有成本等因素,使用线性规划、动态规划、随机优化等方法来调整库存结构的具体内容。但我可以为您提供一些一般性的思路和步骤: 首先,需要对库存水平、需求预测、补货成本和库存持有成本等数据进行详细的收集和分析。 对于线性规划方法,您可以建立一个目标函数,例如最小化总成本(包括补货成本和库存持有成本),同时满足库存水平和需求预测的约束条件。通过求解这个线性规划问题,得到最优的库存调整策略。 动态规划则是将问题分解为多个阶段,在每个阶段根据当前状态和决策选择来优化未来的结果。在库存调整中,可以根据不同时期的库存和需求情况,逐步做出最优决策。 随机优化适用于需求存在不确定性的情况。您可以建立概率模型来描述需求的不确定性,然后通过优化算法找到在不确定性条件下的最优库存策略。 不过,具体的应用和实现需要根据您的实际业务情况和数据特点进行深入研究和定制化的建模。
2025-01-06
AIGC视频生成领域的最新技术动态
以下是 AIGC 视频生成领域的最新技术动态: 以生成方式划分,当前视频生成可分为文生视频、图生视频与视频生视频。主流生成模型为扩散模型,其涉及深度学习技术如 GANs 和 Video Diffusion。视频生成可用于娱乐、体育分析和自动驾驶等领域,且经常与语音生成一起使用。 用于语音生成的模型可以由 Transformers 提供,可用于文本到语音的转换、虚拟助手和语音克隆等。生成音频信号常用的技术包括循环神经网络(RNNs)、长短时记忆网络(LSTMs)、WaveNet 等。 一些具有代表性的海外项目: Sora(OpenAI):以扩散 Transformer 模型为核心,能够生成长达一分钟的高保真视频。支持文本生成视频、视频生成视频、图像生成视频,在文本理解方面表现出色,还能在单个生成的视频中创建多个镜头,保留角色和视觉风格。 Genie(Google):采用 STtransformer 架构,包括潜在动作模型、视频分词器与动力学模型,拥有 110 亿参数,可通过单张图像提示生成交互式环境。 此外,AIGC 周刊中也有相关动态: 2024 年 7 月第三周:未提及视频生成领域的具体内容。 2024 年 7 月第四周:未提及视频生成领域的具体内容。 2024 年 7 月第五周:未提及视频生成领域的具体内容。 2024 年 8 月第一周:未提及视频生成领域的具体内容。 在 AIGC 概述中提到,AIGC 主要分为语言文本生成、图像生成和音视频生成。音视频生成利用扩散模型、GANs 和 Video Diffusion 等,广泛应用于娱乐和语音生成,代表项目有 Sora 和 WaveNet。此外,AIGC 还可应用于音乐生成、游戏开发和医疗保健等领域,展现出广泛的应用前景。
2024-12-26
AIGC视频生成领域的最新技术动态
以下是 AIGC 视频生成领域的最新技术动态: 以生成方式划分,当前视频生成可分为文生视频、图生视频与视频生视频。主流生成模型为扩散模型,其涉及深度学习技术,如 GANs 和 Video Diffusion。视频生成可用于娱乐、体育分析和自动驾驶等领域,且经常与语音生成一起使用。 用于语音生成的模型可以由 Transformers 提供,可用于文本到语音的转换、虚拟助手和语音克隆等。生成音频信号常用的技术包括循环神经网络(RNNs)、长短时记忆网络(LSTMs)、WaveNet 等。 一些具有代表性的海外项目: Sora(OpenAI):以扩散 Transformer 模型为核心,能够生成长达一分钟的高保真视频。支持文本生成视频、视频生成视频、图像生成视频,在文本理解方面表现出色,还能在单个生成的视频中创建多个镜头,保留角色和视觉风格。 Genie(Google):采用 STtransformer 架构,包括潜在动作模型、视频分词器与动力学模型,拥有 110 亿参数,可通过单张图像提示生成交互式环境。 此外,AIGC 周刊中也有相关动态: 2024 年 7 月第三周:未提及视频生成的具体内容。 2024 年 7 月第四周:未提及视频生成的具体内容。 2024 年 7 月第五周:未提及视频生成的具体内容。 2024 年 8 月第一周:未提及视频生成的具体内容。 AIGC 作为一种强大的技术,能够赋能诸多领域,但也存在多重潜在的合规风险。我国对 AIGC 的监管框架由多部法律法规构成。AIGC 主要分为语言文本生成、图像生成和音视频生成,在多个领域展现出广泛的应用前景。
2024-12-26
Ai动态运镜描述词
以下是为您提供的关于 AI 动态运镜描述词的相关信息: 一、PixelDance V1.4 中的动态运镜示例 1. 男人转到侧面,抬头看向天花板上的美式吊灯,镜头聚焦于吊灯上。基础参数:镜头不固定,16:9,10s。 2. 女人微笑着低下头,镜头拉远,一个白人男人注视着这个女人。基础参数:镜头不固定,16:9,10s。 3. 一个男人在冲浪,镜头跟随他的运动,聚焦于他的脸部,他对着镜头比了大拇指。基础参数:镜头不固定,16:9,10s。 二、AI 视频运动镜头词测试相关情况 1. 共同测试者:阿强、淅吾、苏小蕊、crazy、五杠、爱育、森林小羊、wangeasy、朔、Lunana🦌_Lulala🌟、萝卜味儿砒霜、jacky、林窗鲸落、Yann 等。 2. 鸣谢:感谢所罗门老师提供的 luma 会员账号。 3. Dream Machine 是一种 AI 模型,可快速将文本和图像制作成高质量、逼真的视频。它是高度可扩展且高效的转换器模型,直接在视频上训练,能生成物理上准确、一致且多变的镜头,图生视频表现惊艳,属电影级。体验地址:https://lumalabs.ai/dreammachine/creations 。 4. 测词目的: 掌握影视级运镜。 评估 Luma 对不同类型运镜的精度和稳定性。 检测运镜崩坏情况。 5. 测试说明: 取消勾选 Enhance prompt。 欢迎补充表格中未列出的运动镜头词。 在想测试的词后面,填上名字,避免重复测试。 6. 测试总结: 纯运镜关键词效果不佳。 结合具体画面描述才有较好效果。 某些情况下,luma 会根据画面合理性自行调整运镜。
2024-12-23
那款AI可以让静态变动态I
以下是一些可以让静态变动态的 AI 工具和方法: 1. Hailuo AI 推出的 I2V01Live 新功能,能够为静态 2D 插画加入流畅动画,赋予角色生命力,支持多种艺术风格,动作细节表现真实流畅。相关链接: 2. 腾讯 Hunyuan 是 130 亿参数开源视频模型,能生成高质量视频,动作连贯自然,镜头切换灵活,具备强大语义跟随能力。官网: 3. 可以通过教程学习用 AI 制作动画视频播客,比如五步学会的方法。相关链接: 4. 可以使用即梦、runway 等工具,比如在剪映里添加 PNG 透明底图并导出。
2024-12-18
制作动态图标的AI工具有哪些
以下是一些可以制作动态图标的 AI 工具: 1. 即梦:可以用于制作动态图标。 2. runway:能够辅助制作动态图标。 此外,在其他领域也有一些相关的 AI 工具: 1. 在 CAD 图绘制方面: CADtools 12:是 Adobe Illustrator 插件,添加了 92 个绘图和编辑工具。 Autodesk Fusion 360:集成了 AI 功能的云端 3D CAD/CAM 软件。 nTopology:基于 AI 的设计软件,可创建复杂 CAD 模型。 ParaMatters CogniCAD:能根据输入自动生成 3D 模型。 主流 CAD 软件如 Autodesk 系列、SolidWorks 等提供的生成设计工具。 2. 在绘制逻辑视图、功能视图、部署视图方面: Lucidchart:流行的在线绘图工具,支持多种视图创建。 Visual Paradigm:全面的 UML 工具,提供多种视图创建功能。 ArchiMate:开源建模语言,与 Archi 工具配合使用。 Enterprise Architect:强大的建模、设计和生成代码工具。 Microsoft Visio:广泛使用的图表和矢量图形应用程序。 draw.io(diagrams.net):免费的在线图表软件。 PlantUML:文本到 UML 转换工具。 Gliffy:基于云的绘图工具。 Archi:免费开源工具,支持逻辑视图创建。 Rational Rose:IBM 的 UML 工具,支持多种视图创建。 需要注意的是,这些工具通常需要一定的相关知识和技能才能有效使用。对于初学者,建议先学习基本技巧,然后再尝试使用这些工具来提高效率。
2024-12-02
有没有ai制作海报的软件或者网站,最好能理解案例图片的
以下是一些可以用 AI 制作海报的软件和网站,并为您附上相关案例和使用方法: 1. 无界 AI: 网址:https://www.wujieai.cc/ 做图逻辑类似于 SD,优势在于国内网络即可稳定使用,有免费出图点数,支持中文关键词输入,无需额外下载风格模型,可直接取用。 应用场景示例:朋友圈 po 图,画幅比例选择 1:1。 皮克斯卡通模型位置:二次元模型》模型主题》皮克斯卡通。 关键词类别:场景(如向日葵花田、面包店等)、氛围(如温馨、温暖等)、人物(如父亲和女儿、父亲和儿子)、造型(如发型、发色、服饰、配饰)、情绪(如笑得很开心、大笑、对视等)、道具(如童话书等)、构图(如半身、中景等)、画面(色彩明艳)。 2. Canva(可画): 网址:https://www.canva.cn/ 是一个非常受欢迎的在线设计工具,提供大量模板和设计元素,用户可通过简单拖放操作创建海报,其 AI 功能可帮助选择合适颜色搭配和字体样式。 3. 稿定设计: 网址:https://www.gaoding.com/ 稿定智能设计工具采用先进人工智能技术,自动分析和生成设计方案,稍作调整即可完成完美设计。 4. VistaCreate: 网址:https://create.vista.com/ 简单易用的设计平台,提供大量设计模板和元素,用户可使用 AI 工具创建个性化海报,智能建议功能可帮助快速找到合适设计元素。 5. Microsoft Designer: 网址:https://designer.microsoft.com/ 通过简单拖放界面,用户可快速创建演示文稿、社交媒体帖子和其他视觉内容,还集成丰富模板库和自动图像编辑功能,如智能布局和文字优化,大大简化设计流程。 此外,还有东阿阿胶的海报设计案例分享: 1. 拆解步骤:得到需求 提取元素 绘制线稿 用 controlnet 转绘上色 ps 优化 定稿。 2. 需求元素:风格要潮流插画,还要有唐代元素和国潮(前期基本上是沟通成本,主要定线稿)。 3. 提取元素:获取的信息需要体现产品图,需要体现唐代元素,需要 logo 在中心位置,按照需求开始绘制线稿。 4. 线稿绘制:沟通的元素是牡丹花,驴子(最后换成了琵琶),人参和产品图和 logo,所以进行线稿调整绘制(中间很多细节沟通)最终定下线稿(里面很多元素都是拼接的)。 5. 拆分元素线稿:这一步非常重要,因为会涉及到后续元素替换等问题,比如单个 logo,产品等,提取出单独元素,进行绘制,最后进行替换。 6. 单个元素绘制:这样会让单个元素更加精致,也方便后期替换。 7. 然后利用拼接好的线稿进行大量跑图抽卡,选出一张最合适的进行 ps 优化。 8. 整体拼接上色后的效果(将单独跑的元素在 ps 里替换优化,再过一遍 sd 进行溶图放大)得到以下效果。 9. 最终客户把驴子去掉了,换成了一把琵琶,也是同产品图一样的做法,最后把琵琶替换掉驴子,得到定稿图。 上色运用的大模型:GhostMix 鬼混_V2.0 lora 模型:"盒子系列——平面国潮插画_v1.0:182ba9e2f576 controlnet 模型:"Module:lineart_coarse,Model:contr"
2025-01-07
如何理解AI网站和AI大模型的关系
AI 网站和 AI 大模型之间存在着密切的关系。 首先,AI 大模型是人工智能领域的核心技术之一。它是基于深度学习等方法构建的具有大规模参数和强大能力的模型,例如能够处理自然语言、生成文本、进行语义理解等。 生成式 AI 生成的内容称为 AIGC。相关技术名词包括: 1. AI 即人工智能。 2. 机器学习是电脑找规律学习,涵盖监督学习(有标签的训练数据,学习输入和输出之间的映射关系,包括分类和回归)、无监督学习(学习的数据无标签,算法自主发现规律,如聚类)、强化学习(从反馈中学习,最大化奖励或最小化损失,类似训小狗)。 3. 深度学习参照人脑,有神经网络和神经元,因层数多被称为深度,神经网络可用于多种学习方式。 4. LLM 是大语言模型,对于生成式 AI,生成图像的扩散模型不属于大语言模型;对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型可用于语义理解(如上下文理解、情感分析、文本分类),但不擅长文本生成。 技术方面,2017 年 6 月谷歌团队发表的《Attention is All You Need》论文首次提出了 Transformer 模型,它基于自注意力机制处理序列数据,比 RNN 更适合处理文本的长距离依赖性。 AI 网站通常是展示和应用 AI 大模型的平台。通过网站,用户可以与 AI 大模型进行交互,获取其提供的服务和功能,例如进行文本生成、问答、翻译等。同时,AI 网站也为 AI 大模型的推广、应用和改进提供了渠道。
2025-01-07
理解LoRA训练以及参数
LoRA 训练的参数主要包括以下方面: 1. 学习步数:指 AI 对每张图片的学习次数。二次元图片的 repeat 一般在 10 15,写实人物图片的 repeat 一般在 30 50,真实世界的景观场景可能要达到 100。repeat 值越高,AI 越能读懂图片,但图片精细度越高,学习步数也要越高。 2. 循环次数:AI 将所有图片按照学习步数学习一轮就是一次循环,循环次数就是将这个过程重复的遍数。一般数值在 10 20 之间,次数并非越多越好,过多会导致过拟合。总的训练步数 = 图片张数×学习步数×循环次数。 3. 效率设置:主要控制电脑的训练速度,可保持默认值,也可根据电脑显存微调,但要避免显存过载。 4. DIM:不同场景有不同的推荐值。如二次元一般为 32,人物常见为 32 128,实物、风景则≥128。DIM 为 64 时,输出文件一般为 70MB +;DIM 为 128 时,输出文件一般为 140MB + 。 5. 样图设置:主要控制训练过程中的样图显示,可实时观测训练效果。“sample every n steps”为 50 代表每 50 步生成一张样图,prompts 提示词可预设效果或自定义。 6. 并行数量:代表 AI 同一时间学习的图片数量。数值越大,训练速度越快,内存占用越大,收敛得慢;数值越小,训练速度越慢,内存占用越小,收敛得快。以 512×512 的图片为例,显存小于等于 6g,batch size 设为 1;显存为 12g 以上,batch size 可设为 4 或 6。增加并行数量时,通常也会增加循环次数。 7. 质量设置: 学习率:指 AI 学习图片的效率,过高会过拟合,过低会不拟合。1e 4 即 1 除以 10 的 4 次方,等于 0.0001;1e 5 即 1 除以 10 的 5 次方,等于 0.00001。一般保持默认,如需调整可点击数值旁的加减号。 网格维度:network dim 决定出图精细度,数值越高有助于 AI 学会更多细节,但数值越大学习越慢,训练时间越长,易过拟合。
2025-01-06
理解LoRA训练以及参数
LoRA 训练的参数主要包括以下方面: 1. 学习步数:指 AI 对每张图片的学习次数。二次元图片的 repeat 一般在 10 15,写实人物图片的 repeat 一般在 30 50,真实世界的景观场景可能要达到 100。repeat 值越高,AI 越能读懂图片,但图片精细度越高,学习步数也要越高。 2. 循环次数:AI 将所有图片按照学习步数学习一轮就是一次循环,循环次数就是将这个过程重复的遍数。一般数值在 10 20 之间,次数并非越多越好,过多会导致过拟合。总的训练步数 = 图片张数×学习步数×循环次数。 3. 效率设置:主要控制电脑的训练速度,可保持默认值,也可根据电脑显存微调,但要避免显存过载。 4. DIM:不同场景有不同的推荐值。如二次元一般为 32,人物常见为 32 128,实物、风景则≥128。DIM 为 64 时,输出文件一般为 70MB +;DIM 为 128 时,输出文件一般为 140MB + 。 5. 样图设置:主要控制训练过程中的样图显示,“sample every n steps”为 50 代表每 50 步生成一张样图。Prompts 提示词可预设效果或自定义。 6. 并行数量:代表 AI 同一时间学习的图片数量。数值越大,训练速度越快,内存占用越大,但收敛得慢;数值越小,训练速度越慢,内存占用越小,但收敛得快。显存小于等于 6g 时,batch size 设为 1;显存为 12g 以上时,batch size 可设为 4 或 6。 7. 质量设置: 学习率:指 AI 学习图片的效率,过高会过拟合,过低会不拟合。1e 4 实际为 1 除以 10 的 4 次方,即 0.0001;1e 5 为 1 除以 10 的 5 次方,即 0.00001。一般保持默认,如需调整可点击数值旁的加减号。 网格维度:network dim 决定出图精细度,数值越高有助于 AI 学会更多细节,但数值越大学习越慢,训练时间越长,易过拟合。
2025-01-06
2024年《全球人工智能治理研究报告》议题“国家主权原则和人工智能发展”的内容及理解
以下是 2024 年《全球人工智能治理研究报告》中关于“国家主权原则和人工智能发展”的相关内容: 在 2024 年人工智能发展状况的安全与全球治理方面: 英国创建了世界上第一个人工智能安全研究所(AISA),其有三个核心功能:在部署前对高级模型进行评估;建立国家能力并开展研究;协调国际合作伙伴。AISA 还发布了 Inspect 框架用于 LLM 安全评估。英国宣布与美国等效机构签署谅解备忘录,并计划在美国旧金山设立办事处。 英国通过其高级研究与发明机构(ARIA),花费 5900 万英镑开发“守门员”系统,负责了解和减少关键领域中其他人工智能代理的风险。英国政府还计划设立“AI 安全研究实验室”,旨在汇集政府关于敌对国家使用进攻性 AI 的知识。美国能源部利用内部测试床评估人工智能对关键基础设施和能源安全的风险。 在技术和方法方面: 离线直接比对方法不会很快大规模取代 RLHF。谷歌 DeepMind 团队发现 RLHF 在涵盖总结、有用性、对话性等数据集上的测试中胜出,能更有效地改善生成任务。Cohere for AI 探索放弃近端策略优化 RLHF 中的算法,有利于其 RLOO 训练器,可降低 GPU 使用率和提高训练速度。 但 RLHF 存在可能滋生谄媚行为的问题,如 Anthropic 认为 SOTA AI 助手表现出奉承行为是因为人类偏好数据等。开发透明度虽在提高,但仍有很大改进空间。 在安全研究方面: 随着 AI 发展,新功能带来新漏洞,开发人员加大了对“越狱”的研究。OpenAI 提出通过“指令层次结构”修复攻击,Anthropic 表明“警告防御”的潜力,Gray Swan AI 的安全专家试用“断路器”。LLM 测试初创公司 Haize Labs 与 Hugging Face 合作创建首个红队抵抗组织基准。除越狱外,还存在更隐蔽的攻击,潜在攻击面广泛,涵盖从训练到偏好数据和微调等内容。 对于“国家主权原则和人工智能发展”的理解,可能需要综合考虑各国在人工智能安全研究和治理方面的举措,以及技术发展对国家主权可能产生的影响。各国积极建立相关机构和采取措施,表明在人工智能快速发展的背景下,维护国家主权和安全的重要性。同时,技术发展中的问题和挑战也需要各国共同协作应对,以实现人工智能的健康、安全和可持续发展。
2024-12-31
如何优化ai对话脚本和逻辑(多轮对话测试提升ai上下文理解)
以下是优化 AI 对话脚本和逻辑(多轮对话测试提升 AI 上下文理解)的方法: 1. 样例驱动的渐进式引导法 评估样例,尝试提炼模板:独自产出高质量样例较难,可借助擅长扮演专家角色的 AI 改进初始正向样例,如使用 Claude 3.5 进行对话,输入初始指令,通过其回复侧面印证对样例的理解与建议。 多轮反馈,直至达到预期:AI 可能犯错输出要求外内容,需多轮对话引导,使其不断修正理解,直至达成共识。 用例测试,看看 AI 是否真正理解:找 13 个用例,让 AI 根据模板生成知识卡片,根据结果验证是否符合预期,不符合则继续探讨调整。用例测试和多轮反馈步骤灵活,可根据需要自由反馈调整。 2. Coze 全方位入门剖析 标准流程创建 AI Bot(进阶推荐) 为 Bot 添加技能:国内版暂时只支持使用“云雀大模型”作为对话引擎,可根据业务需求决定上下文轮数。在 Bot 编排页面的“技能”区域配置所需技能,可选择自动优化插件或自定义添加插件。还可根据需求配置知识库、数据库、工作流等操作,参考相关介绍和实战操作或官方文档学习。 测试 Bot:在“预览与调试”区域测试 Bot 是否按预期工作,可清除对话记录开始新测试,确保能理解用户输入并给出正确回应。
2024-12-29
有什么关于最新AI网站学习的
以下是关于最新 AI 网站学习的相关内容: 对于设计 AI 网站的 logo,如果您不确定如何操作,可以使用 AI logo 生成器。网上有许多不同的此类工具,例如 Logomaster.ai、Free Logo Design、Logo AI、Looka logo maker(原名 Logojoy)、Brandmark、DesignEvo、Tailor Brands、Designhill 等。同时,为您提供一份 AI 网站新 logo 的设计概要: 项目名称:AI 网站新 Logo 客户: 日期:20230830 目的:创建一个强大且令人难忘的视觉标识,要现代、专业、有吸引力,能用于多种营销材料。 目标受众:对使用 AI 解决问题感兴趣的企业和个人,应传达创新、创造力和智慧。 品牌属性: 新手学习 AI 可以参考以下步骤: 了解 AI 基本概念:建议阅读「」部分,熟悉术语和基础概念,包括主要分支及联系,浏览入门文章。 开始学习之旅:在「」中找到为初学者设计的课程,推荐李宏毅老师的课程,通过在线教育平台按自己节奏学习并获取证书。 选择感兴趣的模块深入学习:AI 领域广泛,可根据兴趣选择特定模块,例如掌握提示词技巧。 实践和尝试:理论学习后进行实践,巩固知识,尝试使用各种产品并分享实践成果。 体验 AI 产品:与 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人互动,了解工作原理和交互方式。 此外,AI 是快速发展的领域,新手需要持续学习和跟进,关注新闻、博客、论坛和社交媒体,了解最新发展,考虑加入相关社群和组织,参加研讨会、工作坊和会议,与他人交流。
2025-01-10
2025最新AI排名
以下是关于 2025 年 AI 的一些相关信息: 过去一年,头部 AI 应用的品类变化不显著。对比美国 2023 年与 2024 年的 AI 应用 Top50 榜单,整体类别基本稳定。创意工具(如图像和视频内容创作)占最大比重,大语言模型助手、AI 陪伴和模型中心等类别为主流。新上榜的有美食、约会和音乐创意工具等小品类。 2024 年 9 月,OpenAI 发布新一代语言模型 o1,业界推测其采用全新训练与推理方案,结合强化学习技术,增强了推理能力,可能通过生成内部“思维链”模拟人类系统 2 思维方式。 2025 年 AI 发展趋势包括:AI 原生应用融资激增,更多公司实现 5000 万美元 ARR;并购活动增加,IPO 低迷;基础模型在多方面持续改进,尤其是多模态和推理模型;国防部加大 AI 投入;生成内容激增,视频成新焦点;AI 安全威胁与对抗加剧;监管进展缓慢。整体来看,生成式 AI 将持续主导市场。
2025-01-10
我需要了解最新的Aicg资讯
以下是关于 AIGC 最新资讯的一些内容: AIGC 应用可能引发内生风险、数据隐私问题和知识产权风险。内生风险包括算法的不可解释性和不可问责性,以及代码开源可能带来的安全和伦理担忧。数据隐私方面,AIGC 工具可能导致数据泄露、匿名化不足、未经授权的数据共享等问题。应用风险涉及作品侵权、不当竞争等问题。相关法律和规定对 AIGC 的透明性、数据收集和处理、知识产权归属等提出了要求。然而,著作权归属、数据隐私等问题尚需更多法律明确规定。此外,AIGC 的滥用可能导致虚假信息传播、侵犯隐私等问题,因此需要进一步加强监管和伦理约束。 2024 年 9 月第三周最大的新闻是 OpenAI o1 模型,不过热度下降很快,模型能力和普通人的需求脱节了,大部分人没有用这类的模型的需求,也没办法提出好问题来测试。 AIGC 还有超出了文本、视频、图像、语音生成和数据增强的应用范围。例如,它可以用于音乐生成、游戏开发、医疗保健等等。在医疗保健方面,生成性人工智能可以帮助生成合成医疗数据,以训练机器学习模型,开发新的候选药物,并设计临床试验。这些只是生成性人工智能众多可能性中的一些例子,随着技术的发展,AIGC 或将与更多的终端产品结合。
2025-01-10
2025年1月9日,AI领域最新新闻
以下是 2025 年 1 月 9 日 AI 领域的部分最新新闻: 艾媒咨询发布的《》显示,中国 AI 大模型市场在 2024 年规模约为 294.16 亿元,预计 2026 年将突破 700 亿元。用户调研表明,超过半数用户频繁使用 AI 大模型,主要用于工作和学习。国产大模型正广泛应用于各行业,如金融、医疗、教育等,推动数字化转型。政策支持、算力发展和经济因素共同驱动产业发展。AI 大模型在网络安全、教育、金融等领域展现出巨大潜力,用户对其在这些领域的应用充满期待。 其它一些报告发布在: UiPath:《》 毕马威:《》 清华大学:《》 中央企业人工智能:《》 拾象投研团队预测 2025 年 AI 发展的关键趋势,包括微软可能转向 Anthropic 合作,Google 利用其强大资源缩小与领先者的差距,以及 Agent 成为新的软件核心,推动任务自动化和推理能力的提升。同时,数据的上下文层和合成数据技术的突破将是竞争的关键。硬件方面,推理需求激增将使 NVDA 继续在算力市场中保持领先地位。 讨论了即将进入的智能代理 AI 时代,特别是 Coding Agent 的崛起。随着 AI 编程能力的提升,许多人将有机会更快地开发产品,投资者对此充满期待。然而,关于 AI Coding 是否会取代传统程序员的争论仍然存在,分为保守派、乐观派和激进派。尽管未来仍不确定,但 AI 编程课程的需求已显著增加,显示出人们对这一领域的关注和焦虑。 过去一年,头部 AI 应用的品类变化并不显著。对比美国 2023 年与 2024 年的 AI 应用 Top50 榜单,整体类别基本保持稳定。其中,创意工具(如图像和视频内容创作)依然占据最大比重,大语言模型助手、AI 陪伴和模型中心等类别也继续稳居主流地位。新上榜的仅包括美食、约会和音乐创意工具等几个小品类。 模型进展(算法、算力和数据) AI 算法的“推陈出新” OpenAI 新模型——o1 在业界对传统预训练模型进展放缓的担忧中,2024 年 9 月,OpenAI 发布了新一代语言模型 o1。尽管技术细节未被完全公开,但业界推测 o1 采用了全新的训练与推理方案,结合强化学习技术,显著增强了模型的推理能力。o1 可能是通过生成内部“思维链”(Chain of Thought),模拟人类的系统 2 思维方式,在回答复杂问题时能够逐步推理、自我纠错和优化。 心理学家丹尼尔·卡尼曼(Daniel Kahneman)曾提出人类的系统 1 和系统 2 两种思维模式——前者快速、直觉,后者慢速、理性。业界专家认为,传统的 GPT4 等模型更像系统 1,快速生成答案但缺乏深度推理,而 o1 则更倾向于系统 2,通过逐步推理提升回答质量。 o1 可能借鉴了下围棋的 AlphaGo Zero 的技术思路,例如强化学习、自我博弈和思维链的结合。尽管围棋任务的规则性与自然语言的开放性不同,但这些技术不仅为 o1 提供了更强的推理能力,也预示着 AI 技术在复杂任务领域进一步突破的可能。
2025-01-10
2025年1月10日,AI领域最新新闻
以下是 2025 年 1 月 10 日 AI 领域的最新新闻: 《拾象 2025 AI Best Ideas:20 大关键预测》:拾象投研团队预测 2025 年 AI 发展的关键趋势,包括微软可能转向 Anthropic 合作,Google 利用其强大资源缩小与领先者的差距,以及 Agent 成为新的软件核心,推动任务自动化和推理能力的提升。同时,数据的上下文层和合成数据技术的突破将是竞争的关键。硬件方面,推理需求激增将使 NVDA 继续在算力市场中保持领先地位。 《我们即将进入 Agentic AI 时代,而第一个落地就是 Coding Agent》:讨论了即将进入的智能代理 AI 时代,特别是 Coding Agent 的崛起。随着 AI 编程能力的提升,许多人将有机会更快地开发产品,投资者对此充满期待。然而,关于 AI Coding 是否会取代传统程序员的争论仍然存在,分为保守派、乐观派和激进派。尽管未来仍不确定,但 AI 编程课程的需求已显著增加,显示出人们对这一领域的关注和焦虑。 《海螺主体一致视频教程及测试效果》 《「灵宇宙」顾嘉唯:半年完成三轮融资,携新一代智能硬件 OS 亮相 CES》:在 2025 年 CES 上,初创公司「灵宇宙」展示了针对儿童的 AI 学习伴侣 Ling!。创始人顾嘉唯强调,公司的目标是开发新一代智能硬件 OS,利用多模态技术提升机器的感知与决策能力。Ling!通过 4D 空间交互为孩子们提供沉浸式学习体验,内置多种 AI 角色,覆盖多个学科。 《CES 2025:井喷的 AI 陪伴与 AI 眼镜》:CES 2025 在拉斯维加斯举行,展出大量 AI 陪伴产品和智能眼镜。针对儿童和家庭的 AI 产品激增,包括可爱的机器人如 Yukai Engineering 的 Mirumi 和 Nékojita FuFu。其他亮点有 TCL 的模块化 AI 机器人 Ai Me、全自动拉布拉多机器人 Jennie 及三星的 Ballie 滚动机器人。 《帆哥:2024AI 大事纪》:总结了 2024 年发生的大多数 AI 大事,包括 1 月斯坦福大学 Mobile Aloha、1 月 10 号 LumaAl Genie 文生 3D、1 月 11 号 GPT store 上线、1 月 MagnificAl 高清放大爆火、1 月最后一天苹果 Vision Pro 宣布发售等。
2025-01-10
国产AI大模型的最新进展
以下是国产 AI 大模型的最新进展: 通义千问的 Qwen 系列表现出色:Qwen 是国内唯一出现在 OpenAI 视野里、能参与国际竞争的国产大模型。Qwen 多次冲进相关榜单,得分不断提高,其开源模型累计下载量突破 1600 万,国内外有大量开发者基于 Qwen 开发模型和应用,尤其在企业级领域。通义大模型证明了开源开放的力量。 国内大模型落地情况:2024 年被称为国内大模型落地元年,1 至 11 月,大模型中标项目共 728 个,是 2023 年全年的 3.6 倍;中标金额 17.1 亿元,是 2023 年全年的 2.6 倍。中标项目数前五的行业分别是运营商、能源、教育、政务、金融。厂商方面,百度以 40 个中标项目数、2.74 亿元的中标金额排名所有厂商之首,科大讯飞居第二。 其他进展:智谱一年间推出了 4 代 GLM,一直是国内能力较好的模型之一。MiniMax 推出了 MoE 架构的新模型和“星野”这个目前国内较成功的 AI 陪聊 APP。月之暗面专注长 Token 能力,在记忆力和长 Token 能力上有一定优势。但硬件层上的卡脖子问题仍未缓解,国内目前仍无胜任大模型训练的芯片,在推理上虽有 Nvidia 的替代产品逐渐出现,但华为昇腾在单卡指标上距离不远,因稳定性不足和缺乏 Cuda 生态,仍需时间打磨。
2025-01-09