直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

图像转3D模型目前有相关的技术和已经落地的产品嘛。可以借鉴哪些网站

回答

有,例如:

  • Spline推出 AI 3D Generation 工具,可以将 2D 图像转成 3D 图像,混合素材生成 3D 变体。生成的 3D 内容可集成到网站和应用中。
  • ComfyUI 3D Pack 引入了 3D 图像处理,可以快速将图片转换为 3D 模型,并支持多角度查看,使用 3D 高斯扩散技术提升模型质量,支持多种格式导出。
  • Move AI 推出了 Move API,可以从 2D 视频生成 3D 运动数据,支持多种 3D 文件格式导出,为 AR 应用、游戏开发等提供高质量 3D 运动数据。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

其他人在问
推荐下好用的具备图像OCR能力的大模型
目前在具备图像 OCR 能力的大模型方面,一些较为知名和好用的包括百度的文心大模型、阿里云的通义大模型等。但大模型的性能和适用场景可能会因具体需求和使用场景的不同而有所差异。您可以根据自己的具体需求进一步评估和选择。
2024-09-19
现在有什么免费的图像生成工具?类似midjourney
以下是一些免费的图像生成工具: 1. Stable Diffusion(SD):一种 AI 图像生成模型,可以基于文本描述生成图像。 网址:https://github.com/StabilityAI 2. Adobe Firefly:Adobe 的 AI 创意工具,可以生成图像和设计模板。 网址:https://www.adobe.com/products/firefly.html 3. Civitai:用于图像生成。 网址:无 需要注意的是,部分工具可能存在功能限制或需要特定条件才能免费使用。
2024-09-13
图像生成AI
以下是关于图像生成 AI 的相关内容: 将小说制作成视频的流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。 判断一张图片是否为 AI 生成: 要培养判断图片是否为 AI 生成的能力,需要训练大脑模型。对于不擅长的朋友,可以借助一些网站,通过对大量图片数据的抓取和分析来给出画作属性的判断可能性,例如 ILLUMINARTY(https://app.illuminarty.ai/)。但在测试过程中,可能会出现结构严谨的真实摄影作品被识别为 AI 作图的情况,这是因为鉴定 AI 自身的逻辑算法不能像人类一样综合考虑各种不符合逻辑的表现。 国内外 AIGC 技术在图像生成方面的最新进展: 图像生成离不开深度学习算法,如生成对抗网络(GANs)、变分自编码器(VAEs),以及 Stable Diffusion 等,以创建与现实世界图像视觉相似的新图像。图像生成可用于数据增强以提高机器学习模型的性能,也可用于创造艺术、生成产品图像等。 一些具有代表性的海外项目: Stable Diffusion:文本生成图像模型,主要由三个部分组成,分别是 VAE、UNet 网络和 CLIP 文本编码器。 DALLE 3(Open AI):OpenAI 基于 ChatGPT 构建的一种新型神经网络,可以从文字说明直接生成图像。 StyleGAN 2(NVIDIA):一种生成对抗网络,可以生成非常逼真的人脸图像。 DCGAN(Deep Convolutional GAN):一种使用卷积神经网络的生成对抗网络,可生成各种类型的图像。 一些具有代表性的国内项目:(文中未提及具体国内项目)
2024-09-11
国内较好用可以替代Midjourney或Stable Diffusion的图像生成工具有哪些
以下是国内一些较好用可以替代 Midjourney 或 Stable Diffusion 的图像生成工具: 1. 吐司:https://tusiart.com/images/635511733697550450?post_id=635512498197535244&source_id=nzywoVHilkK7o_cqaH31xAh 2. 哩布:https://www.liblib.ai/ 此外,还有一些常见的图像生成工具: 1. DALLE:来自 OpenAI,已纳入 Bing(您必须使用创意模式)和 Bing 图像创建器。 2. Adobe Firefly:内置在各种 Adobe 产品中,但在质量方面落后于 DALLE 和 Midjourney。不过 Adobe 宣布它只使用有权使用的图像。
2024-09-10
Midjourney怎么才能生成风格一致的绘画图像
在 Midjourney 中生成风格一致的绘画图像,您可以参考以下方法: 1. 角色参考(cref):cref 的功能是保持图像角色的一致性。使用方法是在提示后添加 cref,并紧接着指向人物参考图像的 URL。例如:/imagine prompt beautiful girl cref。您可以使用 cw 来调整参考图像对生成的图像的影响程度,数值范围从 0 到 100。 2. 风格参考(sref):sref 的功能是生成类似风格的图片,保持画风的一致性。使用方法是在提示后添加 sref,并紧接着指向风格参考图像的 URL。例如:/imagine prompt beautiful girl sref。您可以使用 sw 来调整参考风格对生成的图像的影响程度,数值范围从 0 到 1000。 如果您想引用一张图,但只是把它作为新图的一部分,可以使用 sref 或 cref,并通过调整 sw 或 cw 的值来控制引用图像的影响程度。例如,若想引用一张图的风格,但只希望它占新图的一部分,可以这样写提示:/imagine prompt beautiful girl srefsw 500。 此外,在实际操作中,还可以通过以下方式优化: 初步生成:使用 DALLE 3 和 Midjourney(MJ)进行初步图像生成。DALLE 3 以其强大的文本识别能力帮助快速生成符合意图的画面,而 MJ 则通过垫图功能(Sref 和 iw 组合)确保图像的风格一致。 图像优化:D3 和 MJ 跑不出来的图,用 Stable Diffusion(SD)用于图像的细节处理,尤其是局部重绘,例如调整人物的手部细节。通过 magnific.ai 工具对图像进行超分处理,进一步提高画质。 同时,输入提示词时,可以把提示词总结成“形容词+主语+环境+行为+构图+参考风格+渲染程度+后缀”这样的公式。对人物、环境、摄影、灯光等方面进行详细描述,规定绘图的比例等,有助于生成更符合期望的图像。
2024-09-03
图像转文本
以下是关于图像转文本的相关信息: 图像字幕任务是指基于输入的图像,生成描述该图像内容的一段文本。对于此任务,会使用一组成对的图像和文本数据,目标是建立和训练一个可以根据图像生成文本描述的模型。 目前语音转文本 API 提供了两个端点,即基于最先进的开源大型v2 Whisper 模型的转录和翻译,可用于将音频转录为任何语言,将音频翻译并转录成英语。目前文件上传限制为 25MB,并支持 mp3、mp4、mpeg、mpga、m4a、wav 和 webm 等输入文件类型。 在 Stable Diffusion 中,图片生成图片的过程中,输入为图像和 prompt,输出为图像。其中 Load Checkpoint 模块对 SD 模型的主要结构进行初始化(VAE,UNet),CLIP Text Encode 是文本编码器,可输入 prompt 和 negative prompt 控制图像生成,Load Image 表示输入的图像,KSampler 表示调度算法以及 SD 相关生成参数,VAE Encode 表示使用 VAE 的编码器将输入图像转换成低维度的隐空间特征,VAE Decode 表示使用 VAE 的解码器将低维度的隐空间特征转换成像素空间的生成图像。与文字生成图片的过程相比,图片生成图片的预处理阶段,先把噪声添加到隐空间特征中,通过设置去噪强度(Denoising strength)控制加入噪音的量,如果为 0 则不添加噪音,为 1 则添加最大数量的噪音,使潜像成为一个完整的随机张量,若将去噪强度设置为 1,就完全相当于文本转图像,因为初始潜像完全是随机的噪声。
2024-09-02
ai在互联网有哪些落地场景
AI 在互联网的落地场景非常广泛,主要包括以下几个方面: 1. 医疗保健: 医学影像分析:用于分析医学图像,辅助诊断疾病。 药物研发:加速药物研发过程,识别潜在药物候选物和设计新治疗方法。 个性化医疗:分析患者数据,提供个性化治疗方案。 机器人辅助手术:控制手术机器人,提高手术精度和安全性。 2. 金融服务: 风控和反欺诈:识别和阻止欺诈行为,降低金融机构风险。 信用评估:评估借款人信用风险,帮助做出贷款决策。 投资分析:分析市场数据,辅助投资者做出明智决策。 客户服务:提供 24/7 服务,回答常见问题。 3. 零售和电子商务: 产品推荐:分析客户数据,推荐可能感兴趣的产品。 搜索和个性化:改善搜索结果,提供个性化购物体验。 动态定价:根据市场需求调整产品价格。 聊天机器人:回答客户问题并解决问题。 4. 制造业: 预测性维护:预测机器故障,避免停机。 质量控制:检测产品缺陷,提高产品质量。 供应链管理:优化供应链,提高效率和降低成本。 机器人自动化:控制工业机器人,提高生产效率。 5. 交通运输: 自动驾驶:开发自动驾驶汽车,提高交通安全性和效率。 交通管理:优化交通信号灯和交通流量,缓解拥堵。 物流和配送:优化物流路线和配送计划,降低运输成本。 无人机送货:将货物快速送达偏远地区。 6. 其他领域: 教育:实现个性化学习,提供定制化学习体验。 农业:分析农田数据,提高农作物产量和质量。 娱乐:开发虚拟现实和增强现实体验。 能源:优化能源使用,提高能源效率。 人工智能的应用场景还在不断扩展,未来将对我们的生活产生更加深远的影响。
2024-09-15
AI agent 落地例子
以下是关于 AI agent 的相关信息: AI agent 是在 rag 的基础上更进一步,给大模型提供了更多工具,如长期记忆(相当于给大模型一个数据库工具记录重要信息)、规划和行动(在大模型的 prompt 层做逻辑,将目标拆解并输出固定格式的 action 指令给工具)。例如可以让大模型安排差旅,它会判断完成目标所需步骤,搜索差旅记录,预订酒店和机票等。 一些 Agent 构建平台包括: Coze:新一代一站式 AI Bot 开发平台,集成丰富插件工具拓展 Bot 能力。 Microsoft 的 Copilot Studio:具备外挂数据、定义流程、调用 API 和操作等功能,并能部署到多种渠道。 文心智能体:百度推出的基于文心大模型的智能体平台。 MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识等,并能访问第三方数据和服务或执行工作流。 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于多种场景,提供多种成熟模板。 钉钉 AI 超级助理:依托钉钉优势,在处理高频工作场景表现出色。 大型语言模型置于 Agent 的“大脑”或“控制器”核心位置,赋予强大语言理解和生成能力。通过多模态感知技术和工具利用策略扩展感知和行动范围,采用思维链和问题分解技术展现出推理和规划能力,能从反馈中学习并与环境互动,在软件开发、科学研究等现实世界场景中得到应用,还能与其他 Agent 交流协作。
2024-09-11
ai落地场景:输入敏感词管控,脱敏怎么返回处理
很抱歉,目前知识库中没有关于输入敏感词管控及脱敏返回处理的相关内容。但一般来说,对于输入敏感词的管控和脱敏处理,常见的方法包括: 1. 建立敏感词库:事先整理出常见的敏感词列表。 2. 文本检测:在输入时对文本进行实时检测,判断是否包含敏感词。 3. 脱敏处理方式:可以采用替换、隐藏部分字符、加密等方法对敏感词进行处理。 4. 设置规则和策略:例如根据不同的场景和用户级别,确定不同的处理方式。 由于缺乏具体的详细信息和场景,以上只是一些常见的思路和方法,您可以根据实际情况进一步深入研究和设计具体的解决方案。
2024-09-10
智能体落地案例
智能体(Agent)是随着 ChatGPT 与 AI 概念爆火而出现的新名词,简单理解就是 AI 机器人小助手,参照移动互联网,类似 APP 应用的概念。 智能体可以根据其复杂性和功能分为以下几种类型: 1. 简单反应型智能体(Reactive Agents):根据当前的感知输入直接采取行动,不维护内部状态,也不考虑历史信息。例如温控器,根据温度传感器的输入直接打开或关闭加热器。 2. 基于模型的智能体(Modelbased Agents):维护内部状态,对当前和历史感知输入进行建模,能够推理未来的状态变化,并根据推理结果采取行动。比如自动驾驶汽车,不仅感知当前环境,还维护和更新周围环境的模型。 3. 目标导向型智能体(Goalbased Agents):除了感知和行动外,还具有明确的目标,能够根据目标评估不同的行动方案,并选择最优的行动。例如机器人导航系统,有明确的目的地,并计划路线以避免障碍。 4. 效用型智能体(Utilitybased Agents):不仅有目标,还能量化不同状态的效用值,选择效用最大化的行动,评估行动的优劣,权衡利弊。比如金融交易智能体,根据不同市场条件选择最优的交易策略。 5. 学习型智能体(Learning Agents):能够通过与环境的交互不断改进其性能,学习模型、行为策略以及目标函数。例如强化学习智能体,通过与环境互动不断学习最优策略。 在智能体的落地案例方面: C 端案例:比如在社交方向,用户注册之后先捏一个自己的智能体,然后让自己的智能体和其他人的智能体聊天,两个智能体聊到一起后再真人介入,这是一个很有趣的场景;还有借 Onlyfans 入局打造个性化聊天的创业公司。 B 端案例:如果字节扣子和腾讯元器是面向普通人的低代码平台,类似 APP 时代的个人开发者,那还有一个机会就是帮助 B 端商家搭建智能体,类似 APP 时代专业做 APP 的。 此外,字节于 2 月 1 日正式推出 AI 聊天机器人构建平台 Coze 的国内版“扣子”,主要用于开发下一代 AI 聊天机器人。
2024-09-08
汽车行业大模型落地案例
以下是汽车行业大模型的落地案例: 生产计划、供应链计划状态查询。 产线预测性维保辅助。 产品质量分析与溯源。 自动驾驶全场景模拟训练及虚拟汽车助手。 线上购车品牌、配置对比分析。 汽车公司利用 AI 进行以下方面的应用: 分析市场趋势、消费者行为和销售数据,以更好地理解客户需求,制定营销策略和优化产品定价。 在电动化和能源管理方面,优化电池使用和充电时间来提高能源效率和延长电池寿命。 支持共享出行服务,如优化路线规划、调度车辆和定价策略,提高服务效率和用户满意度。 提供语音助手和车载娱乐,允许驾驶员通过语音命令控制车辆功能、获取信息和娱乐内容。 进行车辆远程监控和诊断,提供实时诊断和支持,帮助车主及时了解车辆状况并采取相应措施。 需要注意的是,部分内容由 AI 大模型生成,请仔细甄别。
2024-09-03
企业数字化团队怎样协助业务方找AI落地场景?
企业数字化团队协助业务方找 AI 落地场景可以参考以下内容: 周鸿祎提出,推动 AI 与数字化业务全面融合是比较理想的情况。企业可以从列出的武器库中挑选合适的选项,如私有化通用大模型、办公大模型、营销大模型、定制数字人、AI 应用商店、360AI 大会员,甚至可以选择知识大模型、情报大模型、安全大模型,或者开发自己的大模型,并与业务融合。 360 改变了思路,从过去把大模型简单拼接在搜索结果右侧或浏览器里,转变为找到刚需和痛点的明星场景,用场景来引导模型,而非先打造模型再寻找场景。 Jusi 适用于各种企业和个人,包括初创公司、中小企业和项目经理。初创公司可借助其创建技术规格并寻找开发工作室;中小企业能借此扩大数字化业务、添加新功能;项目经理能简化并加速寻找合适开发合作伙伴的流程。
2024-08-28
AI生成的图片是原创吗 有没有借鉴
在全国首例 AI 生成图片著作权案例中: 法官承认依靠使用者的输出设计生成的图片属于美术作品,具有独创性和智力投入,受著作权保护,能鼓励创作,为艺术创作提供支持和新思路,节省创作成本。 根据相关法律规定,我国著作权作者仅限于自然人、法人或非法人组织,人工智能软件本身不能成为作者。 Stable Diffusion 模型根据文本指令生成图片,不是调用现成图片或排列组合预设要素,生成的图片取决于使用者输入的提示词,难以出现完全相同的两张输出图片,类似于画笔,图画构造取决于使用者设计。 人工智能不具备自由意志,使用者根据自己的审美个性,通过增删提示词、修改参数得出不同图片并选定,体现使用者的智力和独创思想,如同使用相机拍摄时的调节。 软件设计者对模型设计投入智力成果,但后续生成内容与设计者关系不大。图片由创作者根据个人意愿得出,应成为作者并享有著作权。 尽管 AI 是工具,法院强调著作权仍属于人类创作者,保护人类在知识产权领域的权益,鼓励利用 AI 技术创作艺术作品。 在未显示作者身份信息的情况下使用图片构成侵权。
2024-09-18
国内外好用的图生视频模型
以下是一些国内外好用的图生视频模型: 可灵(国内,免费) 网址:https://klingai.kuaishou.com/ 支持文生视频、图生视频。 支持图生视频首尾帧功能。 提示词可使用中文。 文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持 16:9、9:16、1:1 尺寸。 图生视频除了不可运镜控制以外,其他跟文生视频基本相同。 默认生成 5s 的视频。 ETNA(国内) 网址:https://etna.7volcanoes.com/ 由七火山科技开发的文生视频 AI 模型。 可以根据用户简短的文本描述生成相应的视频内容。 生成的视频长度在 8 15 秒,画质可达到 4K,最高 38402160,画面细腻逼真,帧率 60fps。 文生视频,支持中文,时空理解。 关于可灵的文生视频效果,测试者 Austin 周安鑫进行了以下测试: 1. 场景识别:包括室内和室外,如客厅的沙发、液晶电视、漂亮的波斯猫、超现实主义的蜿蜒河流、茂密森林、灿烂花海、碧绿草坪等。 2. 物体识别:涵盖静态和动态物体,如水晶球、跳动的火焰、翱翔的飞鸟、闪烁的流星、飞溅的水珠等。 3. 人物识别:包括面部和姿态,如一个人笑容灿烂、一个人惊恐愤怒,一位芭蕾舞女孩在冰面上跳舞等。 4. 动作识别:包含基本和复杂动作,如短跑运动员快速奔跑、赛车手驾驶跑车激烈漂移等。 5. 事件检测:有简单和复杂事件,如一位帅哥在喝水、外星文明和地球进行星际大战等。 6. 环境变化:涉及光线和天气,如奇幻的极光舞动变幻、城市写字楼灯光忽明忽暗、闪电交加、乌云密布、台风、大雨等。 7. 多对象场景:包括单一和多对象场景,如 1 个飞行员驾驶战斗机翱翔太空、海军指挥航母战斗群展开激烈战斗等。 8. 特殊场景:有遮挡和非标准场景,如城市大雾遮挡摩天大楼、一边是神秘海底世界,一边是梦幻糖果屋。 9. 细节检测:包含小物体和微表情,如崭新的苹果电脑屏幕上播放电影、瞳孔收缩、脸颊泛红、嘴唇微微颤抖。
2024-09-19
你自己使用的是什么模型
以下是关于模型的相关信息: 新的 gpt3.5turbo 模型针对会话进行了优化,原始的 GPT3.5 模型针对文本补全进行了优化。 用于创建嵌入和编辑文本的端点有自己的一组专用模型。 在 AI 输入框下方有一个下拉列表,允许选择要使用的模型。默认情况下,Cursor 已准备好使用的模型包括:GPT4o、GPT4、Claude 3.5 Sonnet、cursorsmall。其中,cursorsmall 是 Cursor 的自定义模型,不如 GPT4 智能,但速度更快,用户可无限制访问。您可以在 Cursor Settings > Models > Model Names 下添加其他模型。 谷歌一直在测试自己的人工智能 Bard,由各种基础模型驱动,最近是名为 PaLM 2 的模型。 Anthropic 发布了 Claude 2,其最值得注意的是有非常大的上下文窗口,与其他大型语言模型相比,不太可能恶意行事。
2024-09-19
AI 大模型命名 带有-instruct的含义
AI 大模型中带有“instruct”通常与指令微调相关。在大模型的训练过程中,指令微调是其中一个重要阶段。此阶段模型被训练以理解并执行具体指令,例如翻译文本等,从而能够回答问题。指令微调阶段输入的内容通常包括三个部分,如“Instruct:请你翻译下面这段话”“Input:一段英文”“Output:一段中文”。通过指令微调,模型能够更好地按照人类的期望和具体要求进行输出。
2024-09-19
你是基于哪个AI大模型的
我是 WaytoAGI 专属问答机器人,基于 Aily 和云雀大模型。 Aily 是飞书团队旗下的企业级 AI 应用开发平台,提供了简单、安全且高效的环境,帮助企业轻松构建和发布 AI 应用,推动业务创新和效率提升。 云雀是由字节跳动研发的语言模型,通过便捷的自然语言交互,能够高效地完成互动对话、信息获取、协助创作等任务。 此外,还有一些免费的大模型接口,如阿里的通义千问大模型接口,可创建 API key。智谱 AI(ChatGLM)、科大讯飞(SparkDesk)也有免费接口,但国内的大模型大多限制一定免费额度的 Token。 谷歌的 Gemini 大模型(gemini 1.5)、海外版 Coze 的 GPT4 模型是免费且能图片识别,但需要给服务器挂梯子。想使用的话,可参考张梦飞同学写的教程。 在深入了解 AI 运作原理和众多落地产品后,重新思考 AI 大模型引发的变革。此前曾有疑问,大模型与智能语音技能的 NLU 存在差异。语音技能 NLU 是通过一系列规则、分词策略等训练而成,运作逻辑规律可观测,具有 ifelse 式逻辑性。而大模型凭借海量数据在向量空间中学习知识的关联性形成,运作逻辑难以观测,脱离了 ifelse 的层面。
2024-09-19
如果我需要一名助手帮我运营跨境电商的线上店铺,我需要一些精准的关键词就可以训练模型吗?
训练模型来协助运营跨境电商线上店铺,仅依靠一些精准的关键词通常是不够的。模型的训练需要多方面的数据和信息,包括但不限于产品的详细描述、客户的评价和反馈、市场趋势、竞争对手的情况等。精准的关键词可以作为其中的一部分输入,但不足以全面有效地训练模型以达到理想的辅助运营效果。
2024-09-19