Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

AI视觉算法

Answer

以下是关于 AI 视觉算法的相关内容:

GPT-4 Vision

GPT-4 Vision 是 OpenAI 高级模型 GPT-4 的创新功能,于 2023 年 9 月推出,能够解释视觉内容和文本,为用户提供更丰富、更直观的交互体验。

GPT-4V 模型使用带有预训练组件的视觉编码器进行视觉感知,将编码的视觉特征与语言模型对齐。它建立在复杂的深度学习算法之上,能有效处理复杂的视觉数据。

GPT-4V 允许用户上传图像作为输入并询问有关图像的问题,这种任务类型称为视觉问答(VQA)。

GPT-4V 的工作原理:

  • 利用先进的机器学习技术解释和分析视觉和文本信息。
  • 对庞大数据集进行训练,包括文本和各种视觉元素。
  • 训练过程结合强化学习,采用两阶段训练方法,先掌握视觉语言知识,再对更小、更高质量的数据集进行微调,以提高生成的可靠性和可用性。

计算机视觉

  • 图像分类和物体识别:将图片作为输入,输出图像的内容分类,应用于面部识别。
  • 物体识别:不仅分类或识别物体,还检测物体是否出现在图像中。
  • 图像分割算法:识别物体位置,并标记不同物体对应的像素点,如用于识别 X 光照射图片。
  • 视觉追踪:检测视频中的奔跑者,并追踪其轨迹和运动方向。

自然语言处理

  • 文本分类:识别邮箱或文本中的内容并归类,可用于情绪识别。
  • 信息检索:输入关键字,找出相关文档。
  • 名称实体识别:找出句子中的名称,自动提取电话、姓名、国籍等。
  • 机械翻译:进行语言翻译。
  • 解析与语音部分标注技术:标注句子词性,让 AI 系统找出需留意的词语。
  • 解析器:将单词组合成短语和句子,也是一种分类标签。
  • 语音识别:将麦克风记录的空气高速压力变化数据转化为文本。
  • 触发词检测:识别触发词。
  • 语音 ID 识别:通过倾听说话来识别身份。
Content generated by AI large model, please carefully verify (powered by aily)

References

问:怎么接入OpenAI 的视觉模型GPT4-V?

GPT-4 Vision,通常缩写为GPT-4V,是OpenAI高级模型GPT-4的一项创新功能。GPT-4V于2023年9月推出,使AI能够解释视觉内容和文本。GPT-4以其增强的视觉能力给人留下深刻印象,为用户提供更丰富、更直观的交互体验。GPT-4V模型使用带有预训练组件的视觉编码器进行视觉感知,将编码的视觉特征与语言模型对齐。GPT-4建立在复杂的深度学习算法之上,使其能够有效地处理复杂的视觉数据。有了这款具有视觉功能的GPT-4,您现在可以分析图像输入并开辟人工智能研发可能性的新世界。将图像功能整合到AI系统(尤其是大型语言模型)中,标志着AI的下一个前沿领域,为突破性应用解锁了新颖的界面和功能。这为与机器进行更直观、更类似人类的交互铺平了道路,标志着向全面理解文本和视觉数据迈出了一大步。简单来说,GPT-4V允许用户上传图像作为输入并询问有关图像的问题,这种任务类型称为视觉问答(VQA)。想象一下,与一个不仅会听你说什么,还会观察和分析你展示的图片的人交谈。这就是适合你的GPT-4V。

学习笔记:AI for everyone吴恩达

计算机视觉:图像分类和物体识别,是将图片作为输入,输出图像的内容分类。应用于面部识别。物体识别,不仅是分类或者识别物体,还有检测是否有物体出现在一个图像里。图像分割算法,不仅识别出对应的物体的位置,并将不同物体对应的像素点进行标记。识别X光照射图片则使用这种算法。计算机视觉还可以进行视觉追踪,如检测视频中的奔跑者,还可以追踪随时间产生的对应轨迹,确定其运动方向。自然语言处理:文本分类,识别邮箱或文本中的内容,进行归类。可以用于情绪识别信息检索,输入关键字,希望AI可以顺利找出文档。名称实体识别,可以找出句子里的名称。自动提取电话,姓名,国籍等。机械翻译,进行语言翻译解析与语音部分标注技术,将句子词性标注(part-of-speech tagging),最后通过识别名词,形容词,动词等,让AI系统找出哪一些词语可以留意。解析器,将单词组合成短语,最后组合成句子,同样是一种分类标签。语音识别,将麦克风记录的空气高速压力变化数据,转化为文本。触发词检测,识别触发词语音ID识别,倾听说话来识别身份

问:怎么接入OpenAI 的视觉模型GPT4-V?

GPT-4V利用先进的机器学习技术来解释和分析视觉和文本信息。它的实力在于它对庞大数据集的训练,其中不仅包括文本,还包括来自互联网各个角落的各种视觉元素。训练过程结合了强化学习,增强了GPT-4作为多模态模型的能力。但更有趣的是两阶段的训练方法。最初,该模型已准备好掌握视觉语言知识,确保它理解文本和视觉之间的复杂关系。在此之后,先进的人工智能系统对更小、更高质量的数据集进行微调。这一步对于提高其生成的可靠性和可用性至关重要,确保用户获得最准确和最相关的信息。

Others are asking
AI生图
以下是关于 AI 生图的详细教程: 一、Liblibai 简易上手教程 1. 定主题:明确您想要生成的图片主题、风格和表达的信息。 2. 选择 Checkpoint:根据主题选择贴近内容的 Checkpoint,如麦橘、墨幽的系列模型。 3. 选择 lora:寻找与生成内容重叠的 lora,以控制图片效果和质量。 4. 设置 VAE:选择 840000 那一串。 5. CLIP 跳过层:设为 2。 6. Prompt 提示词:用英文写需求,使用单词和短语组合,用英文半角逗号隔开,无需考虑语法和长句。 7. 负向提示词 Negative Prompt:同样用英文单词和短语组合,用英文半角逗号隔开。 8. 采样方法:一般选 DPM++2M Karras,也可参考模型作者推荐的采样器。 9. 迭代步数:使用 DPM++2M Karras 时,在 30 40 之间,过多意义不大且慢,过少出图效果差。 10. 尺寸:根据个人喜好和需求选择。 11. 生成批次:默认 1 批。 二、AI 线上绘画教程 1. 背景:工作中需要大量图片时,AI 生图是高效解决办法,主流工具如 midjourney 付费成本高,stable diffusion 硬件门槛不低,可选择免费在线 SD 工具网站如。 2. 目标:让入门玩家在半个小时内自由上手创作绘图。 3. 注意事项:本教程适用于入门玩家,若有疑问可在评论区联系或加微信 designurlife1st 沟通,教程内容会持续更新。 三、Tusiart 简易上手教程 1. 图生图:上传图片后,sd 根据图片、模型、prompt 等信息重绘,重绘幅度越大,输出图与输入图差别越大。 2. 尺寸:太小生成内容有限,太大 AI 易放飞自我,如需高清图,可设中等尺寸并用高分辨率修复。 3. 采样算法:即让 AI 用何种算法生图。 4. 采样次数:次数越多调整越精密,效果理论上更好但耗时越长,并非越多越好。 5. 提示词相关性:数字增大图像更接近提示词,但过高会使图像质量下降。 6. 随机种子 seed:固定种子可对图片进行“控制变量”操作,首次生成图时无种子。 7. Clip Skip:一般设为 2,早期无需过多关注。 8. ENSD:eta 噪声种子增量,默认 0 即可。
2025-02-17
可以用ai做商务服务么,比如帮用户申请个商标
AI 可以在一定程度上辅助商务服务,比如商标申请。商标申请要有区分度,能区分自家与别家产品,不像著作权需考虑独创性等。 关于 AI 作品的相关问题: 微链区块链存证流程: 登录方式:用微信扫码即可登录微链,登录后无需在个人中心完善信息。 存证选择:在页面左上角选择区块链存证,AI 作品一般选此选项。 信息填写:包括存证内容类型、存证附件、存证名称、作品作者、作品简介、著作权人等信息,著作权人可委托登记。 发表信息:填写发表地区、首次发表日期、权力取得方式等。 提交付款:确认存证上传,勾选并提交存证,手机扫码付款 10 元。 查看订单:在个人中心的版权订单中查看处理状态,处理完成后可在区块链版权存证处查看证书。 版权登记:带有 AI 性质或名字的作品无法做著作权登记,选择微链区块链存证有法律效应,且一次存证无需每年续费。 关于侵权问题: AI 生成肖像侵权:用他人著名肖像生成特定形象可能侵犯肖像权和名誉权,用自己肖像则相对安全。 AI 生成人脸相似侵权:若生成的人脸世界上不存在,侵权可能性小;若提示词相同且生成相似,可能侵权,需具体情况具体分析。 简单提示词作品版权:简单提示词生成的作品,法律可能不保护其版权,被搬运时难以有效维权。 以图生图的鉴定:若生成的图与原图看不出相同,一般不侵权,但用与原图无相似之处的图做底图的原因值得思考。 AI 生成音乐侵权:AI 音乐中歌词和旋律与某首歌有相似部分,是否侵权需多元素、多因素整体判断,如相似部分占比、整体结构等。 使用逝者肖像:逝者肖像权永远受保护,使用需谨慎,未造成不良影响且增益的情况下权利人可能不追究。
2025-02-17
写微信小程序,用哪个 ai 代码助手最好
以下是一些适用于写微信小程序的 AI 代码助手推荐: 1. DIN: 搭建 OneAPI 以汇聚整合多种大模型接口。 搭建 FastGpt 作为知识库问答系统。 搭建 chatgptonwechat 接入微信,并配置 FastGpt 把知识库问答系统接入到微信。 2. Cursor: 可通过任意 AI 工具获得代码,专业代码模型表现更优。 网址:https://www.cursor.com/ 3. Deepseek(新手推荐): 网址:https://www.deepseek.com/zh 方便获取游戏代码,国内能访问,网页登录方便,目前完全免费。 4. 通义灵码: 在 Pytharm 中,“文件”“设置”“插件”红色框位置搜索“通义灵码”进行安装(目前免费)。 5. JetBrains 自身的助手插件: 在 Pytharm 中,“文件”“设置”“插件”红色框位置搜索“Jetbrains AI assistant”进行安装(收费,目前有 7 天免费试用)。 6. Marscode 及 Tencent cloud AI code Assistant 等。 7. 无影的晓颖 AI 助手: 内置在云电脑里,使用流畅,但需要在无影的云电脑中。 需要注意的是,不同的 AI 代码助手在生成特定代码时可能有不同的表现,您可以根据自己的需求和实际使用体验进行选择。
2025-02-17
分析化验单的AI
以下是关于分析化验单的 AI 和专利审查方面的 AI 的相关信息: 分析化验单的 AI: 目前没有直接针对分析化验单的具体内容,但在教育领域,AI 已展现出强大的能力。例如,借助大模型可以生成个性化学习和定制化作业,教师拥有 AI 就拥有了源源不断的真题库,学生也拥有了源源不断的错题练习库。 专利审查方面的 AI: 近年来,AI 在专利审查领域得到广泛应用,通过自动化和智能化手段,帮助专利审查员更高效地处理大量专利申请、检索相关文献、评估专利性和创新性等任务。以下是一些具体的应用和平台: 1. 专利检索与分类:AI 可通过自然语言处理和机器学习算法,自动识别和分类专利文献。示例平台如 Google Patents、IBM Watson for IP。 2. 专利分析和评估:AI 能够分析专利文本,评估专利的新颖性和创造性,预测专利的授权可能性。示例平台如 TurboPatent、PatentBot。 3. 自动化专利申请:AI 可以帮助自动生成专利申请文件,减少人工编写和审查时间。示例平台如 Specifio、PatentPal。 4. 专利图像和图表分析:AI 能分析专利申请中的图像和图表,帮助识别和分类技术内容。示例平台如 Aulive、AIpowered image recognition tools。 5. 专利趋势分析和预测:AI 可以分析大量专利数据,识别技术发展趋势和竞争情报,帮助企业和研究机构制定战略决策。示例平台如 Innography、PatSnap。 具体使用这些平台的步骤如下: 1. 注册和登录:在对应的平台上注册账户并登录。 2. 上传专利文献:上传待审查的专利文献或输入检索关键词。 3. 选择分析功能:根据需要选择专利检索、分析、评估或生成功能。 4. 查看结果和报告:查看 AI 生成的检索结果、分析报告和评估结果。 5. 进一步处理:根据分析结果进行进一步的人工审查和处理,或者直接生成专利申请文件。 需要注意的是,以上内容由 AI 大模型生成,请仔细甄别。
2025-02-17
能分析医学化验单的AI有哪些?
以下是一些能够分析医学化验单的 AI 工具: 1. Scite.ai:这是一个为研究人员、学者和行业专业人员打造的创新平台,提供引用声明搜索、自定义仪表板和参考检查等工具,能简化学术工作。 2. Scholarcy:一款科研神器,能从文档中提取结构化数据,并通过知识归纳引擎生成文章概要,包含关键概念、摘要、学术亮点、学术总结、比较分析、局限等板块的内容。 3. ChatGPT:强大的自然语言处理模型,可以提供有关医学课题的修改意见。您可以向它提供您的文章,并提出您的问题和需求,它将尽力为您提供帮助。 需要注意的是,内容由 AI 大模型生成,请仔细甄别。
2025-02-17
如何可以通过ai语音转文字
以下是关于通过 AI 实现语音转文字的相关内容: 可以使用 GVoice 提供的语音录制和识别能力,其中文识别率优秀。语音识别的少量错误,ChatGPT 能正常理解和纠错,衔接较为流畅。 推荐 OpenAI 的 wishper,相关链接:https://huggingface.co/openai/whisperlargev2 。还有一个项目:https://huggingface.co/spaces/sanchitgandhi/whisperjax ,此项目在 JAX 上运行,后端支持 TPU v48,与 A100 GPU 上的 PyTorch 相比,快 70 多倍,是目前最快的 Whisper API。 对于有字幕的 B 站视频,可通过安装油猴脚本获取字幕,然后将字幕文字内容复制发送给 GPTs 进行总结。
2025-02-17
如何基于你的模型对一台工业设备(钢板划线印字装备)进行故障诊断和预测性维护,从以下几个方面进行分析 1.技术栈:数据采集与通讯,数据库,算法,前端,微服务、应用等,并进行软件选型 2.硬件选型:工业设备、边缘计算设备,软件部署硬件,分别列出性能最优和国产化替代方案 3.算法创新性:要求可发表高水平论文和申请发明专利 4.算法通用性:考虑如何通过一个通用模型经过简单配置适应不同船舶建造工业设备的故障诊断和预测性维护 5.考虑前后合理性,若以此进行招标,如何描述招标内容
以下是为您整合的相关内容: Transformer 模型和 BERT 模型: 模型训练与评估:定义模型后,传递训练数据集和验证数据集及训练时期数,训练完成后评估性能,如达到 85%准确率。 模型性能可视化:绘制准确性和随时间的损失图。 保存与加载模型:使用 model.save 方法导出并保存模型到本地路径,保存后可加载进行预测。 预测示例:对不同情感的评论句子进行预测。 部署模型到 Vertex AI:检查模型签名,上传本地保存的模型到 Google Cloud 存储桶,在 Vertex 上部署模型并获得在线预测。 提示工程: 策略:将复杂任务分解为更简单的子任务。 技巧:使用意图分类识别用户查询中最相关的指令。例如在故障排除场景中,根据客户查询分类提供具体指令,如检查路由器连接线、询问路由器型号、根据型号提供重启建议等。模型会在对话状态变化时输出特定字符串,使系统成为状态机,更好控制用户体验。 OpenAI 官方指南: 战术:将复杂任务拆分为更简单的子任务。 策略:使用意图分类来识别与用户查询最相关的指令。例如在故障排除场景中,基于客户查询分类向 GPT 模型提供具体指令。已指示模型在对话状态变化时输出特殊字符串,将系统变成状态机,通过跟踪状态等为用户体验设置护栏。
2025-02-12
请把机器学习相关和大模型相关的知识点形成一个结构化的知识树,包括但是不限于算法、框架、工具、注意力机制等
以下是一个关于机器学习和大模型的结构化知识树: 一、基础数学知识 1. 线性代数 2. 概率论 3. 优化理论 二、机器学习基础 1. 监督学习 分类 回归 2. 无监督学习 聚类 3. 强化学习 三、深度学习 1. 神经网络 卷积网络 递归网络 注意力机制 2. Transformer 模型 四、自然语言处理 1. 语言模型 2. 文本分类 3. 机器翻译 五、计算机视觉 1. 图像分类 2. 目标检测 3. 语义分割 六、前沿领域 1. 大模型 2. 多模态 AI 3. 自监督学习 4. 小样本学习 七、工具与框架 1. TensorFlow 2. PyTorch 八、应用领域 1. 自然语言处理 2. 计算机视觉 3. 推荐系统 九、数据处理 1. 数据采集 2. 数据清洗 3. 特征工程 十、模型部署 1. 模型优化 2. 模型服务 十一、科研实践 1. 论文阅读 2. 模型实现 3. 实验设计 十二、行业实践 1. 项目实战 2. 案例分析
2025-02-11
机器学习的子领域包括: 监督学习,常用算法如线性回归、决策树、支持向量机(SVM)。 无监督学习,如聚类、降维等算法。 强化学习,那深度学习是哪一种啊
深度学习是机器学习的一个子领域。 在机器学习中,深度学习是一种利用深度神经网络来学习数据特征和模式的方法。 深度学习的特点包括: 1. 具有复杂的网络结构,如前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)等。 2. 能够自动从大量数据中提取高级特征。 深度学习在图像识别、语音识别、自然语言处理等领域取得了显著的成果。
2025-01-21
不同厂家的AI产品是底层算法不一样吗?比如ChatGPT和豆包
不同厂家的 AI 产品底层算法通常是不一样的。 以常见的 ChatGPT 和豆包为例,ChatGPT 是由 OpenAI 开发的,其底层算法具有独特的特点和优势。而豆包是由字节跳动开发的,也有其自身的算法设计和优化。 在当前的 AI 领域,大多数 AI 应用程序都由大型语言模型(LLMs)驱动,其中只有几个基础模型,由少数几个组织创建。例如 OpenAI 制作了 GPT3.5 和 GPT4,Google 有 Bard 等。 从相关的访问量数据来看,不同的 AI 产品在市场上的表现也有所不同。比如在某些月份,ChatGPT 的访问量较高,而豆包的访问量也在不断变化。但这并不能直接反映其底层算法的差异,只是从侧面反映了它们在用户中的受欢迎程度和使用情况。
2025-01-17
我想知道目前最新、效果最好、代码和模型开源的动作捕捉算法,也叫做人体姿态估计,是哪篇文章
目前最新、效果较好且代码和模型开源的人体姿态估计(动作捕捉算法)相关的研究有以下两篇: 1. 【SD】最强手部识别,controlnet 新预处理器 dw openpose 作者:白马少年|公众号:【白马与少年】 发布时间:20230813 20:00 原文网址:https://mp.weixin.qq.com/s/_RiKxWy9MXt4DUJIKH5w 介绍:在 controlnet 中,手部识别一直使用的是 openpose 预处理器,但复杂手势有时无法识别。新的 dw openpose 预处理器能完美解决手部识别问题,将其放入特定目录即可使用。但需说明的是,目前这个 DW Pose 只是更精确的 openpose 预处理器,未对 ControlNet 的 openpose 模型做改动。 2. YOLONAS Pose:一个开源的实时人体姿态估计模型 应用场景:基于骨骼标记为基础,适用于智慧体育等场景,可对训练过程的姿态、数据、状态等进行统计和管理。 技术类型:视频、AI 学习模型 简介:主要功能是识别图片和视频中人的姿势,能快速处理图像并实时返回姿态数据,适应不同场景和设备。 主要特点: 实时性能:旨在提供实时的姿态估计,适用于需要即时反馈的应用。 高精度:利用神经网络架构搜索(NAS)提高姿态估计的准确性。 优化的网络结构:NAS 自动测试不同网络结构,找到最优模型。
2024-12-31
模态分解算法的详细代码
很抱歉,目前知识库中没有模态分解算法的详细代码。但您可以通过以下途径获取相关代码: 1. 学术研究网站,如 arXiv 等,许多学者会在上面分享他们的研究成果及代码。 2. 相关的开源代码库,如 GitHub 等,您可以通过搜索关键词找到相关项目。 3. 专业的技术论坛,在那里与其他开发者交流,可能会获得有用的信息和代码示例。
2024-12-30
视觉理解技术最新动态和趋势
以下是视觉理解技术的最新动态和趋势: 一、视觉分析技术 1. Transformer 视觉模型优点 2. Transformer 视觉模型的局限 二、图像语言模型 三、视频语言模型 四、LLM 多模态 Agent 五、应用场景 1. 多模态内容理解与处理 2. 智能交互与自动化 3. 具身智能 4. 未来发展趋势(2024 ?) 5. 视频生成模型 mapping 六、未来发展方向 1. 技术路径而言:利用预训练 LLMs 进行指令调整 最初,多模态融合方法常采用预训练的目标检测器,如 ViLBERT、VisualBERT 和 UnicoderVL,通过提取图像特征和执行交叉模态预训练任务,为后续的图像 文本任务奠定基础。 随着 ViT 的出现和普及,更多方法开始利用 ViT 作为图像编码器,强调大规模预训练,以提高模型的性能和泛化能力,例如 Flamingo。 近期,向多模态 LLMs 发展,从进行预训练到向指令调整(instruction tuning)转变,如 LLaVA 和 MiniGPT4,融合视觉和语言信息,能更有效地完成视觉理解相关任务,提升模型对于指令的理解能力和零样本性能,更好地泛化到未见过的任务和领域。 2. 应用场景而言:赋予机器理解多模态的能力 此外,李飞飞在 2015 年的 TED 演讲《我们怎么教计算机理解图片?》中提到了计算机视觉方面的研究进展,指出虽然在科技上取得了很多进步,但在计算机视觉方面仍存在一些问题,如自动驾驶车辆的视觉敏锐度、向盲人传递画面、无人机的视觉技术等。
2025-01-10
有没有视觉识别的模型
以下是一些视觉识别的模型: 1. siglipso400mpatch14384:由 Google 开发的视觉特征提取模型,负责理解和编码图像内容。工作流程包括接收输入图像、分析图像的视觉内容(如物体、场景、颜色、纹理等)、将这些视觉信息编码成一组特征向量。可在 ComfyUI\models\clip 中下载,若因环境问题,也可在网盘中下载。下载好后,目录的文件包括 image_adapter.pt(适配器),其连接视觉模型和语言模型,优化数据转换。工作流程包括接收来自视觉模型的特征向量、转换和调整这些特征使其适合语言模型处理、进行一些特定任务的优化或微调(如图片到文字)。可通过 https://huggingface.co/spaces/fancyfeast/joycaptionprealpha/tree/main/wpkklhc6 下载,放到 models 的 Joy_caption 文件夹里,若该文件夹不存在,新建一个。 2. Comfyui IPAdapter 中的图像模型: ,下载并重命名。 ,下载并重命名。下载后放入/ComfyUI/models/clip_vision。需要注意的是,clip vison 只能编码 224x224 大小的正方形图片,后续使用时若图片不是正方形,需进行裁剪。
2024-12-19
我想找关于视觉识别相关的api
很抱歉,目前知识库中没有关于视觉识别相关 API 的具体信息。但您可以通过以下途径寻找: 1. 一些知名的云服务提供商,如阿里云、腾讯云、百度云等,它们通常提供视觉识别相关的 API 服务。 2. 专门的人工智能和计算机视觉技术公司的官方网站,可能会有相关的 API 介绍和使用文档。 3. 技术社区和开发者论坛,例如 CSDN、掘金等,您可以在这些地方与其他开发者交流,获取相关的推荐和经验分享。
2024-12-19
国内做视觉理解的大模型厂商有哪些
国内做视觉理解的大模型厂商有以下这些: 北京: 百度(文心一言):https://wenxin.baidu.com 抖音(云雀大模型):https://www.doubao.com 智谱 AI(GLM 大模型):https://chatglm.cn 中科院(紫东太初大模型):https://xihe.mindspore.cn 百川智能(百川大模型):https://www.baichuanai.com 上海: 商汤(日日新大模型):https://www.sensetime.com MiniMax(ABAB 大模型):https://api.minimax.chat 上海人工智能实验室(书生通用大模型):https://internai.org.cn 此外,在 0 基础手搓 AI 拍立得的模型供应商选择中,还有以下视觉类大模型厂商: 智谱 GLM4V:通用视觉类大模型,拍立得最早使用的模型,接口响应速度快,指令灵活性差一些,一个接口支持图片/视频/文本,视频和图片类型不能同时输入,调用成本为 0.05 元/千 tokens, 阿里云百炼 qwenvlplus:通用视觉类大模型,拍立得目前使用的模型,指令灵活性比较丰富,接口调用入门流程长一些,密钥安全性更高,调用成本为¥0.008/千 tokens,训练成本为¥0.03/千 tokens, 阶跃星辰:通用视觉类大模型,响应速度快,支持视频理解,输入成本为¥0.005~0.015/千 tokens,输出成本为¥0.02~0.07/千 tokens, 百度 PaddlePaddle:OCR,垂直小模型,文本识别能力补齐增强,私有化部署服务费,API 调用在¥0.05~0.1/次,
2024-12-19
有哪些好的将文本转换为视觉的AI工具
以下是一些将文本转换为视觉的 AI 工具: 1. Pika:出色的文本生成视频 AI 工具,擅长动画制作,支持视频编辑。 2. SVD:Stable Diffusion 的插件,可在图片基础上生成视频,由 Stability AI 开源。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频功能,但收费。 4. Kaiber:视频转视频 AI,能将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 6. Napkin AI:将文本内容转换为视觉图像,生成图表、流程图等,可编辑和个性化设计元素,并导出多种格式。 7. Trellis AI:能从非结构化内容中提取数据,将复杂数据源高效转换成结构化的 SQL 格式。 更多的文生视频的网站可以查看:https://www.waytoagi.com/category/38 。 此外,在软件架构设计中,以下工具可用于绘制逻辑视图、功能视图和部署视图: 1. Lucidchart:流行的在线绘图工具,支持多种图表创建。 2. Visual Paradigm:全面的 UML 工具,提供多种架构视图创建功能。 3. ArchiMate:开源建模语言,与 Archi 工具配合使用支持逻辑视图创建。 4. Enterprise Architect:强大的建模、设计和生成代码工具,支持多种架构视图创建。 5. Microsoft Visio:广泛使用的图表和矢量图形应用程序,提供丰富模板。 6. draw.io(现称 diagrams.net):免费在线图表软件,支持多种图表创建。 7. PlantUML:文本到 UML 转换工具,可自动生成多种视图。 8. Gliffy:基于云的绘图工具,提供架构图创建功能。 9. Archi:免费开源工具,支持逻辑视图创建。 10. Rational Rose:IBM 的 UML 工具,支持多种视图创建。
2024-12-12
(defun 生成记忆卡片 (单词) "生成单词记忆卡片的主函数" (let* ((词根 (分解词根 单词)) (联想 (mapcar #'词根联想 词根)) (故事 (创造生动故事 联想)) (视觉 (设计SVG卡片 单词 词根 故事))) (输出卡片 单词 词根 故事 视觉))) (defun 设计SVG卡片 (单词 词根 故事) "创建SVG记忆卡片" (design_rule "合理使用负空间,整体排版要有呼
以下是关于生成记忆卡片和 SVG 卡片的相关信息: 卡片类的应用被定义为词生卡片,如李继刚的《汉语新解》、一泽的《名片设计》、云中江树的《AI 简历》等,都是通过给大模型优化过的 Prompt,让其生成 HTML 代码或 SVG 代码,再通过浏览器渲染效果。 把提示词丢给 Claude ,如在 Poe 平台上的 Claude 模型,大概率会直接输出 SVG 代码,但对于子步骤是否执行等情况难以知晓。Andrej Karpathy 认为,模型需要 tokens 来思考,如果大语言模型未将思考过程外化,则几乎等于没思考。 甲木介绍了让 Claude 生成古诗词卡片的方法,流程包括输入 Prompt 、用户输入主题和风格,AI 输出最终结果。获取提示词已开源,创作过程主要是根据给定主题和方向生成匹配的中国古诗词,创建设计感强烈、富有中国传统美学的 SVG 卡片展示诗词,并提供相关信息,还支持根据用户提供的主题和方向生成对应语境的 prompt 并配图生成 SVGCard 。但对于“逼格高”的看法因人而异,可将选择权交给 AI 。
2024-11-28