直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

腾讯混元支持哪些数据库

回答

腾讯的混元大模型(Hunyuan Foundation Model)作为一个强大的人工智能平台,提供了广泛的数据库支持,以便在各类应用场景中高效地管理和利用数据。虽然详细的官方数据库支持列表可能随时更新,但通常来说,腾讯云(Tencent Cloud)和其相关的AI平台会支持以下几类主要数据库:

支持的数据库类型

  1. 关系型数据库(RDBMS)

    • MySQL:广泛应用的开源关系型数据库。
    • PostgreSQL:功能强大的开源关系型数据库,支持复杂查询和高级功能。
    • SQL Server:微软的商业数据库,适用于企业级应用。
    • MariaDB:MySQL的分支,兼容性高,性能优化。
    • Oracle:广泛应用于企业级应用的商业关系型数据库。
  2. NoSQL数据库

    • MongoDB:文档型NoSQL数据库,适用于大数据和实时数据处理。
    • Redis:内存数据库,支持高性能的缓存和实时数据处理。
    • Cassandra:高可用性和扩展性强的NoSQL数据库,适合分布式数据存储。
    • HBase:基于Hadoop的分布式NoSQL数据库,适用于大规模数据存储。
  3. 时序数据库

    • TimescaleDB:基于PostgreSQL的时序数据库,适合处理时间序列数据。
    • InfluxDB:专为高性能查询和数据存储设计的时序数据库。
  4. 图数据库

    • Neo4j:广泛应用的图数据库,支持复杂的图查询和数据关系。
    • JanusGraph:分布式图数据库,适合大规模图数据处理。
  5. 云原生数据库

    • 腾讯云数据库服务(CDB):包括上述数据库在腾讯云环境中的托管服务。
    • TDSQL:腾讯云的分布式数据库解决方案,支持多种关系型和NoSQL数据库。
  6. 数据仓库

    • Amazon Redshift:基于云的数据仓库,支持大规模数据分析。
    • Google BigQuery:完全托管的数据仓库,支持实时数据分析和查询。
    • Snowflake:云原生数据仓库,支持多云环境和复杂查询。

数据库支持的具体示例

为了更好地理解混元大模型可能支持的数据库,我们可以参考腾讯云上的数据库服务,这些服务通常与混元大模型集成良好。

  • 腾讯云数据库 MySQL:高性能的关系型数据库服务,支持自动备份和数据恢复。
  • 腾讯云数据库 PostgreSQL:功能强大的企业级数据库服务,支持复杂查询和数据分析。
  • 腾讯云数据库 MongoDB:适用于大数据和实时数据处理的文档数据库服务。
  • 腾讯云数据库 Redis:支持高性能缓存和实时数据处理的内存数据库服务。
  • 腾讯云数据库 TDSQL-C:腾讯自研的企业级分布式数据库,支持强一致性和高可用性。

使用场景

在实际应用中,混元大模型与上述数据库的集成可以覆盖以下场景:

  • 数据分析和挖掘:利用关系型数据库和数据仓库进行大规模数据分析和挖掘,提供数据驱动的决策支持。
  • 实时数据处理:通过NoSQL数据库(如Redis、MongoDB)处理实时数据,支持高并发的应用场景。
  • 复杂查询和关系分析:使用图数据库进行复杂的关系分析和图数据处理,适用于社交网络分析等场景。
  • 大规模分布式存储:通过分布式数据库(如Cassandra、HBase)实现大规模数据的存储和访问。

总结

腾讯混元大模型支持多种类型的数据库,包括关系型数据库、NoSQL数据库、时序数据库、图数据库、云原生数据库和数据仓库。通过这些数据库的集成,混元大模型能够在各种数据管理和分析场景中提供强大的支持,帮助用户高效地处理和利用数据。为了确保最新的支持信息和技术细节,建议参考腾讯云官方文档和技术支持资源。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

数据库

扣子的数据库功能提供了一种简单、高效的方式来管理和处理结构化数据,开发者和用户可通过自然语言插入和查询数据库中的数据。同时,也支持开发者开启多用户模式,支持更灵活的读写控制。

数据库

扣子提供了类似传统软件开发中数据库的功能,允许用户以表格结构存储数据。这种数据存储方式非常适合组织和管理结构化数据,例如客户信息、产品列表、订单记录等。扣子数据表支持单用户和多用户两种查询模式。开发者指创建数据表的开发人员;用户指Bot的使用者。

其他人在问
文心一言、通义千问、Kimi、腾讯混元、讯飞星火、抖音豆包、智普清言这些AI工具之间有什么不同,各自擅长哪些领域
以下是文心一言、通义千问、Kimi、腾讯混元、讯飞星火、抖音豆包、智普清言这些 AI 工具的不同之处及各自擅长的领域: Kimi 智能助手:由 Moonshot AI 出品,有着超大“内存”,可以一口气读完二十万字的小说,还会上网冲浪。 文心一言:百度出品的 AI 对话产品,定位为智能伙伴,能写文案、想点子,陪聊天、答疑解惑,与搜索有较好的结合。 通义千问:由阿里云开发的聊天机器人,能够与人交互、回答问题及协作创作,与钉钉有结合应用。 腾讯混元:相对较为低调,公司文化特点及目前尚未有明确亮点可能是其受到关注较少的原因。 讯飞星火:暂未提及具体特点和擅长领域。 抖音豆包:字节旗下产品,字节在 AI 领域有较大投入和决心,如推出多种相关产品和应用。 智普清言:暂未提及具体特点和擅长领域。 需要注意的是,这些 AI 工具的性能和擅长领域可能会随着不断的更新和优化而发生变化。
2024-08-18
你知道腾讯混元么
腾讯混元是一款人工智能绘画工具,它可以根据用户输入的提示词,生成各种风格的绘画作品。以下是关于腾讯混元的一些介绍: 1. 功能:腾讯混元可以实现文生图、文生文等功能,同时还具有一些实用小工具,如翻译、知识问答等。 2. 优势:腾讯混元是一款双语言大模型,可以实现中英文切换,方便不同语言的用户使用。同时,腾讯混元的内容中立客观,内容健康,适合儿童、子女、父母、家长们使用。 3. 应用场景:腾讯混元可以帮助用户快速生成各种类型的绘画作品,如插图、漫画、海报等。同时,腾讯混元还可以帮助用户学习 AI 时代的人工智能交互,掌握提示词使用,发挥想象力和创造力。 4. 使用方法:用户可以在聊天框中询问混元关于绘画方面的知识储备,然后描述自己的需求,就可以创作出相关的 AI 生成绘画。同时,用户还可以通过专业词汇描述沟通,指导混元和自己进行人 AI 沟通。 总的来说,腾讯混元是一款非常实用的人工智能绘画工具,它可以帮助用户快速生成各种类型的绘画作品,同时还可以帮助用户学习 AI 时代的人工智能交互。
2024-05-30
如在腾讯云上部署ollama
以下是在腾讯云上部署 Ollama 的详细步骤: 一、下载并安装 Ollama 1. 根据您的电脑系统,点击进入 https://ollama.com/download 下载 Ollama。 2. 下载完成后,双击打开,点击“Install”。 3. 安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 二、下载 qwen2:0.5b 模型(0.5b 是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型) 1. 如果您是 Windows 电脑,点击 win+R,输入 cmd,点击回车。如果您是 Mac 电脑,按下 Command(⌘)+ Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 2. 复制以下命令行,粘贴进入,点击回车。 3. 回车后,会开始自动下载,等待完成。(这里下载久了,可能会发现卡着不动,不知道下载了多少了。鼠标点击一下窗口,键盘点空格,就会刷新了) 4. 下载完成后您会发现,大模型已经在本地运行了。输入文本即可进行对话。 三、下载 Open WebUI 1. 回到桌面,再打开一个新的终端窗口(可以放心多个窗口,不会互相影响)。如果您是 Windows 电脑,点击 win+R,输入 cmd,点击回车。如果您是 Mac 电脑,按下 Command(⌘)+ Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 2. 将以下命令输入,等待下载。 3. 出现相关图示,即是下载完成。 4. 点击或复制下方地址进入浏览器:http://localhost:3000/auth/ 5. 点击进行注册即可,注册输入昵称、邮箱、密码。注册完即可登录进入。 6. 登入后,看到如下页面,点击顶部的 Model,选择“llama3:8b”。 7. 完成。您已经拥有了一个属于自己的本地大语言模型。可以开始与他对话啦! 四、部署 Google Gemma 1. 首先进入 ollama.com,下载程序并安装(支持 windows,linux 和 macos)。 2. 查找 cmd 进入命令提示符,输入 ollama v 检查版本,安装完成后版本应该显示 0.1.26。 3. 输入 cls 清空屏幕,接下来直接输入 ollama run gemma 运行模型(默认是 2b),首次需要下载,需要等待一段时间,如果想用 7b,运行 ollama run gemma:7b 。 4. 完成以后就可以直接对话了,2 个模型都安装以后,可以重复上面的指令切换。
2024-09-27
大模型如何接入企业数据库
大模型接入企业数据库的相关内容如下: 原理介绍: 从文档处理角度来看,实现流程包括配置要求。 配置要求: ChatGLM6B 模型硬件需求: 模型文件下载至本地需要 15GB 存储空间。 量化等级不同,最低 GPU 显存(推理)和最低 GPU 显存(高效参数微调)要求不同: FP16(无量化):分别为 13GB 和 14GB。 INT8:分别为 8GB 和 9GB。 INT4:分别为 6GB 和 7GB。 MOSS 模型硬件需求: 模型文件下载至本地需要 70GB 存储空间。 量化等级不同,最低 GPU 显存(推理)和最低 GPU 显存(高效参数微调)要求不同: FP16(无量化):分别为 68GB 和 。 INT8:分别为 20GB 和 。 Embedding 模型硬件需求:默认选用的 Embedding 模型约占用显存 3GB,也可修改为在 CPU 中运行。 项目启动: Web 启动:运行 web.py,若显存不足则调整 configs/model_config.py 文件中 LLM_MODEL 参数更换模型,若连接无法连接修改 web.py 文件末尾 lauch 中 0.0.0.0 为 127.0.0.1,点击 URL 进入 UI 界面。 API 模式启动。 命令行模式启动。 上传知识库: 左侧知识库问答中选择新建知识库,可传输 txt、pdf 等。可以调整 prompt,匹配不同的知识库,让 LLM 扮演不同的角色。例如上传公司财报,充当财务分析师;上传客服聊天记录,充当智能客服;上传经典 Case,充当律师助手;上传医院百科全书,充当在线问诊医生等等,MOSS 同理。 使用数据表: 通过在工作流中添加数据库节点对数据表进行操作。在工作流中可通过 NL2SQL 方式和代码方式进行调用,支持完整读写模式。参考以下操作,在工作流中添加并配置工作流节点。在工作流中配置数据库节点前,确保已经搭建了一个 Bot,并在这个 Bot 中创建好了数据表。 1. 单击页面顶部的工作流页签,然后单击创建工作流。 2. 输入工作流名称和工作流的使用描述,然后单击确认。工作流名称和描述可以帮助大语言模型理解什么场景下需要调用该工作流。 1. 在基础节点页签下,将数据库节点拖入到工作流配置画布区域。 2. 根据以下信息配置数据库节点。 输入:添加 SQL 执行中需要的参数,可以是一个变量,也可以是一个固定值。 SQL:输入要执行的 SQL 语句,可以直接使用输入参数中的变量。可单击自动生成使用大模型生成 SQL。在弹出的页面中,选择这个数据库工作流生效的 Bot 和数据表,然后使用自然语言描述要执行的操作,单击自动生成生成 SQL 语句,最后单击使用。 注意:不支持 Select语法,不支持多表 Join 操作,最多返回 100 行数据。
2024-10-11
向量数据库
向量数据库是大语言模型从工具走向生产力实践中热门的 RAG 方式所必备的基础设施。 RAG 能够从海量文本数据中检索相关信息并生成高质量文本输出,而向量数据库在其中发挥着重要作用。 目前市面上的向量数据库众多,操作方式无统一标准。本文将基于 LangChain 提供的 VectorStore 类中的统一操作方法,以 chroma 向量数据库作为示例,从最为基础的 CRUD 入手介绍其使用方法。 向量数据库的工作原理如下: 如果是文本,会通过模型转换成向量对象,对象存入数据库中再去使用。传统数据库以表格形式存储简单数据,向量数据库处理的是复杂的向量数据,并使用独特方法进行搜索。常规数据库搜索精确匹配数据,向量数据库则使用特定相似性度量寻找最接近匹配,使用特殊的近似近邻(ANN)搜索技术,包括散列搜索和基于图的搜索等方法。 要理解向量数据库的工作原理及其与传统关系数据库(如 SQL)的不同,必须先理解嵌入的概念。非结构化数据(如文本、图像和音频)缺乏预定义格式,给传统数据库带来挑战。为在人工智能和机器学习应用中利用这些数据,需使用嵌入技术将其转换为数字表示,嵌入就像给每个项目赋予独特代码,以捕捉其含义或本质。
2024-09-02
如何在coze的prompt中调用数据库
在 Coze 的 prompt 中调用数据库可以参考以下步骤: 1. 基础框架: 本 bot 由提示词、数据库和工作流三部分构成。提示词使用结构化框架,要求大模型根据不同行为调用不同工作流。数据库用于记录不同用户历史记账记录,工作流中会用到。 2. 工作流: 增加记账记录 add_accounting_record: 开始:定义一个{{prompt}},把用户在 bot 输入的记账内容传入进来。 大模型:任务简单,使用任意模型均可,无需调整参数。输入定义了{{input}}引用开始节点的 prompt 参数。提示词让大模型拆解用户输入内容,识别【记账事项】、【发生时间】、【变动金额】,并分别赋值到{{item}}、{{occurrence_time}}、{{balance_change}}。输出定义了相应的{{item}}、{{occurrence_time}}、{{balance_change}}。 数据库——插入记账记录:输入定义了{{item}}、{{occurrence_time}}、{{balance_change}},用于接收大模型节点输出传入的内容。SQL 命令中,因数据库存入金额最小单位是分,所以当用户输入花费金额时,需乘以 100 存储。 3. 使用数据表: 用户通过自然语言与 Bot 交互来插入或查询数据库中的数据。Bot 会根据用户输入自动创建新记录并存储,也可根据用户查询条件检索数据返回。 在 Prompt 中添加并使用数据表时: 明确说明要执行的操作和涉及的字段,包括字段使用说明,以使大语言模型更准确执行操作。 在数据库功能区域添加要操作的数据表。 在调试区域进行测试,可单击调试区域右上方的已存数据查看数据表中的数据。
2024-09-02
向量数据库高效储存是什么意思 举个例子
向量数据库高效储存指的是专门用于存储高维向量,以实现快速准确的相似性搜索。在人工智能领域,尤其是自然语言处理和计算机视觉等方面,模型会生成并处理大量高维向量,传统数据库难以有效应对,向量数据库则为这些应用提供了高度优化的环境。 例如,像 GPT3 这样的大型语言模型,有 1750 亿个参数,会产生大量向量化数据,传统数据库很难有效处理,而向量数据库能够有效地管理和查询这些向量。 从系统角度看,预处理管道中向量数据库至关重要,负责高效存储、比较和检索多达数十亿的嵌入(即向量)。市场上常见的选择如 Pinecone,完全由云托管,容易上手,具备大型企业在生产中所需的多种功能。同时,还有 Weaviate、Vespa 和 Qdrant 等开源系统,通常具有出色的单节点性能,可针对特定应用定制;Chroma 和 Faiss 等本地向量管理库,有丰富的开发人员经验,便于启动小型应用程序和开发实验;pgvector 之类的 OLTP 扩展,对于特定开发人员和企业也是一种解决方案。 向量存储是用于存储和检索文本嵌入向量的工具,这些向量是文本数据的数值表示,能让计算机理解和处理自然语言。其主要功能包括高效存储大量文本向量、快速检索相似文本向量以及支持复杂的查询操作,如范围搜索和最近邻搜索。
2024-08-27
向量数据库高效存储与内存的关系
向量数据库的高效存储与内存有着密切的关系。 在生成式人工智能领域,通过扩展上下文窗口,模型能够处理更大量的文本并更好地保持上下文,但仅扩展上下文窗口并不能充分改善内存,因为推理的成本和时间与提示的长度呈准线性甚至二次方关系。此时,检索机制就显得尤为重要,它通过与提示相关的上下文数据增强和完善 LLM 的原始训练语料库。向量数据库(例如 Pinecone)已成为高效检索相关信息的事实标准,并作为 LLM 的内存层,使模型更容易快速准确地搜索和引用海量信息中的正确数据。 向量数据库专门用于存储高维向量,以实现快速准确的相似性搜索。由于人工智能模型,尤其是自然语言处理和计算机视觉领域的模型会生成并处理这些向量,所以对高效存储和检索系统的需求变得至关重要。像 GPT3 这样的大型语言模型,因其处理的数据量和复杂性,产生了大量向量化数据,传统数据库难以有效处理,所以基于 GPT3 和类似模型构建的应用在很大程度上依赖于向量数据库来有效地管理和查询这些向量。 例如,Marqo 向量数据库具有嵌入式存储在内存中的 HNSW 索引,实现了最先进的搜索速度,还能利用横向索引分片将规模扩大到亿级文档索引,支持异步和非阻塞数据上传和搜索,使用来自 PyTorch、Huggingface、OpenAI 等公司的最新机器学习模型,可从预先配置的模型开始或自带模型,内置 ONNX 支持和转换功能,可实现更快的推理和更高的吞吐量,并支持 CPU 和 GPU。
2024-08-27
1. 国内各个大模型有什么区别,请基于数据库/擅长方向分析 2. 推荐好用的搜索ai工具,需要查询权威资料,要求信息源可靠
以下是关于您提出的问题的回答: 国内各个大模型的区别: 北京企业机构: 百度(文心一言):https://wenxin.baidu.com 抖音(云雀大模型):https://www.doubao.com 智谱 AI(GLM 大模型):https://chatglm.cn 中科院(紫东太初大模型):https://xihe.mindspore.cn 百川智能(百川大模型):https://www.baichuanai.com/ 上海企业机构: 商汤(日日新大模型):https://www.sensetime.com/ MiniMax(ABAB 大模型):https://api.minimax.chat 上海人工智能实验室(书生通用大模型):https://internai.org.cn 在聊天状态下能生成 Markdown 格式的有智谱清言、商量 Sensechat;目前不能进行自然语言交流的有昇思(可以对文本进行是否由 AI 生成的检测,类似论文查重,准确度不错);受限制使用的有 MiniMax(无法对生成的文本进行复制输出,且只有 15 元的预充值额度进行体验,完成企业认证后可以进行充值)。特色功能方面,昇思可以生图,MiniMax 可以语音合成。 关于好用的搜索 AI 工具:目前没有明确的权威资料推荐特定的搜索 AI 工具。但需要指出的是,中国大模型在数据方面存在一些问题。在人工智能领域,数据质量至关重要。虽然 OpenAI 训练大模型所用的中文数据也源自中国的互联网平台,但他们在数据处理上更加精细,类似于将粗糙的原石打磨成璀璨的钻石。而在中国,高质量的数据处理服务相对稀缺,国内大模型主要以中文数据为基础,但中文互联网数据的质量普遍被认为相对较低。这导致在 IT 从业者搜索专业信息时,往往会首选 Google、arXiv 或 Bing 等国际平台,而不是国内的搜索引擎。
2024-08-26
你知道有支持个性化训练的大预言模型么
以下是一些支持个性化训练的大语言模型: 1. Character.ai:更注重人格属性,试图满足社交、情感、陪伴等需求,与 ChatGPT 侧重不同,后者注重提高效率和解放生产力。 2. Midjourney:今天发布了模型个性化 Personalization 或 'p'的早期测试版本。模型个性化会学习用户的喜好,以便更可能用用户的口味来填补空白。其要求包括目前从成对排名中的投票和喜欢的探索页面上的图像中学习,需要大约 200 个成对排名/喜欢才能生效。使用时只需在提示后输入 'p',或使用提示栏中的设置按钮为所有提示启用个性化功能,还可以使用 's 100'控制个性化效果的强度。但需注意个性化目前不是一个稳定的功能,会随着进行更多的成对排名而变化,且可能会在接下来的几周内推出算法更新。
2024-10-18
国内有哪些支持视频生成的产品
以下是国内一些支持视频生成的产品: 1. 可灵:在视频生成领域表现出色,具有卓越的生成质量、出色的生成速度和良好的国内可访问性。其生成的视频在画面清晰度、连贯性和内容丰富性上可与国际顶级模型媲美,处理效率高,为国内用户提供便捷稳定的使用体验。 2. Hidreamai:国内产品,有免费额度。支持文生视频、图生视频,提示词使用中文、英文均可,文生视频支持多种控制,可生成 5 秒和 15 秒的视频。网址:https://hidreamai.com//AiVideo 3. ETNA:由七火山科技开发的文生视频 AI 模型,能根据简短文本描述生成相应视频内容,生成视频长度 8 15 秒,画质可达 4K,最高 38402160,画面细腻逼真,帧率 60fps,支持中文和时空理解。网址:https://etna.7volcanoes.com/ 此外,还有 Pika、SVD、Runway、Kaiber、Sora 等工具也可实现文字生成视频的功能,但并非国内产品。更多相关网站可查看:https://www.waytoagi.com/category/38 。需注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-10-13
AI在中小学教育中能够提供的支持
AI 在中小学教育中能够提供以下支持: 1. 辅助学生完成课程和任务:可控地引导学生,将部分课程和任务借助 AI 来完成。 2. 培养学生能力:限制部分课程的 AI 使用,以培养学生独立思考和解决问题的能力。 3. 帮助获取信息和学习:可以要求 AI 解释概念,用于自学学习,但要注意对关键数据根据其他来源仔细检查。 4. 协助教师工作:帮助教师节省时间和提高生产力,如备课。 5. 个性化学习计划:分析学生表现,根据知识差距和个人学习风格创建定制的学习路径。 6. 课程开发与学习沉浸:生成图像、文本和视频,转化为补充教育材料、作业和练习题,提供虚拟学习场景。 7. 社会互动与沟通:与新的 AI 工具结合,为学生提供更好的口语和展示沟通的准备工具。 然而,AI 备课与优秀的人类教师相比仍有差距,如缺乏课时设计和合理的教学目标梯度,人机融合是未来的趋势。
2024-10-12
视频压缩软件推荐(清晰度最好无损,用上ai技术,支持8G容量大的mp4文件压缩)
目前市面上支持您需求的视频压缩软件相对较少。不过,您可以关注以下几款可能符合部分要求的软件: 1. HandBrake:这是一款开源的视频转码工具,虽然没有明确提及使用 AI 技术,但在压缩视频时可以较好地保持画质。 2. Adobe Premiere Pro:专业的视频编辑软件,具有一定的视频压缩功能,但其主要优势在于视频编辑,对于大文件的处理能力较强。 需要注意的是,要实现无损压缩且支持 8G 容量大的 MP4 文件,同时还运用 AI 技术,可能较难完全满足。在实际使用中,您可能需要根据具体情况进行尝试和调整。
2024-10-10
有哪些支持通过AI对视频去水印的软件或者网站?
以下是一些支持通过 AI 对视频去水印的软件或者网站: 1. AVAide Watermark Remover:在线工具,使用 AI 技术从图片中去除水印,支持多种图片格式,操作简单,还提供去除文本、对象、人物、日期和贴纸等功能。 2. Vmake:提供 AI 去除图片水印的功能,用户可上传最多 10 张图片,适合需快速去除水印的用户,尤其是在社交媒体上分享图片的用户。 3. AI 改图神器:提供 AI 智能图片修复去水印功能,可一键去除图片中的多余物体、人物或水印,支持直接粘贴图像或上传手机图像,操作简便。 此外,还可以使用剪映工具创建黑屏贴纸遮住水印,导出后裁掉黑边部分,但会损失一部分视频画面。还有一些去水印工具如 hit HID 等,能去水印的工具较多,您可自行寻找。 内容由 AI 大模型生成,请仔细甄别。
2024-10-06
有哪些支持AI去水印的软件或者网站?
以下是一些支持 AI 去水印的软件或网站: 1. AVAide Watermark Remover:在线工具,使用 AI 技术,支持多种图片格式,如 JPG、JPEG、PNG、GIF 等。操作简单,上传图片、选择水印区域,保存并下载处理后的图片,还提供去除文本、对象、人物、日期和贴纸等功能。 2. Vmake:提供 AI 去除图片水印功能,可上传最多 10 张图片,AI 自动检测并移除水印,处理完成后可保存生成的文件,适合需在社交媒体分享图片的用户。 3. AI 改图神器:提供 AI 智能图片修复去水印功能,可一键去除图片中的多余物体、人物或水印,不留痕迹。支持直接粘贴图像或上传手机图像,操作简便。 此外,如果想去除图片中的特定元素,除了 PS,还可以考虑以下工具: SD 局部重绘 Firefly、Canva、Google photo 都有局部重绘功能 微软 Designer 免费 https://clipdrop.co/cleanup
2024-10-06