Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

有没有视觉识别的模型

Answer

以下是一些视觉识别的模型:

  1. siglip-so400m-patch14-384:由 Google 开发的视觉特征提取模型,负责理解和编码图像内容。工作流程包括接收输入图像、分析图像的视觉内容(如物体、场景、颜色、纹理等)、将这些视觉信息编码成一组特征向量。可在 ComfyUI\models\clip 中下载,若因环境问题,也可在网盘中下载。下载好后,目录的文件包括 image_adapter.pt(适配器),其连接视觉模型和语言模型,优化数据转换。工作流程包括接收来自视觉模型的特征向量、转换和调整这些特征使其适合语言模型处理、进行一些特定任务的优化或微调(如图片到文字)。可通过 https://huggingface.co/spaces/fancyfeast/joy-caption-pre-alpha/tree/main/wpkklhc6 下载,放到 models 的 Joy_caption 文件夹里,若该文件夹不存在,新建一个。
  2. Comfyui IPAdapter 中的图像模型:
Content generated by AI large model, please carefully verify (powered by aily)

References

ComfyUI JoyCaption提示词反推太强了结合MiniCPM和ollama直接上墙的强还和Flux特别的搭ComfyUI里用起来

模型的下载如果因为环境问题,可以在网盘中下载[heading4]siglip-so400m-patch14-384(视觉模型)[content]siglip由Google开发的视觉特征提取模型,负责理解和编码图像内容。工作流程:a.接收输入图像b.分析图像的视觉内容(如物体、场景、颜色、纹理等)c.将这些视觉信息编码成一组特征向量打开ComfyUI\models\clip,在地址栏输入CMD回车,打开命令行输入下面的命令,拉取模型(需要环境,也可以在网盘里下载)下载好之后,目录的文件[heading4]image_adapter.pt(适配器)[content]连接视觉模型和语言模型,优化数据转换。工作流程:a.接收来自视觉模型的特征向量b.转换和调整这些特征,使其适合语言模型处理c.一些特定任务的优化或微调(如图片到文字)通过https://huggingface.co/spaces/fancyfeast/joy-caption-pre-alpha/tree/main/wpkklhc6下载放到models的Joy_caption文件夹里如果Joy_caption文件夹不存在,就新建一个[heading4]Meta-Llama-3.1-8B-bnb-4bit(语言模型)[content]大型语言模型,负责生成文本描述。工作流程:a.接收经过适配器处理的特征b.基于这些特征生成相应的文本描述c.应用语言知识来确保描述的连贯性和准确性打开ComfyUI\models\LLM,地址栏输入CMD回车在命令行里面输入下面命令下载后的完整目录文件[heading4]

Comfyui IPAdapter

模型下载后,需要严格按照下面的名称命名,为了使用后面的IPAdapter统一加载器(这个很方便)图像处理的模型,这两个模型的区别在于参数量的大小不一样.另外在后续操作时候,也需要做对应的区分,注意IPAdpter模型和IPAdapter预处理的对应[CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors](https://huggingface.co/h94/IP-Adapter/resolve/main/models/image_encoder/model.safetensors),download and rename CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors,下载并重命名[CLIP-ViT-bigG-14-laion2B-39B-b160k.safetensors](https://huggingface.co/h94/IP-Adapter/resolve/main/sdxl_models/image_encoder/model.safetensors),download and rename CLIP-ViT-bigG-14-laion2B-39B-b160k.safetensors,下载并重命名下载后放入/ComfyUI/models/clip_vision这里需要注意的是,clip vison只能编码224x224大小的正方形图片,所以后续使用时候,需要注意下,把图片做一下裁剪,特别是不是正方形的图片。

ComfyUI IPAdapter

模型下载后,需要严格按照下面的名称命名,为了使用后面的IPAdapter统一加载器(这个很方便)图像处理的模型,这两个模型的区别在于参数量的大小不一样.另外在后续操作时候,也需要做对应的区分,注意IPAdpter模型和IPAdapter预处理的对应[CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors](https://huggingface.co/h94/IP-Adapter/resolve/main/models/image_encoder/model.safetensors),download and rename CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors,下载并重命名[CLIP-ViT-bigG-14-laion2B-39B-b160k.safetensors](https://huggingface.co/h94/IP-Adapter/resolve/main/sdxl_models/image_encoder/model.safetensors),download and rename CLIP-ViT-bigG-14-laion2B-39B-b160k.safetensors,下载并重命名下载后放入/ComfyUI/models/clip_vision这里需要注意的是,clip vison只能编码224x224大小的正方形图片,所以后续使用时候,需要注意下,把图片做一下裁剪,特别是不是正方形的图片。

Others are asking
视觉理解技术最新动态和趋势
以下是视觉理解技术的最新动态和趋势: 一、视觉分析技术 1. Transformer 视觉模型优点 2. Transformer 视觉模型的局限 二、图像语言模型 三、视频语言模型 四、LLM 多模态 Agent 五、应用场景 1. 多模态内容理解与处理 2. 智能交互与自动化 3. 具身智能 4. 未来发展趋势(2024 ?) 5. 视频生成模型 mapping 六、未来发展方向 1. 技术路径而言:利用预训练 LLMs 进行指令调整 最初,多模态融合方法常采用预训练的目标检测器,如 ViLBERT、VisualBERT 和 UnicoderVL,通过提取图像特征和执行交叉模态预训练任务,为后续的图像 文本任务奠定基础。 随着 ViT 的出现和普及,更多方法开始利用 ViT 作为图像编码器,强调大规模预训练,以提高模型的性能和泛化能力,例如 Flamingo。 近期,向多模态 LLMs 发展,从进行预训练到向指令调整(instruction tuning)转变,如 LLaVA 和 MiniGPT4,融合视觉和语言信息,能更有效地完成视觉理解相关任务,提升模型对于指令的理解能力和零样本性能,更好地泛化到未见过的任务和领域。 2. 应用场景而言:赋予机器理解多模态的能力 此外,李飞飞在 2015 年的 TED 演讲《我们怎么教计算机理解图片?》中提到了计算机视觉方面的研究进展,指出虽然在科技上取得了很多进步,但在计算机视觉方面仍存在一些问题,如自动驾驶车辆的视觉敏锐度、向盲人传递画面、无人机的视觉技术等。
2025-01-10
我想找关于视觉识别相关的api
很抱歉,目前知识库中没有关于视觉识别相关 API 的具体信息。但您可以通过以下途径寻找: 1. 一些知名的云服务提供商,如阿里云、腾讯云、百度云等,它们通常提供视觉识别相关的 API 服务。 2. 专门的人工智能和计算机视觉技术公司的官方网站,可能会有相关的 API 介绍和使用文档。 3. 技术社区和开发者论坛,例如 CSDN、掘金等,您可以在这些地方与其他开发者交流,获取相关的推荐和经验分享。
2024-12-19
国内做视觉理解的大模型厂商有哪些
国内做视觉理解的大模型厂商有以下这些: 北京: 百度(文心一言):https://wenxin.baidu.com 抖音(云雀大模型):https://www.doubao.com 智谱 AI(GLM 大模型):https://chatglm.cn 中科院(紫东太初大模型):https://xihe.mindspore.cn 百川智能(百川大模型):https://www.baichuanai.com 上海: 商汤(日日新大模型):https://www.sensetime.com MiniMax(ABAB 大模型):https://api.minimax.chat 上海人工智能实验室(书生通用大模型):https://internai.org.cn 此外,在 0 基础手搓 AI 拍立得的模型供应商选择中,还有以下视觉类大模型厂商: 智谱 GLM4V:通用视觉类大模型,拍立得最早使用的模型,接口响应速度快,指令灵活性差一些,一个接口支持图片/视频/文本,视频和图片类型不能同时输入,调用成本为 0.05 元/千 tokens, 阿里云百炼 qwenvlplus:通用视觉类大模型,拍立得目前使用的模型,指令灵活性比较丰富,接口调用入门流程长一些,密钥安全性更高,调用成本为¥0.008/千 tokens,训练成本为¥0.03/千 tokens, 阶跃星辰:通用视觉类大模型,响应速度快,支持视频理解,输入成本为¥0.005~0.015/千 tokens,输出成本为¥0.02~0.07/千 tokens, 百度 PaddlePaddle:OCR,垂直小模型,文本识别能力补齐增强,私有化部署服务费,API 调用在¥0.05~0.1/次,
2024-12-19
有哪些好的将文本转换为视觉的AI工具
以下是一些将文本转换为视觉的 AI 工具: 1. Pika:出色的文本生成视频 AI 工具,擅长动画制作,支持视频编辑。 2. SVD:Stable Diffusion 的插件,可在图片基础上生成视频,由 Stability AI 开源。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频功能,但收费。 4. Kaiber:视频转视频 AI,能将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 6. Napkin AI:将文本内容转换为视觉图像,生成图表、流程图等,可编辑和个性化设计元素,并导出多种格式。 7. Trellis AI:能从非结构化内容中提取数据,将复杂数据源高效转换成结构化的 SQL 格式。 更多的文生视频的网站可以查看:https://www.waytoagi.com/category/38 。 此外,在软件架构设计中,以下工具可用于绘制逻辑视图、功能视图和部署视图: 1. Lucidchart:流行的在线绘图工具,支持多种图表创建。 2. Visual Paradigm:全面的 UML 工具,提供多种架构视图创建功能。 3. ArchiMate:开源建模语言,与 Archi 工具配合使用支持逻辑视图创建。 4. Enterprise Architect:强大的建模、设计和生成代码工具,支持多种架构视图创建。 5. Microsoft Visio:广泛使用的图表和矢量图形应用程序,提供丰富模板。 6. draw.io(现称 diagrams.net):免费在线图表软件,支持多种图表创建。 7. PlantUML:文本到 UML 转换工具,可自动生成多种视图。 8. Gliffy:基于云的绘图工具,提供架构图创建功能。 9. Archi:免费开源工具,支持逻辑视图创建。 10. Rational Rose:IBM 的 UML 工具,支持多种视图创建。
2024-12-12
(defun 生成记忆卡片 (单词) "生成单词记忆卡片的主函数" (let* ((词根 (分解词根 单词)) (联想 (mapcar #'词根联想 词根)) (故事 (创造生动故事 联想)) (视觉 (设计SVG卡片 单词 词根 故事))) (输出卡片 单词 词根 故事 视觉))) (defun 设计SVG卡片 (单词 词根 故事) "创建SVG记忆卡片" (design_rule "合理使用负空间,整体排版要有呼
以下是关于生成记忆卡片和 SVG 卡片的相关信息: 卡片类的应用被定义为词生卡片,如李继刚的《汉语新解》、一泽的《名片设计》、云中江树的《AI 简历》等,都是通过给大模型优化过的 Prompt,让其生成 HTML 代码或 SVG 代码,再通过浏览器渲染效果。 把提示词丢给 Claude ,如在 Poe 平台上的 Claude 模型,大概率会直接输出 SVG 代码,但对于子步骤是否执行等情况难以知晓。Andrej Karpathy 认为,模型需要 tokens 来思考,如果大语言模型未将思考过程外化,则几乎等于没思考。 甲木介绍了让 Claude 生成古诗词卡片的方法,流程包括输入 Prompt 、用户输入主题和风格,AI 输出最终结果。获取提示词已开源,创作过程主要是根据给定主题和方向生成匹配的中国古诗词,创建设计感强烈、富有中国传统美学的 SVG 卡片展示诗词,并提供相关信息,还支持根据用户提供的主题和方向生成对应语境的 prompt 并配图生成 SVGCard 。但对于“逼格高”的看法因人而异,可将选择权交给 AI 。
2024-11-28
gpt4o视觉模型
GPT4o 是 OpenAI 推出的模型。开发人员现在可在 API 中将其作为文本和视觉模型进行访问。与 GPT4 Turbo 相比,具有速度快 2 倍、价格减半、速率限制高出 5 倍的优势。未来几周计划向 API 中的一小群受信任的合作伙伴推出对其新音频和视频功能的支持。 GPT4o(“o”代表“omni”)是迈向更自然人机交互的一步,能接受文本、音频和图像的任意组合作为输入,并生成文本、音频和图像输出的任意组合。它在 232 毫秒内可响应音频输入,平均为 320 毫秒,与人类响应时间相似。在英语文本和代码上的 GPT4 Turbo 性能相匹配,在非英语语言的文本上有显著改进,在 API 中更快且便宜 50%,在视觉和音频理解方面表现出色。 在 GPT4o 之前,语音模式由三个独立模型组成的管道实现,存在信息丢失等问题。而 GPT4o 是在文本、视觉和音频上端到端训练的新模型,所有输入和输出都由同一个神经网络处理,但对其能做什么及局限性仍在探索。
2024-11-14
有哪些好用的识别文字智能生成手抄报的ai
以下是一些可以识别文字智能生成手抄报的 AI 工具和相关信息: 1. Canva(可画):https://www.canva.cn/ 这是一个非常受欢迎的在线设计工具,提供大量模板和设计元素,用户通过简单拖放操作即可创建海报,其 AI 功能可帮助选择合适颜色搭配和字体样式。 2. 稿定设计:https://www.gaoding.com/ 稿定智能设计工具采用先进的人工智能技术,自动分析和生成设计方案,稍作调整即可完成完美设计。 3. VistaCreate:https://create.vista.com/ 这是一个简单易用的设计平台,提供大量设计模板和元素,用户可使用 AI 工具创建个性化海报,其智能建议功能可帮助快速找到合适设计元素。 4. Microsoft Designer:https://designer.microsoft.com/ 通过简单拖放界面,用户可快速创建演示文稿、社交媒体帖子等视觉内容,还集成丰富模板库和自动图像编辑功能,如智能布局和文字优化,大大简化设计流程。 需要注意的是,以上内容由 AI 大模型生成,请仔细甄别。
2025-01-17
如何用一个摄像头记录卷子,通过AI来识别做作业过程中的知识点理解偏差,给出改正措施并记录到错题本
目前暂时没有关于如何用一个摄像头记录卷子,并通过 AI 来识别做作业过程中的知识点理解偏差、给出改正措施并记录到错题本的相关内容。但从理论上讲,要实现这个目标,大致需要以下步骤: 首先,需要通过摄像头获取清晰的卷子图像。这可能需要合适的摄像头位置和光线条件,以确保图像质量。 其次,利用图像识别技术对卷子内容进行识别和分析。这需要训练有素的 AI 模型,能够准确识别题目、答案和书写内容。 然后,通过与预设的知识点和正确答案进行对比,判断知识点的理解偏差。 最后,根据偏差情况,利用相关的教育算法和知识储备,给出改正措施,并将相关内容记录到错题本中。 但要实现这一整套流程,还面临着许多技术挑战和实际操作的困难,例如图像识别的准确性、知识点的精准分析等。
2025-01-16
如何用AI识别 标题的情绪
要使用 AI 识别标题的情绪,可以通过以下方式: 1. 为模型提供示例来改进其判断能力。例如,给出“一部制作精良且有趣的电影”作为积极情绪的示例,“10 分钟后我睡着了”作为消极情绪的示例,“电影还行”作为中性情绪的示例。 2. 按照以下步骤操作:单击页面右侧的提交按钮。然后,模型可以为输入的文本提供情绪判断。对于像“这是一个很好的时间!”这样的文本,情绪会被标记为积极的。 3. 您还可以保存新设计的提示。单击“保存”按钮并随意命名,例如“sentiment analysis test”,保存的提示将出现在“我的提示”选项卡中。
2025-01-15
识别手写字体
识别手写字体通常会涉及到神经网络的应用。对于印刷体图片的识别,可能会先将图片变为黑白、调整大小为固定尺寸,然后与数据库中的内容进行对比得出结论。但这种方法在面对多种字体、不同拍摄角度等复杂情况时存在局限性,因为它本质上是通过不断增加和完善规则来解决问题,这在处理未知规则时是不可行的。 神经网络专门处理未知规则的情况,例如手写体识别。其发展得益于生物学研究的支持,并在数学上提供了方向。 在字体测试方面,会使用多组提示词来测试不同类型字体的识别及输出能力,比如分别测试衬线体、非衬线体、手写体的“Hello”文本,或者在不同的文本载体(如打印纸、名片、贺卡)上用不同特色字体书写内容,以及在不同场景中用不同形容词形容特定字体(如活跃海报、赛博朋克、复古风)。 在一些相关设置中,如果文字识别度低,可以提高 ControlNet 权重,若想让文字和背景融合更好则降低权重。
2025-01-14
剪映能识别文生视频的脚本后生成视频吗
剪映可以与 ChatGPT 结合使用来根据视频脚本生成视频。ChatGPT 生成视频脚本,剪映则能自动分析脚本中的场景、角色、镜头等要素,并生成对应的素材和文本框架,从而实现从文字到画面的转化,节省时间和精力。 此外,还有以下一些根据视频脚本生成短视频的工具: 1. PixVerse AI:在线 AI 视频生成工具,支持将多模态输入(如图像、文本、音频)转化为视频。8s 的视频生成需要花费 30Credits,5s 的视频生成需要花费 15Credits,且只能使用 PixVerse V2 模型,目前仅支持 16:9 画面比例的视频生成。PixVerse V2 支持多风格的视频生成,您可以通过在提示词中加入“Anime”“Realistic”等词语做到这点。 2. Pictory:这是一个 AI 视频生成器,允许用户轻松创建和编辑高质量视频,无需视频编辑或设计经验。用户可以提供文本描述,Pictory 将帮助生成相应的视频内容。 3. VEED.IO:提供了 AI 图像生成器和 AI 脚本生成器,帮助用户从图像制作视频,并规划从开场到结尾的内容。 4. Runway:这是一个 AI 视频创作工具,能够将文本转化为风格化的视频内容,适用于多种应用场景。 5. 艺映 AI:专注于人工智能视频领域,提供文生视频、图生视频、视频转漫等服务,用户可以根据文本脚本生成视频。 这些工具各有特点,适用于不同的应用场景和需求,能够帮助内容创作者、教育工作者、企业和个人快速生成吸引人的视频内容。内容由 AI 大模型生成,请仔细甄别。
2025-01-14
怎样提高ai识别题库准确性
要提高 AI 识别题库的准确性,可以从以下几个方面入手: 1. 检索原理方面: 信息筛选与确认:对检索器提供的信息进行评估,筛选出最相关和最可信的内容,同时验证信息的来源、时效性和相关性。 消除冗余:识别并去除多个文档或数据源中的重复信息,避免在生成回答时出现重复或矛盾的内容。 关系映射:分析不同信息片段之间的逻辑和事实关系,如因果、对比、顺序等,构建结构化的知识框架,使信息在语义上更连贯。 上下文构建:将筛选和结构化的信息组织成连贯的上下文环境,包括对信息进行排序、归类和整合。 语义融合:在必要时合并意义相近但表达不同的信息片段,减少语义重复并增强信息表达力。 预备生成阶段:将整合好的上下文信息编码成适合生成器处理的格式,如转化为适合输入到生成模型的向量形式。 2. 知识库方面: 知识库中的文档需要转换成向量形式,以便在数值级别上与问题向量进行比较。使用知识库工具上传文档时,会完成文档的向量化,这依靠 Embedding Model 完成。 知识库检索:根据问题向量,检索器在庞大的向量空间中搜索相关内容,通过相似性计算(如余弦相似性)找出与问题最接近的文档,再根据相似性得分排序并选择得分最高的几个文档,从中抽取具体的信息片段或答案。 3. 信息整合阶段:将检索到的全部信息连同用户问题和系统预设整合成全新的上下文环境,为生成回答提供基础。 RAG(RetrievalAugmented Generation,检索增强生成)是一种结合信息检索和文本生成能力的技术,由检索器和生成器组成。检索器从外部知识中快速找到与问题相关的信息,生成器利用这些信息制作精确和连贯的答案,适合处理需要广泛知识的任务,如问答系统。
2025-01-10
有哪些能够本地部署的AI视频生成模型
以下是一些能够本地部署的 AI 视频生成模型: 1. Stable Video Diffusion 模型: 准备工作:手动下载相关内容,分别放到指定路径。 模型选择:点击下拉箭头选择不同模型版本,勾选 load Model。 视频创作:支持图生视频,图片来源可选择 Midjourney、Stable Diffusion 等生成的图片,上传到 SVD 进行视频生成,可调节左侧参数控制效果。 保存路径:生成的视频在 outputs 下。 2. LTXVideo 模型: 基于 2B 参数 DiT,能够以 768x512 分辨率生成 24 FPS 的视频,速度比观看还快。 专为 RTX 4090 等 GPU 优化,使用 bfloat16 精度,实现高效内存使用且不影响质量。 ComfyUI 现已支持该模型,用户只需下载模型文件并获取工作流即可在本地运行。 3. Sora 模型: 功能:文生视频、图生视频、视频生视频,支持多种视频定制选项,如分辨率、视频长度和视频风格;具有故事板功能,允许用户通过时间线指导视频中的多个动作;提供混音和编辑功能,包括视频混音、延伸和剪辑、创建循环视频等;还有混合功能,可将两个视频场景合并成一个新的场景。 费用和订阅套餐:对于拥有 OpenAI Plus 或 Pro 账户的用户,使用包含在现有订阅中。OpenAI Plus 订阅每月 50 次视频生成次数,OpenAI Pro 订阅无限次慢速队列生成,500 次正常速度的视频生成次数。用户可根据需要选择更高分辨率的视频生成,但可能会减少每月使用次数。发布初期,某些地区(如欧洲和英国)可能会有延迟。
2025-01-21
国内文生图模型
以下是关于国内文生图模型的相关信息: Recraft 模型:用 8 个月自研模型,包含处理数据的模型、标注工作、训练 OCR 模型、新构建的数据集等。Recraft 生成带有长文本图像的流程图解,但存在生成默认是外国面孔而非亚洲面孔且生成的亚洲人不太自然的情况,可能与数据集有关。只有少数公司真正从头训练模型,创建自己的模型困难且成本高,需要超强团队和资金。 模型能力方面: 文本编码器的能力是文生图模型语义理解能力的关键。一开始大部分模型使用 CLIP 作为文本编码器,但存在一些问题。新的模型纷纷优化文本编码器能力,如引入更大更强的 T5XXL 或结合多个特征,但开源模型在中文生图方面能力一般。 腾讯开源的 HunyuanDiT 是较可用的中文生图模型,但仍存在优化空间。 Kolors 是最近开源的给力文生图模型,改进全面,技术实力强。
2025-01-21
吴恩达大模型教程
以下是一些与吴恩达大模型相关的教程和资源: 面向开发者的 LLM 入门课程: 地址: 简介:一个中文版的大模型入门教程,围绕吴恩达老师的大模型系列课程展开,包括吴恩达《ChatGPT Prompt Engineering for Developers》课程中文版等。 提示工程指南: 地址: 简介:基于对大语言模型的兴趣编写的全新提示工程指南,介绍了相关论文研究等。 LangChain🦜️🔗中文网,跟着 LangChain 一起学 LLM/GPT 开发: 地址: 简介:由两位 LLM 创业者维护的 Langchain 中文文档。 LLM 九层妖塔: 地址: 简介:包含 ChatGLM 等实战与经验。 目录:吴恩达讲 Prompt https://github.com/zard1152/deepLearningAI/wiki Coze 复刻:吴恩达开源的 AI 翻译项目 复刻步骤:包括配置反思优化的提示词、结合反思优化建议再次翻译、选择输出方式等。 大语言模型分为基础 LLM 和指令微调 LLM 两类。基础 LLM 经过训练可根据文本预测下一个词,指令微调 LLM 经过训练能遵循指令,为让系统更有帮助并遵循指令,通常会使用人类反馈强化学习(RLHF)技术优化。提示的关键原则包括尽可能保证下达的指令“清晰、没有歧义”,给大模型思考的时间以及足够的时间去完成任务。
2025-01-21
有哪个大模型工具可以提供“word文本转excel表格”功能
以下是一些可以将 word 文本转 excel 表格的大模型相关方法: 1. Markdown 格式输出 Markdown 编辑器 Excel:将大模型的输出结果复制到 Markdown 编辑器(如 Typora),然后再直接复制到 Excel,就可以得到直接可用的数据文档。 2. Markdown 格式输出 Excel 数据分组:把大模型的输出直接复制到 Excel,一般使用 Excel 的数据分列功能,用“|”作为分隔符号处理数据。 3. Markdown 格式输出 Excel 数据分组:要求大模型把输出转换成 CSV 格式,然后把结果复制到 txt 文档,另存为成 csv 文件(注意:txt 另存为时,文件后缀名更改为.csv,编码选择 ANSI)。
2025-01-21
有哪个大模型工具可以提供“word技术规范书转功能清单”功能
目前尚未有确切的大模型工具专门提供“word 技术规范书转功能清单”的功能。但一些通用的自然语言处理工具和办公软件的插件可能会对您有所帮助,例如一些基于云服务的办公自动化工具,不过其效果可能因具体的文档内容和格式而有所差异。
2025-01-21
集文档管理、AI写作、资料搜索的AI大模型推荐
以下为您推荐一些集文档管理、AI 写作、资料搜索功能于一体的 AI 大模型: 1. RAG: 工作原理:就像超级智能的图书馆员,包括检索(从庞大知识库中找相关信息)、增强(筛选优化信息)、生成(整合信息给出连贯回答)。 优点:成本效益高、灵活性强、可扩展性好。 缺点:回答准确性相对不够。 相关网站:Metaso.cn(学术、研究)、So.360.com(生活、便捷)、Devv.ai(程序员、开发者)、Perplexity(付费、高质量)、Bing.com(通用)、Google.com(全球、精准)。 内幕:平均调用 9 次大语言模型,网络爬虫预先建立数据库,用便宜但推理弱的模型(免费版)。 2. 对于律师工作: AI 大模型擅长:信息检索与整理、模式识别与预测、自动化文档处理、多任务处理能力。 AI 大模型不擅长:法律解释与推理、理解道德和情感、创新或个性化的服务。 律师擅长:法律专业知识、沟通与谈判。 3. 沉浸式翻译:主打所有网页双语翻译、PDF 文档对照阅读,新功能可一键开启网页中 Youtube 视频的双语字幕。插件安装地址:https://immersivetranslate.com/ 4. Kimi:由月之暗面科技有限公司开发,最大特点是超长文本(支持最多 20 万字的输入和输出)处理和基于文件、链接内容对话的能力,能阅读并理解多种格式文件内容为用户提供回复。
2025-01-21
有没有关于cursor的使用教程
以下是关于 Cursor 的使用教程: 1. 中文教程网站: 网站:,提供中文教程,帮助您更好地掌握 Cursor 的使用方法,适合想深入了解和学习的用户。 2. 张梦飞的 0 编程基础入门极简使用指南: 下载 Cursor: 注册账号,可用邮箱(如 google、github、163、qq 邮箱)直接登录,接受二维码登录。 安装中文包插件。 在设置中 Rule for AI 配置。 按 ctrl/cmd+i 输入需求,例如:帮我做一个贪吃蛇游戏,在网页中玩。 3. 其他相关工具和步骤: 对于做 2048 游戏,可使用任意 AI 工具获得代码,专业代码模型表现更优。 使用 Cursor 不用下载上一步中的 Pycharm,网址:,通过对话获得代码,指令更详细效果更好。 Deepseek(新手推荐):网址:,方便国内访问,网页登录便捷,目前完全免费。 通义灵码:在 Pytharm 中,“文件”“设置”“插件”红色框位置搜索“通义灵码”安装(目前免费)。 JetBrains 自身的助手插件:在 Pytharm 中,“文件”“设置”“插件”红色框位置搜索“Jetbrains AI assistant”安装(收费,目前有 7 天免费试用)。 还有 Marscode 及 Tencent cloud AI code Assistant 等。 无影的晓颖 AI 助手在云栖大会上有过使用,内置在云电脑里,使用较流畅。
2025-01-21
有没有什么AI软件有可视化代码功能
以下是一些具有可视化代码功能的 AI 软件: 1. Lucidchart:流行的在线绘图工具,支持多种图表创建,包括逻辑视图、功能视图和部署视图,用户可通过拖放界面轻松创建架构图。 2. Visual Paradigm:全面的 UML 工具,提供创建各种架构视图的功能,如逻辑视图(类图、组件图)、功能视图(用例图)和部署视图(部署图)。 3. ArchiMate:开源的建模语言,专门用于企业架构,支持逻辑视图创建,可与 Archi 工具配合使用,该工具提供图形化界面创建模型。 4. Enterprise Architect:强大的建模、设计和生成代码工具,支持创建多种架构视图,包括逻辑、功能和部署视图。 5. Microsoft Visio:广泛使用的图表和矢量图形应用程序,提供丰富模板用于创建逻辑视图、功能视图和部署视图等。 6. draw.io(现称为 diagrams.net):免费的在线图表软件,允许创建各种类型图表,包括软件架构图,支持创建逻辑视图和部署视图等。 7. PlantUML:文本到 UML 的转换工具,通过编写描述性文本自动生成序列图、用例图、类图等,帮助创建逻辑视图。 8. Gliffy:基于云的绘图工具,提供创建各种架构图的功能,包括逻辑视图和部署视图。 9. Archi:免费的开源工具,用于创建 ArchiMate 和 TOGAF 模型,支持逻辑视图创建。 10. Rational Rose:IBM 的 UML 工具,支持创建多种视图,包括逻辑视图和部署视图。 以下是一些写代码或辅助编程的 AI 产品: 1. GitHub Copilot:由 GitHub 联合 OpenAI 和微软 Azure 团队推出的 AI 编程助手,支持多种语言和 IDE,能为程序员快速提供代码建议。 2. 通义灵码:阿里巴巴团队推出的智能编程辅助工具,提供多种能力。 3. CodeWhisperer:亚马逊 AWS 团队推出的 AI 编程软件,由机器学习技术驱动,为开发人员实时提供代码建议。 4. CodeGeeX:智谱 AI 推出的开源免费 AI 编程助手,基于 130 亿参数的预训练大模型,可快速生成代码。 5. Cody:代码搜索平台 Sourcegraph 推出的 AI 代码编写助手,借助强大的代码语义索引和分析能力,了解开发者的整个代码库。 6. CodeFuse:蚂蚁集团支付宝团队为国内开发者提供智能研发服务的免费 AI 代码助手,基于自研的基础大模型微调的代码大模型。 7. Codeium:由 AI 驱动的编程助手工具,通过提供代码建议、重构提示和代码解释帮助软件开发人员提高效率和准确性。 更多辅助编程 AI 产品,还可以查看:https://www.waytoagi.com/category/65 。每个工具的功能和适用场景可能不同,您可以根据需求选择最适合的工具。 此外,还有一些相关的工具和资源: 1. Screenshot to Code:利用 GPT4 Vision 视觉能力将屏幕截图转换为代码,支持 HTML/Tailwind CSS、React 等,集成 DALLE 3。 2. 交互创意体验网址:http://reboot.studio ,提供丰富的交互创意体验,鼓励加入更多 AI 元素。 3. 沃顿商学院发布的教学提示词库:https://www.moreusefulthings.com/prompts ,包含多用途学习和教育提示词,适合学生、教师和家长收藏。
2025-01-20
你有没有在github上面的好用的生成图片的人工智能
以下是在 GitHub 上一些好用的生成图片的人工智能工具: 1. Artguru AI Art Generator:在线平台,能生成逼真图像,为设计师提供灵感,丰富创作过程。 2. Retrato:AI 工具,可将图片转换为非凡肖像,有 500 多种风格选择,适合制作个性头像。 3. Stable Diffusion Reimagine:新型 AI 工具,通过稳定扩散算法生成精细、具细节的全新视觉作品。 4. Barbie Selfie Generator:专为喜欢梦幻童话风格的人设计,能将上传的照片转换为芭比风格,效果很好。 此外,还有一些常见的文生图工具: 1. DALL·E:由 OpenAI 推出,能根据输入的文本描述生成逼真的图片。 2. StableDiffusion:开源的文生图工具,可生成高质量图片,支持多种模型和算法。 3. MidJourney:因高质量的图像生成效果和用户友好的界面设计而受欢迎,在创意设计人群中流行。 在 3D 建模方面,以下工具可通过图片生成 3D 模型: 1. Tripo AI:VAST 发布的在线 3D 建模平台,能利用文本或图像在几秒钟内生成高质量且可立即使用的 3D 模型。 2. Meshy:功能全面,支持文本生成 3D、图片生成 3D 以及 AI 材质生成。 3. CSM AI:支持从视频和图像创建 3D 模型,Realtime Sketch to 3D 功能支持通过手绘草图实时设计 3D 形象,再转换为 3D 模型。 4. Sudo AI:支持通过文本和图像生成 3D 模型,适用于游戏领域的模型生成。 5. VoxCraft:免费 3D 模型生成工具,能将图像或文本快速转换成 3D 模型,并提供多种功能。 但需要注意的是,这些工具可能存在一些局限,如偶尔会出现性能不稳定、生成内容不当等问题。在 WaytoAGI 网站(https://www.waytoagi.com/category/104 ),可以查看更多文生图工具。
2025-01-20
请问有没有可以读学术论文的AI
以下是一些可以辅助阅读学术论文的 AI 工具: 1. 文献管理和搜索: Zotero:结合 AI 技术,可自动提取文献信息,便于管理和整理参考文献。 Semantic Scholar:由 AI 驱动的学术搜索引擎,能提供文献推荐和引用分析。 2. 内容生成和辅助写作: Grammarly:通过 AI 技术进行文本校对、语法修正和写作风格建议,提升语言质量。 Quillbot:基于 AI 的重写和摘要工具,可精简和优化论文内容。 3. 研究和数据分析: Google Colab:提供基于云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,方便进行数据分析和可视化。 Knitro:用于数学建模和优化的软件,有助于复杂的数据分析和模型构建。 4. 论文结构和格式: LaTeX:结合自动化和模板,高效处理论文格式和数学公式。 Overleaf:在线 LaTeX 编辑器,有丰富模板库和协作功能,简化论文编写。 5. 研究伦理和抄袭检测: Turnitin:广泛使用的抄袭检测工具,确保论文原创性。 Crossref Similarity Check:通过与已发表作品比较,检测潜在抄袭问题。 如果您的医学课题需要 AI 给出修改意见,可以考虑以下工具: 1. Scite.ai:为研究人员等打造的创新平台,提供引用声明搜索等工具,增强对科学文献的洞察。 2. Scholarcy:能从文档提取结构化数据,生成文章概要,包含关键概念等板块内容。 3. ChatGPT:强大的自然语言处理模型,可提供修改意见和帮助。 在 2023 年 12 月 28 日的历史更新中,在“激发学习动力”板块新增了“Connected Papers”网站,可通过可视化图表浏览学术论文。在中国 AI 网站中新增了“彩云小梦”,是一个帮您续写故事的 AI 产品。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-01-20
有没有可以生成连贯电影分镜的AI工具
以下是一些可以生成连贯电影分镜的 AI 工具: 1. OpenAI 发布的文生视频模型 Sora,能够根据文字指令创造出逼真且充满想象力的场景,生成长达 1 分钟的一镜到底超长视频,视频中的人物和背景具有惊人的一致性,可随意切换镜头并保持人物稳定性。 2. XiaoHu.AI 日报中提到的工具,支持生成多张连贯图像,保持角色或场景的一致性,可用于影视分镜等多种应用。仅需一块 24GB 显存的 GPU 即可完成训练,适配多种模型架构。详细介绍:
2025-01-20
有没有可以生成电影分镜的AI工具
以下是一些可以生成电影分镜的 AI 工具及相关信息: 1. GPT:可以通过指令逻辑生成视频内容、分镜需要的画面、宣传片朋友圈宣传文案等。比如先让 GPT 生成视频内容,再细化每个分镜需要的内容,最后提炼响亮的名字。 2. Pika Labs:在确定画面后可用于生成相关内容。 3. Midjourney:在生图方面,其语义理解有所提升。可以通过确定影片风格(如皮克斯动画风格)、人物形象等来生成图像。 此外,在利用 AI 拆分镜时,如使用 GPT 生成分镜内容,其优势在于结构化,但可能会有内容丢失,需要人工审核及查缺补漏。同时,在制作分镜时,还应考虑视角等细致的问题。
2025-01-20