以下是一些关于模型的信息:
With Cursor Chat,Ctrl/⌘K,and Terminal Ctrl/⌘K,you can easily switch between different models of your choice.使用光标聊天、Ctrl/⌘K和终端Ctrl/⌘K,您可以轻松地在您选择的不同模型之间切换。[heading3][heading3]Model Dropdown模型下拉列表[content]Underneath the AI input box,you will see a dropdown that allows you to select the model you want to use.By default,Cursor has these models ready to use:在AI输入框下方,您将看到一个下拉列表,允许您选择要使用的模型。默认情况下,Cursor已准备好使用这些模型:[GPT-4o](https://openai.com/index/hello-gpt-4o/)[](https://openai.com/index/hello-gpt-4o/)[GPT-4o](https://openai.com/index/hello-gpt-4o/)[GPT-4](https://openai.com/index/gpt-4/)[](https://openai.com/index/gpt-4/)[GPT-4](https://openai.com/index/gpt-4/)[](https://openai.com/index/gpt-4/)[Claude 3.5 Sonnet](https://www.anthropic.com/news/claude-3-5-sonnet)cursor-smallcursor-small is Cursor’s custom model that isn’t as smart as GPT-4,but is faster and users have unlimited access to it.cursor-small是Cursor的自定义模型,它不如GPT-4智能,但速度更快,用户可以无限制地访问它。You can add additional models under Cursor Settings>Models>Model Names.您可以在Cursor Settings>Models>Model Names下添加其他模型。[heading3]
我们现在支持以下模型在Morph Studio中生成视频:|Text-to-Video-Morph-0.1|我们的内部文本到视频生成模型,默认情况下,我们的文本到视频模型具有逼真的色调,可以随意添加描述性形容词来修改您拍摄的风格和外观||-|-||Image-to-Video-Morph-0.1|我们的内部图像到视频生成模型,如果您用文本提示进行引导,生成结果会更好,但使用图像到视频时不需要输入文本。与SVD相比,我们的模型在角色特写和对象动画方面表现更好。||Video-to-Video-Morph-0.1|我们的内部风格转换模型支持在文本提示下进行视频到视频的渲染。该模型的主要功能是将视频的风格更改为我们自己的预设,同时保留原始视频的字符和布局。||Image-to-Video-SVD-1.1|这是一个由Stability.ai提供支持的图像到视频模型,最适用于构图中有清晰层次的镜头(风景镜头、B卷等)|更改模型:文本到视频形态-0.1被设置为任何新创建的射击卡的默认模型。您的型号选择将根据您是否上传了图像或视频而更改。每个模型也有自己的一组参数可供调整,如下所示:设置说明相机运动现在我们支持静态、放大、缩小、向左平移、向右平移、向上平移、向下平移、顺时针旋转和逆时针旋转。一次选择多个相机移动的选项将在未来可用。时间我们支持最多10秒的视频生成。默认持续时间设置为3s。运动
目前只支持sdxl节点地址ComfyUI_InstantID https://github.com/cubiq/ComfyUI_InstantID?tab=readme-ov-file主要的模型(ip_adapter.bin),下载后放在ComfyUI/models/instantid文件夹里,没有这个文件夹就新建一个https://huggingface.co/InstantX/InstantID/resolve/main/ip-adapter.bin?download=trueInsightFace模型是antelopev2(不是经典的buffalo_l)。下载模型,解压并将它们放在ComfyUI/models/insightface/models/antelopev2目录中https://huggingface.co/MonsterMMORPG/tools/tree/main还需要一个controlNet模型https://huggingface.co/InstantX/InstantID/resolve/main/ControlNetModel/diffusion_pytorch_model.safetensors?download=true放在ComfyUI/models/controlnet目录下上述模型网络环境不好的,可以在网盘https://pan.baidu.com/s/1Fk-GTXLmM0Ofynz04NfCaQ?pwd=cycy