Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

你用的什么模型

Answer

我使用的模型是 GPT4。在不同的应用场景中,还存在其他多种模型可供选择和切换,例如:

  • 在 Cursor 中,AI 输入框下方有下拉列表,默认准备好的模型有GPT-4oGPT-4Claude 3.5 Sonnet、cursor-small 等,您还可以在 Cursor Settings>Models>Model Names 下添加其他模型。
  • ComfyUI FLUX 原生支持,FLUX.1 有三个变体:FLUX.1[pro]、FLUX.1[dev]和 FLUX.1[schnell]。其中,FLUX.1[pro]通过 API 提供,被认为是最强的模型;FLUX.1[dev]具有非商用许可,是从“FLUX.1[pro]”提炼得出;FLUX.1[schnell]是一个蒸馏的 4 步模型,拥有 Apache 2.0 商用许可,适用于在本地进行部署或者个人使用。相关模型的链接、模型与工作流地址、说明文档等信息如下:
    • FLUX.1[dev]:https://huggingface.co/black-forest-labs/FLUX.1-dev/tree/main
    • FLUX.1[dev fp8]:https://huggingface.co/Kijai/flux-fp8
    • FLUX.1[schnell]:https://huggingface.co/black-forest-labs/FLUX.1-schnell/tree/main
    • 模型与工作流地址:
      • https://pan.quark.cn/s/2797ea47f691
      • https://pan.baidu.com/s/1nV26Fhn3WYBLrg2hSA0_YQ?pwd=cycy
    • 说明文档:https://xiaobot.net/post/8fd64f3f-52d1-4948-824d-5ee0c38e2594
Content generated by AI large model, please carefully verify (powered by aily)

References

夙愿:AI 快速总结群聊消息

问:你用的是什么模型?GPT4还是GPT3.5?答:我用的是GPT4,其他模型的效果不太好,不信你可以试试。问:我用了GPT4模型,但它总结出来的内容质量不行,怎么办?答:GPT的输出具有随机性,请点击“重试”按钮,让GPT重新总结一下问:有没有办法让GPT输出排版内容时直接不输出**?答:我改过很多遍提示词了,不能,要么无法让GPT不输出**,要么强制不输出**,但是总结内容的效果大幅下降。问:前面提到的剪切板共享工具是什么?答:微信输入法以上就本次分享的全部内容,希望我的分享能对大家有帮助。感谢@李继刚老师,文字排版大师的提示词编写思路来源于李继刚老师的通知消息整理助手。我是夙愿学长,更多关于我的信息,欢迎来康康:[夙愿学长的使用说明书](https://zi6nfl20s5u.feishu.cn/wiki/UEPmwdkZ4iNsOek2jJPcqSDKn3b)

Models 模型

With Cursor Chat,Ctrl/⌘K,and Terminal Ctrl/⌘K,you can easily switch between different models of your choice.使用光标聊天、Ctrl/⌘K和终端Ctrl/⌘K,您可以轻松地在您选择的不同模型之间切换。[heading3][heading3]Model Dropdown模型下拉列表[content]Underneath the AI input box,you will see a dropdown that allows you to select the model you want to use.By default,Cursor has these models ready to use:在AI输入框下方,您将看到一个下拉列表,允许您选择要使用的模型。默认情况下,Cursor已准备好使用这些模型:[GPT-4o](https://openai.com/index/hello-gpt-4o/)[](https://openai.com/index/hello-gpt-4o/)[GPT-4o](https://openai.com/index/hello-gpt-4o/)[GPT-4](https://openai.com/index/gpt-4/)[](https://openai.com/index/gpt-4/)[GPT-4](https://openai.com/index/gpt-4/)[](https://openai.com/index/gpt-4/)[Claude 3.5 Sonnet](https://www.anthropic.com/news/claude-3-5-sonnet)cursor-smallcursor-small is Cursor’s custom model that isn’t as smart as GPT-4,but is faster and users have unlimited access to it.cursor-small是Cursor的自定义模型,它不如GPT-4智能,但速度更快,用户可以无限制地访问它。You can add additional models under Cursor Settings>Models>Model Names.您可以在Cursor Settings>Models>Model Names下添加其他模型。[heading3]

ComfyUI FLUX

ComfyUI原生支持FLUX.1有三个变体:FLUX.1[pro]、FLUX.1[dev]和FLUX.1[schnell]1.FLUX.1[pro]:通过API提供,被认为是最强的模型,在指令跟随、视觉质量、图像细节以及多样性方面表现出色。2.FLUX.1[dev]:具有非商用许可,是从“FLUX.1[pro]”提炼得出。显卡不够的,用下面这个模型:fp8版本的flux1-dev-fp8模型(12GB VRAM运行)3.FLUX.1[schnell]:Flux Schnell是一个蒸馏的4步模型,拥有Apache 2.0商用许可,属于4步模型,适用于在本地进行部署或者个人使用。模型链接FLUX.1[dev]https://huggingface.co/black-forest-labs/FLUX.1-dev/tree/mainFLUX.1[dev fp8]https://huggingface.co/Kijai/flux-fp8FLUX.1[schnell]https://huggingface.co/black-forest-labs/FLUX.1-schnell/tree/main模型比较大,下载慢的可以从网盘里下.模型与工作流地址https://pan.quark.cn/s/2797ea47f691https://pan.baidu.com/s/1nV26Fhn3WYBLrg2hSA0_YQ?pwd=cycy说明文档https://xiaobot.net/post/8fd64f3f-52d1-4948-824d-5ee0c38e2594

Others are asking
你使用了哪些大模型
以下是关于大模型的相关信息: 大模型的定义:大模型的“大”指用于表达 token 之间关系的参数多,主要是模型中的权重(weight)与偏置(bias),例如 GPT3 拥有 1750 亿参数。以 Transform 为代表的大模型采用自注意力(Selfattention)机制来学习不同 token 之间的依赖关系,生成高质量 embedding。数字化便于计算机处理,为让计算机理解 Token 之间的联系,需把 Token 表示成稠密矩阵向量,这个过程称为 embedding,常见算法有基于统计的 Word2Vec、GloVe,基于深度网络的 CNN、RNN/LSTM,基于神经网络的 BERT、Doc2Vec 等。 国内部分大模型: 北京:百度(文心一言)https://wenxin.baidu.com 、抖音(云雀大模型)https://www.doubao.com 、智谱 AI(GLM 大模型)https://chatglm.cn 、中科院(紫东太初大模型)https://xihe.mindspore.cn 、百川智能(百川大模型)https://www.baichuanai.com/ 上海:商汤(日日新大模型)https://www.sensetime.com/ 、MiniMax(ABAB 大模型)https://api.minimax.chat 、上海人工智能实验室(书生通用大模型)https://internai.org.cn 部分大模型的特点:在聊天状态下能生成 Markdown 格式的有智谱清言、商量 Sensechat、MiniMax;目前不能进行自然语言交流的有昇思、书生;受限制使用的有 MiniMax;特色功能方面,昇思能生图,MiniMax 能语音合成。 大模型的动手实验:由于作者使用的是 macOS 系统,因此采用 GGML 量化后的模型。比较有名的相关项目有 ggerganov/llama.cpp:Port of Facebook's LLaMA model in C/C++ 中下载模型,3G 到 7G 不等。此外,llama.cpp 还提供了 WebUI 供用户使用,首先启动 server,它默认监听 8080 端口,打开浏览器就可以对话。
2025-02-20
养老场景实时健康监测与风险预警在技术上怎么实现,用AI大模型实现,请给出一个可行的方案
以下是一个利用 AI 大模型实现养老场景实时健康监测与风险预警的可行方案: 首先,需要明确相关的概念和技术名词。AI 即人工智能,机器学习是电脑找规律学习,包括监督学习、无监督学习和强化学习。监督学习是基于有标签的训练数据,学习输入和输出之间的映射关系,包括分类和回归。无监督学习是在无标签数据中自主发现规律,例如聚类。强化学习是从反馈中学习以最大化奖励或最小化损失,类似训小狗。深度学习参照人脑,具有神经网络和神经元,因层数多被称为深度,神经网络可用于多种学习方式。生成式 AI 能生成文本、图片、音频、视频等内容形式,LLM 是大语言模型,生成图像的扩散模型不属于大语言模型,像谷歌的 BERT 模型可用于语义理解,如上下文理解、情感分析、文本分类。 在技术里程碑方面,2017 年 6 月谷歌团队发表的《Attention is All You Need》论文首次提出了 Transformer 模型,其完全基于自注意力机制处理序列数据,不依赖循环神经网络或卷积神经网络。 对于养老场景的实时健康监测与风险预警,可利用传感器收集老人的生理数据,如心率、血压、血糖等。这些数据通过物联网传输到服务器,利用深度学习算法对数据进行分析和处理。例如,使用基于 Transformer 模型的大模型,对历史健康数据和当前实时数据进行学习和分析,建立老人的健康模型。通过与正常健康指标的对比,及时发现异常情况,并结合无监督学习中的聚类算法,对不同健康状况的老人进行分类,以便提供个性化的预警和建议。同时,利用强化学习不断优化模型的预警准确性和及时性。 总之,通过整合传感器数据采集、物联网传输、深度学习算法分析和模型优化等环节,借助 AI 大模型实现养老场景的实时健康监测与风险预警。
2025-02-20
大模型和小模型区别是什么?为什么大模型有幻觉,小模型没有?
大模型和小模型的区别主要体现在以下几个方面: 1. 规模和参数:大模型通常具有更多的参数和更复杂的架构,而小模型相对规模较小。 2. 能力和性能:在处理自然语言等任务时,大模型往往表现出更强的能力,例如更准确的理解和生成能力。 3. 应用场景:大模型适用于通用的、复杂的任务,小模型则更适合特定的、简单的场景。 关于大模型存在幻觉而小模型没有的原因: 1. 工作原理:大模型基于统计模型预测生成内容,通过训练数据猜测下一个输出结果,可能因错误数据导致给出错误答案。 2. 数据局限性:大模型的知识完全源于其训练数据,可能存在过时、不准确或不完整的信息。 3. 不可预测性:大模型的输出结果具有不可预测性,而小模型相对更稳定和可预测。
2025-02-20
大模型讲解
大模型是指输入大量语料,使计算机获得类似人类“思考”能力,能进行文本生成、推理问答、对话、文档摘要等工作。 大模型的训练和使用过程可以用“上学参加工作”来类比: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练。 2. 确定教材:大模型需要大量数据,几千亿序列(Token)的输入基本是标配。 3. 找老师:选择合适算法让大模型更好理解 Token 之间的关系。 4. 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称之为推导(infer)。 在 LLM 中,Token 被视为模型处理和生成的文本单位,会被数字化形成词汇表,便于计算机处理。为让计算机理解 Token 之间的联系,还需把 Token 表示成稠密矩阵向量,这个过程称为 embedding,常见算法有基于统计的 Word2Vec、GloVe,基于深度网络的 CNN、RNN/LSTM,基于神经网络的 BERT、Doc2Vec 等。以 Transform 为代表的大模型采用自注意力(Selfattention)机制来学习不同 token 之间的依赖关系,生成高质量 embedding。大模型的“大”在于用于表达 token 之间关系的参数多,主要是模型中的权重(weight)与偏置(bias)。 从整体分层的角度来看,大模型整体架构分为以下几层: 1. 基础层:为大模型提供硬件支撑、数据支持,如 A100、数据服务器等。 2. 数据层:包括静态的知识库和动态的三方数据集。 3. 模型层:有 LLm(大语言模型,如 GPT,一般使用 transformer 算法实现)或多模态模型(如文生图、图生图等模型,训练数据与 llm 不同,用图文或声音等多模态数据集)。 4. 平台层:如大模型的评测体系、langchain 平台等,提供模型与应用间的组成部分。 5. 表现层:即应用层,是用户实际看到的地方。
2025-02-20
生成3d模型可以让模型动起来吗?
生成 3D 模型后是可以让模型动起来的。例如,通过以下工具和流程可以实现: 工具链:Midjourney(生成等距图像)→Trellis(图像转 3D 模型)→Browser Lab(浏览器内 3D 编辑器)。 步骤: 使用 Midjourney 生成等距 3D 场景,提示词示例:3D isometric bedroom with a bed and desk。(DALLE 3 也可测试) 用 Trellis 工具将图像转为 3D 模型(支持 Tripo 3D 等其他工具)。工具地址: 下载生成的 3D 模型(GLB 文件或高斯分布文件),然后导入 Browser Lab 编辑器中进一步编辑。编辑器地址: 结合可灵 AI、Hailuo AI、Runway 等工具可让场景中的人物动起来。 对于文物雕塑上色,可使用 runway 让固有想法的物体变得动态,runway gen3 的 V2V 可以让物体重新建模、重新上色,再把背景上个色,传到剪映,加上 BGM。 先上传图片,运用提示词,只要让物体动起来就行,一次可能不成功,可以多次抽卡(分够的话)。 生成好的视频的左下方,点击“Reuse”,再点击上方出现的“Video to Video”,视频就会跳转到我们的工作台。 再在下方输入提示词“3D modeling with vibrant colors”等待生成。 再重复上面一个步骤,把提示词换成“Changing the background to the universe,the body emits light”。 最后导入剪映,按照自己喜欢的风格,剪成一个小短片。 另外,可以用即梦 S2.0(或其他可以动效的工具)出动态视频,在剪映提前转成 9:16 或 16:9 的大小,否则 runway 会裁剪尺寸。
2025-02-20
你用的是什么ai模型
以下是关于所使用的 AI 模型的相关信息: 我使用的是 GPT4,其他模型的效果不太好。如果您使用 GPT4 总结的内容质量不行,可以点击“重试”按钮让其重新总结。 默认情况下,Cursor Chat 将 OpenAI 的 GPT4(具体为 GPT4Turbo 实例)用于其 AI 模型,您可以通过选择喜欢的 AI 模型,且为 Chat 选择的模型会保存供未来使用。 有实例中使用的是阿里千问模型。
2025-02-20