Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

你是基于什么模型

Answer

以下是关于模型的相关信息:

  • 麦橘超然 MajicFlus 模型:是一款基于 flux.dev 微调融合的模型,专注于高质量人像生成,尤其擅长表现亚洲女性的细腻与美感。具有卓越的人像生成能力,能优化不同光影条件下的表现,确保人像面部细节和肢体完整性;有广泛的适用性,在生成非人生物和场景时也有显著改进;简单易用,无需复杂提示词即可生成高质量作品,同时支持更长提示词的精细控制。但该模型并非为生成 NSFW 内容而设计,对社区大部分的 lora 不完美兼容,需要降低权重至 0.5 以下。
  • Cursor 模型:使用光标聊天、Ctrl/⌘K 和终端 Ctrl/⌘K 可在不同模型间切换。在 AI 输入框下方有下拉列表可选择模型,默认有[GPT-4o]、[GPT-4]、[Claude 3.5 Sonnet]、cursor-small 等模型,其中 cursor-small 是 Cursor 的自定义模型,不如 GPT-4 智能但速度更快且用户可无限制访问。可在 Cursor Settings>Models>Model Names 下添加其他模型。
  • ChatGPT 模型:任何模型都具有特定的基本结构和可调节的“旋钮”(权重)来适应数据。ChatGPT 使用了许多这样的“旋钮”,实际上有 1750 亿个。在某些情况下,可通过已知物理法则或数学猜测来建立模型,如直线、更复杂的数学方法等。
Content generated by AI large model, please carefully verify (powered by aily)

References

麦橘flux模型生态-全球首发!

麦橘超然MajicFlus是一款基于flux.dev微调融合的模型,专注于高质量人像生成,尤其擅长表现亚洲女性的细腻与美感。模型以唯美、写实、易用为核心特色,能够通过简单的提示词生成优质效果,同时对复杂提示词也有出色的响应能力。[heading3]模型特点[content]卓越的人像生成能力:优化了在不同光影条件下的表现,确保人像在各种构图中的面部细节和肢体完整性。广泛的适用性:除了人像生成外,模型在生成非人生物和场景时也有显著改进,适应更多创作需求。简单易用:用户无需复杂的提示词即可生成高质量作品,同时支持更长提示词的精细控制。[heading3]社区适配[content]MajicFlus模型在发布的同时,多位社区成员基于模型制作的LoRA也将一同发布,进一步扩展了模型的功能与表现力。这些LoRA为用户提供了更多样化的创作可能性,使模型能够适应更多特定场景和风格需求。[heading3]弱点[content]MajicFlus并非为生成NSFW内容而设计。然而,如果有需要,可以使用相关LoRA来实现此类目的。MajicFlus的存在是为了解决国际社区中模型缺乏亚洲代表性的问题。如果您希望生成非亚洲种族的图像,请考虑使用其他高质量模型。由于该模型是个微调融合模型,对社区大部分的lora都是不完美兼容的,需要降低权重至0.5以下。推荐使用带有majicFlus标志的矩阵模型,搜索关键字majicflus就可以看到他们,认准标题和logo,现在已有超过50款风格各异的优质模型。

Models 模型

With Cursor Chat,Ctrl/⌘K,and Terminal Ctrl/⌘K,you can easily switch between different models of your choice.使用光标聊天、Ctrl/⌘K和终端Ctrl/⌘K,您可以轻松地在您选择的不同模型之间切换。[heading3][heading3]Model Dropdown模型下拉列表[content]Underneath the AI input box,you will see a dropdown that allows you to select the model you want to use.By default,Cursor has these models ready to use:在AI输入框下方,您将看到一个下拉列表,允许您选择要使用的模型。默认情况下,Cursor已准备好使用这些模型:[GPT-4o](https://openai.com/index/hello-gpt-4o/)[](https://openai.com/index/hello-gpt-4o/)[GPT-4o](https://openai.com/index/hello-gpt-4o/)[GPT-4](https://openai.com/index/gpt-4/)[](https://openai.com/index/gpt-4/)[GPT-4](https://openai.com/index/gpt-4/)[](https://openai.com/index/gpt-4/)[Claude 3.5 Sonnet](https://www.anthropic.com/news/claude-3-5-sonnet)cursor-smallcursor-small is Cursor’s custom model that isn’t as smart as GPT-4,but is faster and users have unlimited access to it.cursor-small是Cursor的自定义模型,它不如GPT-4智能,但速度更快,用户可以无限制地访问它。You can add additional models under Cursor Settings>Models>Model Names.您可以在Cursor Settings>Models>Model Names下添加其他模型。[heading3]

ChatGPT 是在做什么,为什么它有效?

假设你想知道(就像加利略在16世纪后期所做的那样),从比萨斜塔的每层掉下来的炮弹需要多长时间才能击中地面。好吧,你可以在每个高度下测量它并制作一个结果表。或者你可以做理论科学的本质:制作一个可以计算答案的模型,而不仅仅是测量和记忆每个情况。让我们想象我们有(有点理想化的)数据,可以了解从各个楼层掉下来的炮弹需要多长时间:没有明确数据时,我们如何确定它掉下来需要多长时间?在这种特殊情况下,我们可以使用已知的物理法则来计算。但是假设我们只有数据,不知道支配它的基本规律。然后,我们可以做出数学猜测,比如说或许我们应该使用一条直线作为模型:我们可以选择不同的直线。但这是平均最接近我们所给定数据的线条。而从这条直线我们可以估算出任何楼层的掉落时间。我们如何知道在这里尝试使用一条直线?在某种程度上,我们并不知道。使用直线在数学上是简单的,而我们已经习惯了许多测量的数据沿着简单的直线分布这个事实。当然,我们可以尝试更复杂的数学方法,比如a+bx+cx²,然后在这种情况下我们可以更好地符合数据:然而,有些情况会出现问题。比如说这是我们使用a+b/x+c sin(x)最好的结果:需要理解的是,从来没有“没有(预设)模型的模型”。您使用的任何模型都具有某种特定的基本结构,然后有一定的“旋钮可以调节”(即您可以设置的权重)来适应您的数据。在ChatGPT的情况下,使用了许多这样的“旋钮”,实际上有1750亿个。

Others are asking
deepseek是不是国内通用大模型第一名
DeepSeek 是在国内表现出色的模型之一。它发布的大一统模型 JanusPro 将图像理解和生成统一在一个模型中,具有统一 Transformer 架构,提供 1B 和 7B 两种规模,全面开源,支持商用,部署使用便捷,Benchmark 表现优异,能力更全面。同时,在 LMSYS 排行榜上,由 DeepSeek 等开发的模型取得了优异成绩,尤其在数学和编程方面表现出色。DeepSeek 在推理过程中通过多头隐式注意力减少内存需求,并且改进了 MoE 架构。但不能简单地说 DeepSeek 就是国内通用大模型第一名,其在不同方面的表现还需综合评估。
2025-02-08
ai 大模型的课程推荐
以下为您推荐两个关于 AI 大模型的课程: 1. 【包教包会】一条视频速通 AI 大模型原理_哔哩哔哩_bilibili (https://www.bilibili.com/video/BV17t4218761/?vd_source=3cc4af77a2ef185635e8097d3326c893) 介绍:由(https://space.bilibili.com/523995133)(女神)主讲,和某知识 up 主 Genji 一起制作的免费公益课。干货满满,新手友好,能带你 50 分钟速通 AI 大模型原理。 2. 用大模型保存你的全部人生,你会接受吗:专访安克创新 CEO 阳萌|大咖谈芯第 11 期_哔哩哔哩_bilibili (https://www.bilibili.com/video/BV1iT421Q7M1) 介绍:某知识 up 主老石谈芯专访安克创新 CEO 阳萌的视频,一共两期,此链接为第二期。两期内容都值得观看,访谈非常硬核。
2025-02-08
推荐学习AI大模型的书籍
以下是为您推荐的学习 AI 大模型的相关书籍: 1. 从数学角度写大模型的书籍。 2. 从作家角度写大模型的书籍。 3. 从代码角度写大模型的书籍。 4. 从原理角度写大模型的书籍。 此外,在 Python 和 AI 方面,也有一些推荐: 1. Python 方面: 《Python 学习手册》 《Python 编程》 2. AI 方面: 《人类简史》(“认知革命”相关章节) 《深度学习实战》 希望这些推荐对您有所帮助。
2025-02-08
本地部署语言大模型后进行知识库训练
以下是关于本地部署语言大模型后进行知识库训练的详细步骤: 1. 部署大语言模型: 下载并安装 Ollama:根据您的电脑系统,从 https://ollama.com/download 下载,双击打开后点击“Install”。安装完成后,将下方地址复制进浏览器中确认:http://127.0.0.1:11434/ 。 下载 qwen2:0.5b 模型(若设备充足,可下载更大的模型): 如果是 Windows 电脑,点击 win+R,输入 cmd 后点击回车。 如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 复制相关命令行并粘贴进入,回车后等待自动下载完成。(若下载久了卡顿,可鼠标点击窗口并按空格键刷新) 2. 了解 RAG 技术:利用大模型的能力搭建知识库是 RAG 技术的应用。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给 LLM。RAG 应用可抽象为 5 个过程: 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化的数据、SQL 在内的结构化的数据,以及 Python、Java 之类的代码等。 文本分割:文本分割器把 Documents 切分为指定大小的块。 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 检索:通过某种检索算法找到与输入问题相似的嵌入片。 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示生成更合理的答案。 3. 本地知识库进阶: 安装 AnythingLLM:安装地址为 https://useanything.com/download 。安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。 构建本地知识库:AnythingLLM 中有 Workspace 的概念,可创建自己独有的 Workspace 与其他项目数据隔离。首先创建一个工作空间,然后上传文档并在工作空间中进行文本嵌入,选择对话模式(包括 Chat 模式和 Query 模式),最后进行测试对话。
2025-02-08
AI大模型应用面试题
以下是一些与 AI 大模型应用相关的面试题: 在游戏行业,大模型不仅能降低成本,还能打造创新玩法,如网易的《逆水寒》在美术开发、NPC 与玩家交互等方面的应用。请问您对这种应用的看法和理解? 在人力资源管理领域,AI 覆盖了从招聘到员工绩效评估等各个环节。请谈谈您对这种应用的认识以及其可能带来的影响。 在基础办公提效方面,如 PPT、Excel 等,AI 能从单个任务到角色协同显著提高工作效率。您认为这种提高在实际工作中的具体表现和重要性如何? 对于健身行业中的 AI 减重顾问,既能解决售前客服问题,又能进行健康监护,您如何看待这种应用的前景和挑战? 如何在 10 分钟内在网站上增加一个 AI 助手?比如创建大模型问答应用,包括获取大模型的推理 API 服务等步骤。 作为 AIGC 产品经理,在大模型方面,如对算法的熟悉程度、了解的大模型及其评价、快速体验各种模型的方法、大模型应用落地中注入领域知识的方式、大模型应用的评测、保证大模型价值观无害、对 PE 的理解及相关案例、对大模型微调及 RAG 的理解和优势、用大模型解决传统模型无法解决的业务问题、大模型面临的新安全危险及解决方法、幻觉的产生及解决手段等方面,您有怎样的见解和经验?
2025-02-07
推荐免费的tts公有模型站点,需要支持中文,克隆自己的声音
以下为您推荐支持中文且能克隆自己声音的免费 TTS 公有模型站点: GPTSoVITS: 只需 1 分钟语音即可训练一个自己的 TTS 模型。 5 秒数据就能模仿您,1 分钟的声音数据就能训练出一个高质量的 TTS 模型,完美克隆您的声音,且适配中文,界面易用。 主要特点: 零样本 TTS:输入 5 秒的声音样本即可体验即时的文本到语音转换。 少量样本训练:只需 1 分钟的训练数据即可微调模型,提高声音相似度和真实感。模仿出来的声音会更加接近原声,听起来更自然。 跨语言支持:支持与训练数据集不同语言的推理,目前支持英语、日语和中文。 易于使用的界面:集成了声音伴奏分离、自动训练集分割、中文语音识别和文本标签等工具,帮助初学者更容易地创建训练数据集和 GPT/SoVITS 模型。 适用于不同操作系统:项目可以在不同的操作系统上安装和运行,包括 Windows。 预训练模型:项目提供了一些已经训练好的模型,您可以直接下载使用。 GitHub: 视频教程: 需要注意的是,Stuart 模型存在一些问题: 语音生成基本功能方面: 支持的语音时长不超过 30 秒,超过 30 秒的需要特别修复。 某些 audio seed 在念某些语句时会丢失一些语句。 Refine 过程中有些字会被丢失,比如“儿童节”在大概率会被 refine 成“童节”,丢失一个“儿”字。解决方法是跳过自动 refine,以手动修改文本的方式来控制停顿。 即使同一个 audio seed,如果使用不同的语句分段方式,或者不同的 text seed,生成的音色也不是很稳定,会给人感觉不是同一个人的声音。 代码 Bug: uv_break 等提示词可能会在 refine 之后缺少,甚至有时候在有中括号的情况下也会被念出来。 没提供微调 SFT 的接口。 本模型特别申明:不支持商用,仅用于学术研究。在生成的语音内,作者加了听不见的噪音水印,可以很容易的被检测出来是他的模型生成的语音。ChatTTS 还没放出训练代码无法自己克隆声音,作者还只放出了 4w 小时训练的版本,确保这个模型的声音能被 AI 检测出来。作者还留着一个 10w 小时训练数据的版本。
2025-02-07