Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

图生图美食模型

Answer

以下是关于图生图美食模型的相关知识:

概念与功能说明

  • 首页-模型、帖子、排行榜:展示其他用户生成的模型、图片。不同模型有 checkpoint 和 lora 两种标签,部分还有 SDXL 标签。点击可查看模型详情,下方有返图区。
  • 基础模型(checkpoint):生图必需,任何生图操作都要先选定。
  • lora:低阶自适应模型,类似 checkpoint 的小插件,可控制细节,权重可调整。
  • ControlNet:控制图片中特定图像,如人物姿态、特定文字等,高阶技能。
  • VAE:编码器,类似滤镜,调整生图饱和度,可无脑选 840000。
  • Prompt 提示词:描述想要 AI 生成的内容。
  • 负向提示词(Negative Prompt):描述想要 AI 避免产生的内容。

图生图:上传图片后,SD 会根据图片、所选模型、输入的 prompt 等信息重绘,重绘幅度越大,输出图与输入图差别越大。

简明操作流程(文生图)

  • 定主题:确定生成图片的主题、风格和表达信息。
  • 选择基础模型(checkpoint):按主题找贴近的模型,如麦橘、墨幽的系列模型。
  • 选择 lora:寻找与生成内容重叠的 lora 控制图片效果和质量。
  • ControlNet:高阶技能,可控制特定图像。
  • 局部重绘:下篇再教。
  • 设置 VAE:选 840000。
  • Prompt 提示词:用英文写需求,单词、短语组合,用英文半角逗号隔开。
  • 负向提示词(Negative Prompt):用英文写避免的内容,单词、短语组合,用英文半角逗号隔开。
  • 采样算法:如选 DPM++2M Karras,留意 checkpoint 详情页作者推荐的采样器。
  • 采样次数:根据采样器特征,选 DPM++2M Karras 时,采样次数在 30 - 40 之间。
  • 尺寸:根据个人喜好和需求选择。
Content generated by AI large model, please carefully verify (powered by aily)

References

Tusiart简易上手教程

1.首页-模型\帖子\排行榜:发布了其他大手子炼成的模型、图片。不同的模型有checkpoint和lora两种不同的标签,有些模型的标签后面还有第二个XL的标签,这是属于SDXL这个新模型的意思。点击后可以看模型的详细信息。模型详情信息的下方,是用这个模型生成的图片,俗称返图区。1.基础模型:生图必需的,英文名Checkpoint。任何生图操作必须要选定一个checkpoint模型才能开始操作。注意,checkpoint区别于lora,这两个东西在模型广场都是混着展示的。checkpoint必选,lora可选可不选,任何主题的作图需求,都可以试着在模型广场上搜索或者浏览,然后收集到模型库中用于生图。1.lora:低阶自适应模型,你可以理解为checkpoint的小插件,生图的时候lora可有可无。但是lora的价值还是很明显的,基本上你看到一些精细的控制,如面部、材质、物品等等细节都常见于用相应的lora进行控制。旁边的数值是lora的权重。1.ControlNet:控制图片中一些特定的图像,可以用于控制人物姿态,或者是生成特定文字、艺术化二维码等等。也是高阶技能,后面再学不迟。1.VAE:是个编码器,功能类似于我们熟悉的滤镜,调整生图的饱和度。无脑选择右侧截图中840000这个即可。1.Prompt提示词:想要AI生成的内容(不绝对有效,需要多费功夫学习,哪怕从照抄别人开始)。2.负向提示词Negative Prompt:想要AI避免产生的内容(不绝对有效,也需要费功夫学,哪怕从照抄别人开始)。1.图生图:上传图片之后,sd将根据你的图片和你选择的模型以及输入的prompt等等信息进行重绘。重绘幅度越大,输出的图和输入的图差别就越大。

通义万相视频模型已开放文生视频+图生视频

[甜品魔法师身着五彩缤纷的衣服站在充满各种糖果和甜点的魔法厨房背景是缤纷的水果与华丽的糖霜风格是奇幻美食镜头飞快移动呈现甜美的幻想。.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/PAxUbs4q7oXEbVxVG00cQRj3nVb?allow_redirect=1)[雪山滑雪到海滩冲浪视频展示了一位滑雪者在雪山的滑道上飞驰随着他一次优雅的跳跃雪花在他身后飞舞。当他在空中翻转时滑雪板变成果冻般的冲浪板。当滑雪者优雅地降落在阳光明媚的海面上游动的波浪推动着他前进背景是湛蓝的海洋与欢乐的海滩视频捕捉到了他从雪山到海浪的连续动作传达出运动的流动与自由。(Size 1280720).mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/Wm5Eb9T06oUKtWxbPwLc4vp4ndh?allow_redirect=1)

Tusiart简易上手教程

定主题:你需要生成一张什么主题、什么风格、表达什么信息的图。选择基础模型Checkpoint:按照你需要的主题,找内容贴近的checkpoint。一般我喜欢用模型大佬麦橘、墨幽的系列模型,比如说麦橘写实、麦橘男团、墨幽人造人等等,效果拔群。选择lora:在你想要生成的内容基础上,寻找内容重叠的lora,帮助你控制图片效果及质量。可以多看看广场上做得好看的帖子里面,他们都在用什么lora。ControlNet:控制图片中一些特定的图像,可以用于控制人物姿态,或者是生成特定文字、艺术化二维码等等。也是高阶技能,后面再学不迟。局部重绘:下篇再教,这里不急。设置VAE:无脑选择前面提到的840000这个即可。Prompt提示词:用英文写你想要AI生成的内容,不用管语法也不要写长句,仅使用单词和短语的组合去表达你的需求。单词、短语之间用英文半角逗号隔开即可。负向提示词Negative Prompt:用英文写你想要AI避免产生的内容,也是一样不用管语法,只需单词和短语组合,中间用英文半角逗号隔开。采样算法:这玩意儿还挺复杂的,现在我一般选DPM++2M Karras比较多。当然,最稳妥的是留意checkpoint的详情页上,模型作者是否有推荐采样器,使用他们推荐的采样器会更有保障。采样次数:要根据你采样器的特征来,一般我选了DPM++2M Karras之后,采样次数在30~40之间,多了意义不大还慢,少了出图效果差。尺寸:看你喜欢,看你需求。

Others are asking
哪些可以将CAD建筑平面图生成室内效果图的AI软件
以下是一些可以将 CAD 建筑平面图生成室内效果图的 AI 软件: 1. CADtools 12:这是一个 Adobe Illustrator 插件,为 AI 添加了 92 个绘图和编辑工具,包括图形绘制、编辑、标注、尺寸标注、转换、创建和实用工具。 2. Autodesk Fusion 360:是 Autodesk 开发的一款集成了 AI 功能的云端 3D CAD/CAM 软件,能帮助用户创建复杂的几何形状和优化设计。 3. nTopology:基于 AI 的设计软件,可帮助用户创建复杂的 CAD 模型,包括拓扑优化、几何复杂度和轻量化设计等。 4. ParaMatters CogniCAD:基于 AI 的 CAD 软件,能根据用户输入的设计目标和约束条件自动生成 3D 模型,适用于拓扑优化、结构设计和材料分布等领域。 5. 生成设计工具:一些主流 CAD 软件,如 Autodesk 系列、SolidWorks 等,提供了基于 AI 的生成设计工具,可根据用户输入的设计目标和约束条件自动产生多种设计方案。 同时,以下是一些能够帮助建筑设计师审核规划平面图的 AI 工具: 1. HDAidMaster:云端工具,在建筑设计、室内设计和景观设计领域表现出色,搭载自主训练的建筑大模型 ArchiMaster。 2. Maket.ai:主要面向住宅行业,在户型设计和室内软装设计方面有 AI 技术探索,能根据输入自动生成户型图。 3. ARCHITEChTURES:AI 驱动的三维建筑设计软件,在住宅设计早期阶段可引入相关标准和规范约束设计结果。 4. Fast AI 人工智能审图平台:形成全自动智能审图流程,能将建筑全寿命周期内的信息集成,实现数据汇总与管理。 每个工具都有其特定的应用场景和功能,建议根据具体需求选择合适的工具。
2025-01-29
图生视频哪个网站最好,免费的
以下是一些免费的图生视频网站,各有其特点和优势: Runway:https://runwayml.com/ ,有网页和 APP ,使用方便。 PixVerse:https://pixverse.ai/ ,人少不怎么排队,还有换脸功能。 GigaStudio:https://studio.gigaai.cc/ ,创作者可申请免费会员,文生视频效果好,有 10 个免费极光。 Neverends:https://neverends.life/create ,有 2 次免费体验,操作傻瓜。 DynamiCrafter:https://huggingface.co/spaces/Doubiiu/DynamiCrafter ,2 秒图生视频,还可以做短视频拼长视频。 需要注意的是,不同网站的功能和使用体验可能会有所不同,您可以根据自己的需求进行选择和尝试。
2025-01-26
图生视频
图生视频是指将一张图片通过输入相应的提示词或利用特定模型转变为视频画面的过程。以下是一些关于图生视频的知识和技巧: 工具方面:清影大模型可以实现图生视频。输入一张图片和提示词,模型会将图片转变为视频画面,也可以只输入图片,让模型自行发挥想象力生成有故事的视频。 技巧要点: 选用尽可能清晰的图片,上传图片比例最好为 3:2(横版),支持上传 png 和 jpeg 图像。如果原图不够清晰,可使用分辨率提升工具。 提示词要简单清晰。可以选择不写 prompt,直接让模型自己操控图片动起来;或者明确想动起来的主体,并以“主体+主题运动+背景+背景运动”的方式撰写提示词(一定要有主体,不然可能会出现 AI 狂乱景象)。若不明确大模型如何理解图片,可将照片发送到清言对话框进行识图,明确主体的描述。 案例展示: 桂大羊的案例中,先确立剧本中的人物形象和场景,生成静态图片,然后使用即梦进行图生视频,上传图片至视频生成模块,用简单提示词描绘画面中的动态内容,设置运镜类型和生成速度。 离谱村的案例中,使用了多种工具如 pika、runway、Pixverse 进行图生视频的尝试,还找了技术指导用 SVD1.1 生成精美的视频。
2025-01-24
图生视频时,不按照指令行动
在图生视频过程中出现不按照指令行动的情况,可能有多种原因。以下为您提供一些可能的分析和解决建议: 提示词不够准确清晰:确保提示词详细、具体、明确地描述了您想要的图像和动作,避免模糊或歧义。 模型理解偏差:AI 模型可能对某些复杂或特殊的指令理解存在困难,您可以尝试调整提示词的表述方式。 数据和训练限制:模型的训练数据和能力可能存在一定的局限性,导致无法完全按照指令生成视频。 您可以参考以下的案例来进一步理解和改进: 公子在宣武门前站着说话,气场强大,头发和衣衫随风飘动,气体流动,手指向远方。 小孩子向画面右侧奔跑,后面腾起一路尘土。 公子扔出手中球体法器,法器升空爆出万丈金光,公子惊奇的看着。 同时,您还可以利用一些工具和技巧,例如清影工具中的帮写视频提示词的智能体,来优化提示词。另外,注意提示词的主体、描述细节等方面,如“戴眼镜”的提示词因无主体导致唐僧未能遵从指令戴上墨镜,而“唐僧伸出手,戴上墨镜”这样有主体的提示词则效果更好。
2025-01-24
图生图
以下是关于图生图的详细介绍: 概念与功能说明: 首页包含模型、帖子、排行榜,能看到他人炼成的模型和图片。不同模型有 checkpoint 和 lora 两种标签,还有 SDXL 新模型的标签。点击可查看模型详情,下方是返图区。 基础模型(checkpoint)是生图必需的,任何生图操作都要先选定。lora 是低阶自适应模型,类似 checkpoint 的小插件,可有可无,但对细节控制有价值。ControlNet 可控制图片中特定图像,如人物姿态等。VAE 是编码器,类似滤镜可调整生图饱和度,一般选 840000 这个。Prompt 提示词是想要 AI 生成的内容,负向提示词是想要 AI 避免产生的内容。 图生图是上传图片后,SD 根据图片、所选模型及输入的 prompt 等信息进行重绘,重绘幅度越大,输出图与输入图差别越大。 基础工作流搭建副本中的图生图: 图生图的作用是允许用户上传一张图像,并基于该图像生成新的视觉内容。 使用方法: 在 prompt 输入框下,点击“图生图”可上传本地文件。 在无限画布中图片功能区进行选择。 调整“图生图”功能区参数,包括参考程度,如更像原图是小幅度修改基底图像、有限增加元素;更创意是大幅度修改基底图像、可搭配增强模型加入更多元素;自定义可自定义修改重绘幅度。 增加参考纬度,点击添加按钮会自动应用并打开“生成器”的图片参考功能。 可替换图像,鼠标滑动到图像,点击“选择参考图”重新选择图片。 转换提示词,反推参考图信息填入提示词框中。 同步生图尺寸,同步参考图尺寸到“生成器”的生图尺寸中。
2025-01-21
根据草图生成图片
以下是关于根据草图生成图片的相关内容: ComfyUI Flux 与 runway 制作绘画视频: 生成图片:提示词告诉 flux 生成一张技术草图,如 CAD。 绘制的视频:在 runway 里面,使用提示词从空白页面开始逐行创建,并把生成的图片作为尾帧。 草图上色:使用 flux 的 controlNet,depth 固定,Union 版本不建议权重调太高,结束时间也需注意。 生成上色后的视频。 how2draw Flux lora:分享一个好玩的 flux lora 展示绘画过程,触发词为 how2draw。 GPT4 在草图生成中的潜在应用:文本到图像合成模型常缺乏空间理解和遵循复杂指令能力,而 GPT4 可生成代码并按指示呈现为低质量图像。探索将 GPT4 和现有图像合成模型结合,以 GPT4 输出作为草图,能生成更贴近指令、质量更好的图像。 MJ 应用篇快速给 PPT 配图: 复制图像链接:首先复制图片网址,然后在 discord 聊天栏输入/imagine prompt。 复制提示词:回到官网复制图像提示词,再回 discord 粘贴到网址后面并空格。 生成图像:输入命令等待生成,不理想可多次生成。之后可进行改变比例和镜头拉远、检查构图等操作,若构图不好可在当前图基础上再用 Zoom Out 1.5x。选好图可放入 PPT 调整构图。
2025-01-19
请你作为提示词专家,帮助我写一段提示词,内容是做一个美食时光机的应用,用户输入具体的年份,以及具体的区域,就可以带用户穿越时空,了解当时当地的人们都在吃些什么
以下是为您生成的关于美食时光机应用的提示词: 您好,欢迎使用美食时光机应用。请您输入具体的年份和区域,我将带您穿越时空,领略当时当地人们的饮食风貌。 例如:您可以输入“1980 年,北京”或者“1950 年,上海”等,我会为您呈现那个特定时空下的美食世界。 在为您展示美食的同时,我会详细介绍当时当地的饮食文化、特色食材以及烹饪方式。让您仿佛身临其境,感受那个时代的独特味道。
2024-11-30
我想生成一张美食图片
如果您想生成一张美食图片,可以通过以下方式实现: 需求背景:餐饮行业对菜品图片素材需求多,但聘请摄影师拍摄成本贵且耗费精力,网上购买通用素材又千篇一律。用户希望看到一道菜时能快速获取其配方和做法。 具体使用:通过聊天机器人,输入想要的菜品名称,即可生成符合菜品的图片。 工作流要点: 菜品名的理解。 菜品如何翻译成模型能理解的 Prompt。 确保生成的图片符合常规印象。 图片上带上个性化店名优先级较低。 原理说明: 核心是图像生成的 sd 提示词库,由多人共同努力的结果。 有菜品素材库用于收集和整理菜品对应的 Prompt,先通过 GPT 生成 Prompt,再人工验证其在图像流中的表现,并标注是否收录该菜品,最终维护一个可生成图片的菜品素材库。 工作流串主流程为:先是调用菜品提示词知识库,判断菜品是否在知识库内。如果在,就进入图像流画图并在 bot 里展示;如果不在,向客户致歉并记录客户需求以便未来改进,用数据表单记录用户需求,任何时候都能通过问 bot 查到已报备的菜品。由于 bot 能力有限,会告知用户哪些菜品经过测试能被画出来。
2024-10-14
我做过微商,主要是网上卖门票优惠劵,美食优惠卷,过节卖月饼种子礼盒,还有蟹卡,我平时时间比较富裕,请推荐我适合做那个行业的副业,我45岁,男士,适合利用哪款ai工具来帮助我的副业,我应该具体从什么开始学起,我是做能源石油开采行业的,请给我推荐几款副业,
您好,鉴于您的情况,以下是一些可能适合您的副业推荐: 1. 电商直播带货:您有销售经验,可以通过直播介绍和销售各类特色产品。 2. 在线咨询服务:利用您在能源石油开采行业的专业知识,为相关从业者提供咨询。 在 AI 工具方面,您可以考虑以下几种: 1. 智能客服工具:例如阿里云小蜜等,帮助您处理客户的常见问题,提高服务效率。 2. 数据分析工具:如百度统计、腾讯分析等,帮助您分析市场数据和客户需求。 对于学习,建议您从以下方面开始: 1. 了解 AI 工具的基本功能和操作方法。 2. 学习如何运用数据分析工具来挖掘潜在的市场需求和客户偏好。 希望以上建议对您有所帮助。
2024-09-16
大模型在数据分析上的应用
大模型在数据分析上有广泛的应用。 首先,了解一下大模型的基本概念。数字化便于计算机处理,为让计算机理解 Token 之间的联系,需将 Token 表示成稠密矩阵向量,即 embedding,常见算法有基于统计的 Word2Vec、GloVe,基于深度网络的 CNN、RNN/LSTM,基于神经网络的 BERT、Doc2Vec 等。以 Transform 为代表的大模型采用自注意力机制来学习不同 token 之间的依赖关系,生成高质量 embedding。大模型的“大”在于用于表达 token 之间关系的参数多,如 GPT3 拥有 1750 亿参数。 大模型因其强大能力,在多个领域有热门应用场景: 1. 文本生成和内容创作:撰写文章、生成新闻报道、创作诗歌和故事等。 2. 聊天机器人和虚拟助手:进行自然对话,提供客户服务、日常任务提醒和信息咨询等。 3. 编程和代码辅助:自动补全、修复 bug 和解释代码,提高编程效率。 4. 翻译和跨语言通信:理解和翻译多种语言,促进不同语言背景用户的沟通和信息共享。 5. 情感分析和意见挖掘:分析社交媒体等中的文本,为市场研究和产品改进提供支持。 6. 教育和学习辅助:创建个性化学习材料、回答学生问题和提供语言学习支持。 7. 图像和视频生成:如 DALLE 等模型可根据文本描述生成相应图像,未来可能扩展到视频。 8. 游戏开发和互动体验:创建游戏角色对话、生成故事情节和增强玩家沉浸式体验。 9. 医疗和健康咨询:回答医疗相关问题,提供初步健康建议和医疗信息查询服务。 10. 法律和合规咨询:解读法律文件,提供合规建议,降低法律服务门槛。 大型模型主要分为两类:大型语言模型专注于处理和生成文本信息;大型多模态模型能处理包括文本、图片、音频等多种类型信息。二者在处理信息类型、应用场景和数据需求方面有所不同。大型语言模型主要用于自然语言处理任务,依赖大量文本数据训练;大型多模态模型能处理多种信息类型,应用更广泛,需要多种类型数据训练。 相对大模型,也有所谓的“小模型”,它们通常是为完成特定任务而设计。
2025-02-05
flux1-depth-dev模型存放路径
flux1depthdev 模型的存放路径如下: 1. 下载 flux1depthdev 模型放到 ComfyUI/models/diffusion_models/文件夹中。 夸克网盘:链接:https://pan.quark.cn/s/571d174ec17f 百度网盘:见前文 2. 也可以将 depth lora 模型存放到 ComfyUI/models/loras 文件夹中。 depth lora 模型:https://huggingface.co/blackforestlabs/FLUX.1Depthdevlora 3. 百度网盘中也有相关模型: 链接:https://pan.baidu.com/s/10BmYtY3sU1VQzwUy2gpNlw?pwd=qflr 提取码:qflr
2025-02-05
你目前使用的是哪个模型
以下是一些关于模型的信息: 在 Cursor Chat、Ctrl/⌘K 和终端 Ctrl/⌘K 中,您可以在 AI 输入框下方的下拉列表中选择要使用的模型。默认情况下,Cursor 已准备好使用的模型包括:、cursorsmall。您还可以在 Cursor Settings>Models>Model Names 下添加其他模型。cursorsmall 是 Cursor 的自定义模型,不如 GPT4 智能,但速度更快,用户可无限制访问。 在 Morph Studio 中,支持以下模型生成视频: TexttoVideoMorph0.1:内部文本到视频生成模型,默认具有逼真色调,可通过描述性形容词修改拍摄风格和外观。 ImagetoVideoMorph0.1:内部图像到视频生成模型,用文本提示引导效果更好,使用时可不输入文本,在角色特写和对象动画方面表现较好。 VideotoVideoMorph0.1:内部风格转换模型,支持在文本提示下进行视频到视频的渲染,可将视频风格更改为预设,同时保留原始视频的字符和布局。 ImagetoVideoSVD1.1:由 Stability.ai 提供支持的图像到视频模型,适用于构图中有清晰层次的镜头(风景镜头、B 卷等)。 文本到视频形态0.1 被设置为新创建射击卡的默认模型,型号选择会根据是否上传图像或视频而更改,每个模型有自己的一组参数可供调整,如相机运动(支持静态、放大、缩小、向左平移、向右平移、向上平移、向下平移、顺时针旋转和逆时针旋转,未来将支持一次选择多个相机移动选项)、时间(支持最多 10 秒的视频生成,默认持续时间为 3 秒)。 ComfyUI instantID 目前只支持 sdxl。主要的模型需下载后放在 ComfyUI/models/instantid 文件夹(若没有则新建),地址为:https://huggingface.co/InstantX/InstantID/resolve/main/ipadapter.bin?download=true 。InsightFace 模型是 antelopev2(不是经典的 buffalo_l),下载解压后放在 ComfyUI/models/insightface/models/antelopev2 目录中,地址为:https://huggingface.co/MonsterMMORPG/tools/tree/main 。还需要一个 ControlNet 模型,放在 ComfyUI/models/controlnet 目录下,地址为:https://huggingface.co/InstantX/InstantID/resolve/main/ControlNetModel/diffusion_pytorch_model.safetensors?download=true 。上述模型网络环境不好的,可在网盘 https://pan.baidu.com/s/1FkGTXLmM0Ofynz04NfCaQ?pwd=cycy 下载。
2025-02-05
请问你的大模型底座用的是什么
大模型的底座相关知识如下: 大模型像一个多功能的基础平台(有时也被称为“基座模型”),可以处理多种不同的任务,应用范围广泛,拥有更多通识知识。 大模型的知识来源于训练过程中接触到的数据,这些数据是有限的,其知识库不会自动更新,只能回答在训练过程中见过或类似的问题,在某些特定或专业领域的知识可能不够全面。 从整体分层的角度来看,大模型整体架构的基础层为大模型提供硬件支撑和数据支持,例如 A100、数据服务器等。数据层包括企业根据自身特性维护的垂域数据,分为静态的知识库和动态的三方数据集。模型层有 LLm(大语言模型)或多模态模型,如 GPT 一般使用 transformer 算法实现,多模态模型训练所用数据与 llm 不同,用的是图文或声音等多模态的数据集。平台层是模型与应用间的部分,如大模型的评测体系或 langchain 平台等。表现层即应用层,是用户实际看到的地方。 零跑汽车基于百炼实现大模型落地零跑座舱,阿里云通过百炼平台实现大模型落地零跑座舱,为用户的多种互动提供支持,零跑汽车构建了开放、可扩展的大模型应用架构,基于统一的大模型底座,实现了零跑座舱大模型应用场景的快速扩展与迭代。
2025-02-04
各个ai大模型的优势
以下是一些常见的 AI 大模型的优势: OpenAI 的 GPT4: 是大型多模态模型,接受图像和文本输入,输出文本。 在各种专业和学术基准测试中表现出与人类相当的水平。 Midjourney v5: 具有极高的一致性。 擅长以更高分辨率解释自然语言 prompt。 支持像使用 tile 这样的重复图案等高级功能。 DALL·E 3: 能轻松将想法转化为极其精准的图像。 代表了生成完全符合文本的图像能力的一大飞跃。 Mistral 7B: 在所有基准测试上超越了 Llama 2 13B。 在许多基准测试上超越了 Llama 1 34B。 在代码任务上接近 CodeLlama 7B 的性能,同时在英语任务上表现良好。 OpenAI 的 o3 及 o3mini: o3 在编码、数学和科学等领域表现出色,在多个衡量基准上远超 o1。 在 ARCAGI 公共基准得分高。 在 EpochAI 的 Frontier Math 创下新纪录。 在 SWEBench Verified 上表现突出。 在 Codeforces 上得分高。 在 AIME 2024 上得分高。 在 GPQA Diamond 上表现远高于人类专家。 o3mini 具有 3 个推理级别,最低级别将比肩 o1,在许多编码任务上性能优于 o1,且成本大幅降低。 大模型的优势还包括: 像一个多功能的基础平台,能处理多种不同的任务,应用范围广泛,拥有更多的通识知识。 但大模型并非拥有无限知识,其知识来源于有限的训练数据,且知识库不会自动更新,在某些特定或专业领域的知识可能不够全面。
2025-02-04
大模型搭建知识库的逻辑是什么
大模型搭建知识库的逻辑主要包括以下几个方面: 1. 理解 RAG 技术:利用大模型搭建知识库本质上是 RAG 技术的应用。在大模型训练数据有截止日期或不包含所需数据时,通过检索增强生成(RAG)来解决。RAG 可抽象为 5 个过程: 文档加载:从多种来源加载包括非结构化、结构化和代码等不同类型的文档。 文本分割:把文档切分为指定大小的块。 存储:包括将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 检索:通过检索算法找到与输入问题相似的嵌入片。 输出:把问题及检索出来的嵌入片一起提交给大模型,生成更合理的答案。 2. 构建知识库各个流程: 从用户提出问题开始,经历用户问题的理解、路由、初步检索、重排序等环节,最终将重排序后的结果和用户的查询意图组合成上下文输入给大模型生成输出结果。需要注意重排序结果的使用限制,如设置阈值进行截断或筛选相关性分数等。 后置处理包括敏感内容检测和移除、格式化输出等。 3. 知识库的需求:大模型并非 100%准确,存在数据日期限制和无法感知公司内部私有数据等问题,知识库的出现就是为解决大模型的数据准确性问题。例如在客服系统中,公司将用户问题及答案记录在文档中以知识库形式投喂给大模型,使其能更准确回答用户自然语言询问的问题。
2025-02-03