Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何调用ai的模型

Answer

以下是关于如何调用 AI 模型的相关内容:

Liblibai 简易上手教程

  1. 首页 - 模型广场:发布了其他用户炼成的模型。收藏和运行数较多的模型在首页前排,点击可查看详细信息,将模型加入模型库可用于生图时快速调用。模型详情下方有返图区。
    • Checkpoint:生图必需的基础模型,任何生图操作必须选定一个 Checkpoint 模型才能开始。注意与 lora 的区别,两者在模型广场混着展示,Checkpoint 必选,lora 可选可不选。
    • lora:低阶自适应模型,可理解为 Checkpoint 的小插件,对生图的面部、材质、物品等细节有控制作用,可加入模型库。
    • VAE:编码器,功能类似于滤镜,调整生图饱和度,选择 840000 即可。
    • CLIP 跳过层:用于生成图片后控制、调整构图变化,一般设为 2,早期不用过多关注。
    • Prompt 提示词:想要 AI 生成的内容,需学习。
    • 负向提示词 Negative Prompt:想要 AI 避免产生的内容,需学习。
    • 采样方法:决定让 AI 用何种算法生图。

COW 项目

  1. 调用千问系列的模型:可以直接使用 key、选择 model 进行调用,即直接调用某一个大模型。
  2. 调用应用能力:阿里云百炼的“应用”服务。当需要更多能力如工作流、搜索等时,调用百炼的“应用”。在百炼平台里的“应用”类似于 Coze 中的“bot”或 ChatGPT 的 GPTs 概念。有两种调用方式:
    • 直接调用模型:对接简单,调试不方便。
    • 调用应用(bot):对接相对麻烦,调试简单,推荐使用。修改和调整 Prompt 时,只需要在“百炼”应用里进行调试。

AI 调用外部工具: AI 本身不会直接调用工具,也不是依赖关键词识别。实际流程为:

  1. 程序调用 AI 接口,AI 生成 JSON 结构化数据,告知是否需要工具、使用何种工具及参数。
  2. 程序解析 JSON 并调用工具,获取结果后返回 AI。
  3. AI 根据工具返回的数据生成最终回答。
Content generated by AI large model, please carefully verify (powered by aily)

References

Liblibai简易上手教程

1.首页-模型广场:发布了其他大手子炼成的模型。如你所见,收藏和运行数(被其他用户来生图的次数)较多的模型都在首页前排,点击后可以看模型的详细信息,将模型加入模型库可用于今后生图时的快速调用。模型详情信息的下方,是用这个模型生成的图片,俗称返图区。1.Checkpoint:生图必需的基础模型,任何生图操作必须要选定一个checkpoint模型才能开始操作。注意,checkpoint区别于lora,这两个东西在模型广场都是混着展示的。checkpoint必选,lora可选可不选,任何主题的作图需求,都可以试着在模型广场上搜索或者浏览,然后收集到模型库中用于生图。1.lora:低阶自适应模型,你可以理解为checkpoint的小插件,生图的时候lora可有可无。但是lora的价值还是很明显的,基本上你看到一些精细的控制,如面部、材质、物品等等细节都常见于用相应的lora进行控制。这个也是可以加入模型库的。1.VAE:是个编码器,功能类似于我们熟悉的滤镜,调整生图的饱和度。无脑选择右侧截图中840000这个即可。1.CLIP跳过层:可以用于在生成图片之后控制、调整构图变化,一般设成2就行了,早期不用花太多精力在这里。1.Prompt提示词:想要AI生成的内容(不绝对有效,需要从入门阶段就费功夫学习,哪怕从照抄别人开始)。2.负向提示词Negative Prompt:想要AI避免产生的内容(不绝对有效,也需要费功夫学,哪怕从照抄别人开始)。1.采样方法:使用何种采样器,通俗说就是让AI用什么算法生图。

「第一天」COW项目:千问模型、百炼应用接入教程

在COW项目中,调用千问系列的模型。是可以直接使用key、选择model进行调用,此时就是直接调用的某一个大模型。类似于直接调用智普模型、或直接调用了OpneAI的模型。2、调用应用能力:阿里云百炼的“应用”服务。当我们需要使用更多的能力时候,比如工作流、搜索等能力。此时就需要调用百炼的“应用”。在百炼平台里的“应用”概念,类似于Coze中的“bot”、或ChatGPT的GPTs概念。因此,大家可以简单理解为:阿里提供了两种调用方式1、直接调用模型:对接简单,调试不方便。2、调用应用(bot):对接相对麻烦,调试简单。(推荐)以下教学教学了两种调用方式,大家可以自由选择使用任意一种。(之前完成过coze对接的同学,直接使用第二种,不然会报错)强烈推荐第二种,调用百炼的应用,这样大家在修改和调整Prompt的时候,就不需要重复登录微信了,只需要在“百炼”应用里进行调试即可。

宝玉 日报

🫧宝玉日报「2月6日」✨✨✨✨✨✨✨✨1⃣️📄多模态语言模型vs.PDF OCR:优势与挑战Gemini 2.0可低成本解析复杂PDF,借助多模态能力提升OCR效率。现实挑战:模型可能因图像分割错误、拼写修正、“自作聪明”解数学题等问题导致OCR识别不准。安全风险:容易受“恶意”提示词干扰,影响最终结果。个人体验:多模态模型OCR方便,但仍有“幻觉”问题,需人工校对。🔗相关文章:📖Ingesting Millions of PDFs and why Gemini 2.0 Changes Everything[https://sergey.fyi/articles/gemini-flash-2](https://sergey.fyi/articles/gemini-flash-2)📖Why LLMs Suck at OCR[https://runpulse.com/blog/why-llms-suck-at-ocr](https://runpulse.com/blog/why-llms-suck-at-ocr)📖翻译版:[https://baoyu.io/translations/gemini-flash-2](https://baoyu.io/translations/gemini-flash-2)2⃣️🔧AI如何调用外部工具?误区:AI本身不会直接调用工具,也不是依赖关键词识别。实际流程:1.程序调用AI接口,AI生成JSON结构化数据,告知是否需要工具、使用何种工具及参数。2.程序解析JSON并调用工具,获取结果后返回AI。3.AI根据工具返回的数据生成最终回答。示例:查询天气

Others are asking
如何通过langchain实现上传 一个客户需求文档,生成一个产品规格书doc格式的文档
要通过 LangChain 实现上传客户需求文档并生成产品规格书(doc 格式),可以按照以下步骤进行: 1. 上传文档:用户可以上传包含知识的文档,支持 txt、pdf、docx 等格式,LangChain ChatChat 会将文档转换为 Markdown 格式。 2. 文本切割:为便于分析和处理,将长文本切割为小块(chunk)。 3. 文本向量化:将切割的 chunk 通过 embedding 技术,转换为算法可以处理的向量,存入向量数据库。 4. 问句向量化:用户提问后,同样将用户的问句向量化。 5. 语义检索匹配:将用户的问句与向量数据库中的 chunk 匹配,匹配出与问句向量最相似的 top k 个。 6. 提交 prompt 至 LLM:将匹配出的文本和问句,一起添加到配置好的 prompt 模板中,提交给 LLM。 7. 生成回答:LLM 生成回答,返回给用户。
2025-02-27
如何高效率的用AI搜索学术文献资料
以下是关于如何高效率用 AI 搜索学术文献资料的方法: 1. 确定课题主题:明确研究兴趣和目标,选择具有研究价值和创新性的主题。 2. 收集背景资料:使用学术搜索引擎和文献管理软件等 AI 工具来搜集相关研究文献和资料。 3. 分析和总结信息:利用 AI 文本分析工具提取收集资料中的关键信息和主要观点。 4. 生成大纲:使用 AI 写作助手生成包括引言、文献综述、方法论、结果和讨论等部分的课题大纲。 5. 撰写文献综述:借助 AI 工具撰写文献综述部分,确保内容准确完整。 6. 构建方法论:根据研究需求,采用 AI 建议的方法和技术设计研究方法。 7. 数据分析:若课题涉及数据收集和分析,使用 AI 数据分析工具处理和解释数据。 8. 撰写和编辑:利用 AI 写作工具撰写课题各部分,并进行语法和风格检查。 9. 生成参考文献:使用 AI 文献管理工具生成正确的参考文献格式。 10. 审阅和修改:利用 AI 审阅工具检查课题的逻辑性和一致性,并根据反馈修改。 11. 提交前的检查:使用 AI 抄袭检测工具确保课题的原创性,并进行最后的格式调整。 同时,为您介绍一些相关的 AI 工具和平台: 1. 文献管理和搜索: Zotero:结合 AI 技术自动提取文献信息,帮助管理和整理参考文献。 Semantic Scholar:由 AI 驱动的学术搜索引擎,提供文献推荐和引用分析。 2. 内容生成和辅助写作: Grammarly:提供文本校对、语法修正和写作风格建议,提高语言质量。 Quillbot:基于 AI 的重写和摘要工具,精简和优化论文内容。 3. 研究和数据分析: Google Colab:提供基于云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,便于数据分析和可视化。 Knitro:用于数学建模和优化,帮助进行复杂的数据分析和模型构建。 4. 论文结构和格式: LaTeX:结合自动化和模板,高效处理论文格式和数学公式。 Overleaf:在线 LaTeX 编辑器,提供丰富模板库和协作功能,简化论文编写。 5. 研究伦理和抄袭检测: Turnitin:广泛使用的抄袭检测工具,确保论文原创性。 Crossref Similarity Check:检测潜在抄袭问题。 需要注意的是,AI 工具可以作为辅助,但不能完全替代研究者的专业判断和创造性思维。在使用 AI 进行课题写作时,应保持批判性思维,并确保研究的质量和学术诚信。 另外,开搜 AI 搜索是一款免费无广告、直达结果的搜索工具,它可以帮助在校学生快速搜集专业领域的学术资料,智能总结关键信息,助力撰写论文和报告,同时支持查看来源出处,参考价值高。对于教育教师群体,能获取丰富的教学资源,自动生成教案和课题研究报告,提高教学内容的准备效率。职场办公人群可利用其高效查找工作所需信息,简化文案撰写、PPT 制作和工作汇报的准备工作。也能为学术研究人员提供深入的行业分析,通过 AI 技术整合和总结大量数据,形成有深度的研究报告。链接:https://kaisouai.com/
2025-02-27
ai如何生成纯色背景图
以下是关于生成纯色背景图的一些方法和相关信息: 利用 Playground v2.5 可以生成纯色背景,生成的图为透明背景的 PNG 格式。然后可以使用 BRIA RMBG 去除背景,再结合其他操作,如接上文字合成节点,就能直接出海报。 在 Midjourney 中生成纯色背景图,例如在直播礼物风格图标生成中,关键词为“喂图+(Gift icon),cartoon style,solid color background luminous effect,3d –iw 1 –v 5 –q 2”,其中“solid color background”即表示纯色背景。 相关资源和插件: 1. 图像选择:https://github.com/chrisgoringe/cgimagepicker 2. 背景去除:https://github.com/ZHOZHOZHO/ComfyUIBRIA_AIRMBG 3. 文字合成:https://github.com/ZHOZHOZHO/ComfyUIText_ImageComposite 项目地址:https://github.com/layerdiffusion/sdforgelayerdiffusion 模型:https://huggingface.co/LayerDiffusion/layerdiffusionv1
2025-02-27
构建项目 ,如何通过ai生成可视化数据报表,设计方案
以下是一个通过 AI 生成可视化数据报表的设计方案: 1. 理解需求:明确查询要求,例如适应特定尺寸(如宽 1734px、高 1071px)的 TSX 代码,确保生成的组件符合尺寸要求,避免出现滚动条。 2. 生成静态代码:创建一个静态的 React 组件,将所有数据和组件进行硬编码。 3. 实现数据可视化:构建一个复杂的数据可视化平台,支持多种图表类型、实时数据更新、自定义仪表板和数据钻取功能。 4. 设计用户界面:为复杂的数据可视化平台编写 TSX 代码,界面包括多个图表、定制仪表板和实时数据更新,尺寸为宽 1734px 和高 1071px。 5. 定义 React 组件:定义一个用于渲染主界面的 React 组件,包括网格布局、图表组件、导航 UI 组件、按钮和输入字段等,并加入模拟实时更新和自定义仪表板的开关和切换等组件。 6. 规划 UI 结构:设计包含头部、侧边栏和主内容区的 UI 结构,主内容区展示多个图表,并考虑自定义控制。 7. 探索图标资源:从 'lucidereact' 提取图标,如主页、用户和搜索等,使界面更加直观和易用。
2025-02-27
如何搭建一个工作流来做ai agent 的事情,帮助学生找工作的整个流程,从找合适岗位-> 投递简历 -> 和hr联系 ->做面试前的search工作和面试准备-> 提醒参加面试-> 面试结果追踪,后续的复盘,得到面试经验
搭建一个用于帮助学生找工作的 AI Agent 工作流可以参考以下步骤: 1. 规划 总结任务目标与执行形式,明确帮助学生从找合适岗位到面试结果追踪及复盘的全过程。 将任务分解为可管理的子任务,例如找合适岗位、投递简历、与 HR 联系、面试前准备、提醒参加面试、面试结果追踪和复盘等,并确立它们的逻辑顺序和依赖关系。 设计每个子任务的执行方法,比如确定合适的岗位筛选标准、制定简历投递策略、规划与 HR 沟通的方式等。 2. 实施 在相应的平台(如 Coze 等)上搭建工作流框架,设定每个节点的逻辑关系。 详细配置子任务节点,例如设置岗位筛选的参数、简历模板和投递渠道、与 HR 联系的话术等,并验证每个子任务的可用性。 3. 完善 整体试运行工作流,识别功能和性能的卡点。 通过反复测试和迭代,优化工作流,直至达到预期效果,例如提高学生找到合适工作的成功率、提升面试表现等。 此外,在技术实现方面,例如实现无代码开发和工具调用,您可以参考以下操作: 打开 Comfyui 界面后,右键点击界面,即可找到 Comfyui LLM party 的目录,您既可以学习如何手动连接这些节点,从而实现一个最简单的工作流,也可以直接将相关工作流文件拖拽到 Comfyui 界面中一键复刻提示词工程实验。 从 ollama 的 github 仓库找到对应版本并下载,启动 ollama 后,在 cmd 中输入 ollama run gemma2 将自动下载 gemma2 模型到本地并启动。将 ollama 的默认 base URL=http://127.0.0.1:11434/v1/以及 api_key=ollama 填入 LLM 加载器节点即可调用 ollama 中的模型进行实验。如果 ollama 连接不上,很可能是代理服务器的问题,请将您的 127.0.0.1:11434 添加到不使用代理服务器的列表中。
2025-02-27
AI生成放烟花代码
以下是关于生成放烟花代码的相关信息: 1. 使用 Cursor 写代码时,可能会遇到 AI 输出混乱的情况。.cursorrules 是一个放在项目根目录的“说明书”,提前把编码规则、项目结构、注意事项写在这个文件里,AI 就会自动按照要求写代码。 2. 在独立游戏开发中,对于一些小功能可以让 AI 生成代码。例如在《玩具帝国》中,把不方便配表而又需要撰写的简单、模板化、多是调用 API 且只牵涉小部分特殊逻辑的代码交给 AI。以 Buff 系统为例,尝试让 AI 仿照代码写一些 Buff,生成结果有时可以直接用。但目前 Cursor 生成复杂代码需要复杂的前期调教,ChatGPT 可能更方便。在与 AI 交互时,像哄小孩一样,正确的要及时肯定,指出错误要克制。 3. 然而,针对您具体的放烟花代码需求,上述内容未提供直接可用的代码,还需要您进一步明确具体的开发语言、功能需求等细节,以便为您提供更准确的帮助。
2025-02-27
Batch调用是什么意思
在 LangChain 应用开发中,Batch 调用是一种处理多个主题的方式。例如,调用笑话对象时,传入一个主题字符串的列表,就可以得到一个笑话字符串的列表,如 joke.batch。它能够同时处理多个任务,提高处理效率。
2025-02-25
表格内填充的内容如何批量循环调用大模型生成内容
以下是关于表格内填充内容如何批量循环调用大模型生成内容的相关信息: 大模型生成文字并非一次性输出整段,而是通过反复调用神经网络模型,一个字一个字地续写,直到输出结束符号。其输出不是确定的一个字,而是所有字的概率,可选择概率高的字或随机挑选。 在生成标题、导语、大纲等涉及文本理解与创作的任务时,可通过配置 LLM 节点来实现。为节省 token 消耗和模型调度费用,在满足预期的情况下,应减少大模型处理环节。例如,豆包·function call 32k 模型能在一轮对话中稳定生成这些内容。配置时要关注节点的各项设置,如根据实际情况调大模型的最大回复长度,并设计填入用户提示词。
2025-02-24
你调用的是哪个大模型?
我调用的是抖音集团的云雀大模型。在一些项目中,还会涉及到其他大模型的调用,比如在 COW 项目中可直接调用千问的某一模型,需更改 key 和 model 等操作,且要实名认证。此外,军师联盟 BOT 工作流中会调用月之暗面 KIMI、豆包、Minimax、通义千问和智谱清言这五个大模型。
2025-02-14
coze 能调用用户自己部署的大模型吗
Coze 可以调用用户自己部署的大模型。例如: 在 Coze 上搭建工作流框架时,可通过“个人空间工作流创建工作流”进行操作,在编辑面板中拖入对应的大模型节点来实现各项文本内容的生成。 当在 COW 中直接调用千问的某一个大模型时,需要更改 key 和 model 等配置。获取 key 可参考相关的视频和图文教程,同时需要完成实名认证,否则可能出现报错。 在使用 Coze 做智能报表助手的过程中,也涉及到对大模型的运用,如将用户问题转换为 SQL 等。
2025-02-12
我应该如何调用你的知识库并用在本地部署的deepseek上呢
要在本地部署的 DeepSeek 上调用知识库,您可以参考以下步骤: 在 Bot 内使用知识库: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 4. 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 5. (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项。配置项包括最大召回数量、最小匹配度和调用方式等。 6. (可选)在预览与调试区域调试 Bot 能力时,扩展运行完毕的内容可以查看知识库命中并召回的分片内容。 在工作流内使用 Knowledge 节点: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在页面顶部进入工作流页面,并打开指定的工作流。 4. 在左侧基础节点列表内,选择添加 Knowledge 节点。 此外,关于 DeepSeek 的提示词相关内容: 效果对比:用 Coze 做了个小测试,大家可以对比看看,参考 。 如何使用: Step1:搜索 www.deepseek.com,点击“开始对话”。 Step2:将装有提示词的代码发给 Deepseek。 Step3:认真阅读开场白之后,正式开始对话。 设计思路: 1. 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担。 2. 通过提示词文件,让 DeepSeek 实现:同时使用联网功能和深度思考功能。 3. 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。 4. 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改。 5. 用 XML 来进行更为规范的设定,而不是用 Lisp(对您来说有难度)和 Markdown(运行下来似乎不是很稳定)。 DeepSeekR1 提示词系统的核心原理认知包括: AI 特性定位:多模态理解,支持文本/代码/数学公式混合输入;动态上下文,对话式连续记忆(约 4K tokens 上下文窗口);任务适应性,可切换创意生成/逻辑推理/数据分析模式。 系统响应机制:采用意图识别+内容生成双通道理,自动检测 prompt 中的任务类型/输出格式/知识范围,对位置权重(开头/结尾)、符号强调敏感。 基础指令框架方面,如果不知道如何表达,还是可以套用框架指令,包括四要素模板和格式控制语法。格式控制语法中,强制结构使用```包裹格式要求,占位符标记用{{}}标注需填充内容,优先级符号>表示关键要求,!表示禁止项。 进阶控制技巧包括思维链引导和知识库调用。思维链引导中的分步标记法为请逐步思考:1.问题分析→2.方案设计→3.风险评估;苏格拉底式追问为在得出最终结论前,请先列举三个可能存在的认知偏差。知识库调用包括领域限定指令和文献引用模式。
2025-02-11
请提供deepSeek api的具体调用文档
以下是关于 DeepSeek 的相关信息: 网址:https://www.deepseek.com/zh 。国内能访问,网页登录方便,目前完全免费。 使用方法: 搜索 www.deepseek.com ,点击“开始对话”。 将装有提示词的代码发给 DeepSeek 。 认真阅读开场白之后,正式开始对话。 特点: 很方便,只需要获得游戏代码即可。 对于新手较为推荐。 相关工具:HiDeepSeek 能让 DeepSeek 的能力更上一层楼,它能让 AI 像人类交流时那样展示思考过程,不是要让 AI 变得更聪明,而是要让其思考过程更易理解。使用时可参考以下步骤: 用 Coze 做小测试进行效果对比。 设计思路包括将 Agent 封装成 Prompt 并储存在文件、通过提示词文件让 DeepSeek 实现联网和深度思考功能、优化输出质量等。 完整提示词版本为 v 1.3 。 特别鸣谢李继刚和 Thinking Claude 等为相关设计提供帮助和灵感。
2025-02-08
个人有没有必要本地部署deepseek模型
个人是否有必要本地部署 DeepSeek 模型取决于多种因素。 DeepSeek 模型的权重文件开源,可本地部署。其公司名为“深度求索”,网页和手机应用目前免费,但 API 调用收费。 在云端模型部署方面,有实操演示和使用方法讲解,包括登录 Pad 控制台、选择框架、资源、出价等,还介绍了查看部署状态和日志的方法,以及用 Postman 在线调试模型获取名称及后续使用方式。 在模型部署相关内容中,部署时使用 V1 chat completion s 接口,要注意模型名称、大小写等。同时布置了作业为成功部署大语言模型并调试,提交带钉钉昵称的截图。还讲解了 API 调用方法、费用、停止服务方式等,提醒注意保密 API key,若竞不到价可加价尝试进行本地蒸馏模型部署。 模型蒸馏方面,先介绍云平台部署情况,接着讲解模型蒸馏概念、方式,阐述其应用场景及修复模型幻觉的作用,并进行了实操演示。 综合来看,如果您对数据隐私有较高要求、需要定制化的模型服务、有足够的技术能力和资源来进行本地部署和维护,或者在网络不稳定的情况下使用,那么本地部署可能是有必要的。但如果您的需求相对简单,且不具备相关技术条件和资源,使用云端服务可能更为便捷。
2025-02-27
行业大模型构建
以下是关于行业大模型构建的相关信息: 优秀模型案例介绍: SuperCLUE2.0 是通用大模型综合性测评基准 SuperCLUE1.0 的能力延展,融合行业场景属性和大模型落地特点,为行业应用及开发者构建评估框架,促进大模型供需两侧的进一步对齐。 SuperCLUE 持续构建行业测评基准,包括已发布的汽车行业测评基准,以及筹备中的金融、教育、娱乐、手机、政务、医疗等行业测评基准。 SuperCLUE 持续构建专项测评基准,已发布的有 Safety 安全测评基准、Agent 智能体测评基准,筹备中的有个性化中文测评基准、角色扮演测评基准、中文多模态测评基准、RAG 检索增强测评基准、办公场景测评基准等。 优化路径: 广义上的大模型优化包括完整训练一个大模型,但从策略上建议先从提示词工程到微调开始,因为涉及大模型训练成本极高。在分析出问题所在后,可按需选用或综合运用缺失知识用 RAG、准确度或模式遵循度不足用微调等技术进行性能优化。 国内大模型落地情况: Gartner 预测到 2028 年至少有 15%的日常工作决策将由代理型 AI(AI 智能体)自主做出。 2024 年被称为国内大模型落地元年,“百模大战”后,国内大模型行业主要玩家包括百度、阿里、字节等科技大厂和创业“AI 六小虎”。 2024 年 1 至 11 月,国内大模型中标项目数量和金额大幅增长,中标项目共 728 个,是 2023 年全年的 3.6 倍;中标金额 17.1 亿元,是 2023 年全年的 2.6 倍。中标项目数前五的行业分别是运营商、能源、教育、政务、金融。 厂商方面,百度以 40 个中标项目数、2.74 亿元的中标金额排名所有厂商之首,科大讯飞居第二。在金融行业,百度也以 14 个中标数量、3734.4 万元中标金额排名第一,科大讯飞居第二。
2025-02-27
如何用AI构建政务模型
以下是关于如何用 AI 构建政务模型的相关信息: 行业、学术界、研究组织和全球合作伙伴正在寻找解决基础模型监管相关挑战的方法。例如,基础模型的开发者正在探索将对齐理论嵌入模型的方式,政府需要与 AI 研究社区密切合作,利用研究见解并完善监管框架。 英国致力于提升在基础模型方面的能力。基础模型是一种新兴的通用 AI 类型,训练数据量大,能适应多种任务,其快速发展给政府监管带来新挑战。 需建立一个中央职能,支持单个监管机构的视野扫描活动,以实现可适应、协作和值得信赖的监管机制。该职能有助于建立一个能适应新兴趋势、召集合作伙伴共同识别趋势,并确保监管框架能应对新兴趋势的监管制度。 要确保与国际监管框架的互操作性,包括监测英国原则与国际监管方法、保证和/或风险管理以及技术标准之间的一致性,支持跨境协调与合作。此职能对于实现促进创新的监管制度至关重要,能确保英国创新者可进行国际交易,英国公司能吸引海外投资。
2025-02-27
企业建立私有大模型时候,采用什么工具进行RAG,高效实习企业知识文档、表格和pdf图纸的向量化
企业建立私有大模型进行 RAG 并实现企业知识文档、表格和 PDF 图纸向量化时,可参考以下工具和方法: 1. 本地部署资讯问答机器人: 导入依赖库,如 feedparse 用于解析 RSS 订阅源,ollama 用于在 Python 程序中跑大模型(使用前需确保 ollama 服务已开启并下载好模型)。 从订阅源获取内容,通过专门的文本拆分器将长文本拆分成较小的块,并附带相关元数据,最终合并成列表返回。 为文档内容生成向量,可使用文本向量模型 bgem3,从 hf 下载好模型后,假设放置在某个路径 /path/to/bgem3,通过函数利用 FAISS 创建高效的向量存储。 2. 开发:LangChain 应用开发指南 大模型的知识外挂 RAG 加载数据,根据数据源类型选择合适的数据加载器,如网页可使用 WebBaseLoader。 将文档对象分割成较小的对象,根据文本特点选择合适的文本分割器,如博客文章可用 RecursiveCharacterTextSplitter。 将文档对象转换为嵌入并存储到向量存储器中,根据嵌入质量和速度选择合适的文本嵌入器和向量存储器,如 OpenAI 的嵌入模型和 Chroma 的向量存储器。 创建检索器,使用向量存储器检索器,传递向量存储器对象和文本嵌入器对象作为参数创建检索器对象。 创建聊天模型,根据性能和成本选择合适的聊天模型,如 OpenAI 的 GPT3 模型。 以下是使用 LangChain 构建 RAG 应用的示例代码。
2025-02-27
大模型 泛化能力
大模型的泛化能力,用不太通俗的话说是“指模型在未曾见过的数据上表现良好的能力”,通俗来讲就是“举一反三”的能力。人类是泛化能力很强的物种,我们不需要见过世界上的每一只猫,就能认识猫这个概念。 例如在多模态大模型领域,像 Shikra Chen 等人介绍的模型展示了值得称赞的泛化能力,可以有效处理看不见的设置。在关于大模型的思考与探讨中,李继刚认为微调垂类模型可能使大模型泛化能力下降,需分场景看待。
2025-02-27
多模态大模型 原理是什么?
多模态大模型的原理如下: 基于大圆模型,能够识别页面组件结构和位置绝对值信息,并与组件、文本映射。由解码器、backbone、Generator 等部件组成,左侧进行多模态理解,右侧生成输出。 典型的多模态大模型架构包括一个编码器、一个连接器和一个 LLM,还可选择性地在 LLM 上附加一个生成器以生成除文本之外的更多模态。编码器接收图像、音频或视频并输出特征,这些特征经由连接器处理,使 LLM 能更好地理解。连接器大致可分为基于投影的、基于查询的和基于融合的三类,前两种类型采用词元级融合,将特征处理成词元,与文本词元一起发送,最后一种类型则在 LLM 内部实现特征级融合。
2025-02-27