Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

行业大模型构建

Answer

以下是关于行业大模型构建的相关信息:

优秀模型案例介绍

  • SuperCLUE2.0 是通用大模型综合性测评基准 SuperCLUE1.0 的能力延展,融合行业场景属性和大模型落地特点,为行业应用及开发者构建评估框架,促进大模型供需两侧的进一步对齐。
  • SuperCLUE 持续构建行业测评基准,包括已发布的汽车行业测评基准,以及筹备中的金融、教育、娱乐、手机、政务、医疗等行业测评基准。
  • SuperCLUE 持续构建专项测评基准,已发布的有 Safety 安全测评基准、Agent 智能体测评基准,筹备中的有个性化中文测评基准、角色扮演测评基准、中文多模态测评基准、RAG 检索增强测评基准、办公场景测评基准等。

优化路径: 广义上的大模型优化包括完整训练一个大模型,但从策略上建议先从提示词工程到微调开始,因为涉及大模型训练成本极高。在分析出问题所在后,可按需选用或综合运用缺失知识用 RAG、准确度或模式遵循度不足用微调等技术进行性能优化。

国内大模型落地情况

  • Gartner 预测到 2028 年至少有 15%的日常工作决策将由代理型 AI(AI 智能体)自主做出。
  • 2024 年被称为国内大模型落地元年,“百模大战”后,国内大模型行业主要玩家包括百度、阿里、字节等科技大厂和创业“AI 六小虎”。
  • 2024 年 1 至 11 月,国内大模型中标项目数量和金额大幅增长,中标项目共 728 个,是 2023 年全年的 3.6 倍;中标金额 17.1 亿元,是 2023 年全年的 2.6 倍。中标项目数前五的行业分别是运营商、能源、教育、政务、金融。
  • 厂商方面,百度以 40 个中标项目数、2.74 亿元的中标金额排名所有厂商之首,科大讯飞居第二。在金融行业,百度也以 14 个中标数量、3734.4 万元中标金额排名第一,科大讯飞居第二。
Content generated by AI large model, please carefully verify (powered by aily)

References

2023年度中文大模型基准测评报告.pdf

SuperCLUE2.0是通用大模型综合性测评基准SuperCLUE1.0的能力延展。在通用测评框架的基础上,融合行业场景属性和大模型落地特点,提供一个科学、准确、客观的大模型应用评估视角,为行业应用及开发者构建出大模型+业务的评估框架,促进大模型供需两侧的进一步对齐。行业基准SuperCLUE持续构建行业测评基准,多层次多维度的对行业大模型进行评价,为行业大模型的有效评估与落地应用提供指引。•汽车行业测评基准(已发布)•金融行业测评基准(筹备中)•教育行业测评基准(筹备中)•娱乐行业测评基准(筹备中)•手机行业测评基准(筹备中)•政务行业测评基准(筹备中)•医疗行业测评基准(筹备中)•......行业落地专项基准SuperCLUE持续构建专项测评基准,聚焦具体落地场景,深入专项任务大模型应用环节,辅助提升大模型应用效果。组件自动•Safety安全测评基准(已发布)调参•Agent智能体测评基准(已发布)•个性化中文测评基准(筹备中)•角色扮演测评基准(筹备中)•中文多模态测评基准(筹备中)•RAG检索增强测评基准(筹备中)•办公场景测评基准(筹备中)•......

3. 如何让 LLM 应用性能登峰造极

广义上的大模型优化还包括完整训练一个大模型,相信搞一个行业大模型出来是诸多老板梦寐以求的事情,虽然在战略上是势在必行,策略上还是建议先从提示词工程->微调开始,毕竟只要涉及大模型训练,太太烧钱了,没有足够的钱(至少几个亿?)和高质量的行业数据,建议慎重考虑。在分析出了问题所在后,我们可以考虑使用相应的技术进行性能优化,缺失知识可以考虑用RAG,准确度不足或模式遵循度不足可以考虑微调。实际应用中这些技术并不是非此即彼的关系,也不是递进关系,他们都只是解决特定问题的手段,按需选用即可,也可以综合运用以最大化性能。

国内大模型落地“狂飙”一年,各家厂商成绩如何?

Gartner《2025年十大战略技术趋势》中预测,到2028年至少有15%的日常工作决策将由代理型AI(AI智能体)自主做出。2024年,AI大模型在生产和生活中正以“狂飙猛进“的速度落地。“百模大战”过后,国内大模型行业基本跑出了以百度、阿里、字节等科技大厂和创业“AI六小虎”为主要玩家的竞争格局。2024年被称为国内大模型落地元年,经过一年时间的赛跑,各家大模型在各行各业的落地成绩究竟如何?2024年国内大模型项目增3.6倍,百度中标数量和金额双第一各厂商公布的大模型调用数据固然是一个成绩参考,但是让企业客户为大模型买单掏出的真金白银数量无疑是更为直观的成绩。根据云头条统计公开可查的大模型招投标项目数据,2024年国内大模型中标项目数量和金额都呈现大幅度增长。2024年1至11月,大模型中标项目共728个,是2023年全年的3.6倍;中标金额17.1亿元,是2023年全年的2.6倍。大模型中标项目数前五的行业分别是运营商、能源、教育、政务、金融。厂商方面,百度以40个中标项目数、2.74亿元的中标金额排名所有厂商之首,科大讯飞居第二。再看各细分行业,在金融行业,根据2024年1-11月份金融机构发起的大模型相关采购中标项目来看,百度以14个中标数量、3734.4万元中标金额排名第一;科大讯飞居第二。

Others are asking
构建项目 ,如何通过ai生成可视化数据报表,设计方案
以下是一个通过 AI 生成可视化数据报表的设计方案: 1. 理解需求:明确查询要求,例如适应特定尺寸(如宽 1734px、高 1071px)的 TSX 代码,确保生成的组件符合尺寸要求,避免出现滚动条。 2. 生成静态代码:创建一个静态的 React 组件,将所有数据和组件进行硬编码。 3. 实现数据可视化:构建一个复杂的数据可视化平台,支持多种图表类型、实时数据更新、自定义仪表板和数据钻取功能。 4. 设计用户界面:为复杂的数据可视化平台编写 TSX 代码,界面包括多个图表、定制仪表板和实时数据更新,尺寸为宽 1734px 和高 1071px。 5. 定义 React 组件:定义一个用于渲染主界面的 React 组件,包括网格布局、图表组件、导航 UI 组件、按钮和输入字段等,并加入模拟实时更新和自定义仪表板的开关和切换等组件。 6. 规划 UI 结构:设计包含头部、侧边栏和主内容区的 UI 结构,主内容区展示多个图表,并考虑自定义控制。 7. 探索图标资源:从 'lucidereact' 提取图标,如主页、用户和搜索等,使界面更加直观和易用。
2025-02-27
如何用AI构建政务模型
以下是关于如何用 AI 构建政务模型的相关信息: 行业、学术界、研究组织和全球合作伙伴正在寻找解决基础模型监管相关挑战的方法。例如,基础模型的开发者正在探索将对齐理论嵌入模型的方式,政府需要与 AI 研究社区密切合作,利用研究见解并完善监管框架。 英国致力于提升在基础模型方面的能力。基础模型是一种新兴的通用 AI 类型,训练数据量大,能适应多种任务,其快速发展给政府监管带来新挑战。 需建立一个中央职能,支持单个监管机构的视野扫描活动,以实现可适应、协作和值得信赖的监管机制。该职能有助于建立一个能适应新兴趋势、召集合作伙伴共同识别趋势,并确保监管框架能应对新兴趋势的监管制度。 要确保与国际监管框架的互操作性,包括监测英国原则与国际监管方法、保证和/或风险管理以及技术标准之间的一致性,支持跨境协调与合作。此职能对于实现促进创新的监管制度至关重要,能确保英国创新者可进行国际交易,英国公司能吸引海外投资。
2025-02-27
知识图谱构建
知识图谱是一种揭示实体之间关系的语义网络,能够对现实世界的事物及其相互关系进行形式化描述。它于 2012 年 5 月 17 日由 Google 正式提出,初衷是提高搜索引擎能力,增强用户搜索质量和体验,实现从网页链接到概念链接的转变,支持按主题检索和语义检索。 知识图谱构建的关键技术包括: 1. 知识抽取:通过自动化技术抽取可用的知识单元,如实体抽取(命名实体识别)、关系抽取(提取实体间关联关系)、属性抽取(采集特定实体的属性信息)。 2. 知识表示:包括属性图、三元组等。 3. 知识融合:在同一框架规范下进行异构数据整合、消歧、加工、推理验证、更新等,包括实体对齐(消除实体冲突等不一致性问题)、知识加工(统一管理知识)、本体构建(明确定义概念联系)、质量评估(计算知识置信度)、知识更新(迭代扩展知识)。 4. 知识推理:在已有知识库基础上挖掘隐含知识。 在 LLM 落地思考方面,NLP 与知识图谱是主要的落地类型,但存在一些问题。如实现某个 NLP 任务时,需要大量人工标注和长时间训练,交付后较难新增意图和泛化任务,有时使用句式规则方式更好维护更新;构建知识图谱复杂,需与行业专家深度讨论,预见企业长远业务发展制定 schema,周期长且易与业务错位。而 LLM 出现后对 NLP、NLG、KG 有较大提升,带来更好更多的落地可能。 在以问题驱动的 AI+内容创作中,随着学习深入,可使用大模型帮助构建和扩展知识图谱。
2025-02-27
Agent如何构建
以下是一些常见的 Agent 构建平台: 1. Coze:新一代一站式 AI Bot 开发平台,适用于构建基于 AI 模型的各类问答 Bot,集成丰富插件工具,能拓展 Bot 能力边界。 2. Microsoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及将 Copilot 部署到各种渠道。 3. 文心智能体:百度推出的基于文心大模型的智能体平台,支持开发者根据需求打造产品能力。 4. MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行工作流。 5. 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于客服、营销、销售等场景,提供多种成熟模板,功能强大且开箱即用。 6. 钉钉 AI 超级助理:依托钉钉强大的场景和数据优势,提供更深入的环境感知和记忆功能,在处理高频工作场景如销售、客服、行程安排等方面表现出色。 搭建工作流驱动的 Agent 通常可分为以下 3 个步骤: 1. 规划: 制定任务的关键方法。 总结任务目标与执行形式。 将任务分解为可管理的子任务,确立逻辑顺序和依赖关系。 设计每个子任务的执行方法。 2. 实施: 在 Coze 上搭建工作流框架,设定每个节点的逻辑关系。 详细配置子任务节点,并验证每个子任务的可用性。 3. 完善: 整体试运行 Agent,识别功能和性能的卡点。 通过反复测试和迭代,优化至达到预期水平。
2025-02-25
如何构建一个算命的智能体
构建一个智能体通常包括以下步骤: 1. 输入人设等信息:创建智能体时,需要明确其设定和相关信息。 2. 配置工作流:放上创建的工作流,并进行相应配置。 3. 工具使用:工具使用或函数调用是从 RAG 到主动行为的第一步,如网页浏览、代码解释和授权认证等工具已出现,使 LLMs 能够与外部交互和执行操作。 4. 确定智能体结构:按照业务逻辑组织智能体结构,例如在品牌卖点提炼中,要确定以品牌卖点提炼六步法为核心的流程,并加入相关分析助手。 5. 搭建完整智能体:包括品牌卖点定义与分类助手、品牌卖点提炼六步法、STP 市场分析助手、用户画像分析助手、触点收集助手等,同时还可能涉及 KANO 助手、营销六层转化漏斗分析、超级转化率六要素等未在结构中体现但有效的分析工具。 需要注意的是,构建智能体时,对于工作流中涉及个人 token 的部分,不能直接发布,可将其作为输入由用户自行购买和输入后再发布。
2025-02-24
如何构建属于自己的prompt
构建属于自己的 prompt 可以参考以下思路: 1. 明确构建目的:如为了节省力气,根据初始问题自动生成优质 prompt。 2. 遵循一定的流程: 按照特定的方法论,如参考 。 以清晰的结构和灵活的表达方式进行,例如对于视频模型 MiniMax 海螺 AI,可参考其提供的两类 prompt 参考公式。 3. 针对不同模型和需求选择合适的方式: 对于 Claude,可用 Lisp 或 Markdown 格式构建 prompt,直接打开 Claude 首页发送提示词进行初始化后使用。 对于视频创作,若没有明确的镜头呈现需求或期待激发创作灵感,可使用 Prompt 基础公式,即“要创建的主要表现物+场景空间+运动/变化”。 例如:“一只小狗在公园中奔跑”“一个女人打着伞在雨中的街头行走”“山谷中的一条小溪静静流淌”。
2025-02-24
基础搭建的知识库效果很差,模型答案的幻觉很严重,我应该怎么改进?(Deepseek调用api接入本地faiss的rag库)
以下是一些改进基础搭建的知识库效果、减轻模型答案幻觉问题的建议: 1. 更换大模型:例如从 ChatGLM26B 替换成 baichuan213b,针对您的场景,后者的性能可能提升一倍左右。 2. 更换 embedding 模型:将 embedding 模型从 LangChain Chatchat 默认的 m3ebase 替换为 bgelargezh,后者可能更优。 3. 测试不同 Top k 的值:比较 Top 5、Top 10、Top 15 的结果,发现 Top 10 时效果可能最优。 4. 对文档名称进行处理:人工对文件进行重命名,上传相同文件构建知识库,同时在构建知识库时勾选【开启中文标题加强】选项,虽然重命名文件对结果的提升效果不明显,但勾选该选项后,回答的无关信息可能减少,效果有所提升。 RAG(RetrievalAugmented Generation)即检索增强生成,由检索器和生成器两部分组成。检索器从外部知识中快速找到与问题相关的信息,生成器利用这些信息制作精确连贯的答案,适合处理需要广泛知识的任务。 在大模型中,向量可想象成空间中的点位,每个词或短语对应一个点。系统通过查看词在虚拟空间中点的位置,寻找直线距离最近的点来检索语义上接近的词语或信息。理解向量后,当收到一个对话时,RAG 的完整工作流程为:检索器从外部知识中检索相关信息,生成器利用这些信息生成答案。 要优化幻觉问题和提高准确性,需要了解从“问题输入”到“得到回复”的过程,针对每个环节逐个调优,以达到最佳效果。
2025-02-27
大模型调用tools
目前,绝大多数小型本地开源大语言模型以及部分商用大模型接口通常不支持稳定的 tool calling 功能。现有的解决方案多为微调 LLM,但会浪费大量时间和算力。有一种新的方法,即仅使用提示词工程和精巧的代码设计,就能让 LLM 获得稳定的 tool calling 能力。 通过多个不具备 tool calling 能力的 LLM 进行实验,结果显示所有模型都能成功执行调用工具这一步,并正确输出能被正则表达式抓取的字典。但在使用 python 解释器任务上,ollama 量化版本的 llama38b 和 mistral7b 模型受限于代码生成水平,不能很好地输出正确代码,导致无法稳定完成计算任务。在搜索知识图谱任务上,所有模型都能让工具返回相关知识,但 ollama 量化版本的 qwen27b 和 mistral7b 模型受限于逻辑理解能力,不能稳定理解知识图谱中多个关系边之间的逻辑关系。实验证明提示词工程可让 LLM 获得 tool calling 能力,但能否利用工具返回的信息解决用户问题,仍受 LLM 自身智能水平限制,较大的模型(如 gemma29b)对工具返回结果的利用能力更稳定。 在大模型请求中,最大的两个变量是 Messages 和 Tools。Messages 里放的是 sys prompt、memory、user query;Tools 里放的是一些能力的 Json Scheme,两者组合形成整个完全的 Prompt。Agent 应用开发的本质是动态 Prompt 拼接,通过工程化手段将业务需求转述成新的 prompt。短期记忆是 messages 里的历史 QA 对,长期记忆是 summary 之后的文本再塞回 system prompt。RAG 是向量相似性检索,可放在 system prompt 里或通过 tools 触发检索。Action 是触发 tool_calls 标记,进入请求循环,拿模型生成的请求参数进行 API request,再把结果返回给大模型进行交互,没有 tool_calls 标记则循环结束。Multi Agents 则是更换 system prompt 和 tools。当然,想做深做好肯定还有很多坑需要踩。
2025-02-27
如何让大模型输出结构化的数据
要让大模型输出结构化的数据,可以采取以下几种方法: 1. 设计合理的 Prompt 工程: 明确的待处理内容指引:在构建 Prompt 时,清晰地定义需要处理的文本,并使用标记框起来,让模型准确识别待处理内容范围。 提供明确字段定义:具体化每个字段的名称、用途及要求,为模型提供清晰的提取方向。 异常处理:设置异常处理原则,如规定缺失数据使用默认值填充,特殊数据类型符合标准格式,确保模型输出的完整性和一致性。 要求结构化输出:指示模型以结构化格式(如 JSON)输出数据,便于后续处理和系统集成。 2. 搭建工作流: 模型选择:根据需求选择合适的大模型,如默认的豆包 32k 或更大的 kimi128k 等。 配置参数:进行批处理,输入相关参数,如文章内容正文、url 链接和标题等。 提示词输入:将相关内容一起送给大模型进行总结,并拼接成特定格式输出。 汇总格式化最终输出内容:使用代码节点对大模型输出的内容进行最终格式化。 3. 探索 JSON Output 应用: 无模板的 Excel 导入:改变传统数据导入方式,通过 Prompt 读取想要的数据列。 AI 审核员:在人审环节前加 AI 审,提供相关知识和少量示例,输出简单结果。 分类器:一个 Prompt 即可完成分类任务。 应用于其它业务场景:如在一些业务场景中落地,提高效率。 但需要注意的是,过去大模型还不太成熟,应用过程可能会有一些困难。
2025-02-27
个人有没有必要本地部署deepseek模型
个人是否有必要本地部署 DeepSeek 模型取决于多种因素。 DeepSeek 模型的权重文件开源,可本地部署。其公司名为“深度求索”,网页和手机应用目前免费,但 API 调用收费。 在云端模型部署方面,有实操演示和使用方法讲解,包括登录 Pad 控制台、选择框架、资源、出价等,还介绍了查看部署状态和日志的方法,以及用 Postman 在线调试模型获取名称及后续使用方式。 在模型部署相关内容中,部署时使用 V1 chat completion s 接口,要注意模型名称、大小写等。同时布置了作业为成功部署大语言模型并调试,提交带钉钉昵称的截图。还讲解了 API 调用方法、费用、停止服务方式等,提醒注意保密 API key,若竞不到价可加价尝试进行本地蒸馏模型部署。 模型蒸馏方面,先介绍云平台部署情况,接着讲解模型蒸馏概念、方式,阐述其应用场景及修复模型幻觉的作用,并进行了实操演示。 综合来看,如果您对数据隐私有较高要求、需要定制化的模型服务、有足够的技术能力和资源来进行本地部署和维护,或者在网络不稳定的情况下使用,那么本地部署可能是有必要的。但如果您的需求相对简单,且不具备相关技术条件和资源,使用云端服务可能更为便捷。
2025-02-27
企业建立私有大模型时候,采用什么工具进行RAG,高效实习企业知识文档、表格和pdf图纸的向量化
企业建立私有大模型进行 RAG 并实现企业知识文档、表格和 PDF 图纸向量化时,可参考以下工具和方法: 1. 本地部署资讯问答机器人: 导入依赖库,如 feedparse 用于解析 RSS 订阅源,ollama 用于在 Python 程序中跑大模型(使用前需确保 ollama 服务已开启并下载好模型)。 从订阅源获取内容,通过专门的文本拆分器将长文本拆分成较小的块,并附带相关元数据,最终合并成列表返回。 为文档内容生成向量,可使用文本向量模型 bgem3,从 hf 下载好模型后,假设放置在某个路径 /path/to/bgem3,通过函数利用 FAISS 创建高效的向量存储。 2. 开发:LangChain 应用开发指南 大模型的知识外挂 RAG 加载数据,根据数据源类型选择合适的数据加载器,如网页可使用 WebBaseLoader。 将文档对象分割成较小的对象,根据文本特点选择合适的文本分割器,如博客文章可用 RecursiveCharacterTextSplitter。 将文档对象转换为嵌入并存储到向量存储器中,根据嵌入质量和速度选择合适的文本嵌入器和向量存储器,如 OpenAI 的嵌入模型和 Chroma 的向量存储器。 创建检索器,使用向量存储器检索器,传递向量存储器对象和文本嵌入器对象作为参数创建检索器对象。 创建聊天模型,根据性能和成本选择合适的聊天模型,如 OpenAI 的 GPT3 模型。 以下是使用 LangChain 构建 RAG 应用的示例代码。
2025-02-27
我想时刻关注Deepseek目前在电商行业应用落地的场景的信息及对应的应用APP、小程序等,可以通过什么渠道第一时间获取
目前关于 Deepseek 在电商行业应用落地的场景信息以及对应的应用 APP、小程序等,您可以通过以下渠道第一时间获取: 1. 关注 Deepseek 官方网站的动态发布和通知。 2. 订阅 Deepseek 官方的社交媒体账号,如微信公众号、微博等,获取最新消息。 3. 加入相关的电商行业论坛或社区,与其他从业者交流,获取相关信息。 4. 关注电商行业的权威媒体和资讯平台,可能会有相关报道。
2025-02-26
Deepseek目前已在电商行业应用落地的场景有哪些?
DeepSeek 在电商行业已应用落地的场景包括: 电商商品策划:如“电商商品策划 DeepSeek 大师版|一键领取同款多维表格模板”。 商品链接分析:如“商品链接分析工具”。 电商产品上架规划:如“电商产品上架规划”。 您可以通过以下链接获取更详细的信息:
2025-02-26
Deepseek目前已在电商行业应用落地的场景有哪些?
DeepSeek 目前已在电商行业应用落地的场景包括: 电商商品策划:如 。 商品链接分析:如 。 电商产品上架规划:如 。
2025-02-26
制药行业AI赋能企业经营的工具有哪些
很抱歉,您提供的内容中并未直接提及制药行业 AI 赋能企业经营的具体工具。但一般来说,在其他行业中,AI 赋能企业经营可能会用到以下类型的工具: 1. 数据分析和预测工具:帮助企业处理和分析大量数据,以预测市场需求、药物研发趋势等。 2. 自动化流程工具:例如自动化生产流程控制、质量检测等环节。 3. 智能客服工具:为客户提供快速准确的服务和解答。 4. 药物研发辅助工具:利用 AI 算法加速药物研发过程,如虚拟筛选药物靶点等。 由于您提供的资料有限,以上只是一些常见的可能性,具体到制药行业还需要进一步的针对性研究和了解。
2025-02-25
产品经理想进入AI行业,成为AI产品经理,应该怎么准备,能够快速应付面试拿到offer?我的背景是过去3年集中在用户功能产品,有过1份AI多轮对话解决用户求职问题的AI项目经历
如果产品经理想进入 AI 行业成为 AI 产品经理并快速应付面试拿到 offer,可以从以下几个方面准备: 1. 了解 AI 市场: 鱼龙混杂,求职者要做好信息甄别。即使面试通过拿到 offer,除了看 boss 直聘的招聘评价,一定要提前收集其他信息,如在脉脉上搜一下这家公司靠不靠谱。 一些公司实际上没搞懂用 AI 能为自己企业带来什么价值,只是处于焦虑或跟风心态要做 AI,这部分企业可以聊,但要求求职者要有咨询和商业化的思维,能帮公司厘清业务增长机会。 不同公司对 AI 产品经理的定位不同,所以招聘市场上对 AI 产品经理的岗位职责和任职要求也不同,慢慢会统一标准,这也是产品经理转型的机会。 有行业沉淀和认知的产品经理转型会更有机会,类似之前的“互联网+”,目前应用层的机会在“AI+行业”,只懂 AI 或只懂行业是不够的。还有就是业务创新,找到细分的场景痛点并完成 PMF 验证,海外有很多优秀案例。 2. 掌握岗位技能: 本科及以上学历,计算机科学、人工智能、机器学习相关专业背景。 熟悉 ChatGPT、Llama、Claude 等 AI 工具的使用及原理,并具有实际应用经验。 熟练掌握 ChatGPT、Midjourney 等 AI 工具的使用及原理。 负责制定和执行 AI 项目,如 Prompt 设计平台化方法和模板化方法。 了解并熟悉 Prompt Engineering,包括常见的 Prompt 优化策略(例如 CoT、Fewshot 等)。 对数据驱动的决策有深入的理解,能够基于数据分析做出决策。 具有创新思维,能够基于业务需求提出并实践 AI first 的解决方案。 对 AI 技术与算法领域抱有强烈的好奇心,并能付诸实践。 对 AIGC 领域有深入的理解与实际工作经验,保持对 AI 技术前沿的关注。 具备一定的编程和算法研究能力,能应用新的 AI 技术和算法于对话模型生成。 具有一定的编程基础,熟练使用 Python、Git 等工具。 需要注意的是,观察上面的岗位需求,其实公司并不是需要一个 prompt 工程师,而是一个 AI 互联网产品经理。
2025-02-25
金融行业落地大模型的路径
以下是金融行业落地大模型的相关路径: 1. 从整体行业情况来看: 2024 年被称为国内大模型落地元年,国内大模型项目增长迅速,中标项目数量和金额大幅增长。 大模型中标项目数前五的行业包括金融。 厂商方面,百度在金融行业的中标数量和金额排名领先。 2. 具体应用案例: 彭博发布了金融领域的大模型 BloombergGPT,并应用于其所在的垂直领域。 3. 行业人士观点: 通用模型适用不同产业,垂直模型类似于单领域专家,垂直大模型的发展有助于提升各领域模型性能。 商汤科技联合创始人杨帆认为,当模型足够大时,可能加速商业化落地,带来更好的技术能力,缩短产业应用周期。 360 公司创始人周鸿祎表示,大模型是工业革命级的生产力工具,能赋能百行千业。 4. 相关赛事推动: 举办「2024 金融行业·大模型挑战赛」,整合公开金融数据,打造多轮问答评测赛题,提供基础数据表,参赛选手可采用 GLM4 系列模型 API 并运用多种技术手段完成赛题,有多个单位提供支持。
2025-02-24