以下是一些可能找到了解 AI 模型微调和 RAG 知识库的外包开发团队的途径:
另外,从提供的资料中,以下信息可能对您有所帮助: 红杉的相关分析提到,迁移学习技术如 RLHF 和微调正变得更加可用,开发者可以从 Hugging Face 下载开源模型并微调以实现优质性能,检索增强生成(RAG)正在引入关于业务或用户的上下文,像 Pinecone 这样的公司的向量数据库已成为 RAG 的基础设施支柱。彬子的经历中,有出海垂直领域 Agent 平台的项目经理咨询 RAG 策略优化。2024 人工智能报告中提到对增强生成检索(RAG)的兴趣增长促使了嵌入模型质量的提高,传统 RAG 解决方案中的问题得到解决。
创始人正在进行prompt工程、微调和数据集策划的艰苦工作,以使他们的AI产品优秀起来。他们正在逐步地建设,将引人注目的Demo演示变成完整的产品体验。与此同时,基础模型底层继续充满研究和创新。随着公司找到持久价值的路径,正在发展一个共享的剧本。我们现在有了共享的技术来使模型变得有用,以及将塑造生成式AI第二幕的新兴UI范式。模型开发栈新兴的推理技术,如连锁思考、树状思考和反射,正在提高模型执行更丰富、更复杂的推理任务的能力,从而缩小了客户期望与模型能力之间的差距。开发者使用像Langchain这样的框架来调用和调试更复杂的多链序列。迁移学习技术,如RLHF和微调,正变得更加可用,特别是随着GPT-3.5和Llama-2的微调的最近可用性,这意味着公司可以将基础模型适应其特定领域,并从用户反馈中改进。开发者从Hugging Face下载开源模型,并微调它们以实现优质的性能。检索增强生成(RAG)正在引入关于业务或用户的上下文,减少幻觉并增加真实性和实用性。像Pinecone这样的公司的向量数据库已成为RAG的基础设施支柱。新的开发者工具和应用框架为公司提供了可重用的构建块,以创建更先进的AI应用,并帮助开发者评估、改进和监控生产中的AI模型的性能,包括像Langsmith和Weights&Biases这样的LLMOps工具。像Coreweave、Lambda Labs、Foundry、Replicate和Modal这样的AI-first基础设施公司正在解除公共云的捆绑,并提供AI公司最需要的东西:大量的GPU以合理的成本、按需可用和高度可扩展,以及一个不错的PaaS开发者体验。这些技术应该能够在基础模型同时改进的情况下,缩小期望与现实之间的差距。但使模型变得出色只是成功了一半,生成式AI优先的用户体验也在进化:
小红书主页:[AGI悟道](https://www.xiaohongshu.com/user/profile/64cdc8b0000000000b006bff?xsec_token=YBl-Rn5w-43J5tyvXHskRYEo3zDU4boV3ZQTdkpixCxuk=&xsec_source=app_share&xhsshare=CopyLink&appuid=64cdc8b0000000000b006bff&apptime=1735648591&share_id=2a78bff0cab74589873a77e6a281d7e4)发小红书除了记录也希望找到更多探索这块的朋友。也会有一些带着企业AI命题的人找过来或咨询或求助。印象比较深的是一个做出海垂直领域Agent平台的项目经理过来咨询一些RAG策略优化,说已经将我小红书推给他们开发团队,要求开发同学都必须复刻我视频里每个demo来评估能否借鉴到他们自己的方案里。但那时个人面向企业基本挣不到钱,大点的企业对AI这件事的决策链很长,没有资深的背书接不住。小的企业自己信息化都没有做,很多知识是口口相传的“传帮带”经验,文档的沉淀就卡掉绝大多数欲望了。7月~8月小红书更新进入瓶颈,更完知识图谱几篇不知道demo还能做啥,食之无味,弃之可惜。机缘巧合下参与WaytoAGI社区的Coze活动,一拍脑袋,费劲巴拉从头用框架搭demo还不如直接在Coze上捏bot。虽然也会吐槽简陋的知识库,缺乏路由循环,但整体用下来还是真香,尤其当时大模型随便用,Token几万,几十万的造想想都爽。当时为了综合测试Coze各节点,实验性的捏了当时上面最复杂的一个虚拟女友李思思(灵感来源皮皮的洛云)。今天还看到她发的今年最后一条朋友圈,挺有回忆。
合成数据是Phi family的主要训练数据来源,Anthropic在培训Claude 3时使用合成数据,来代表可能在训练数据中缺失的场景。Hugging Face使用Mixtral-8x7B Instruct生成超过3000万份文件和250亿个合成教科书、博客文章和故事,以重新创建Phi-1.5训练数据集,他们将其称为Cosmopedia。为了使合成数据更容易,NVIDIA发布了Nemotron-4-340B家族,这是一个专为合成数据生成设计的模型套件,可通过许可协议获得。另外Meta的Llama也可以用于合成数据生成。通过直接从对齐的LLM中提取它,也有可能创建合成高质量指令数据。使用像Magpie这样的技术,有时可以将模型进行微调,以达到与Llama-3-8B-Instruct相当的表现。RAG提高嵌入模型质量虽然检索和嵌入不是新的,但对增强生成检索(RAG)的兴趣增长促使了嵌入模型质量的提高。在常规的LLMs中,证明有效的剧本是大规模性能改进的关键(GritLM有约47亿个参数,而之前的嵌入模型只有1.1亿个)。同样,大规模语料库的使用和改进过滤方法导致了小型模型的巨大改善。同时,ColPali是一种利用文档的视觉结构而不是文本嵌入来改进检索的视图-语言嵌入模型。检索模型是少数几个开放模型通常优于大型实验室专有模型的子领域之一。在MTEB检索排行榜上,OpenAI的嵌入模型排名第29位,而NVIDIA的开放NV-Embed-v2排名第一。传统RAG解决方案中的问题得到解决