Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

AI Infra 有哪些

Answer

AI Infra 主要包括以下方面:

  1. 入围的相关工具和服务:
    • Langfuse:大模型应用的开源追踪和分析工具,提供开源可观测性和分析功能,包括在可视化界面中探索和调试复杂的日志和追踪,以及使用直观的仪表板改善成本、降低成本、减少延迟,提高响应质量。
    • Eden AI:将顶尖 AI API 融合为一,通过为每项 AI 任务选择正确的 AI API 来提高准确性和降低成本,通过集中管理使用限制和成本监测让用户更加放心,并不断探索市场上新兴的 AI 能力。
    • Langdock:在几分钟内创建、部署、测试和监控 ChatGPT 插件,将 API 连接到 Langdock,并将其作为插件部署到所有大模型应用中,然后使用内置的测试功能来确保一切按预期工作,并在插件扩展时进行监控。
    • LLM Spark:用于构建生产就绪大模型应用的开发平台。
  2. 基础设施成本的演变:目前模型参数和 GPU 计算能力呈指数级增长,但这种趋势是否持续尚不清楚。
  3. 基础设施的考虑因素:
    • 外部与内部基础设施的选择:许多创业公司,尤其是应用公司,在成立初期无需建立自己的 AI 基础设施,可采用托管模型服务,如 OpenAI、Hugging Face(针对语言)和 Replicate(针对图像生成)等,这些服务定价基于消费量,通常比运行单独的基础设施更便宜。而一些训练新的基础模型或构建垂直集成 AI 应用程序的公司,则可能需要直接在 GPU 上运行自己的模型,管理基础设施可成为竞争优势的来源。
Content generated by AI large model, please carefully verify (powered by aily)

References

ProductHunt 2023 年度最佳产品榜单

随着越来越多的AI模型和产品的出现,帮助构建、改进和监控它们的工具变得比以往任何时候都更加重要,因此几年的奖项又出现了一个新的类别。这个类别的入围者帮助AI创作,者为他们的产品选择合适的AI API并在它们之间切换(如EdenAI)、快速创建和部署LLM插件(如Langdoc)或LLM应用程序(如LLM Spark),以及追踪和调试复杂的LLM应用程序(如Langfuse)。Langfuse(免费可用)——大模型应用的开源追踪和分析工具:Langfuse为大模型应用提供开源可观测性和分析功能。可观测性:在可视化界面中探索和调试复杂的日志和追踪。分析:使用直观的仪表板改善成本、降低成本、减少延迟,提高响应质量。Eden AI(免费可用)——将顶尖AI API融合为一:将Eden AI集成到产品中,实现以下目标:通过为每项AI任务选择正确的AI API来提高准确性和降低成本通过集中管理使用限制和成本监测,让你更加放心不断探索市场上新兴的AI能力。Langdock(免费可用)——在几分钟内创建、部署、测试和监控ChatGPT插件:将你的API连接到Langdock,并将其作为插件部署到所有大模型应用中,如ChatGPT和LangChain(Bing和Bard即将推出)。然后使用Langdock内置的测试功能来确保一切按预期工作,并在插件扩展时进行监控。LLM Spark(免费可用):用于构建生产就绪大模型应用的开发平台。

惊人算力成本背后,AI混战下如何选择基础设施?

在过去的几年里,我们见证了[模型参数](https://huggingface.co/blog/large-language-models)和[GPU计算能力](https://epochai.org/blog/trends-in-gpu-price-performance#:~:text=We%20find%20that%20FLOP%2Fs,price%2Dperformance%20for%20all%20GPUs.)%E5%91%88%E6%8C%87%E6%95%B0%E7%BA%A7%E5%A2%9E%E9%95%BF%E3%80%82%E7%9B%AE%E5%89%8D%E5%B0%9A%E4%B8%8D%E6%B8%85%E6%A5%9A%E8%BF%99%E7%A7%8D%E8%B6%8B%E5%8A%BF%E6%98%AF%E5%90%A6%E4%BC%9A%E6%8C%81%E7%BB%AD%E4%B8%8B%E5%8E%BB%E3%80%82)的[指数级增长。目前尚不清楚这种趋势是否会持续下去。](https://epochai.org/blog/trends-in-gpu-price-performance#:~:text=We%20find%20that%20FLOP%2Fs,price%2Dperformance%20for%20all%20GPUs.)%E5%91%88%E6%8C%87%E6%95%B0%E7%BA%A7%E5%A2%9E%E9%95%BF%E3%80%82%E7%9B%AE%E5%89%8D%E5%B0%9A%E4%B8%8D%E6%B8%85%E6%A5%9A%E8%BF%99%E7%A7%8D%E8%B6%8B%E5%8A%BF%E6%98%AF%E5%90%A6%E4%BC%9A%E6%8C%81%E7%BB%AD%E4%B8%8B%

惊人算力成本背后,AI混战下如何选择基础设施?

至此,你对AI模型的训练和推理所需的规模以及驱动它们的底层参数有了直观了解。我们现在想就如何决定使用哪种AI基础设施提供一些实用指南。[heading2]外部vs.内部基础设施[content]让我们面对现实吧:GPU很酷。许多工程师和有工程思维的创始人都倾向于配置自己的AI硬件,这样不仅可以对模型训练进行细粒度的控制,而且使用高性能的计算机或云服务来执行复杂的任务或创造新的东西,可以带来一种满足感或兴奋感(见图表A)。然而,事实是,许多创业公司——尤其是应用公司——不需要在成立第一天就建立自己的AI基础设施。相反,像OpenAI或Hugging Face(针对语言)和Replicate(针对图像生成)等采用托管模型服务,可以让创始人迅速寻找产品市场契合度,且无需管理底层基础设施或模型。这些服务已经足够好,以至于许多公司离不开它们。开发者可以通过提示工程和更高阶的微调抽象(即通过API调用进行微调)来实现对模型性能的有意义的控制。这些服务的定价是基于消费量的,这通常也比运行单独的基础设施更便宜。我们看到一些应用公司在后台运行托管模型服务,产生了超过5000万美元的年收入,估值超10亿美元。另一方面,一些创业公司——尤其是那些训练新的基础模型或构建垂直集成AI应用程序的公司——不可避免直接在GPU上运行自己的模型。要么是因为模型本身就是产品,团队正在寻找“模型-市场契合度”,要么是因为需要对训练和/或推理进行细粒度的控制,才能实现某些功能或大规模降低边际成本。无论哪种方式,管理基础设施都可以成为竞争优势的来源。

Others are asking
有哪些可以实现批量切片生成短视频的AI剪辑工具
以下是一些可以实现批量切片生成短视频的 AI 剪辑工具: 1. Opus Clip:专注长视频转短视频场景,能自动识别长视频中的精彩片段并提取重排。创始人 Young Z 在 22 年疫情期间创业,尝试多个方向后形成产品形态。23 年底推出 7 个月后便获取了 500 万注册用户和 1000 万 ARR。支持手动切片和 AI 剪辑切片,还支持创作者通过 Prompt 输入剪辑需求,提供作品发布日历、视频数据分析后台全套创作者工具等。网页版访问:https://www.opus.pro/ ;官方推特:https://x.com/OpusClip 。 2. 剪映:有很多人性化设计和简单音效库/小特效,但无法协同工作和导出工程文件,应用于商业化效果有限。剪辑流程包括视频粗剪、定剪、音效/音乐、特效、包装(如字幕)等。 3. 以下是另外几个视频 AIGC 工具: Raskai:可将短视频素材直接翻译至多语种。 Invideo AI:输入想法后自动生成脚本和分镜描述,生成视频后人工二编再合成长视频。 Descript:屏幕/播客录制后以 PPT 方式做视频。 Veed.io:自动翻译自动字幕。 Clipchamp:微软的 AI 版剪映。 Typeframes:类似 Invideo AI,内容呈现文本主体比重更多。 Google Vids 。
2025-02-06
初中物理教师如何将AI辅助教学
初中物理教师可以通过以下方式将 AI 辅助教学: 1. 学情分析与作业测评:利用基于平台数据的学情智能分析工具,实现精准教育。例如,让 AI 生成作业题目并优化题目质量与难度,对主观题进行辅助批改。 2. 课程规划:借助像沃顿商学院提供的提示词库,将自己视为教学助理,明确学习目标,细化希望学生思考和练习的内容,预判常见难点并帮助克服,详细说明教学任务,描述优秀学习表现,运用提问和检查理解的方式评估学习效果,合理安排讲解、示范、练习、复习等环节。 3. 创新教学方法:可以像初中数学老师朱力老师那样,将生活中的实际案例,如巴以冲突、泰坦尼克号的史料等,借助 AI 转化为与物理相关的教学内容,让学生从生活中学习物理。 4. 提示词工程:注重提示词的逻辑,将复杂任务拆分成科学合理的步骤,让前一步的结果成为后一步的基础,且要确保步骤能打印出来,以便影响后续预测结果。例如,让智谱清言出 20 道物理选择题,配上参考答案和解析,从中挑选可用的题目。
2025-02-06
我需要仿写 AI工具的教程文章,应该怎么写提示词
以下是关于如何仿写 AI 工具教程文章中提示词的相关内容: 样例驱动的渐进式引导法就像让 AI 主动读懂您的想法。它以 1 2 个正向样例为起点,通过与 AI 的多轮对话,引导其从样例中提炼隐含的生成要求,逐步完善提示词。 例如,教 AI 仿写爆文时,只需提供优秀样例,AI 会自动分析理解精髓并生成符合自身运作的指令。这种方法无需用户具备专业的 Prompt 工程知识,也不用费力提炼“Know How”,利用 AI 就能自动生成精彩的 Prompt。 其核心步骤包括: 1. 构建初始样例:创建符合期望输出的具体例子。 2. 评估样例,尝试提炼模板:让 AI 分析理解样例结构和关键元素,并以专家视角优化。 3. 固定模板,强化要求说明:基于对初始样例的理解,让 AI 提出通用模板,通过测试 Prompt 验证可靠性。 4. 生成结构化提示词:将优化后的模板转化为结构化提示词,用户适当调整确认后即可使用。 在这个过程中,用户的角色主要是: 1. 提供尽可能与自己预期一致的初始样例。 2. 判断 AI 的输出质量。 3. 反馈改进建议,提供行动引导。 这种方法的优势在于简化了提示词设计过程,让非专业用户也能创建高质量的 Prompt。用户可专注于判断输出质量和提供反馈,无需深入理解复杂的 Prompt 工程技巧。 此外,编写提示词(prompt)还有一些通用建议: 1. 明确任务:清晰定义任务,如写故事时包含背景、角色和主要情节。 2. 提供上下文:任务需要背景知识时,在 prompt 中提供足够信息。 3. 使用清晰语言:尽量用简单、清晰的语言描述任务,避免模糊或歧义词汇。 4. 给出具体要求:如有特定格式或风格要求,在 prompt 中明确指出。 5. 使用示例:有特定期望结果时,在 prompt 中提供示例。 6. 保持简洁:尽量简洁明了,过多信息可能使 AI 模型困惑。 7. 使用关键词和标签:帮助 AI 模型更好理解任务主题和类型。 8. 测试和调整:生成文本后仔细检查结果,根据需要调整 prompt,可能需要多次迭代达到满意结果。
2025-02-06
AI在金融领域的应用
AI 在金融领域有以下应用: 1. 风控和反欺诈:用于识别和阻止欺诈行为,降低金融机构风险。 2. 信用评估:评估借款人的信用风险,辅助金融机构做出贷款决策。 3. 投资分析:分析市场数据,帮助投资者做出更明智的投资选择。 4. 客户服务:提供 24/7 服务,回答常见问题。 5. 个性化的消费者体验:根据客户需求提供定制服务。 6. 成本效益高的运营:优化运营流程,降低成本。 7. 更好的合规性:确保金融活动符合法规要求。 8. 改进的风险管理:有效识别和应对风险。 9. 动态的预测和报告:及时准确地进行预测和报告。 金融服务公司利用大量历史金融数据微调大型语言模型,能够迅速回答各类金融问题。例如,经过特定数据训练的模型可回答公司产品相关问题,识别洗钱计划的交易等。在现有企业与初创公司的竞争中,现有企业因专有金融数据访问权限在使用 AI 时有初始优势,但受准确性和隐私高标准限制;新进入者初期使用公开金融数据训练模型,后续会生成自己的数据,并以 AI 作为新产品分销突破口。
2025-02-06
从零开始学习ai
以下是从零开始学习 AI 的建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,可根据自己的兴趣选择特定模块深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出自己的作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 通过与这些 AI 产品的对话,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 记住,学习 AI 是一个长期的过程,需要耐心和持续的努力。不要害怕犯错,每个挑战都是成长的机会。随着时间的推移,您将逐渐建立起自己的 AI 知识体系,并能够在这一领域取得成就。完整的学习路径建议参考「通往 AGI 之路」的布鲁姆分类法,设计自己的学习路径。
2025-02-06
我想从普通的功能型产品经理转变为AI应用产品经理,应该怎么进阶,需要掌握什么能力?
要从普通的功能型产品经理转变为 AI 应用产品经理,可以从以下几个方面进阶并掌握相应能力: 一、不同阶段的能力要求 1. 入门级 能通过 WaytoAGI 等开源网站或一些课程了解 AI 的概念。 使用 AI 产品并尝试动手实践应用搭建。 2. 研究级 技术研究路径或商业化研究路径。 对某一领域有认知,能根据需求场景选择解决方案。 利用 Hugging face 等工具手搓出一些 AI 应用来验证想法。 3. 落地应用级 有一些成功落地应用的案例,产生商业化价值。 二、AI 产品经理与传统互联网产品经理层级对应 传统互联网产品经理层级: 1. 负责功能模块与执行细节。 2. 负责整体系统与产品架构。 3. 熟悉行业竞争格局与商业运营策略。 三、AI 产品经理需掌握的能力 1. 懂得技术框架,对技术边界有认知,最好能知道一些优化手段和新技术的发展。 2. 理解产品核心技术,了解基本的机器学习算法原理,做出更合理的产品决策。 3. 与技术团队有效沟通,掌握一定的算法知识,减少信息不对称带来的误解。 4. 评估技术可行性,在产品规划阶段做出更准确的判断。 5. 把握产品发展方向,了解算法前沿。 6. 提升产品竞争力,发现产品的独特优势,提出创新的产品特性。 7. 具备数据分析能力,很多 AI 算法都涉及到数据处理和分析。 四、其他能力 1. 语言学能力,锻炼语言表述能力,更精准地用语言描述问题。 2. 业务理解和 AI 嵌入能力,找到业务中需要应用大模型的场景,将业务和大模型算法结合,理解模型在业务中的边界。 3. 维度转换能力,将各种问题、业务数据转化为语言描述,将通用模块问题转化为通用问题模块。 总之,AI 产品经理要关注场景、痛点、价值,不断提升自身能力,以适应市场需求。
2025-02-06
AI Infra 市场未来的想象空间
在生成式 AI 革命进入第二个年头时,研究从迅速生成预训练结果的“快速思考(System 1)”转向推理过程中深度思考的“慢速思考(System 2)”,为全新自主型应用程序开启大门。自《生成式 AI:一个创意新世界》发表的两年间,AI 生态系统变化巨大,也有了新预测。生成式 AI 市场基础层趋于稳定,由 Microsoft/OpenAI、AWS/Anthropic、Meta 和 Google/DeepMind 等重要玩家和联盟主导,形成平衡态,只有具备经济实力和巨额资本的玩家仍在竞争,市场结构逐渐明朗,未来生成下一个 token 的成本会降低,数量会增多。随着大规模语言模型(LLM)市场稳定,竞争前沿转向以“系统 2”思维主导的推理层开发和扩展,受 AlphaGo 等模型启发,旨在让 AI 系统进行深思熟虑的推理和问题解决,新的认知架构和用户界面也在改变推理能力与用户的互动方式。 综上所述,对于 AI Infra 市场未来的想象空间,其可能在推理层的开发和扩展方面有更多的发展和创新,市场结构会进一步优化,成本降低和数量增加的趋势也将持续。
2024-11-01
AI infra
以下是关于“AI infra”的相关信息: AI 模型的计算成本: GPT3 约有 1750 亿个参数,对于 1024 个令牌的输入和输出,计算成本约为 350 万亿次浮点运算。训练像 GPT3 这样的模型需要约 3.14×10^23 次浮点运算,其他模型如 Meta 的 LLaMA 有更高的计算要求。训练此类模型是人类迄今计算量最大的任务之一。AI 基础设施昂贵的原因在于底层算法问题计算难度极大,相比之下,对一百万个条目的数据库表进行排序的算法复杂性微不足道。因此,应选择最小的模型来解决具体用例。同时,根据变换器的经验法则,可轻松估计特定大小模型的算力和内存消耗,进而选择合适的硬件。 Generative AI 的开发工具和基础设施的趋势: 有一张图描绘了其趋势,代表了在 AI 开发领域中,为满足不同需求,工具和基础设施正逐渐模块化和专业化。图中的公司被分为四个主要类别: 1. Orchestration(编排):如 DUST、FIAVIE、LangChain 等公司提供的工具帮助开发人员管理和协调各部分和任务,确保系统流畅运行。 2. Deployment, Scalability, & PreTraining(部署,可扩展性和预训练):如 UWA mosaicm、NMAREL、anyscale 等公司提供工具,帮助开发人员部署模型,保证模型的可扩展性,以及进行预训练。 3. Context & Embeddings(上下文和嵌入):如 TRUDO,Llamalndex,BerriAI 等公司提供工具,帮助模型处理和理解语言上下文,以及将词语和句子转化为计算机可理解的形式。 4. QA & Observability(质量保证和可观察性):如 Pinecone,drant,Vald 等公司提供工具,确保模型表现,并能监控模型的性能和状态。 AI 基础设施的考虑因素: 一些创业公司,尤其是训练新的基础模型或构建垂直集成 AI 应用程序的公司,不可避免直接在 GPU 上运行自己的模型。这要么是因为模型本身就是产品,团队正在寻找“模型市场契合度”,要么是因为需要对训练和/或推理进行细粒度的控制,以实现某些功能或大规模降低边际成本。无论哪种方式,管理基础设施都可以成为竞争优势的来源。
2024-08-22