Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

大模型辩论

Answer

在大模型的相关辩论中:

  • 邬嘉文认为在 CES 2024 上,李飞飞争论 LLM 和 AIGC 名称不能混用,吴恩达觉得在公众传播中没关系,李飞飞难以接受,可能是因为这模糊了大模型的本质。在公众传播层面,AIGC 指用 Stable Diffusion 或 Midjourney 生成图像内容,后来泛指用 AI 生成音乐、图像、视频等内容;LLM 指 NLP 领域的大语言模型,如 ChatGPT;GenAI 是生成式人工智能模型,国内官方政策文件使用这个词相对科学,涵盖了 LLM 和 AIGC;AGI 指通用人工智能,部分人觉得 LLM 具有 AGI 潜力,LeCun 反对。公众传播一般会混用上述名词,其底层是 Transformer 结构。Transformer 底层是 function loss 损失函数,是一个大参数(千亿级别)的回归方程,能在一定 prompt condition 情况下,repeat 曾经出现过的数据内容实现“生成”能力。大语言模型是一个 perfect memory,repeat 曾经出现的内容,与 Alpha Go 有差异,Alpha Go 是增强学习模型,有推理能力,而大语言模型这块很弱,Transformer 决定 LLM 是一个生成式模型。
  • Ranger 针对唱衰 AI 大模型的风潮指出,唱衰者认为大模型仅能实现如 chatbox、文生图等功能,难以找到商用场景且存在幻觉问题,同时算力有成本。但这种观点建立在大模型后续仅能用于特定功能且算力费用持续居高不下这两个前提上,而实际上,今年内算力成本问题将不再是难题,并且对于大模型能带来的改变,需要明晰其运作原理,期望通过简单描述帮助非技术人员理解大模型。
Content generated by AI large model, please carefully verify (powered by aily)

References

乌嘉文:大模型应用层

作者:Garman邬嘉文原文:https://mp.weixin.qq.com/s/b7Cctfgb4w5LCCBrSYIlrg[heading2]Transformer决定边界[content]在CES 2024,李飞飞在争论LLM和AIGC名称不能混用,吴恩达觉得在公众传播没关系。李飞飞觉得难以接受,个人猜测是它模糊了大模型的本质。在公众传播层面:AIGC:指用Stable Diffusion或Midjourney生成图像内容,后来泛指用AI生成音乐、图像、视频等内容。LLM:指NLP领域的大语言模型,如ChatGPT。GenAI:生成式人工智能模型,国内官方政策文件使用这个词相对科学,涵盖了LLM和AIGC。AGI:指通用人工智能,部分人觉得LLM具有AGI潜力,LeCun反对。公众传播一般会混用上述名词,但底层是transformer结构。(stable diffusion原采用LDM+UNet,后来改为DiT)而transformer底层是function loss损失函数Transformer是一个大参数(千亿级别)的回归方程。回归方程的Function loss拟合A to B mapping关系,实现数据集的压缩与还原。Transformer是在一定prompt condition情况下,repeat曾经出现过的数据内容,实现“生成”能力。大语言模型的智能体验在两个数据集压缩后,能解释两个数据集之间地带的“连续”能力。(Ilya)所以大语言模型是一个perfect memory,repeat曾经出现的内容。它与Alpha Go差异:Alpha Go是一个增强学习模型,学习结果会调整模型自身参数Alpha Go有推理能力,但大语言模型这块很弱。Transformer决定LLM是一个生成式模型。

邬嘉文:大模型应用层

作者:Garman邬嘉文原文:https://mp.weixin.qq.com/s/b7Cctfgb4w5LCCBrSYIlrg[heading2]Transformer决定边界[content]在CES 2024,李飞飞在争论LLM和AIGC名称不能混用,吴恩达觉得在公众传播没关系。李飞飞觉得难以接受,个人猜测是它模糊了大模型的本质。在公众传播层面:AIGC:指用Stable Diffusion或Midjourney生成图像内容,后来泛指用AI生成音乐、图像、视频等内容。LLM:指NLP领域的大语言模型,如ChatGPT。GenAI:生成式人工智能模型,国内官方政策文件使用这个词相对科学,涵盖了LLM和AIGC。AGI:指通用人工智能,部分人觉得LLM具有AGI潜力,LeCun反对。公众传播一般会混用上述名词,但底层是transformer结构。(stable diffusion原采用LDM+UNet,后来改为DiT)而transformer底层是function loss损失函数Transformer是一个大参数(千亿级别)的回归方程。回归方程的Function loss拟合A to B mapping关系,实现数据集的压缩与还原。Transformer是在一定prompt condition情况下,repeat曾经出现过的数据内容,实现“生成”能力。大语言模型的智能体验在两个数据集压缩后,能解释两个数据集之间地带的“连续”能力。(Ilya)所以大语言模型是一个perfect memory,repeat曾经出现的内容。它与Alpha Go差异:Alpha Go是一个增强学习模型,学习结果会调整模型自身参数Alpha Go有推理能力,但大语言模型这块很弱。Transformer决定LLM是一个生成式模型。

Ranger:【AI 大模型】非技术背景,一文读懂大模型(长文)

[heading2]一、写在前面[content]写这篇文章的初衷,源于近期涌起的唱衰AI大模型的风潮。不少人在对大模型的机制及当下的商业形态进行了初步了解后,便断言大模型是一场“骗局”,是资本操控的闹剧。同时,近来不管是投资领域还是各大厂,似乎都开始谨慎衡量做大模型这件事的投资回报率(ROI)。难道大模型当真不像去年众人所认定的那样,是一场所谓的“革命”吗?唱衰大模型的人,大多持有这样的观点:他们觉得大模型仅能实现像chatbox、文生图、图生图、生视频、生音频之类的功能,难以找到可商用的场景,更别说其中部分功能还可能存在幻觉问题。同时,大模型的算力也是有成本的,而且价格不低。所以问题就出现了,即我们做出了一个个看似出色的ai产品,用户日活量或许也很高,但高日活带来的是高机器算力费用,而这笔费用又无法从活跃用户身上获取,所以这个商业模式就难以形成闭环了。所以这种理解倒不能说是错误的,但这是建立在两个前提之上的。第一,大模型确实后续也仅能用在聊天以及生成图片、文字、视频了;第二,算力的费用会持续居高不下。但在我看来,这两点都是不成立的。首先关于第二点的算力的问题,已经有许多解决方案了,不论是模型蒸馏,还是苹果的端云方案等等,我认为今年内算力成本问题将不再是难题。那么第一点,其实也是今日的重点。而要知晓一个新事物究竟能够带来什么样的改变,我认为首先是先需要明晰其运作原理究竟是怎样的。实际上,我也看过市面上很多有关大模型的科普文章,坦白讲,对于非技术人员而言,理解起来颇具难度。所以,我期望这篇文章能通过最为直白、最为简单的描述,帮助各位产品同学,理解何为大模型,大模型是如何运作的,大模型究竟带来了什么,以及我们究竟该去怎么看待这次大模型的浪潮。

Others are asking
我想让chatgpt和豆包辩论,辩论的主题是勒布朗詹姆斯和迈克尔乔丹,谁是历史第一人?请帮我设计给豆包和gpt的指令,以及辩论的规则,规则让有可看性,激烈性
以下是为您设计的给豆包和 ChatGPT 的指令以及辩论规则: 指令: 豆包和 ChatGPT 需充分运用各自掌握的篮球知识和数据,对勒布朗·詹姆斯和迈克尔·乔丹谁是历史第一人的问题进行深入辩论。 要求从球员的个人能力、团队成就、影响力、比赛数据等多个方面进行分析和论证。 辩论规则: 每位参与者有固定的发言时间,例如每次发言不超过 3 分钟。 发言顺序交替进行,先由豆包开始第一轮发言。 辩论过程中,不得使用侮辱性或攻击性语言,保持理性和客观。 每轮发言结束后,另一方有 1 分钟的提问和反驳时间。 辩论共进行 5 轮,最后一轮为总结陈词,时间为 5 分钟。 观众可以在辩论结束后进行投票,选出他们认为表现更出色的一方。 希望这样的设计能让辩论具有可看性和激烈性!
2025-01-17
你是一名医疗器械销售,就职于一家跨国医疗企业。公司目前就“我们是否应该立刻全面拥抱人工智能技术”组织了一场辩论赛,你持反方论点,即“我们不应该立刻全面拥抱人工智能技术”。 请你结合社会时事热点,设计5个以上刁钻问题给对方,要求举出实例。 此次辩论赛的听众中有公司高层和全体同事,请注意避免不友好及不利于公司形象的言论。
以下是为您设计的一些刁钻问题: 1. 目前人工智能在医疗领域的误诊案例时有发生,比如某些智能诊断系统对复杂病症的判断失误,导致患者延误治疗,这难道还能让我们立刻全面拥抱它吗? 2. 人工智能技术在医疗数据安全方面存在诸多隐患,像近期发生的多起医疗数据泄露事件,给患者带来极大困扰,在这种情况下,怎么能立刻全面拥抱? 3. 人工智能在医疗器械的研发中,由于算法偏见,可能会导致某些特定人群无法受益,例如某些心脏起搏器的智能调控系统对特定体质患者效果不佳,这能说明应该立刻全面拥抱吗? 4. 当下人工智能技术的高昂成本使得许多医疗机构望而却步,比如一些小型医院根本无力承担智能医疗设备的购置和维护费用,这难道不影响全面拥抱的可行性吗? 5. 人工智能在医疗领域的法规和监管还不完善,比如某些智能手术机器人的操作规范尚未明确,一旦出现问题,责任难以界定,这样能立刻全面拥抱吗? 6. 虽然人工智能在某些方面提高了医疗效率,但也导致了部分医疗人员的失业,引发社会就业问题,这难道不是我们需要谨慎对待、不能立刻全面拥抱的原因吗?
2024-12-01
你是一名医疗器械销售,就职于一家跨国医疗企业。公司目前就“我们是否应该立刻全面拥抱人工智能技术”组织了一场辩论赛,你持反方论点,即“我们不应该立刻全面拥抱人工智能技术”。 请你结合社会时事热点,设计5个以上刁钻问题给对方。 此次辩论赛的听众中有公司高层和全体同事,请注意避免不友好及不利于公司形象的言论。
以下是为您设计的一些刁钻问题: 1. 当下人工智能技术在医疗领域的应用仍存在诸多伦理和法律争议,比如医疗数据的隐私保护问题尚未得到妥善解决,在这种情况下,如何能立刻全面拥抱? 2. 人工智能技术在医疗器械的诊断中可能会出现误判,而医疗事故往往关乎生命,如何确保在立刻全面拥抱的情况下避免这些严重后果? 3. 目前人工智能技术的发展还不够稳定,时常面临技术更新和升级的问题,这会导致医疗器械的频繁变动和成本增加,这一现实如何应对? 4. 社会时事热点中不乏人工智能技术被滥用的案例,比如虚假医疗信息的传播,如何保证在立刻全面拥抱人工智能技术时不出现此类问题? 5. 人工智能技术的广泛应用可能会导致部分医疗工作者失业,引发社会就业结构的不稳定,这一风险如何化解? 6. 近期有报道指出人工智能技术存在被黑客攻击的风险,从而威胁患者的医疗信息安全,在这种情况下立刻全面拥抱是否明智? 7. 人工智能技术在医疗器械中的应用需要大量的资金投入,而目前公司的财务状况是否能够支撑立刻全面的投入和应用? 8. 社会时事热点中,一些人工智能技术的应用缺乏人性化关怀,在医疗这种关乎人性和情感的领域,立刻全面拥抱是否合适?
2024-12-01
你是一名医疗器械销售,就职于一家跨国医疗企业。公司目前就“我们是否应该立刻全面拥抱人工智能技术”组织了一场辩论赛,你持反方论点,即“我们不应该立刻全面拥抱人工智能技术”。 请预想对方辩友可能会提出的5条以上反对意见,并给出对应答复。 此次辩论赛的听众中有公司高层和全体同事,请注意避免不友好及不利于公司形象的言论。
对方辩友可能提出的反对意见及我方答复如下: 反对意见 1:人工智能技术能够提高医疗器械的研发效率和精准度。 答复:虽然人工智能在某些方面可能有助于研发,但目前技术尚不成熟,存在误差风险。而且过度依赖可能导致研发人员忽视传统方法中的重要经验和细节。 反对意见 2:人工智能可以优化医疗器械的生产流程,降低成本。 答复:短期内,引入人工智能进行生产流程优化可能需要大量的资金投入用于技术改造和人员培训,成本未必能立刻降低。 反对意见 3:人工智能能够实现更精准的医疗诊断,提升医疗效果。 答复:诊断不仅仅依赖技术,还需要医生的综合判断和人文关怀。目前人工智能诊断存在误判的可能性,不能完全替代医生的经验和直觉。 反对意见 4:人工智能有助于医疗数据的管理和分析,为决策提供有力支持。 答复:数据的安全性和隐私性在人工智能应用中是重大挑战,一旦数据泄露,将对患者和公司造成严重影响。 反对意见 5:人工智能是未来医疗行业的趋势,不立刻全面拥抱会使公司落后于竞争对手。 答复:趋势并不意味着要立刻全面投入,盲目跟风可能导致资源浪费和战略失误。我们应在充分评估风险和自身实际情况的基础上,逐步、稳健地引入人工智能技术。 反对意见 6:人工智能能够提供个性化的医疗服务,满足患者多样化需求。 答复:个性化服务的实现需要大量准确的数据支持,而目前数据的质量和完整性难以保证,可能导致服务效果不佳。
2024-12-01
你是一名医疗器械销售,就职于一家跨国医疗企业。公司目前就“我们是否应该立刻全面拥抱人工智能技术”组织了一场辩论赛,你持反方论点,即“我们不应该立刻全面拥抱人工智能技术”。 如果对方提出“不能因为有风险就不做,我们也不是立即马上在所有场景中应用AI,而是在做好充分的准备后,应用AI”的论点,我方应当如何轻松幽默的反驳?
对方辩友,您说做好充分准备后应用 AI ,可问题是,这准备工作哪有那么容易呀!就像准备一场盛大的派对,您觉得把所有东西都准备齐全得花多少时间和精力?而且,就算准备得差不多了,谁能保证不会有意外情况发生呢?比如说,突然发现某个关键环节没考虑到,或者新的问题又冒出来了。再说了,这准备的过程中,我们得投入多少资源呀,万一投入了大量的人力、物力、财力,结果发现效果还不如传统方法,那岂不是亏大啦!所以呀,不能这么轻易地就觉得做好准备就能放心大胆地全面拥抱 AI 技术啦。
2024-12-01
有什么工具专门用来进行模拟辩论的吗?
以下是一些可用于模拟辩论的工具和方法: 1. 基于 GPT4 的谈判模拟器: 作为 AI 导师,会保持沉默观察和策划。进行 6 轮后引导用户做重要决策,结束谈判。挑战用户了解关键谈判概念,如提问重要性、判断事物价值等。角色扮演结束后,以导师身份提供反馈、建议,并创建包含重要要点的文件和链接。 作为游戏主持 AI,先为用户设定场景,根据用户回答提出 3 种场景供选择,提供细节后宣布“开始角色扮演”,然后扮演对手角色进行谈判。 2. 法律相关的模拟辩论: 可以通过 Prompt 指令词模拟涉及知识产权侵权、股东权益、劳动法等方面的法庭辩论,分析原告和被告的观点及抗辩理由。 需要注意的是,AI 目前发展迅速,相关工具和方法可能会被先进技术取代,但其中的思维、场景和逻辑能带来启发。
2024-11-15
哪款ai可以用于渲染模型
以下是一些可以用于渲染模型的 AI 工具和相关信息: 在游戏领域,用于纹理生成的有 BariumAI(https://barium.ai/)、Ponzu(https://www.ponzu.gg/)和 ArmorLab(https://armorlab.org/)。 在动画方面,涉足从视频中捕捉动画等领域的公司包括 Kinetix(https://www.kinetix.tech/)、DeepMotion(https://www.deepmotion.com/)、RADiCAL(https://getrad.co/)、Move Ai(https://www.move.ai/)和 Plask(https://plask.ai/)。 此外,在软件架构设计中,以下工具可用于绘制逻辑视图、功能视图、部署视图等: Lucidchart:流行的在线绘图工具,支持多种图表创建,包括相关视图,用户可通过拖放界面轻松创建架构图。 Visual Paradigm:全面的 UML 工具,提供创建各种架构视图的功能。 ArchiMate:开源建模语言,与 Archi 工具配合可创建逻辑视图。 Enterprise Architect:强大的建模、设计和生成代码工具,支持多种视图创建。 Microsoft Visio:广泛使用的图表和矢量图形应用程序,提供丰富模板。 draw.io(现称 diagrams.net):免费在线图表软件,支持多种类型图表创建。 PlantUML:文本到 UML 转换工具,可通过描述性文本自动生成相关视图。 Gliffy:基于云的绘图工具,提供创建各种架构图的功能。 Archi:免费开源工具,支持逻辑视图创建。 Rational Rose:IBM 的 UML 工具,支持多种视图创建。
2025-01-18
个人怎么在本地搭建AI大模型
个人在本地搭建 AI 大模型可以参考以下步骤: 1. 选择合适的部署方式:包括本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源:确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础:可以使用开源的预训练模型如 BERT、GPT 等,也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练:根据具体应用场景对预训练模型进行微调训练,优化模型结构和训练过程以提高性能。 5. 部署和调试模型:将训练好的模型部署到生产环境,并对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护:大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 如果想要对知识库进行更加灵活的掌控,可以使用 AnythingLLM 软件。其安装地址为:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步: 1. 第一步:选择大模型。 2. 第二步:选择文本嵌入模型。 3. 第三步:选择向量数据库。 在 AnythingLLM 中,有一个 Workspace 的概念,可以创建自己独有的 Workspace 跟其他的项目数据进行隔离。具体操作包括: 1. 首先创建一个工作空间。 2. 上传文档并且在工作空间中进行文本嵌入。 3. 选择对话模式,AnythingLLM 提供了两种对话模式:Chat 模式(大模型会根据自己的训练数据和上传的文档数据综合给出答案)和 Query 模式(大模型仅仅会依靠文档中的数据给出答案)。 4. 测试对话。 本文的思路来源于视频号博主黄益贺,按照他的视频进行实操,并附加了一些关于 RAG 的额外知识。读完本文,您将学习到如何使用 Ollama 一键部署本地大模型,通过搭建本地的聊天工具,了解 ChatGPT 的信息流转,RAG 的概念以及所用到的一些核心技术,如何通过 AnythingLLM 这款软件搭建完全本地化的数据库。
2025-01-17
如何搭建个人AI大模型
搭建个人 AI 大模型主要包括以下步骤: 1. 选择合适的部署方式: 本地环境部署。 云计算平台部署。 分布式部署。 模型压缩和量化。 公共云服务商部署。需根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源: 确保有足够的训练数据覆盖目标应用场景。 准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础: 可以使用开源的预训练模型如 BERT、GPT 等。 也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练: 根据具体应用场景对预训练模型进行微调训练。 优化模型结构和训练过程以提高性能。 5. 部署和调试模型: 将训练好的模型部署到生产环境。 对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护: 大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 此外,还有一种全程白嫖搭建拥有一个 AI 大模型的微信助手的方法: 1. 搭建,用于汇聚整合多种大模型接口,并了解如何白嫖大模型接口。 2. 搭建,这是一个知识库问答系统,将知识文件放入,并接入上面的大模型作为分析知识库的大脑,若不想接入微信,搭建到此即可,其本身有问答界面。 3. 搭建。 大模型的构建过程包括: 1. 收集海量数据:如同让孩子阅读大量书籍等,研究人员会收集互联网上的文章、书籍、维基百科条目、社交媒体帖子等各种文本数据。 2. 预处理数据:如同为孩子整理资料,研究人员需要清理和组织收集到的数据,如删除垃圾信息、纠正拼写错误、将文本分割成易于处理的片段。 3. 设计模型架构:如同为孩子设计学习计划,研究人员需要设计 AI 模型的“大脑”结构,通常是一个复杂的神经网络,如 Transformer 架构。 4. 训练模型:如同孩子开始阅读和学习,AI 模型开始“阅读”提供的数据,通过反复尝试预测句子中的下一个词等方式,逐渐学会理解和生成人类语言。
2025-01-17
知识模型对个人有什么用
知识模型对个人具有以下作用: 1. 扩展记忆与智力:OpenAI 的首席科学家伊尔亚·苏茨克维认为,高效压缩信息即得到知识,而 GPT3 及 GPT4 等模型虽通过预测下一个单词进行工作,但已包含世界信息且能持续提高能力。 2. 构建个人知识库:虽然个人搭建本地知识库可能面临机器配置要求较高的问题,如运行大模型需要较高的硬件配置,如生成文字大模型的最低配置为 8G RAM + 4G VRAM,建议配置为 16G RAM + 8G VRAM,理想配置为 32G RAM + 24G VRAM(若要跑 GPT3.5 差不多性能的大模型);生成图片大模型的最低配置为 16G RAM + 4G VRAM,建议配置为 32G RAM + 12G VRAM;生成音频大模型的最低配置为 8G VRAM 等。但实操可以加深对大模型构建的知识库底层原理的了解。 3. 形成外脑(ExoBrain):利用软件工具和大语言模型相关技术扩展记忆和智力的新机制或系统,被称为外脑。语言模型是心智界面,如 ChatGPT 等,除用储备的知识库响应问题外,还能理解复杂文档、生成想法甚至驱动其他软件完成任务,如同心灵副驾,通过自然语言输入和输出实现快速理解、记忆唤起、想法连接和驱动外部软件自动工作。
2025-01-17
Claude大模型背后是什么公司
Claude 大模型背后的公司是 Anthropic。Claude 系列在前段时间推出了 Claude3.5Sonnet 等模型,并且在代码生成等方面表现出色。同时,Anthropic 公司的 Claude 还具有较大的上下文窗口等特点。
2025-01-17
如何部署私有大语言模型?
部署私有大语言模型通常包括以下步骤: 1. 部署大语言模型: 下载并安装 Ollama:根据您的电脑系统,从 https://ollama.com/download 下载 Ollama。下载完成后,双击打开,点击“Install”。安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/。 下载模型:如 qwen2:0.5b 模型(0.5b 是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型)。如果是 Windows 电脑,点击 win+R,输入 cmd,点击回车;如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。复制相关命令行,粘贴进入,点击回车。等待下载完成。 2. 部署 Google Gemma: 进入 ollama.com,下载程序并安装(支持 windows,linux 和 macos)。 查找 cmd 进入命令提示符,输入 ollama v 检查版本,安装完成后版本应该显示 0.1.26,cls 清空屏幕。 直接输入 ollama run gemma 运行模型(默认是 2b),首次需要下载,需要等待一段时间,如果想用 7b,运行 ollama run gemma:7b 。完成以后就可以直接对话。 3. 关于 Ollama 的其他特点: 支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 cpu 和 gpu。 提供模型库,用户可从中下载不同模型,满足不同需求和硬件条件。模型库可通过 https://ollama.com/library 查找。 支持自定义模型,可修改模型的温度参数等。 提供 REST API,用于运行和管理模型,以及与其他应用程序的集成选项。 社区贡献丰富,包括多种集成插件和界面。 总的来说,Ollama 是一个方便用户在本地运行和管理大型语言模型的框架,具有良好的可扩展性和多样的使用场景。安装完之后,确保 ollama 后台服务已启动(在 mac 上启动 ollama 应用程序即可,在 linux 上可以通过 ollama serve 启动)。可以通过 ollama list 进行确认。
2025-01-17