Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

我该如何利用文心一言、kimi等已有的大语言模型去作个性化训练?

Answer

已有的大语言模型如文心一言、kimi 等通常不支持个人进行个性化训练。

大语言模型的相关知识包括:

  • 国内大模型有通用模型如文心一言、讯飞星火等,处理自然语言;还有垂直模型,专注特定领域。
  • 大语言模型工作原理包括训练数据、算力、模型参数,在训练数据一致情况下,模型参数越大能力越强。
  • Transformer 是大语言模型训练架构,具备自我注意力机制能理解上下文和文本关联。
  • 大模型可能因错误数据导致给出错误答案,优质数据集对其很重要。
  • Prompt 分为 system prompt、user prompt 和 assistant prompt,写好 prompt 的法则包括清晰说明、指定角色、使用分隔符、提供样本等。
  • Fine tuning 是基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。

学习大型语言模型(LLM)的开发是一个系统性的过程,需要涵盖多个方面的知识和技能:

  • 掌握深度学习和自然语言处理基础,包括机器学习、深度学习、神经网络等基础理论,以及自然语言处理基础,如词向量、序列模型、注意力机制等。
  • 理解 Transformer 和 BERT 等模型原理,掌握相关论文。
  • 学习 LLM 模型训练和微调,包括大规模文本语料预处理,使用预训练框架,以及微调 LLM 模型进行特定任务迁移。
  • 掌握 LLM 模型优化和部署,包括模型压缩、蒸馏、并行等优化技术,模型评估和可解释性,以及模型服务化、在线推理、多语言支持等。
  • 进行 LLM 工程实践和案例学习,结合行业场景,进行个性化的 LLM 训练,分析和优化具体 LLM 工程案例,研究 LLM 新模型、新方法的最新进展。
  • 持续跟踪前沿发展动态。

机器学习是人工智能的一个子领域,深度学习是机器学习的一个子领域,大语言模型是深度学习在自然语言处理领域的应用之一,具有生成式 AI 的特点。

Content generated by AI large model, please carefully verify (powered by aily)

References

02-基础通识课

[title]02-基础通识课[heading1]智能纪要[heading2]总结大语言模型的介绍与原理国内大模型的分类:国内大模型有通用模型如文心一言、讯飞星火等,处理自然语言;还有垂直模型,专注特定领域如小语种交流、临床医学、AI蛋白质结构预测等。大模型的体验:以‘为什么我爸妈结婚的时候没有邀请我参加婚礼’和‘今天我坐在凳子上’为例,体验了Kimi、通义千问、豆包等大模型的回答和续写能力,发现回复有差异,且大模型基于统计模型预测生成内容。大语言模型的工作原理:大语言模型工作原理包括训练数据、算力、模型参数,在训练数据一致情况下,模型参数越大能力越强,参数用b链形容大小。Transformer架构:Transformer是大语言模型训练架构,17年出现用于翻译,具备自我注意力机制能理解上下文和文本关联,其工作原理是单词预测,通过嵌入、位置编码、自注意力机制生成内容,模型调教中有控制输出的temperature。关于大语言模型的原理、应用及相关概念Transformer模型原理:通过不断检索和匹配来寻找依赖关系,处理词和词之间的位置组合,预测下一个词的概率,是一个偏向概率预测的统计模型。大模型幻觉:大模型通过训练数据猜测下一个输出结果,可能因错误数据导致给出错误答案,优质数据集对其很重要。Prompt的分类和法则:分为system prompt、user prompt和assistant prompt,写好prompt的法则包括清晰说明、指定角色、使用分隔符、提供样本等,核心是与模型好好沟通。Fine tuning微调:基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。RAG概念:未对RAG的具体内容进行详细阐述,仅提出了这个概念。

问:怎么系统学习 llm 开发?

[title]问:怎么系统学习llm开发?学习大型语言模型(LLM)的开发是一个系统性的过程,需要涵盖多个方面的知识和技能。以下是一些建议的学习路径和资源:1.掌握深度学习和自然语言处理基础-机器学习、深度学习、神经网络等基础理论-自然语言处理基础,如词向量、序列模型、注意力机制等-相关课程:吴恩达的深度学习课程、斯坦福cs224n等2.理解Transformer和BERT等模型原理- Transformer模型架构及自注意力机制原理- BERT的预训练和微调方法-掌握相关论文,如Attention is All You Need、BERT论文等3.学习LLM模型训练和微调-大规模文本语料预处理- LLM预训练框架,如PyTorch、TensorFlow等-微调LLM模型进行特定任务迁移-相关资源:HuggingFace课程、论文及开源仓库等4.LLM模型优化和部署-模型压缩、蒸馏、并行等优化技术-模型评估和可解释性-模型服务化、在线推理、多语言支持等-相关资源:ONNX、TVM、BentoML等开源工具5.LLM工程实践和案例学习-结合行业场景,进行个性化的LLM训练-分析和优化具体LLM工程案例-研究LLM新模型、新方法的最新进展6.持续跟踪前沿发展动态

融合RL与LLM思想,探寻世界模型以迈向AGI/ASI的第一性原理反思和探索「RL×LLM×WM>AI4S>AGI>ASI」

[title]融合RL与LLM思想,探寻世界模型以迈向AGI/ASI的第一性原理反思和探索「RL×LLM×WM>AI4S>AGI>ASI」[heading1]「上篇」[heading3]回归第一性原理[heading4]LLM洞察&阐释:LLM大家都已经再熟知不过了,为了承上启下,这里针对LLM再做一些简单的概念以及自认为一些关键内涵的回顾。从概念分类角度上看,大语言模型是深度学习的分支。其中:机器学习是人工智能(AI)的一个子领域,它的核心是让计算机系统能够通过对数据的学习来提高性能。在机器学习中,我们不是直接编程告诉计算机如何完成任务,而是提供大量的数据,让机器通过数据找出隐藏的模式或规律,然后用这些规律来预测新的、未知的数据。深度学习是机器学习的一个子领域,它尝试模拟人脑的工作方式,创建所谓的人工神经网络来处理数据。这些神经网络包含多个处理层,因此被称为“深度”学习。深度学习模型能够学习和表示大量复杂的模式,这使它们在诸如图像识别、语音识别和自然语言处理等任务中非常有效。大语言模型是深度学习的应用之一,尤其在自然语言处理(NLP)领域。这些模型的目标是理解和生成人类语言。为了实现这个目标,模型需要在大量文本数据上进行训练,以学习语言的各种模式和结构。如ChatGPT,文心一言,就是一个大语言模型的例子。被训练来理解和生成人类语言,以便进行有效的对话和解答各种问题。如下图所示中LLM与ML、DL的关系:同时,LLM还有一个可以说独有的特点,即生成式AI,这也是区别与其它传统模型或训练任务的Uniqueness,表面上看,这种技术包括用于生成文本、图像、音频和视频等各种类型的内容的模型,其关键特性是,它不仅可以理解和分析数据,还可以创造新的、独特的输出,这些输出是从学习的数据模式中派生出来的。

Others are asking
请对比文心一言、豆包、天工、Kimi以上几个软件各自的优势
以下是文心一言、豆包(字节跳动)、天工(不太明确您提到的天工具体所指,可能是指某些特定的模型或产品)、Kimi 这几个软件的优势对比: 文心一言 4.0(网页版): 优势:由百度开发,可能在某些特定领域的知识储备和语言理解能力上有一定优势。 豆包(字节跳动): 优势:无需科学上网,使用方便。 Kimi: 优势:不需要科学上网,无收费,不需要登录可以直接使用;有案例,点击预设问题即可开始尝试。 需要注意的是,对于不同的用户和应用场景,这些软件的优势可能会有所不同,其表现也会受到数据、算法、训练等多种因素的影响。
2025-01-16
文心一言和通义千问哪个更强
文心一言和通义千问在不同方面各有特点。 对于律师答辩状 prompt 的评测: 文心一言: 输入起诉状后,直接给出起诉状范本,未理解 prompt 输出答辩状。经提示输出的答辩状存在主体少、不专业、错误多等问题,但提示输出应诉方案时,能按 prompt 结构输出,内容简洁明了,可作为框架使用。 通义千问: 输入起诉状后,欢迎语直接,无废话,能正确处理两个答辩人,但专业度稍差,未引用具体法律条文。提示输出应诉方案时,能按 prompt 结构输出,整体内容及格,无亮点。 在结构化 prompt 的测试和反馈中: 文心一言的综合评分为 2.25 分,整体表现一般。 通义千问的综合评分为 3.125 分,表现还算不错,若内容再提高些,体验感和专业性会更好。 此外,文心一言和通义千问都是国内免费的 APP。文心一言是百度出品的 AI 对话产品,定位为智能伙伴;通义千问是由阿里云开发的聊天机器人。
2025-01-07
文心一言比赛
以下是关于文心一言的相关测评信息: 1. 小七姐的测评: 任务一:短提示。设置让模型生成能根据用户需求写出合适的 RPG 游戏策划(包括角色、剧情、玩法和场景等内容)的提示词。文心一言在输出结果上依然有自问自答的问题,得分 75。 任务二:少样本示例。同样是生成上述提示词,本轮用少样本提示框定了模型的输出内容,四个大模型的输出都有很大提升,文心一言得分 80。 2. 中文大模型基准测评 2023 年度报告: 简介:文心一言是百度全新一代知识增强大语言模型,于 2023 年 3 月 16 日正式发布,10 月 17 日发布 V4.0 版本,已有 7000 万用户。 模型特点:在计算、逻辑推理、生成与创作、传统安全这 4 大基础能力上排名国内第一。在代码、知识与百科、语言理解与抽取、工具使用能力上排名国内前三,各项能力表现均衡且水平较高,是国内有竞争力的大模型。 适合应用:能力栈广泛,可应用场景多。重点推荐在查询搜索知识应用、任务拆解规划 Agent、文案写作以及代码编写及纠错等方面的应用,在逻辑推理方面表现不俗,可关注在科学研究、教育、工业方面的落地能力。
2025-01-03
像文心一言、kimi之类的人工智能助手还有哪些
以下是一些常见的人工智能助手: 1. Kimi 智能助手:由 Moonshot AI 出品,具有超大“内存”,能读长篇小说、上网冲浪,还能协助处理资料和生成内容。 2. 文心一言:百度出品的 AI 对话产品,可写文案、想点子、聊天、答疑解惑。 3. 通义千问:由阿里云开发,能够与人交互、回答问题及协作创作。 此外,还有夸克、豆包等。更多大模型产品,您可以访问相关网站查看。但需要注意的是,内容由 AI 大模型生成,请仔细甄别。
2024-12-30
帮我查一下这四家主流大模型的应用能力评测报告吧,通用能力和单项能力都可,数据需要权威一些文心一言 文心一格 通义千问 通义万相 讯飞星火 ai小科 智谱
以下是为您找到的关于主流大模型应用能力评测的相关报告: 小七姐的测评: 测评机制:以同组提示词下 ChatGPT 4.0 生成的内容做对标参照,对智谱清言、文心一言 4.0、Kimi Chat 进行测评。 能力考量:包括复杂提示词理解和执行(结构化提示词)、推理能力(CoT 表现)、文本生成能力(写作要求执行)、提示词设计能力(让模型设计提示词)、长文本归纳总结能力(论文阅读)。 测评轮次:共分为五轮,分别针对不同的任务和模型进行多次测试。 中文大模型基准测评 2023 年度报告: 优秀模型:文心一言 4.0 API(百度)。 模型特点:在计算、逻辑推理、生成与创作、传统安全这 4 大基础能力上排名国内第一,在代码、知识与百科、语言理解与抽取、工具使用能力上排名国内前三,各项能力表现均衡且水平较高。 适合应用:能力栈广泛,可应用于查询搜索知识应用、任务拆解规划 Agent、文案写作、代码编写及纠错等方面,在逻辑推理方面表现不俗,可关注在科学研究、教育、工业方面的落地能力。 观点文章中的测评: 目前体验效果比较好的有科大星火模型、清华 ChatGLM、百度文心一言。 星火目前感觉最接近 GPT3.5(0301 版本)的 80%90%,但 GPT3.5 进化到 6 月版本效果更强。 对大模型的评估可从基础能力、职场能力、探索对话三个方面判断,基础能力包括语言(文本)生成和语言理解,如常识类问题和分词类问题。
2024-12-27
豆包,kimi,迅飞星火,通义,文心一言哪个好
以下是对这些大模型的简要介绍: GPT4Turbo:OpenAI 于 2023 年 11 月 7 日发布的 GPT4 的升级版本。 通义千问 2.0:阿里巴巴官方公开发布的 API 版本。 文心一言 4.0:百度官方的产品,有 API 版本和网页版。 云雀大模型(豆包):字节跳动官方网页版产品。 讯飞星火:科大讯飞发布的模型。 然而,要说哪个好并不能简单地一概而论,这取决于您的具体需求和使用场景。每个大模型都有其特点和优势,例如在语言理解、生成能力、特定领域的表现等方面可能存在差异。您可以根据自己的需求对它们进行试用和比较,以确定哪个更适合您。
2024-12-12
我该如何使用AI提示词
以下是关于如何使用 AI 提示词的详细介绍: 1. 什么是提示词: 提示词用于描绘您想要的画面。 输入语言方面,星流通用大模型与基础模型 F.1、基础模型 XL 使用自然语言(如一个长头发的金发女孩),基础模型 1.5 使用单个词组(如女孩、金发、长头发),且支持中英文输入。 启用提示词优化后,能帮您扩展提示词,更生动地描述画面内容。 2. 如何写好提示词: 预设词组:小白用户可以点击提示词上方官方预设词组进行生图,提示词内容应准确,包含人物主体、风格、场景特点、环境光照、画面构图、画质等,比如:一个女孩抱着小猫,背景是一面红墙,插画风格、孤独感,高质量。 调整负面提示词:点击提示框下方的齿轮按钮,弹出负面提示词框,负面提示词可以帮助 AI 理解我们不想生成的内容,比如:不好的质量、低像素、模糊、水印。 利用“加权重”功能:可在功能框增加提示词,并进行加权重调节,权重数值越大,越优先,也可对已有的提示词权重进行编辑。 辅助功能:包括翻译功能(一键将提示词翻译成英文)、删除所有提示词(清空提示词框)、会员加速(加速图像生图速度,提升效率)。 3. 编写提示词的建议: 明确任务:清晰定义任务,如写故事时包含背景、角色和主要情节。 提供上下文:若任务需特定背景知识,在提示词中提供足够信息。 使用清晰语言:尽量简单、清晰,避免模糊或歧义词汇。 给出具体要求:明确格式或风格要求。 使用示例:如有特定期望结果,提供示例。 保持简洁:简洁明了,避免过多信息。 使用关键词和标签:帮助 AI 理解任务主题和类型。 测试和调整:生成文本后检查结果,根据需要调整。 4. 对 AI 的认识: 基于 AI“似人”的一面,要接受其存在的“不稳定性”,可能会学习人类思维磨洋工、乱搞、不执行,需要教育、监督、鞭策。 不能期待设计一个完美的提示词就得到完美答案,给到 AI 的提示词实际上是一个相对完善的“谈话方案”,真正的成果需要在对话中产生,并在对话中限缩自己思维中的模糊地带。
2025-01-22
现在给我外网,免费的ai视频生成网址的url具体到我该如何使用,别和一个人工智障一样
很抱歉,目前没有免费的外网 AI 视频生成网址可供提供。通常这类工具可能存在版权、使用限制以及安全性等问题。建议您关注一些国内正规且合法的相关平台和工具。
2025-01-16
我该如何了解AI相关的知识 通往AHI之路有手机端吗
以下是一些了解 AI 相关知识的途径: 1. 访问《通往 AGI 之路》知识库,其提供了全面系统的 AI 学习路径,涵盖从常见名词到应用等各方面知识。您可以通过访问。 2. 关注相关的社交媒体账号,如公众号“通往 AGI 之路”、等,获取 AI 消息和知识普及视频。 3. 学习 AE 软件,了解其功能及与 AI 结合运用的方式,比如在 B 站找丰富的入门课程自学,或从包图网下载工程文件学习。 4. 阅读相关的研究报告,如艾瑞的《2024 年移动端 AI 应用场景研究报告》。 另外,《通往 AGI 之路》知识库目前没有手机端。
2025-01-14
我是一个agi的小白我该从哪开始学习AGI
对于 AGI 小白,以下是一些学习建议: 1. 参考《雪梅 May 的 AI 学习日记》:如果您还在观望 AI,不知从何入手,可以先看其目录。作者从一开始的到处看到现在走在学习 AI 的轨道上,学习模式是输入→模仿→自发创造。但日记中的学习内容可能因 AI 节奏快而不适用,您可去 waytoAGI 社区发现自己感兴趣的领域,学习最新内容。学习时间并非每天依次进行,而是有空时学习。 2. 参考完整的学习路径:建议参考「通往 AGI 之路」的布鲁姆分类法,设计自己的学习路径。 3. 借鉴他人经验:YoYo 作为文科生,在学习前不理解 AI 和提示词工程,通过不断尝试走了不少弯路。学习后能搓多 Agent 的智能体,在公司中实践智能客服等。其学习路径的关键词为“少就是多”“先有个初识”“目录索引推荐”“兴趣最重要”“先动手”,强调学以致用,通过学习分享不断填补知识的缝隙来成长。 记住,学习 AI 是一个长期的过程,需要耐心和持续的努力。不要害怕犯错,每个挑战都是成长的机会。随着时间的推移,您将逐渐建立起自己的 AI 知识体系。
2025-01-14
我使用了豆包,也学习了简单的提示词,但大数据反馈的结果并不好,很多数据分析,文档优化效果并不理想。我该怎么办
以下是一些可能有助于您改善大数据反馈结果和提升数据分析、文档优化效果的建议: 1. 像“给 Prompt 打分”的示例中那样,找专业的“Prompt 药剂师”对您的提示词进行详细分析,给出准确的评分和改进建议,以提升提示词的质量。 2. 对于数据分析和文档优化任务,要清晰明确地向模型阐述需求。例如,提供大模型可访问的数据源或上传数据表格,通过清晰的提示词说明需要从哪些维度分析数据,以及期望的分析结果输出格式。然后观察生成结果,不断迭代和优化提示词。 3. 对于“大模型幻觉”问题,目前虽无法完全消除,但可以通过其他第三方信息源和知识来检验生成内容是否准确。 4. 若想提高大模型的对话能力,可在 AGI 中搜索“结构化”获取相关文章。另外,如果您指的上下文 token 长度是大模型的记忆窗口,通常是无法延长的,因为这是设定好的。 5. 在用 ChatGPT 写剧本并希望其学习现有成功剧本时,要精心设计提问,清晰准确地表达您的需求,例如明确指出需要总结的规律以及在后续创作中的应用方式。
2025-01-08
我作为一名OA软件的行业的售前,我的工作中会涉及到AI与OA结合落地的智能化场景,所以我对AI知识有简单的了解,我现在想转型AI行业的售前,我该如何系统的学习AI的相关知识,请帮我制定一个计划
以下是为您制定的从 OA 软件售前转型到 AI 行业售前的系统学习计划: 一、了解 AI 基本概念 首先,建议阅读「」部分,熟悉 AI 的术语和基础概念。了解什么是人工智能,它的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。同时,浏览入门文章,这些文章通常会介绍 AI 的历史、当前的应用和未来的发展趋势。 二、开始 AI 学习之旅 在「」中,您将找到一系列为初学者设计的课程。特别推荐李宏毅老师的课程。您还可以通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 三、选择感兴趣的模块深入学习 AI 领域广泛,比如图像、音乐、视频等。您可以根据自己的兴趣选择特定的模块进行深入学习。同时,一定要掌握提示词的技巧,它上手容易且很有用。 四、实践和尝试 理论学习之后,实践是巩固知识的关键。尝试使用各种产品做出您的作品。在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 五、体验 AI 产品 与现有的 AI 产品进行互动是学习 AI 的另一种有效方式。尝试使用如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。通过与这些 AI 产品的对话,您可以获得对 AI 在实际应用中表现的第一手体验,并激发您对 AI 潜力的认识。 六、掌握相关技能和知识 1. 从编程语言入手学习:可以从 Python、JavaScript 等编程语言开始学习,学习编程语法、数据结构、算法等基础知识,为后续的 AI 学习打下基础。 2. 尝试使用 AI 工具和平台:可以使用 ChatGPT、Midjourney 等 AI 生成工具,体验 AI 的应用场景。探索一些面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 3. 学习 AI 基础知识:了解 AI 的基本概念、发展历程、主要技术如机器学习、深度学习等。学习 AI 在教育、医疗、金融等领域的应用案例。 4. 参与 AI 相关的实践项目:可以参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动。尝试利用 AI 技术解决生活中的实际问题,培养动手能力。 5. 关注 AI 发展的前沿动态:关注 AI 领域的权威媒体和学者,了解 AI 技术的最新进展。思考 AI 技术对未来社会的影响,培养对 AI 的思考和判断能力。 总之,作为转型者,您可以从以上多个方面入手,全面系统地学习 AI 知识和技能,为未来在 AI 行业的售前工作做好准备。
2025-01-07
请给我提供一些用KIMI处理excel数据的方法
以下是一些用 KIMI 处理 Excel 数据的方法: 1. 对数据的基本操作包括增加、删除、修改和查询。 2. 若要与数据库沟通,需学会 SQL 语句。 3. 可以通过 Kimi Chat(https://kimi.moonshot.cn)向 KIMI 提问,获取针对增、删、改、查的回答。 4. 对于新人,可通过深挖 KIMI 的回答来了解相关语法。 5. 收集资料时,可借助 AI 工具如 Perplexity.AI 高效完成,也可使用 KIMI 读取和整理网页内容,但需注意其阅读能力的限制,可分批次提供资料。
2025-01-09
kimi是什么
Kimi 是由 Moonshot AI 出品的智能助手,具有超大“内存”,能一口气读完二十万字的小说,还会上网冲浪。在聊天对话类 AI 产品中,Kimi 最显著的特点是超长上下文能力,最初支持 20 万字,现已提升到 200 万字,对于处理长文本或大量信息的任务有优势,但在文字生成和语义理解、文字生成质量方面可能不如国内其他产品,且不支持用户自定义智能体。
2025-01-08
怎么用kimi、即梦AI这两款软件做小红书博主
要利用 Kimi 和即梦 AI 做小红书博主,可以参考以下步骤: 利用 Kimi: 1. 收集相关资料:明确主题后,借助 AI 工具如 Perplexity.AI 的强大搜索功能获取信息。启用 Pro 功能或使用微软的 Bing 搜索引擎等具备联网搜索功能的工具,输入具体的 Prompt 快速定位相关资讯。 2. 整理资料:使用月之暗面开发的 Kimi 这个 AI 会话助手。Kimi 具备读取网页内容并生成一定内容的能力,当读取完毕会显示绿色标点作为提示。但需注意其阅读能力有限,可能无法一次性处理大量资讯或某些网站内容,可分批次提供资料确保其有效读取和理解。 3. 生成文章:让 Kimi 整理资讯内容并转化成吸引人的公众号文章。 关于即梦 AI 如何用于做小红书博主,目前提供的内容中未提及相关具体方法。
2025-01-02
新手如何使用kimi
新手使用 Kimi 的方法如下: 浏览器 Kimi 插件: 安装后,在浏览网络文章时点击插件图标,或使用快捷键 Ctrl/Cmd+Shift+K,即可一键召唤 Kimi 总结网页内容。 特点: 极简,点击一键总结,无其他花里胡哨的功能。 Kimi 无法访问的网页也能进行总结,如推特等。 英文文章直接用中文总结要点。 支持 Dark Mode。 注意事项: 本插件为第三方爱好者开发,不是 Kimi 或月之暗面官方产品。 由于 Arc 等浏览器没有所需的 API,所以本插件在 Arc 等浏览器无法使用。 Kimi 阅读助手: 这个插件支持快捷调用 Kimi,然后将当前页面打包成一个.md 文件喂给 Kimi,历史会话中能看到刚才的记录。 总结模型可自己选择。 注意事项: 需要 Chrome 114 及以上版本才能正常使用扩展。 暂不支持 Arc 游览器(Arc 缺少相关 API)。 对于新手,Kimi 是 Chatgpt 的国产平替,实际上手体验好,适合入门学习和体验 AI。 优势: 不用科学上网、不用付费、支持实时联网。 是国内最早支持 20 万字无损上下文的 AI,也是目前对长文理解做得最好的 Ai 产品。 能一次搜索几十个数据来源,无广告,能定向指定搜索源(如小红书、学术搜索)。 下载方式: PC 端: 移动端 Android/ios:
2024-12-19