Kimi 是国内最早支持 20 万字无损上下文的 AI,也是目前对长文理解做得最好的 AI 产品。但在实际输出时,通常会被截断到 1 千字以内。例如在同时询问多个大模型并返回汇总梳理后的结果中,就存在这种输出截断的情况。此外,通过一些不太正经的办法,如情绪勒索,Kimi 能实现一定程度的扩写。 您可以通过以下链接使用 Kimi:PC 端点我传送门直接使用 ,移动端 Android/ios点我去下载 。
Kimi智能助手1.Chatgpt的国产平替,实际上手体验最好,推荐新手用Kimi入门学习和体验AI2.1.不用科学🕸️、不用付费、支持实时联网3.是国内最早支持20万字无损上下文的AI,也是目前对长文理解做的最好的Ai产品3.能一次搜索几十个数据来源,无广告,能定向指定搜索源(如小红书、学术搜索[PC端点我传送门直接使用](https://kimi.moonshot.cn/?utm_campaign=TR_LgLmkEor&utm_content=&utm_medium=%E7%BD%91%E7%AB%99&utm_source=CH_tpOYmtV1&utm_term=)[移动端Android/ios](https://kimi.volctrack.com/a/E3w3Q1xa)点我去下载
这个线上版本主要的技术栈其实就是工作流,在工作流中调用了这五个大模型:月之暗面KIMI,豆包,Minimax,通义千问和智谱清言。为什么暂时没有引入第六个模型,主要是考虑到在进行答案汇总时的输出截断问题:目前虽然大模型在设置时能把响应token长度设置为几万字,但在实际输出时,单次回复通常还是会被截断到1千字以内。我在官方文档和社区中没有找到这个问题的原因,我猜想可能是由于Coze现在的普及量在不断增长,免费版本大家的查询并发请求太多,所以系统在输出时做了一定限制。再结合最近Coze国际版已经在做商业化,估计国内版本也在为商业化增值服务预留一些空间。
其实……如果不是特别讲究扩写的规则(对就是水文那种),还有一些,不太,正经的,办法也可以用的。比如情绪勒索依然好用😈:我前面进行了几千字的尝试和长达六小时的测试编写,燃鹅……有些大模型他只需要一句话,气哭:以下是在Kimi中提供原文,并且只增加情绪语句的效果:Kimi终于被连哄带骗的把500字扩写到了1483字,内容倒是没有太大偏差。难为Kimi了。最最后:省事就用分治法分段输出邪恶且懒惰就情绪勒索不嫌麻烦就用中英文切换倒腾一下程序员还是API吧以及,Kimi优秀。😌