知识模型对个人具有以下作用:
OpenAI的首席科学家伊尔亚·苏茨克维([Ilya Sutskever](https://en.wikipedia.org/wiki/Ilya_Sutskever?ref=indigox.me))有一个信念:“如果你能够高效地压缩信息,你就已经得到了知识,不然你没法压缩信息”。所以你想高效压缩信息,你就一定得有一些知识,所以他坚信GPT-3以及最新的GPT-4已经有了一个世界模型在里面,虽然它们做的事情是预测下一个单词,但它已经表达了世界的信息,而且它能够持续地提高能力!
所有人都会手把手教你部署XX大模型,听起来很诱人,因为不需要科学上网,不需要高昂的ChatGPT会员费用。但是在开启下面的教程之前,我希望你能有个概念:运行大模型需要很高的机器配置,个人玩家的大多数都负担不起所以:虽然你的本地可能可以搭建出一个知识库,但是它不一定能跑的起来下面我通过一组数据来让大家有个感性的认知。以下文字来源于视频号博主:黄益贺,非作者实操生成文字大模型最低配置:8G RAM+4G VRAM建议配置:16G RAM+8G VRAM理想配置:32G RAM+24G VRAM(如果要跑GPT-3.5差不多性能的大模型)生成图片大模型(比如跑SD)最低配置:16G RAM+4G VRAM建议配置:32G RAM+12G VRAM生成音频大模型最低配置:8G VRAM+建议配置:24G VRAM而最低配置我就不建议了,真的非常慢,这个我已经用我自己8G的Mac电脑替你们试过了。讲这个不是泼大家冷水,而是因为我的文章目标是要做到通俗易懂,不希望通过夸大的方式来吸引你的眼球。这是这篇文章的第二次修改,我专门加的这段。原因就是因为好多小伙伴看了文章之后兴致冲冲的去实验,结果发现电脑根本带不动。但是这并不妨碍我们去手把手实操一遍,因为实操可以加深我们对大模型构建的知识库底层原理的了解。如果你想要私滑的体验知识库,可以参考我的另一篇文章:[胎教级教程:万字长文带你使用Coze打造企业级知识库](https://waytoagi.feishu.cn/wiki/CT3UwDM8OiVmOOkohPbcV3JCndb)好了,废话不多说,下面教程还是值得亲自上手搞一遍的,相信走完一遍流程后,你会对知识库有更深的理解。
为了更好的表述这种在大脑之外,利用软件工具还有大语言模型相关的技术,来扩展我们记忆和智力的新机制或者系统,我将其称之为ExoBrain-外脑。后文都用中文外脑来表述ExoBrain。配图01:ExoBrain Concept语言模型是心智界面对话是最简洁的人机界面,ChatGPT的流行让真正的人机对话成为了可能,现在Google的[Bard](https://bard.google.com/?ref=indigox.me),Anthropic的[Claude](https://claude.ai/?ref=indigox.me)还有inflection的[Pi.ai](https://pi.ai/?ref=indigox.me)都卷入了这场智能入口之争。这些语言模型除了可以用它们储备的全人类的知识库来响应我们的任何问题之外,还能够快速理解复杂的文档,生成想法甚至驱动其它的软件来自动化的完成任务,语言模型就是我们的心灵副驾(Mind Copilot),自然语言输入,自然语言输出。语言代表了人类的智能,当我们思考的时候实际上是在进行内心独白和基于语言的逻辑推理。同样,我们用和LLM之间的对话来实现快速理解,记忆唤起、想法连接和驱动外部软件自动完成工作,LLM就像一个智能引擎一样成为了我们和外脑之间的心智界面。容易唤醒的数字记忆