在电脑上使用 Chat Box 框架,通过 Ollama 搭建 DeepSeek 模型的步骤如下:
对于开源模型,如 DeepSeek、Llama 等,可以使用以下方式:
阿里云百炼平台中Deepseek R1模型的介绍与使用模型广场丰富:百炼平台的模型广场有各种各样的模型,包括音频理解、视频理解等,通义的一些强模型也在其中。无需部署直接用:百炼平台和摩搭的最大区别在于百炼平台无需部署,直接就能使用Deepseek R1模型。价格与免费额度:Deepseek R1模型的价格与各大平台差不多,有大量免费额度,如100万token,不同版本的模型如7B、14B、32B等也送了100万token,LLAVA限时免费。授权与实名认证:使用Deepseek R1模型需要解锁和授权,没有授权按钮的需要对阿里云进行实名认证,可通过支付宝扫码或在右上角头像处进行,共学群里有相关指引。模型效果对比:在首页体验模型页面可对比不同模型的效果,如V3和R1,R1会先思考,速度较快。多模态能力介绍:多模态可以识别更多输入信息,如读文件、图片等,而Deepseek R1本身不是多模态模型。连接Chat Box:通过模型广场的API调用示例获取链接,截断后粘贴到Chat Box的设置中,添加自定义提供方,设置模型名称为Deepseek R1,并获取API key。阿里云百炼模型的应用与操作API key重置:可删除旧的API key并重新创建,方便本地软件连接。模型应用:如语音识别模型,能将语音快速转成文字,有多种应用场景。智能体搭建:新建智能体应用,可选择模型,调整参数,如回复字数限制和携带上下文轮数等。互联网搜索:在检索配置中开启互联网搜索,能从新闻网站获取最新新闻和天气等信息,会判断检索结果的合适性。
我们返回RAGFlow中,打开右上角设置,进入模型提供商,显示如下界面接着我们就开始配置我们本地部署的DeepSeek模型选择Ollama,配置如下信息,模型是什么取决你运行的模型是什么基础URL如下配置设置完成之后,点击确定即可,然后显示如下界面那么再导入一个embedding模型,这个嵌入模型可以用于文本的向量化导入成功之后,界面如下接着我们设置系统模型设置设置好后,就可以返回知识库,进行创建知识库了进入数据集,导入文件即可,当然可以设置文件夹当作知识库,大家自行设置导入完毕之后,需要将文件进行解析之后,大模型才会懂得文件内容是什么。可以批量进行解析,文件解析速度按照你本机的GPU性能,即显卡的性能,越好的显卡,解析越快,越差则反之解析好之后,进入检索测试即可测试没有问题,那么对于文件来说,模型是可以进行检索的,下一步就可以进入聊天界面了助理设置可以自行进行设置
专有模型(Proprietary Models)(03:18:38-03:19:23):对于OpenAI、Google等公司的专有模型,需要访问其官方网站或平台(如ChatGPT、Gemini AI Studio)使用。开源模型(Open-Weight Models)(03:19:23-03:21:16):对于DeepSeek、Llama等开源模型,可以使用以下方式:Inference Provider(Together AI)(03:19:23-03:21:16):使用Together AI等推理服务提供商,在线体验和调用各种开源模型。LM Studio(03:20:36-03:21:16):使用LM Studio等本地应用程序,在个人电脑上运行和部署较小的开源模型。[heading3]总结:ChatGPT的本质与未来展望[content]ChatGPT的本质(03:21:46-03:25:18):ChatGPT本质上是OpenAI数据标注员的神经网络模拟器,它模仿人类标注员在遵循OpenAI标注指南的情况下,对各种提示词的理想助手式回应。LLM的局限性(03:25:18-03:26:49):LLM并非完美,存在幻觉、瑞士奶酪式能力缺陷等问题。用户应谨慎使用,并进行人工检查和验证。LLM的优势(03:26:49-03:30:25):LLM是强大的工具,能够显著加速工作效率,并在各领域创造巨大价值。用户应将其视为工具箱中的工具,用于启发灵感、撰写初稿等,并始终对最终产品负责。LLM的未来(03:30:25-03:31:12):LLM的未来发展令人兴奋,多模态、Agent智能体、持续学习等趋势值得期待。虽然LLM仍处于早期发展阶段,但其潜力无限,未来可期。整理和翻译不易,可以的话希望给个三连,谢谢🙏