Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何在电脑上用chatbox框架,使用ollama搭建deepseek模型

Answer

在电脑上使用 Chat Box 框架,通过 Ollama 搭建 DeepSeek 模型的步骤如下:

  1. 阿里云百炼平台:
    • 百炼平台的模型广场有各种模型,包括音频理解、视频理解等,通义的一些强模型也在其中。
    • 百炼平台无需部署,可直接使用 DeepSeek R1 模型。
    • DeepSeek R1 模型的价格与各大平台差不多,有大量免费额度,如 100 万 token,不同版本的模型如 7B、14B、32B 等也送了 100 万 token,LLAVA 限时免费。
    • 使用 DeepSeek R1 模型需要解锁和授权,没有授权按钮的需要对阿里云进行实名认证,可通过支付宝扫码或在右上角头像处进行,共学群里有相关指引。
    • 在首页体验模型页面可对比不同模型的效果,如 V3 和 R1,R1 会先思考,速度较快。
    • 多模态可以识别更多输入信息,如读文件、图片等,而 DeepSeek R1 本身不是多模态模型。
    • 通过模型广场的 API 调用示例获取链接,截断后粘贴到 Chat Box 的设置中,添加自定义提供方,设置模型名称为 DeepSeek R1,并获取 API key。
    • API key 可删除旧的并重新创建,方便本地软件连接。
  2. Docker + RAGFlow + Ollama 搭建:
    • 返回 RAGFlow 中,打开右上角设置,进入模型提供商。
    • 选择 Ollama,配置相关信息,模型取决于运行的模型。
    • 配置基础 URL。
    • 导入一个 embedding 模型,用于文本向量化。
    • 设置系统模型设置。
    • 进入数据集,导入文件,可设置文件夹当作知识库。
    • 对文件进行解析,解析速度取决于本机 GPU 性能。
    • 解析好之后,进入检索测试。
    • 测试没问题,可进入聊天界面,助理设置可自行设置。

对于开源模型,如 DeepSeek、Llama 等,可以使用以下方式:

  1. Inference Provider(Together AI):使用 Together AI 等推理服务提供商,在线体验和调用各种开源模型。
  2. LM Studio:使用 LM Studio 等本地应用程序,在个人电脑上运行和部署较小的开源模型。
Content generated by AI large model, please carefully verify (powered by aily)

References

智能纪要:02-25 | 最新的DeepSeek玩法教学 2025年2月25日

阿里云百炼平台中Deepseek R1模型的介绍与使用模型广场丰富:百炼平台的模型广场有各种各样的模型,包括音频理解、视频理解等,通义的一些强模型也在其中。无需部署直接用:百炼平台和摩搭的最大区别在于百炼平台无需部署,直接就能使用Deepseek R1模型。价格与免费额度:Deepseek R1模型的价格与各大平台差不多,有大量免费额度,如100万token,不同版本的模型如7B、14B、32B等也送了100万token,LLAVA限时免费。授权与实名认证:使用Deepseek R1模型需要解锁和授权,没有授权按钮的需要对阿里云进行实名认证,可通过支付宝扫码或在右上角头像处进行,共学群里有相关指引。模型效果对比:在首页体验模型页面可对比不同模型的效果,如V3和R1,R1会先思考,速度较快。多模态能力介绍:多模态可以识别更多输入信息,如读文件、图片等,而Deepseek R1本身不是多模态模型。连接Chat Box:通过模型广场的API调用示例获取链接,截断后粘贴到Chat Box的设置中,添加自定义提供方,设置模型名称为Deepseek R1,并获取API key。阿里云百炼模型的应用与操作API key重置:可删除旧的API key并重新创建,方便本地软件连接。模型应用:如语音识别模型,能将语音快速转成文字,有多种应用场景。智能体搭建:新建智能体应用,可选择模型,调整参数,如回复字数限制和携带上下文轮数等。互联网搜索:在检索配置中开启互联网搜索,能从新闻网站获取最新新闻和天气等信息,会判断检索结果的合适性。

栋人佳Dougle整理:Git使用

我们返回RAGFlow中,打开右上角设置,进入模型提供商,显示如下界面接着我们就开始配置我们本地部署的DeepSeek模型选择Ollama,配置如下信息,模型是什么取决你运行的模型是什么基础URL如下配置设置完成之后,点击确定即可,然后显示如下界面那么再导入一个embedding模型,这个嵌入模型可以用于文本的向量化导入成功之后,界面如下接着我们设置系统模型设置设置好后,就可以返回知识库,进行创建知识库了进入数据集,导入文件即可,当然可以设置文件夹当作知识库,大家自行设置导入完毕之后,需要将文件进行解析之后,大模型才会懂得文件内容是什么。可以批量进行解析,文件解析速度按照你本机的GPU性能,即显卡的性能,越好的显卡,解析越快,越差则反之解析好之后,进入检索测试即可测试没有问题,那么对于文件来说,模型是可以进行检索的,下一步就可以进入聊天界面了助理设置可以自行进行设置

AI 大神Karpathy再发LLM入门介绍视频,入门必看!

专有模型(Proprietary Models)(03:18:38-03:19:23):对于OpenAI、Google等公司的专有模型,需要访问其官方网站或平台(如ChatGPT、Gemini AI Studio)使用。开源模型(Open-Weight Models)(03:19:23-03:21:16):对于DeepSeek、Llama等开源模型,可以使用以下方式:Inference Provider(Together AI)(03:19:23-03:21:16):使用Together AI等推理服务提供商,在线体验和调用各种开源模型。LM Studio(03:20:36-03:21:16):使用LM Studio等本地应用程序,在个人电脑上运行和部署较小的开源模型。[heading3]总结:ChatGPT的本质与未来展望[content]ChatGPT的本质(03:21:46-03:25:18):ChatGPT本质上是OpenAI数据标注员的神经网络模拟器,它模仿人类标注员在遵循OpenAI标注指南的情况下,对各种提示词的理想助手式回应。LLM的局限性(03:25:18-03:26:49):LLM并非完美,存在幻觉、瑞士奶酪式能力缺陷等问题。用户应谨慎使用,并进行人工检查和验证。LLM的优势(03:26:49-03:30:25):LLM是强大的工具,能够显著加速工作效率,并在各领域创造巨大价值。用户应将其视为工具箱中的工具,用于启发灵感、撰写初稿等,并始终对最终产品负责。LLM的未来(03:30:25-03:31:12):LLM的未来发展令人兴奋,多模态、Agent智能体、持续学习等趋势值得期待。虽然LLM仍处于早期发展阶段,但其潜力无限,未来可期。整理和翻译不易,可以的话希望给个三连,谢谢?

Others are asking
deepseek官方教程
以下是关于 DeepSeek 的官方教程相关信息: 火山方舟 DeepSeek 申请免费额度教程,包含多种 API 使用方式,如飞书多维表格调用、Coze 智能体调用、浏览器插件调用。可以使用邀请码 D3H5G9QA,通过邀请链接 https://www.volcengine.com/activity/deepseek?utm_term=202502dsinvite&ac=DSASUQY5&rc=D3H5G9QA 邀请可拿 3000 万 tokens,畅享 671B DeepSeek R1,活动截止至北京时间 20250218 23:59:59。同时,火山方舟大模型服务平台的模型服务计费文档有更新,DeepSeekR1、V3 模型分别提供了 50 万免费额度和 API 半价活动。 有关于一线教师的 AI 需求与高效工具推荐,如让模型创作诗歌、生成宣传标语、提示库(https://apidocs.deepseek.com/zhcn/promptlibrary)、代码解释、内容分类、角色扮演(自定义人设)、散文写作、文案大纲生成、模型提示词生成等。 2 月 14 日的社区动态中,有《突破 DeepSeek R1 能力天花板,火山引擎扣子+飞书一站式企业解决方案》《羊毛快薅|字节火山上线了 DeepSeek 系列模型并悄悄更改了模型服务价格...》等内容,还附上了飞书多维表格、Coze 的接入使用方法等。此外,还有关于 DeepSeek 关键 9 篇论文及创新点的讲解,以及 DeepSeek 官方发布的 R1 模型推荐设置。
2025-04-15
我想让DEEPSEEK帮我写一篇论文,题目已经定好了,怎么给他输入指令
以下是给 DeepSeek 输入指令以帮助您写论文的一些建议: 1. 采用结构化提示词: 优先保留专业领域术语和技术词汇,这些术语通常具有高信息价值。 对不同类型的信息设置权重,按优先级排序:任务定义>关键约束>专业术语>定量信息>方法论>背景。 以完整语义单元为基本保留单位,而非单个词语,确保压缩后的内容仍保持语义完整性。 避免详细指导思考过程,让模型自主生成思维链。 2. 高阶能力调用: 文风转换矩阵:例如“用鲁迅杂文风格写职场 PUA 现象”“将产品说明书改写成《史记》列传格式”“把这篇论文摘要翻译成菜市场大妈能听懂的话”。 领域穿透技术:如行业黑话破解“解释 Web3 领域的'胖协议瘦应用'理论”。 3. 场景化实战策略: 创意内容生成。 技术方案论证。 4. 效能增强技巧: 对话记忆管理:包括上下文锚定(如“记住当前讨论的芯片型号是麒麟 9010”)、信息回溯(如“请复述之前确认的三个设计原则”)、焦点重置(如“回到最初讨论的供应链问题”)。 输出质量控制:针对过度抽象、信息过载、风格偏移等问题,使用相应的修正指令。 5. 特殊场景解决方案: 长文本创作:可采用分段接力法,如“先完成故事大纲→逐章扩展→最后进行伏笔校验”“确保新章节与前文的三处细节呼应”。 敏感内容处理:使用概念脱敏法(如“用经济学原理类比说明网络审查机制”)或场景移植法(如“假设在火星殖民地讨论该议题”)。 在输入指令时,您需要清晰明确地描述论文的题目、研究目的、主要论点、关键论据、期望的结构和风格等重要信息,以便 DeepSeek 能够为您生成符合要求的内容。
2025-04-14
coze搭建工作流调用deepseek如何把模型的输出存入到多维表中
以下是将模型的输出存入到多维表中的步骤: 1. 逐步搭建 AI 智能体: 搭建整理入库工作流。 设置大模型节点提取稍后读元数据,使用 MiniMax 6.5s 245k,设置最大回复长度至 50000,以确保能完整解析长内容网页。 进行日期转时间戳,后续的飞书多维表格插件节点在入库日期字段时只支持 13 位时间戳,需要使用「日期转时间戳time_stamp_13」插件进行格式转化。 把稍后读元数据转换为飞书多维表格插件可用的格式,飞书多维表格插件目前(2024 年 08 月)只支持带有转义符的 string,以 Array<Object>格式输入,所以必须将之前得到的元数据数组进行格式转换。 添加「飞书多维表格add_records」插件,只需要设置{{app_token}}与{{records}}参数,将元数据写入飞书表格。 2. 搭建 Coze 工作流: 打开 Coze 的主页,登录后,在【工作空间】创建一个智能体。 在编排页面,给智能体编辑好人设,可先写一个简单的,然后点右上角自动优化,系统会自动补全更精细的描述。点击工作流的+,创建一个工作流。 大模型节点把 input 给到 DeepSeek,让 DeepSeek 按照提前规定的输出框架生成对应文案。 生图节点将输出给到图像生成组件画图。 结束输出时,两个输出给到最终的 end 作为最终的输出。注意在编写系统提示词时,如果需要 input 可被 DeepSeek 调用,需要用{{input}}作为参数引入,不然大模型不知道自己需要生成和这个 input 相关的结果。编排完,点击【试运行】,调试至满意后点击发布。
2025-04-14
Deepseek自动生成网站前端页面
以下是关于 DeepSeek 自动生成网站前端页面的相关内容: DeepSeek v3 能力更新后虽能生成炫目的前端页面,但多为静态且实用性有限。可结合飞书多维表格将生成的漂亮前端变为真实的系统,如【智能作业分发系统】。 该系统整体包括用户登陆(可加飞书调查表二维码实现注册)、作业类型、作业详情(含连连看游戏、AI 智能问答、考试系统)。其实现逻辑为用户登陆系统后进入页面看到老师分配的作业分类,选择分类进入作业详情页面,详情页有学习单词发音及三个模块。 对于小白,可用飞书作数据源,通过飞书 API 接口获取内容,用 DeepSeek v3 制作前端+后端(用 Trae 更方便)。获取请求参数时,测试成功后的示例代码中有完整的请求参数和请求体可直接复制使用。创建前后端时,若用 DeepSeek 官网搭建需按代码目录结构创建对应文件(用 Trae 可省略),首次运行可能遇到飞书 API 未正确配置 CORS 导致浏览器拦截请求的问题,V3 会给出修改意见。 此外,Same dev 能像素级复制任意 UI 界面并生成前端代码,支持多种文件格式和技术栈代码,但免费额度消耗快,网站被谷歌标记。360 智脑复现了 DeepSeek 强化学习效果并发布开源模型 LightR114BDS。 AI 时代生存法则:会提需求比会写代码更重要,会开脑洞比会复制粘贴更值钱,真正的大佬都是让 AI 当乙方!
2025-04-13
deepseek写论文
以下是关于 DeepSeek 在不同方面应用的相关信息: 应用场景:包括脑爆活动方案、会议纪要、批量处理客户评论、分析总结复盘内容、生成专业软件使用过程、写小说框架、写论文、写文案、写小红书笔记、写周报、做设计头脑风暴、做网站、分析感情问题等。 优势与不足:在写文方面全面领先,但长文可能太发散、文风用力过猛导致审美疲劳,且模型多样性不够,相同 prompt 提问多次答案雷同。 应对策略:写理性文章时,可先与 DeepSeek 讨论思路,再用 Cloud 3.5 批量生成;用 O1 模型对创作的字数控制有一定效果,也可通过多轮对话让 AI 增删改查来调整字数。 创作相关:模仿特定小说家的文学方式创作小说,需在提示词中描述文风特征;邀请大家在腾讯频道发布用 AI 写的小说并鉴赏。 发展历程:DeepSeek 历时 647 天在大语言模型(LLM)领域取得突破,发布 13 篇论文。谷歌 CEO 坦言 Deep Seek 的突破标志着 AI 的全球化进程。
2025-04-13
使用Deepseek写论文有哪些固定指令模板
以下是使用 DeepSeek 写论文的一些指令模板: 1. 进阶控制技巧: 思维链引导: 分步标记法:请逐步思考:1.问题分析→2.方案设计→3.风险评估 苏格拉底式追问:在得出最终结论前,请先列举三个可能存在的认知偏差 知识库调用: 领域限定指令:基于 2023 版中国药典,说明头孢类药物的配伍禁忌 文献引用模式:以 Nature 2022 年发表的论文为参考,解释 CRISPRCas9 最新突破 多模态输出 2. 高级调试策略: 模糊指令优化: 问题类型:宽泛需求 修正方案:添加维度约束 示例对比:原句:“写小说”→修正:“创作以 AI 觉醒为背景的悬疑短篇,采用多视角叙事结构” 问题类型:主观表述 修正方案:量化标准 示例对比:原句:“写得专业些”→修正:“符合 IEEE 论文格式,包含 5 项以上行业数据引用” 迭代优化法: 首轮生成:获取基础内容 特征强化:请加强第三段的技术细节描述 风格调整:改用学术会议报告语气,添加结论部分 最终校验:检查时间逻辑一致性,列出可能的事实性错误 3. 核心原理认知: AI 特性定位: 多模态理解:支持文本/代码/数学公式混合输入 动态上下文:对话式连续记忆(约 8K tokens 上下文窗口,换算成汉字是 4000 字左右) 任务适应性:可切换创意生成/逻辑推理/数据分析模式 系统响应机制: 采用意图识别+内容生成双通道 自动检测 prompt 中的:任务类型/输出格式/知识范围 反馈敏感度:对位置权重(开头/结尾)、符号强调敏感 4. 基础指令框架: 四要素模板 格式控制语法: 强制结构:使用```包裹格式要求 占位符标记:用{{}}标注需填充内容 优先级符号:>表示关键要求,!表示禁止项 5. 高阶能力调用: 文风转换矩阵: 作家风格移植:“用鲁迅杂文风格写职场 PUA 现象” 文体杂交:“将产品说明书改写成《史记》列传格式” 学术口语化:“把这篇论文摘要翻译成菜市场大妈能听懂的话” 领域穿透技术:行业黑话破解→“解释 Web3 领域的‘胖协议瘦应用’理论” 商业决策支持 6. 场景化实战策略: 创意内容生成 技术方案论证 7. 效能增强技巧: 对话记忆管理: 上下文锚定:“记住当前讨论的芯片型号是麒麟 9010” 信息回溯:“请复述之前确认的三个设计原则” 焦点重置:“回到最初讨论的供应链问题” 输出质量控制: 问题类型:过度抽象 修正指令:“请具体说明第三步操作中的温度控制参数” 问题类型:信息过载 修正指令:“用电梯演讲格式重新组织结论” 问题类型:风格偏移 修正指令:“回归商务报告语气,删除比喻修辞” 8. 特殊场景解决方案: 长文本创作: 分段接力法:“先完成故事大纲→逐章扩展→最后进行伏笔校验”“确保新章节与前文的三处细节呼应” 敏感内容处理: 概念脱敏法:“用经济学原理类比说明网络审查机制” 场景移植法:“假设在火星殖民地讨论该议题”
2025-04-13
请帮我推荐几个适合大学生线上用ai的赚钱方式,可以赚个零花钱
目前适合大学生线上利用 AI 赚取零花钱的方式有以下几种: 1. 利用 AI 进行内容创作,比如为一些网站或自媒体撰写文章、创作故事等,并通过稿费获取收入。 2. 借助 AI 辅助设计,为有需求的客户制作海报、宣传单页等设计作品。 3. 运用 AI 参与数据标注工作,帮助企业或机构对大量数据进行分类和标注。 4. 利用 AI 开发简单的应用程序或小程序,通过提供服务获取收益。 需要注意的是,在利用 AI 赚钱的过程中,要遵守法律法规和道德规范,确保所从事的活动合法合规。
2024-12-03
请帮我推荐几个适合线上用ai的创业方式
以下为您推荐一些适合线上用 AI 的创业方式: 1. 辅助创作与学习方面: AI 智能写作助手,帮助用户快速生成高质量文本。 AI 语言学习助手、诗歌创作助手、书法字体生成器、漫画生成器等,为用户的学习和创作提供支持。 2. 推荐与规划方面: AI 图像识别商品推荐、美食推荐平台、旅游行程规划器、时尚穿搭建议平台、智能投资顾问等,根据用户的需求和偏好为其推荐合适的产品、服务或制定个性化的计划。 3. 监控与预警方面: AI 宠物健康监测设备、家居安全监控系统、天气预报预警系统、医疗诊断辅助系统等,实时监测各种情况并提供预警。 4. 优化与管理方面: 办公自动化工具、物流路径优化工具、家居清洁机器人调度系统、金融风险评估工具等,提高工作效率和管理水平。 5. 销售与交易方面: AI 艺术作品生成器、书法作品销售平台、摄影作品销售平台、汽车销售平台、房地产交易平台等,为各类产品和服务提供销售渠道。 在游戏领域,基于生成式 AI 革命,有以下建议: 1. 现在就开始探索生成性 AI,完全利用即将到来的生成性 AI 革命的力量需要一段时间,现在开始的公司将来会具有优势。 2. 寻找市场地图(Market Map)的机会,某些部分已经非常拥挤,比如动画或语音与对话,但其他区域仍然空旷,鼓励创业者将努力集中在尚未探索的区域,比如“游戏的 Runway”。
2024-12-03
请帮我推荐几个适合线上用ai的兼职方式
以下为您推荐适合线上用 AI 的兼职方式: AI 线上绘画:如果您在工作中需要大量图片,又不想为图片付费或担心版权问题,AI 生图是高效的解决办法。主流工具如 midjourney(MJ)付费成本高,stable diffusion(SD)硬件门槛不低,但有像这样的免费在线 SD 工具网站。本教程适用于入门玩家,旨在让读者在半个小时内就能自由上手创作绘图,可应用于职场。如果您在学习过程中遇到问题,可通过评论区、微信(designurlife1st,记得备注来意:ai 绘图交流)与作者沟通。教程内容会持续更新,欢迎关注和催更。
2024-12-03
网站内的agi工具,是在手机上用还是在电脑上运用
目前在 AI 领域,网站内的 AGI 工具在手机和电脑上的运用情况如下: 手机和 PC 厂商如华为、荣耀、小米、OPPO、VIVO、三星、联想等都已宣布会在手机/PC 端侧搭载大模型。但仔细看来,除了很弱的 Nvidia Chat with RTX,目前并没有真正全离线版的大模型产品,端上智能暂时还是噱头。手机和电脑厂商们的打法基本都是大模型还是放在线上,手机和电脑来调用,然后搭配一个小 AI 做总结等服务。 短期内的端上智能仍然会停留在一些个别小市场里,原因包括:离线小模型永远都会和在线大模型有一个代际的能力差距;即使是小模型,其目前的耗能和生热仍然难以达到手机要求;目前的 AI 还不是刚需,猎奇成分比较多;技术上还不能确认小型化的模型是“真 AGI”还是“聊天机器”。 同时,为您推荐一些在线 TTS 工具: Eleven Labs:https://elevenlabs.io/ ,是一款功能强大且多功能的 AI 语音软件,使创作者和出版商能够生成逼真、高品质的音频。人工智能模型能够高保真地呈现人类语调和语调变化,并能够根据上下文调整表达方式。 Speechify:https://speechify.com/ ,是一款人工智能驱动的文本转语音工具,使用户能够将文本转换为音频文件。它可作为 Chrome 扩展、Mac 应用程序、iOS 和 Android 应用程序使用,可用于收听网页、文档、PDF 和有声读物。 Azure AI Speech Studio:https://speech.microsoft.com/portal ,Microsoft Azure Speech Studio 是一套服务,它赋予应用程序能力,让它们能够“听懂、理解并与客户进行对话”。 以下是一些 GitHubDaily 开源项目列表中的 AIGC 相关项目: |名称|简述| ||| ||一个可打造成企业内部知识库的私人专属 GPT!可以将任何文档、资源或内容转换为大语言模型(LLM)知识库,使得在对话过程中可引用到里面的内容。| ||有获取 GPTs 的 Prompt、Knowledge 以及如何防护的教程,另外单独对破解官方 GPTs 的 Prompt 进行分类。| ||收集了超级多被破解的 GPTs Prompt| ||一份精心收集整理的优秀 AI 助手列表。| ||只需一张角色图片,即可生成与角色一致且动作可控的生动视频。| ||一个可以安装在电脑(和安卓手机)上的用户界面,让你可以与文本生成的人工智能互动,并与社区创建的角色聊天/玩角色扮演游戏。| ||微软在 GitHub 开源的一套 AI 工具,可用于简化大模型应用的开发周期。打通了从项目构思、原型设计、测试、评估到生产部署和监控的全流程,让开发者可以快速构建出高质量的大语言模型应用。| ||一个在 GitHub 开源的计算机视觉 AI 工具箱,安装简便,可供开发者重复使用,大幅提升效率。|
2024-10-01
DEEP SEEK 本地部署(Olama + ChatBox)+私有知识库(cherrystudio)
以下是关于 Deep Seek 本地部署(Olama + ChatBox)+私有知识库(cherrystudio)的相关内容: 一、使用 Docker + RAGFlow + Ollama 搭建个人/企业知识库 1. 将 Ollama 部署的模型接入 GARFlow 返回 RAGFlow 中,打开右上角设置,进入模型提供商,配置 Ollama 相关信息,基础 URL 按要求设置,设置完成后点击确定。 导入一个 embedding 模型用于文本向量化,导入成功后设置系统模型设置,然后返回知识库创建知识库。 进入数据集,导入文件(可设置文件夹当作知识库),导入完毕后解析文件,解析速度取决于本机 GPU 性能,解析好后进行检索测试,测试没问题即可进入聊天界面,助理设置可自行设置。 2. 使用 Ollama 本地部署 DeepSeek 模型 先下载 Ollama 程序,官方网址:https://ollama.com/ 。 下载默认到 C 盘(一般为固态盘,运行速度快),若想修改安装目录到 D 盘,后续会有说明。 下载完右下角会出现 Ollama 图标,打开命令行输入相关命令回车。 若显卡是英伟达 2060Super,可选择 Deepseekr1:14b 的模型,根据自身独立显卡性能下载。 下载速度慢可按 Ctrl+C 强制退出重新下载。 下载完毕后再下载一个嵌入模型,Ollama 的 bge 模型官方网址:https://ollama.com/library/bgem3 ,输入相关命令,下载好后直接退出终端。 二、Flowith 相关报道、采访、使用指南 |标题|发布账号|社媒来源|日期|链接| |||||| |ChatGPT 的对话框过时了?这款 AI 产品提供了一种很新的聊天方式|爱范儿|公众号|2024/04/29|| |Flowith:革新你的工作方式,体验节点式 AI 的超流畅生产力|程序那些事儿|公众号|2024/05/03|| |体验 Flowith:探索人机交互从传统聊天对话到画布式知识管理的转变|AI 兔子洞|公众号|2024/04/22|| |deepseek 服务器繁忙?硅基流不动?看看这篇,内含 18 个平台,可能是最全的 deepseek 方案。|佐佐的 AI 笔记|公众号|2025/02/06|| |满血版自部署 DeepSeekR1+知识库+联网搜索,体验下来可能就只剩下这家了!|字节笔记本|公众号|2025/02/12|| |DeepSeek 让 AI 圈卷出了新高度:Flowith 宣布 DeepSeek R1 现在免费提供!|字节笔记本|公众号|2025/01/27|| |ShowMeAI 周刊 No.15|上周最有讨论度的 6 个 AI 话题:自由画布类产品密集更新、多主体一致成发展趋势、AGI、开源…|ShowMeAI 研究中心|公众号|2025/01/21||
2025-04-10
本地用Ollama部署模型,使用哪个ChatBox客户端好?
目前在本地使用 Ollama 部署模型时,没有特别突出或被广泛推荐的特定 ChatBox 客户端。不同的客户端可能在功能、界面和兼容性方面存在差异,您可以根据自己的需求和使用习惯进行选择和尝试。常见的一些客户端包括但不限于 Web 端的简单界面工具,或者一些具有特定功能扩展的桌面应用程序。但具体哪个最适合您,还需要您亲自测试和评估。
2025-03-27
Chatbox
以下是关于 Chatbox 和 Github 热门提示词框架扩展的相关内容: Chatbox 的 Apply 应用: 在我们的中可阅读更多关于如何构建即时申请的信息。 Cursor 的 Apply 允许您将聊天中的代码块建议快速集成到您的代码中。要应用代码块建议,可按每个聊天代码块右上角的播放按钮。由于在 Chat 中可以添加最多的上下文并与模型进行最多的来回交流,因此建议使用 Chat+Apply 进行更复杂的 AI 驱动的代码更改。 应用代码块后,您可以浏览差异并接受或拒绝更改。您也可以点击聊天代码块右上角的“接受”或“拒绝”按钮。Ctrl/⌘Enter 键接受,Ctrl/⌘Backspace 键拒绝。 大雨:Github 热门提示词框架扩展: 缘起:结构化的提示词能让交流更顺畅并易得到想要的结果,但框架多且记不住、查找负担大,所以想到用浏览器插件辅助解决。 效果展示:在 GPT 的聊天对话框中会出现小对话框,通过下拉框选择框架、填写内容并发送。好处是降低了使用框架的难度。 安装步骤:先安装 tampmonkey,新建空白脚本并粘贴代码。 使用说明:其逻辑是通过动态加载 github 上的 json 文件创建页面,json 文件是框架的字段。后续可不断加 json 文件,代码开源,可在 github 上 fork 并修改 frameworks 内容。更全面的框架应用可参考。
2025-02-26
chatbox是干什么的?
Chatbox 是一种能够让用户进行交流和获取信息的工具。它具有多种功能和应用场景,例如: 在 OpenAI 中,ChatGPT 作为一款消费级产品,用户可以通过输入提示信息利用其丰富的知识源进行对话,获取各种回答,包括总结书籍内容、撰写文案等,但它也可能存在捏造事实的情况。 生成式 AI Studio 中,创建聊天提示可以与模型进行自由形式的聊天,模型会根据之前的内容和提供的上下文做出响应。同时,Prompt Gallery 能让用户探索生成式 AI 模型在各种用例中的应用。 Cursor Chat 允许用户在编辑器中使用强大的语言模型提出问题或解决代码库中的问题,它具有多项内置功能来提供上下文,默认位于 AI 窗格中,可通过特定按键切换和提交查询。
2025-02-20
如何搭建 chatbox 敏感词库
很抱歉,目前知识库中没有关于如何搭建 chatbox 敏感词库的相关内容。但一般来说,搭建 chatbox 敏感词库可以考虑以下步骤: 1. 明确敏感词的范畴和类型,例如涉及政治、色情、暴力、辱骂等方面的词汇。 2. 收集相关的敏感词汇,可以通过参考行业标准、法律法规、用户反馈以及其他类似平台的经验。 3. 对收集到的敏感词进行分类和整理,以便于管理和更新。 4. 利用合适的技术和工具,将敏感词库集成到 chatbox 的系统中,实现实时检测和处理。 5. 定期更新和维护敏感词库,以适应不断变化的语言环境和用户需求。 以上是一个大致的搭建思路,具体的实施还需要根据您的实际情况和技术条件进行调整和优化。
2024-12-03
how to build an AI chatbox
以下是关于如何搭建 AI 聊天框的一些指导: 1. 纯 GPT 大模型能力的微信聊天机器人搭建 配置腾讯云轻量应用服务器。 假设要对接的微信号名称叫安仔机器人,更新最终版的配置参数(GROUP_NAME_WHITE_LIST 参数记得根据要交互的群组进行具体修改),查看无误后点击保存,创建编排模板。 切换到容器编排界面,基于创建的模板进行 COW 服务部署,点击添加后等待部署成功。 2. 利用大型语言模型打造聊天机器人 ChatGPT 是具有交互式聊天界面的 Web 应用,可利用大型语言模型构建自定义聊天机器人,如为餐厅扮演 AI 客户服务代理或 AI 点餐员等角色。 设置 OpenAI Python 包,定义两个辅助函数:getCompletion 函数和 generateResponse 函数。通过这两个函数与 AIGPT 模型进行交互并生成对话。 3. Cursor Chat 概述 Cursor Chat 允许在编辑器中使用强大的语言模型在代码库中提问或解决问题。 语言模型要给出好答案需要知道与代码库相关的特定事物即上下文,Cursor 具有多项内置功能提供上下文,如自动包含整个代码库中的上下文、搜索 Web、索引文档和用户指定的代码块引用等。 默认情况下,Cursor Chat 位于 AI 窗格,可通过按 Ctrl/⌘ + L 切换,打开时按 Enter 提交查询。
2024-10-19
ollama框架有哪些推荐
Ollama 是一个开源的框架,具有以下特点和功能: 1. 旨在简化在本地运行大型语言模型(LLM)的过程,提供了简单的 API 来创建、运行和管理模型,还有预构建模型库,降低使用门槛,适合初学者或非技术人员使用。 2. 支持多种大型语言模型,如通义千问、Llama 2、Mistral 和 Gemma 等,可用于不同应用场景。 3. 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 CPU 和 GPU。 4. 提供模型库,用户可从中下载不同模型,这些模型有不同参数和大小,以满足不同需求和硬件条件。模型库可通过 https://ollama.com/library 查找。 5. 支持用户自定义模型,例如修改模型的温度参数来调整创造性和连贯性,或者设置特定的系统消息。 6. 提供 REST API,用于运行和管理模型,以及与其他应用程序的集成选项。 7. 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 安装 Ollama 可通过官方下载地址 https://ollama.com/download 进行。安装完成后,可通过访问相关链接判断是否安装成功,在命令行中运行相应命令即可使用,如运行本地大模型的命令。还可通过 ollama list 确认模型下载情况。 此外,在 termux 软件中进行相关操作时,需执行如 aptget update、安装 curl 命令、安装 ollama 命令等。启动模型时,以 phi3 模型为例,在 termux 软件中执行命令 ollama run phi3 并等待下载完成。当然,Ollama 还有很多其他模型,如有需要可在 ollama 官网自行查看命令与下载。
2025-03-14
本地部署ollama+deep seek后怎么有效搭机械领域建知识库或微调为机械领域
以下是本地部署 ollama + deep seek 后有效搭建机械领域知识库或微调为机械领域的步骤: 1. 下载 Ollama 程序:官方网址为 https://ollama.com/ 。默认下载到 C 盘,若想修改安装目录到 D 盘,后续会有相关说明。下载完成后,右下角会出现 Ollama 的图标,打开命令行输入相应命令回车。根据自身独立显卡性能选择模型,如英伟达 2060Super 可选择 Deepseekr1:14b 的模型。若下载速度慢,可按 Ctrl+C 强制退出重新下载。下载完毕后,再下载一个嵌入模型,Ollama 的 bge 模型官方网址:https://ollama.com/library/bgem3 ,输入相应命令,下载好后直接退出终端。 2. 配置模型:返回 RAGFlow 中,打开右上角设置,进入模型提供商进行配置。选择 Ollama,并配置相关信息,基础 URL 按要求设置,设置完成后点击确定。 3. 导入嵌入模型:导入一个嵌入模型用于文本向量化。 4. 设置系统模型:完成相关设置。 5. 创建知识库:返回知识库,进入数据集,可导入文件或设置文件夹当作知识库,自行设置。导入完毕后,对文件进行解析,解析速度取决于本机 GPU 性能,越好的显卡解析越快。解析完成后,进行检索测试,测试没问题即可进入聊天界面,助理设置可自行设置。
2025-03-07
请给我找一个安装ollama-deep-researcher的完整教程,用于windows上。
很抱歉,目前没有关于在 Windows 上安装 ollamadeepresearcher 的完整教程。建议您通过以下途径获取相关信息: 1. 官方网站:访问 ollamadeepresearcher 的官方网站,查找针对 Windows 系统的安装指南。 2. 相关技术论坛:在专业的技术论坛上搜索相关主题,可能会有其他用户分享的安装经验和教程。 3. 视频平台:部分视频平台上可能有关于此软件在 Windows 上安装的演示视频。
2025-03-06
ollama是什么,使用场景有什么
Ollama 是一个开源的框架,旨在简化在本地运行大型语言模型(LLM)的过程。 它具有以下特点和优势: 1. 支持多种大型语言模型:包括通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 2. 易于使用:适用于 macOS、Windows 和 Linux 系统,支持 CPU 和 GPU,能让用户轻松在本地环境中启动和运行大模型。 3. 模型库:提供丰富的模型库,用户可从中下载不同参数和大小的模型以满足不同需求和硬件条件,通过 https://ollama.com/library 查找。 4. 自定义模型:用户能通过简单步骤自定义模型,如修改温度参数调整创造性和连贯性,或设置特定系统消息。 5. API 和集成:提供 REST API 用于运行和管理模型,以及与其他应用程序的集成选项。 6. 社区贡献丰富:包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 总的来说,Ollama 是一个高效、功能齐全的大模型服务工具,不仅适用于自然语言处理研究和产品开发,也适合初学者或非技术人员使用,特别是那些希望在本地与大型语言模型交互的用户。 其使用场景包括但不限于: 1. 自然语言处理研究。 2. 产品开发。 安装方法:官方下载地址为 https://ollama.com/download 。安装完成后,在 macOS 上启动 ollama 应用程序,在 Linux 上通过 ollama serve 启动,可通过 ollama list 确认是否安装成功。运行大模型时,在命令行中输入相应命令即可,模型会自动下载到本地。在 Python 程序中使用时,需确保 ollama 服务已开启并下载好模型。
2025-02-22
Ollama
以下是关于 Ollama 的相关信息: 在电脑上运行本地大模型的相对简化模式: 步骤: 1. 打开 Ollama 官网 https://ollama.com,下载应用并安装。 2. 在 Mac 系统搜索 terminal 或终端,点击回车,弹出的简洁框框就是。输入想要运行的大模型(例如:ollama run llama2),并回车。等待下载完成,即可输入内容,和 llama2 愉快交流。 TagTool With Ollama 打标工具: 先去下载并安装 Ollama,然后打开 Powershell 运行相关命令。 Win 编辑 run_win.ps1 文件,Mac 编辑 run_mac.sh 文件,将目录中的图片路径和触发词填写,运行即可。 从 LLM 大语言模型、知识库到微信机器人的全本地部署教程中的 Ollama 部署: 步骤: 1. 点击进入,根据电脑系统,在 https://ollama.com/download 下载 Ollama。 2. 下载完成后,双击打开,点击“Install”。 3. 安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 。 4. 下载 qwen2:0.5b 模型(0.5b 是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型)。 5. 对于 Windows 电脑,点击 win+R,输入 cmd,点击回车;对于 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。复制相关命令行,粘贴进入,点击回车。等待下载完成即可。
2025-02-18