Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何在手机上部署deepseek R1

Answer

以下是在手机上部署 deepseek R1 的步骤:

  1. 访问 deepseek 的官网(https://www.deepseek.com/)。
    • 进入右上角的 API 开放平台。
    • 早期 deepseek 有赠送额度,若没有赠送余额,可选择充值,支持美元和人民币两种结算方式以及各种个性化充值方式。
    • 创建一个 API key,注意 API key 只会出现一次,请及时保存。
  2. 设置代码编辑器:
    • 下载 cursor(https://www.cursor.com/)或 vscode(https://code.visualstudio.com/),只要代码编辑器可以下载插件即可。
    • 以 cursor 作为代码编辑器为例,下载安装后,在插件页面搜索并安装 Roo-cline。
    • 安装完后,打开三角箭头,可看到 Roo-Cline。
    • 选中 Roo-Cline,并点击齿轮,进入设置,依次设置:
      • 配置基本参数:
        • API Provider:选择 DeepSeek。
        • API Key:填入已创建的 key。
        • 模型:选择 DeepSeek-reasoner。
      • 语言偏好设置。
      • 小贴士:记得把 High-Risk 选项都打开,这样 AI 才能帮您自动生成文件。
    • 最后做完所有不要忘记点击 Done 保存修改。
  3. 在聊天框输入产品需求,输入需求后点击这个 blingbling 的星星,优化提示词,最终得到想要的结果,在 deepseek-r1 的加持下基本上是一遍过,各种特效效果交互逻辑也都正确。画面也算优雅,交互效果也不错。
Content generated by AI large model, please carefully verify (powered by aily)

References

Yeadon:cursor杀手!?超强性价比开发方案曝光!DeepSeek-R1+Roo-Cline

首先到deepseek的官网(https://www.deepseek.com/)进入右上角的API开放平台早期deepseek是有赠送额度,如果像我一样没有赠送的余额,可以选择去充值支持美元和人民币两种结算方式,以及各种个性化的充值方式创建一个API key注意,API key只会出现一次请及时保存下来[heading3]设置代码编辑器[content]接下来,下载cursor(https://www.cursor.com/),或者vscode(https://code.visualstudio.com/),都没问题,只要代码编辑器可以下载插件即可接下来,以cursor作为代码编辑器为例,下载安装后,在插件页面搜索并安装Roo-cline安装完后,我们打开这个三角箭头,就可以看到Roo-Cline选中Roo-Cline,并点击齿轮,进入设置,依次设置配置基本参数:API Provider:选择DeepSeekAPI Key:填入已创建的key模型:选择DeepSeek-reasoner语言偏好设置小贴士:记得把High-Risk选项都打开,这样AI才能帮你自动生成文件哦!✨最后做完所有不要忘记点击Done保存修改在聊天框输入产品需求tips:输入需求后点击这个blingbling的星星,优化提示词最终,得到想要的结果,deepseek-r1的加持下基本上是一遍过,各种特效效果交互逻辑也都正确。画面也算优雅,交互效果也不错,是我想要的。

Others are asking
哪些ai软件能制作r18图片
制作 R18 图片是不符合道德和法律规范的行为,因此没有合法的 AI 软件可以用于此目的。AI 技术应当被用于有益和合法的用途。
2025-01-27
DeepSeek R1和ChatGPT相比有什么优势?
DeepSeek R1 与 ChatGPT 的优势比较如下: 在数字乘法任务中,ChatGPT 和精简版的隐式 CoT 模型无法达到 100%的准确率,而从头开始训练的 DeepSeek R1 在将扩散采样步骤设置为 1 的情况下,能够保持显著的吞吐量同时达到 100%的准确率。 在数学问题求解常用基准测试中,GPT4 相对于 ChatGPT 表现出显著的改进,GPT4 在许多复杂问题中展示了更深入的理解,并能够应用适当的推理。而 ChatGPT 通常会采用低级启发式方法,提到与问题仅是表面相关的公式和概念,表明缺乏实际理解。
2025-01-22
Rabbit R1 是什么
Rabbit R1 是一款新型人工智能驱动的移动设备,通过高级语音命令简化了应用程序的使用。售价 199 美元,配备 360 度摄像头、触摸屏和 4G 连接。据其公司介绍,Rabbit OS 是首个建立在 Large Action Model(LAM 大动作模型)上的操作系统。在 AI 功能层面,LAM 与 LLM 的区别在于,可以处理自然语言并转化为可执行任务。LAM 能与常见应用(如 Apple Music、Uber、eBay 和 Amazon 等)交互;支持语音命令,代表用户执行复杂任务,如制定旅行行程、订票、购物、发送信息、控制音乐、回答查询等。
2024-04-16
Deepseek网站
DeepSeek 相关信息如下: 一个提示词让 DeepSeek 能力更上一层楼: 效果对比:用 Coze 做了小测试,可对比查看。 如何使用: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 Deepseek。 认真阅读开场白后正式开始对话。 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本人人可用,减轻调试负担。 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 在模型默认能力基础上优化输出质量,减轻 AI 味,增加可读性。 设计阈值系统,可能形式大于实质,之后根据反馈可能修改。 用 XML 进行更规范设定,而非 Lisp 和 Markdown。 完整提示词:v 1.3 特别鸣谢:李继刚、Thinking Claude、Claude 3.5 Sonnet。 Yeadon:cursor 杀手!?超强性价比开发方案曝光!DeepSeekR1+RooCline: 环境配置指南: DeepSeek 平台设置:首先到 deepseek 的官网(https://www.deepseek.com/),进入右上角的 API 开放平台。早期 deepseek 有赠送额度,没有赠送余额可充值,支持美元和人民币两种结算方式及各种个性化充值方式,创建一个 API key,注意及时保存,因为 API key 只会出现一次。 设置代码编辑器:下载 cursor(https://www.cursor.com/)或 vscode(https://code.visualstudio.com/),以 cursor 为例,下载安装后在插件页面搜索并安装 Roocline,安装完打开三角箭头可看到 RooCline,选中并点击齿轮进入设置,依次设置基本参数,包括 API Provider 选择 DeepSeek、填入已创建的 key、选择 DeepSeekreasoner 模型、语言偏好设置等,记得把 HighRisk 选项都打开,最后点击 Done 保存修改,在聊天框输入产品需求,输入需求后点击星星优化提示词,最终得到想要的结果。 详解:DeepSeek 深度推理+联网搜索目前断档第一: 评论:游戏科学创始人、黑神话悟空制作人冯骥称 DeepSeek 可能是国运级别的科技成果,V3 已用一个月,R1 仅用 5 天。DeepSeek 做到了强大(比肩 O1 的推理能力)、便宜(参数少,训练开销与使用费用小了一个数量级)、开源(任何人均可自行下载与部署,提供论文详细说明训练步骤与窍门,甚至提供了可以运行在手机上的 mini 模型)、免费(官方目前提供的服务完全免费,任何人随时随地可用)、联网(暂时唯一支持联网搜索的推理模型)、本土(由没有海外经历甚至没有资深从业经验的本土团队开发完成)。呼吁大家访问网页链接马上用起来,也有移动 APP。
2025-01-31
deepseek
DeepSeek 是一家具有独特特点和优势的公司: 它不是“中国式创新”的产物,其在硅谷受到关注和追逐并非近期才发生。早在 2024 年 5 月 DeepSeekV2 发布时,就以多头潜在注意力机制(MLA)架构的创新引发小范围轰动,而在国内舆论场却被描摹成“大模型价格战的发起者”。 如果 V3 是 DeepSeek 的 GPT3 时刻,未来充满未知但值得期待,DeepSeek 应能为全人类的人工智能事业做出更大贡献,且已是中国最全球化的 AI 公司之一,其赢得尊重的秘方是硅谷味儿的。 作为推理型大模型,它具有以下特点: 无需用户提供详细步骤指令,能通过理解真实需求和场景提供答案。 能理解用户用“人话”表达的需求,无需特定提示词模板。 回答问题时能深度思考,而非简单罗列信息。 可以模仿不同作家的文风进行写作,适用于多种文体和场景。 使用 DeepSeek 的正确方法包括: 用自然语言描述,直接描述真实场景和具体需求,提示词模板可用可不用。 在提问时加上“说人话”“小学生能听懂”“菜市场大妈能听懂的话”等,让回答更通俗易懂。 激发其进行批判性思考、反面思考和复盘,恢复深度思考能力。 通过指定模仿的作家和文体,让其生成符合特定风格的文本。
2025-01-31
deepseek 使用手册
以下是关于 DeepSeek 的使用手册: 1. 效果对比:用 Coze 做了小测试,可对比查看 2. 如何使用: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 DeepSeek。 认真阅读开场白之后,正式开始对话。 3. 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担。 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改。 用 XML 来进行更为规范的设定,而不是用 Lisp(对我来说有难度)和 Markdown(运行下来似乎不是很稳定)。 4. 完整提示词:v 1.3 5. 特别鸣谢:李继刚的【思考的七把武器】在前期为提供了很多思考方向;Thinking Claude 是现在最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源;Claude 3.5 Sonnet 是最得力的助手。 6. 使用技巧: DeepSeek 的特点与优势: 推理型大模型:核心是推理型大模型,与指令型大模型不同,它不需要用户提供详细的步骤指令,而是通过理解用户的真实需求和场景来提供答案。 更懂人话:能够理解用户用“人话”表达的需求,而不需要用户学习和使用特定的提示词模板。 深度思考:在回答问题时能够进行深度思考,而不是简单地罗列信息。 文风转换器:可以模仿不同作家的文风进行写作,适用于多种文体和场景。 使用 DeepSeek 的正确方法: 可以扔掉提示词模板:用自然语言描述,直接描述真实场景和具体需求,提示词模板的目的是清晰表达,如果使用也完全没问题。 让 DeepSeek“说人话”:在提问时加上“说人话”“小学生能听懂”“菜市场大妈能听懂的话”等,可以让 DeepSeek 的回答更加通俗易懂。 激发深度思考:让 DeepSeek 进行批判性思考、反面思考和复盘,以恢复其深度思考能力。 文风转换:通过指定模仿的作家和文体,让 DeepSeek 生成符合特定风格的文本。
2025-01-31
deepseek最新消息
以下是关于 DeepSeek 的最新消息: DeepSeek 深夜发布大一统模型 JanusPro,将图像理解和生成统一在一个模型中。模型(7B):https://huggingface.co/deepseekai/JanusPro7B ;模型(1B):https://huggingface.co/deepseekai/JanusPro1B 。JanusPro 是一种新型的自回归框架,通过将视觉编码解耦为独立的路径来解决先前方法的局限性,同时利用单一的统一变压器架构进行处理,超越了之前的统一模型,并匹配或超过了特定任务模型的性能。 DeepSeek 以小成本实现媲美领先 AI 产品的性能,并在全球主要市场 App Store 登顶。高盛认为 DeepSeek 或改变科技格局,降低 AI 行业的进入门槛。 DeepSeek 在中文场景表现优秀,日常写作和表达习惯贴近人类,但专业论文总结略弱。数学能力不错,编程能力逊于 GPT。采用 GRPO 算法替代传统 PPO,提升语言评价灵活性与训练速度。 1 月 28 日(除夕)有一场关于 DeepSeek 的高质量闭门会,其创始人梁文锋强调团队文化与长远智能探索。DeepSeek 在技术上虽有优势,但资源有限,需聚焦核心;其推理模型推动效率提升,挑战传统 SFT 方法,标志着新的模型训练范式。 DeepSeek 近日开源了多模态模型 JanusPro,寓意古罗马双面神雅努斯,既能进行视觉理解,也能生成图像。与 DALLE 3 相比,JanusPro 在参数上领先,并具备图像识别、地标识别等多种能力。该模型通过更优化的训练策略、更海量的数据和更大规模的参数(70 亿)实现了更强的智能表现。全面开源,支持商用,MIT 协议,部署使用便捷,Benchmark 表现优异,能力更全面。
2025-01-30
deepseek的多模态大模型?
DeepSeek 发布了大一统模型 JanusPro,将图像理解和生成统一在一个模型中。以下是关于该模型的一些重要信息: 最新消息:DeepSeek 深夜发布该模型,它是一个强大的框架。 特点: 统一了多模态理解和生成,通过将视觉编码解耦为独立路径解决先前方法的局限性,利用单一的统一 Transformer 架构进行处理,缓解了视觉编码器在理解和生成中的角色冲突,增强了框架的灵活性。 超越了之前的统一模型,匹配或超过了特定任务模型的性能,其简单性、高灵活性和有效性使其成为下一代统一多模态模型的有力候选者。 规模:提供 1B 和 7B 两种规模,适配多元应用场景。 开源及商用:全面开源,支持商用,采用 MIT 协议,部署使用便捷。 测试案例: 模型直接支持中文交互(图像理解+图像生成)。 云上 L4 测试,显存需 22GB。 图像生成速度约 15s/张。 图像理解质量方面,文字和信息识别基本准确,内容理解完整清晰,局部细节有欠缺。 Colab(需 Pro,因需 20GB 以上显存):https://colab.research.google.com/drive/1V3bH2oxhikj_B_EYy5yRG_9yqSqxxqgS?usp=sharing 模型地址: 7B 模型:https://huggingface.co/deepseekai/JanusPro7B 1B 模型:https://huggingface.co/deepseekai/JanusPro1B 下载地址:https://github.com/deepseekai/Janus
2025-01-30
Deepseek 使用逻辑
DeepSeek 的使用逻辑如下: 效果对比:用 Coze 做了小测试,可对比查看相关视频。 如何使用: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 DeepSeek。 认真阅读开场白后正式开始对话。 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用,减轻调试负担。 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 在模型默认能力基础上优化输出质量,减轻 AI 味,增加可读性。 设计了阈值系统,可能会根据反馈修改。 用 XML 进行更为规范的设定,而非 Lisp 和 Markdown。 关于 DeepSeek 的其他信息: 1 月 26 日社区动态速览: 提示词框架包含四大模块:任务目的、计划规则、格式规则、输出说明。通过明晰的任务拆分与规则定义,让提示更具可操作性,但不可过度依赖,有示例模板可清晰展现相关内容。 Anthropic 的“计算机使用”模型,Claude 有新能力,如可识别屏幕截图,计算光标像素坐标并执行操作,结合了图像识别、推理和动作能力,能将用户指令转化为具体步骤并执行,少量软件训练后能自我纠正并迅速上手。 OpenAI Operator 工作机制,利用虚拟主机、Chrome 浏览器、CUA 实现网页实时操控,能执行复杂导航任务,结合 GPT4o 的视觉处理与强化学习,可处理屏幕截图、推理操作并发送指令,在感知—推理—动作循环中迭代,遇敏感任务则提示用户确认。 开源项目 Browser Use。 1 月 28 日社区动态速览: 华尔街分析师认为 DeepSeek 以小成本实现媲美领先 AI 产品的性能,并在全球主要市场 App Store 登顶,高盛认为其或改变科技格局,降低 AI 行业进入门槛。 DeepSeek 中文场景表现优秀,日常写作和表达习惯贴近人类,但专业论文总结略弱,数学能力不错,编程能力逊于 GPT,采用 GRPO 算法替代传统 PPO,提升语言评价灵活性与训练速度。 复旦大学 OpenMOSS 发布实时语音交互模型,中文语音体验近似 GPT4o 高级语音,响应时间低于 200 毫秒,支持打断和自然互动,可生成多情感、多风格语音,包含方言、戏剧化台词等,多语言适配,嘈杂环境下仍具备强逻辑推理能力。 阿里巴巴推出 Qwen2.51M 模型。
2025-01-30
本地部署
以下是关于本地部署的相关内容: Google Gemma 的本地部署: Google 发布了家用版小模型 Gemma,有 2b(20 亿参数)和 7b(70 亿参数)版本。 部署环境比一年前友好,可使用 Ollama 进行部署,它是开源的大型语言模型服务。 部署步骤:进入 ollama.com 下载程序并安装(支持 Windows、Linux 和 macOS);在命令提示符中输入“ollama v”检查版本,应显示 0.1.26;输入“cls”清空屏幕,然后输入“ollama run gemma”运行 2b 模型,若运行 7b 模型则输入“ollama run gemma:7b”。 2b 反应速度快但互动话题有限,7b 输出内容质量相对高但有卡顿,对非英文语种反馈不稳定。 模型内部常用指令:“/set”显示设置界面可调整的设置项;“/show”显示模型信息;“/load<model>”加载已有模型;“/bye”退出。 Stuart:ChatTTS 的本地部署(Linux): 前提是有一张 4G 以上显存的 GPU 显卡。 步骤:下载代码仓库;安装依赖(有两个依赖未在 requirements.txt 里);启动 webui 的 demo 程序,用浏览器登陆服务器的 ip:8080 试玩。 demo 提供的参数:“server_name”为服务器的 ip 地址,默认 0.0.0.0;“servic_port”为即将开启的端口号;“local_path”为模型存储的本地路径。 第一次启动生成语音时会下载模型文件,可能因网络问题失败,但首次成功后后续顺利。 webui 上可设置的参数:“text”指需转换成语音的文字内容;“Refine text”选择是否自动优化输入文本;“Audio Seed”为语音种子,用于选择声音类型;“Text Seed”为文本种子,影响文本停顿和音色、音调;可在“input Text”里添加额外提示词实现笑声、停顿等效果。 张梦飞:从 LLM 大语言模型、知识库到微信机器人的全本地部署教程: 需部署三大部分:本地部署大语言模型、本地部署 FastGPT + OneAPI、本地部署 HOOK 项目或 COW。 部署大语言模型步骤:下载并安装 Ollama,根据电脑系统在 ollama.com/download 下载,安装完成后将下方地址复制进浏览器,出现指定字样表示安装完成;下载 qwen2:0.5b 模型(设备充足可下载更大模型),根据电脑类型在终端输入相应命令行等待下载完成。下载久可能卡顿,点击空格刷新。下载完成后大模型在本地运行,输入文本即可对话。
2025-01-25
本地部署大模型
以下是关于本地部署大模型的详细步骤: 1. 部署大语言模型: 下载并安装 Ollama: 根据电脑系统,从 https://ollama.com/download 下载 Ollama。 下载完成后,双击打开,点击“Install”。 安装完成后,将 http://127.0.0.1:11434/ 复制进浏览器,若出现相关字样则表示安装完成。 下载 qwen2:0.5b 模型(若设备充足可下载更大模型): Windows 电脑:点击 win+R,输入 cmd 点击回车。 Mac 电脑:按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,选择“终端”应用程序。 复制相关命令行,粘贴进入并回车,等待自动下载完成。 2. ComfyUI ollama 本地大模型部署: 先下载 ollama 安装,安装完成后可在电脑桌面右下角或隐藏图标中找到。 下载对应的模型,选择模型并复制对应的命令。 打开命令行界面,输入对应的模型获取命令,等待下载完成。 模型下载后会保存到 D:\\ollama\\blobs 。 进行 docker 安装,安装会下载一些文件,安装后更改目录,不要放在 C 盘。 进行 Open webui 安装,输入相关命令,安装成功后回到 docker,点击会自动打开网页,第一次使用需注册账号,选择下载好的模型即可开始使用。 3. 错误解决: 端口占用问题,在 Windows 上可能出现,运行相关两条命令可解决。 4. 相关链接: comfyuiollama:https://github.com/stavsap/comfyuiollama?tab=readmeovfile Ollama:https://ollama.com/ docker:https://www.docker.com/ Open webui:https://openwebui.com/ 此外,还有一篇思路来源于视频号博主黄益贺的相关内容,作者按照其视频进行了实操并附加了一些关于 RAG 的额外知识。文中提到读完本文可以学习到如何使用 Ollama 一键部署本地大模型、通过搭建本地聊天工具了解 ChatGPT 信息流转、RAG 的概念及核心技术、通过 AnythingLLM 软件搭建完全本地化的数据库等内容。虽然大多数人不需要自己部署大模型,但期望通过本文的指导能够折腾一遍,从而做到知其然且知其所以然。
2025-01-22
有哪些能够本地部署的AI视频生成模型
以下是一些能够本地部署的 AI 视频生成模型: 1. Stable Video Diffusion 模型: 准备工作:手动下载相关内容,分别放到指定路径。 模型选择:点击下拉箭头选择不同模型版本,勾选 load Model。 视频创作:支持图生视频,图片来源可选择 Midjourney、Stable Diffusion 等生成的图片,上传到 SVD 进行视频生成,可调节左侧参数控制效果。 保存路径:生成的视频在 outputs 下。 2. LTXVideo 模型: 基于 2B 参数 DiT,能够以 768x512 分辨率生成 24 FPS 的视频,速度比观看还快。 专为 RTX 4090 等 GPU 优化,使用 bfloat16 精度,实现高效内存使用且不影响质量。 ComfyUI 现已支持该模型,用户只需下载模型文件并获取工作流即可在本地运行。 3. Sora 模型: 功能:文生视频、图生视频、视频生视频,支持多种视频定制选项,如分辨率、视频长度和视频风格;具有故事板功能,允许用户通过时间线指导视频中的多个动作;提供混音和编辑功能,包括视频混音、延伸和剪辑、创建循环视频等;还有混合功能,可将两个视频场景合并成一个新的场景。 费用和订阅套餐:对于拥有 OpenAI Plus 或 Pro 账户的用户,使用包含在现有订阅中。OpenAI Plus 订阅每月 50 次视频生成次数,OpenAI Pro 订阅无限次慢速队列生成,500 次正常速度的视频生成次数。用户可根据需要选择更高分辨率的视频生成,但可能会减少每月使用次数。发布初期,某些地区(如欧洲和英国)可能会有延迟。
2025-01-21
如何部署自己的知识库
以下是部署自己知识库的详细步骤: 一、了解 RAG 技术 因为利用大模型的能力搭建知识库本身就是一个 RAG 技术的应用。在进行本地知识库的搭建实操之前,需要先对 RAG 有大概的了解。 RAG 是指检索增强生成(Retrieval Augmented Generation)。当需要依靠不包含在大模型训练集中的数据时,通过检索外部数据,然后在生成步骤中将这些数据传递给 LLM。一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载(Document Loading):从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化的数据、SQL 在内的结构化的数据,以及 Python、Java 之类的代码等。 2. 文本分割(Splitting):文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:涉及两个环节,分别是将切分好的文档块进行嵌入(Embedding)转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. Output(输出):把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。 二、通过 Open WebUI 使用大模型 1. 首先访问相关网址。打开页面时,使用任意邮箱注册账号。 2. 登陆成功后,Open WebUI 一般有两种使用方式,第一种是聊天对话,第二种是 RAG 能力,可让模型根据文档内容来回答问题,这种能力是构建知识库的基础之一。 三、本地知识库进阶 如果想要对知识库进行更加灵活的掌控,需要一个额外的软件:AnythingLLM。这个软件包含了所有 Open WebUI 的能力,并且额外支持了以下能力:选择文本嵌入模型、选择向量数据库。 安装地址:https://useanything.com/download 。安装完成后,会进入到其配置页面,主要分为三步: 1. 第一步:选择大模型。 2. 第二步:选择文本嵌入模型。 3. 第三步:选择向量数据库。 构建本地知识库: 1. 在 AnythingLLM 中有一个 Workspace 的概念,可以创建自己独有的 Workspace 跟其他的项目数据进行隔离。 2. 首先创建一个工作空间。 3. 上传文档并且在工作空间中进行文本嵌入。 4. 选择对话模式。AnythingLLM 提供了两种对话模式:Chat 模式,大模型会根据自己的训练数据和上传的文档数据综合给出答案;Query 模式,大模型仅仅会依靠文档中的数据给出答案。 5. 测试对话。当上述配置完成之后,就可以跟大模型进行对话了。 四、写在最后 “看十遍不如实操一遍,实操十遍不如分享一遍”。如果对 AI Agent 技术感兴趣,可以联系作者或者加其免费知识星球(备注 AGI 知识库)。
2025-01-17
如何部署私有大语言模型?
部署私有大语言模型通常包括以下步骤: 1. 部署大语言模型: 下载并安装 Ollama:根据您的电脑系统,从 https://ollama.com/download 下载 Ollama。下载完成后,双击打开,点击“Install”。安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/。 下载模型:如 qwen2:0.5b 模型(0.5b 是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型)。如果是 Windows 电脑,点击 win+R,输入 cmd,点击回车;如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。复制相关命令行,粘贴进入,点击回车。等待下载完成。 2. 部署 Google Gemma: 进入 ollama.com,下载程序并安装(支持 windows,linux 和 macos)。 查找 cmd 进入命令提示符,输入 ollama v 检查版本,安装完成后版本应该显示 0.1.26,cls 清空屏幕。 直接输入 ollama run gemma 运行模型(默认是 2b),首次需要下载,需要等待一段时间,如果想用 7b,运行 ollama run gemma:7b 。完成以后就可以直接对话。 3. 关于 Ollama 的其他特点: 支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 cpu 和 gpu。 提供模型库,用户可从中下载不同模型,满足不同需求和硬件条件。模型库可通过 https://ollama.com/library 查找。 支持自定义模型,可修改模型的温度参数等。 提供 REST API,用于运行和管理模型,以及与其他应用程序的集成选项。 社区贡献丰富,包括多种集成插件和界面。 总的来说,Ollama 是一个方便用户在本地运行和管理大型语言模型的框架,具有良好的可扩展性和多样的使用场景。安装完之后,确保 ollama 后台服务已启动(在 mac 上启动 ollama 应用程序即可,在 linux 上可以通过 ollama serve 启动)。可以通过 ollama list 进行确认。
2025-01-17
如何部署ollama
以下是部署 Ollama 的详细步骤: 1. 下载并安装 Ollama: 根据您的电脑系统,点击进入 https://ollama.com/download 下载 Ollama。 下载完成后,双击打开,点击“Install”。 安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 2. 下载 qwen2:0.5b 模型(0.5b 是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型): 如果是 Windows 电脑,点击 win+R,输入 cmd,点击回车。 如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 复制以下命令行,粘贴进入,点击回车。 回车后,会开始自动下载,等待完成。(这里下载久了,可能会发现卡着不动,不知道下载了多少了。鼠标点击一下窗口,键盘点空格,就会刷新了) 下载完成后您会发现,大模型已经在本地运行了。输入文本即可进行对话。 3. 部署 Google Gemma: 首先进入 ollama.com,下载程序并安装(支持 windows,linux 和 macos)。 查找 cmd 进入命令提示符,输入 ollama v 检查版本,安装完成后版本应该显示 0.1.26,cls 清空屏幕,接下来直接输入 ollama run gemma 运行模型(默认是 2b),首次需要下载,需要等待一段时间,如果想用 7b,运行 ollama run gemma:7b 。 完成以后就可以直接对话了,2 个模型都安装以后,可以重复上面的指令切换。 4. 安装 Docker Desktop: 点击/复制到浏览器去下载 https://docs.docker.com/desktop/install/windowsinstall/ 。 下载后,双击下载项目,出现下图,点击 ok,开始加载文件。注意!!!!这里下载相对比较快,下载完成后,不要点击“close and restart”,因为这样会直接重启,导致 llama3 下载中断。 这里先不点击,等待终端的模型下载完成后,再点击重启。 重启后,点击:“Accept” 。 选择第一个,点击"Finish" 。 然后会提示您注册账号,如果打不开网页,就需要科学上网了。 按照正常的注册流程,注册账号,并登录 Docker 即可。登录后会进入 Docker Desktop。此处完成。 5. 下载 Open WebUI: 回到桌面,再打开一个新的终端窗口(可以放心多个窗口,不会互相影响)。 如果是 Windows 电脑,点击 win+R,输入 cmd,点击回车。 如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 将以下命令输入,等待下载。 出现上图,即是下载完成。 点击或复制下方地址进入浏览器:http://localhost:3000/auth/ 。 点击进行注册即可,注册输入昵称、邮箱、密码。注册完即可登录进入。 登入后,看到如下页面,点击顶部的 Model,选择“llama3:8b”。 完成。您已经拥有了一个属于自己的本地大语言模型。可以开始与他对话啦!ps.他的回复速度,取决于您的电脑配置。
2025-01-13
AI手机端和网页端的应用场景有什么区别?
AI 手机端和网页端的应用场景存在以下区别: 网页端产品更倾向于支持涉及内容创作和编辑的复杂、多步骤工作流程,例如 AI 语音工具包 ElevenLabs、AI 艺术创作器 Leonardo 以及 AI 演示文稿构建器 Gamma 等。 移动端应用更倾向于通用型助手,不少在功能上模仿了 ChatGPT。 在移动设备上,图片和视频的内容编辑是最常见的用途。例如,美图秀秀、SNOW 和 Adobe Express 等传统创意工具转型为生成式 AI 优先,并在移动排名中表现出色。 ChatGPT 以巨大优势成为网络和移动端排名第一的产品,而争夺最佳消费者助手的竞争正在升温。Perplexity 在网络上排名第三,专注于提供简明、实时和准确的查询答案,且用户参与度很高,还首次进入移动端前 50 名榜单。Anthropic 的 Claude 是 ChatGPT 的直接竞争对手,在网页排名中进入前五。
2025-01-16
我该如何了解AI相关的知识 通往AHI之路有手机端吗
以下是一些了解 AI 相关知识的途径: 1. 访问《通往 AGI 之路》知识库,其提供了全面系统的 AI 学习路径,涵盖从常见名词到应用等各方面知识。您可以通过访问。 2. 关注相关的社交媒体账号,如公众号“通往 AGI 之路”、等,获取 AI 消息和知识普及视频。 3. 学习 AE 软件,了解其功能及与 AI 结合运用的方式,比如在 B 站找丰富的入门课程自学,或从包图网下载工程文件学习。 4. 阅读相关的研究报告,如艾瑞的《2024 年移动端 AI 应用场景研究报告》。 另外,《通往 AGI 之路》知识库目前没有手机端。
2025-01-14
我想用coze写一个能够自动提取我手机的支付记录然后记账的应用要怎么做
要使用 Coze 写一个能够自动提取手机支付记录然后记账的应用,您可以参考以下步骤: 1. 了解 Coze:COZE 是字节跳动旗下子公司推出的 AI Agent 构建工具,允许用户在无编程知识的基础上,使用自然语言和拖拽等方式构建 Agent,目前有丰富的插件生态且可以免费使用海量大模型。 2. 配置变现模板: 设置套餐金额及时长:价格页信息默认包含 3 个套餐,可自行修改、删除、新增,套餐数量无上限,修改后无需保存即刻生效。 订单与用户信息查看:在“管理后台”页面除了可以进行智能体配置,还可查看已付费订单以及注册用户,方便运营维护。 完成所有项目配置后,点击【配置完成】即可邀请用户访问并体验您的 Coze 智能体。 激活支付功能:配置该功能后,可实现平台收款、退款等操作,实现项目的商业变现。通过支付宝申请电脑网站支付,将申请到的 AppId、商户私钥、公钥按要求配置即可。详细的配置教程可以在'Zion 帮助中心'中搜索'支付'找到。 3. 学习记账管家相关知识:记账管家是基于 COZE 平台的能力搭建的一个记账应用,您可以直接和 coze 说您今天的收入或者支出情况,coze 会自动帮您记账,同时帮您计算出账户余额,每一笔记账记录都不会丢失。 4. 搭建教学: 增加记账记录 add_accounting_record 工作流:用于增加记账的工作流,通过大语言模型把用户输入的非结构化数据转变成数据库能理解的结构化数据存入,并告诉用户结果。 开始:定义一个{{prompt}},把用户在 bot 输入的记账内容传入进来(例如:今天花了 233.32 元吃了一顿烧烤)。 大模型:本次任务比较简单,使用任意模型都可以胜任,无需调整大模型参数。输入定义了一个{{input}}引用了【开始节点】的 prompt 参数。提示词让大模型根据{{input}}传入的内容进行拆解,分别识别【记账事项】、【发生时间】、【变动金额】,并把识别出来的内容分别赋值到{{item}}、{{occurrence_time}}、{{balance_change}}。输出定义了【记账事项】、【发生时间】、【变动金额】对应的{{item}}、{{occurrence_time}}、{{balance_change}}。 数据库——插入记账记录:输入定义了{{item}}、{{occurrence_time}}、{{balance_change}},用于接收从大模型节点{{item}}、{{occurrence_time}}、{{balance_change}}输出传入的内容。SQL 命令:不会写没关系,直接使用自动生成语法,输入命令如下,注意我们数据库存入的金额最小单位是分,所以在最终的语法,{{account_change}}100;意思当用户说我花了 2.23 元,数据库存储的是 2.23100=223。提示词:把 item、occurrence_time、account_change 存入到 user_accounting_records 表的{{item}}、{{occurrence_time}}、{{account_change}}中。 数据库——查询账户余额。
2025-01-10
华为手机安装chatgpt
以下是华为手机安装 ChatGPT 的步骤: 1. 打开系统自带的谷歌服务框架: 打开系统设置。 拉到最底下,点击更多设置。 点击账号与同步。 点击谷歌基础服务。 打开基础服务按钮。 2. 安装 Google Play: 到华为应用商店搜索 Google Play 进行安装。 安装好后打开谷歌商店,点击右上角登录谷歌账号。 3. 安装 ChatGPT: 到谷歌商店搜索“ChatGPT”进行下载安装,注意开发者是 OpenAI,别下错。 可能会遇到“google play 未在您所在的地区提供此应用”的问题,解决方法如下: 在 google play 点按右上角的个人资料图标。 依次点按:设置>常规>帐号和设备偏好设置>国家/地区和个人资料。 在这里看到账号没有地区,可以“添加信用卡或借记卡”,国内的双币信用卡就行,填写信息时地区记得选美。 如果回到 google play 首页还搜不到 chatgpt,可以卸载重装 google play,操作过程保持梯子的 IP 一直是美,多试几次。 4. 体验 ChatGPT: 如果只想体验 ChatGPT 3.5 版本,不升级 GPT4,直接登录第二部注册好的 ChatGPT 账号即可。 5. 订阅 GPT4 Plus 版本: 先在 Google play 中的【支付和订阅】【支付方式】中绑定好银行卡。 然后在 ChatGPT 里订阅 Plus。
2025-01-07
AI最好用的手机APP
以下是一些好用的 AI 手机 APP: 图片和视频内容编辑方面:美图秀秀(https://apps.apple.com/us/app/meituphotoeditoraiart/id416048305)排名第 9 位、SNOW(https://apps.apple.com/us/app/snowaiprofile/id1022267439)排名第 30 位、Adobe Express(https://apps.apple.com/us/app/adobeexpressaiphotovideo/id1051937863)排名第 35 位。 消费者助手方面:ChatGPT 第三次以巨大优势成为网络和移动端排名第一的产品。 人工智能搜索引擎方面:Perplexity(http://perplexity.ai/)目前在网络上排名第三,专注于提供简明、实时和准确的查询答案,并引用来源,还首次进入移动端前 50 名榜单。 办公文档翻译工具:WPS 文档翻译功能,可快速翻译办公文档,提高工作效率。 美容护肤产品推荐平台:美丽修行 APP,根据用户肤质推荐适合的美容护肤产品。 儿童安全监控系统:360 儿童手表,利用 AI 技术实现定位、通话、安全区域设置等功能。 汽车保养提醒系统:汽车之家 APP,根据用户的汽车型号、行驶里程等信息提醒车主进行定期保养。 金融方面:Composer(免费可用),用 AI 构建、回测和执行交易算法。 移动 APP 方面:Hevy 是最佳移动应用程序获奖者,在 App Store 和 Google Play 商店中获得了 4.9 的评分,共有 71,000 条评论。ChatGPT for iOS(免费)是 ChatGPT 的官方 iOS 应用程序。Rainbow AI(免费)是精准降水预报 APP。
2025-01-05
AI最好用的手机APP(主要用于体制内 各类公文写作)
以下是一些适用于体制内公文写作的 AI 手机 APP: 1. 文小言 APP 中的“学习强国公文助手”:具有文汇检索、AI 公文书写、AI 公文润色等功能。它有权威的“学习强国”数据库背书,能快速溯源文字材料,重点用横线标注,还能一键看原文,内容覆盖文汇、重要活动、重要会议、指示批示等。 2. 邮件写作方面的 AI 工具: Grammarly:提供语法检查、拼写纠正、风格建议和语气调整等功能,易于使用,支持多种平台,适用于多种语言。网站:https://www.grammarly.com/ Hemingway Editor:简化句子结构,提高可读性,标记复杂句和冗长句。界面简洁,重点突出,适用于改善写作风格和简洁性。网站:http://www.hemingwayapp.com/ ProWritingAid:全面的语法和风格检查,提供详细的写作报告和建议。功能强大,支持多种平台和集成,特别适合专业写作者。网站:https://prowritingaid.com/ Writesonic:基于 AI 生成各种类型的文本,包括电子邮件、博客文章、广告文案等。生成速度快,适合需要快速创作和灵感的用户。网站:https://writesonic.com/ Lavender:专注于邮件写作优化,提供个性化建议和模板,帮助用户提高邮件打开率和回复率。
2025-01-05