直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

使用开源大模型本地化部署使用电脑配置,推荐几款笔记本电脑

回答

以下是关于使用开源大模型本地化部署所需电脑配置及笔记本电脑推荐的相关信息:

运行大模型需要较高的机器配置,个人玩家大多负担不起。以下是不同类型大模型的配置要求:

  • 生成文字大模型:
    • 最低配置:8G RAM + 4G VRAM
    • 建议配置:16G RAM + 8G VRAM
    • 理想配置:32G RAM + 24G VRAM(跑 GPT-3.5 差不多性能的大模型)
  • 生成图片大模型(比如跑 SD):
    • 最低配置:16G RAM + 4G VRAM
    • 建议配置:32G RAM + 12G VRAM
  • 生成音频大模型:
    • 最低配置:8G VRAM
    • 建议配置:24G VRAM

对于本地化部署,不建议使用最低配置,因为速度会非常慢。例如,用 8G 的 Mac 电脑尝试过,效果不佳。

由于本地化部署对电脑配置要求较高,不太推荐本地化安装实现。如果想使用开源大模型,可选择利用云厂商已提供好的大模型运行环境和计算能力,比如阿里云的 PAI 和 AutoDL。

在笔记本电脑选择方面,建议选择具备以下配置的机型:

  1. 内存:16GB 及以上的 RAM。
  2. 显卡:具有 8GB 及以上 VRAM 的独立显卡。

但具体的笔记本电脑型号还需根据您的预算和其他需求来确定。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

实战: 每个人都可以用10分钟轻松制作AI换脸、AI数字人视频的方法!

有多个AI产品可以实现换脸效果,这里介绍一个开源、免费的解决方案:facefusion开源地址:https://github.com/facefusion/facefusion4.1本机解决方案这个软件需要python环境,以及要安装视频解码器等多个依赖的软件,因此如果你想在本地电脑上安装,需要一定的编程知识。可以参考网站:https://docs.facefusion.io/说明来进行本地的安装。由于facefusion的运行推理计算的速度,非常依赖于GPU,因此如果本地计算机没有GPU或者GPU显存较小,那么执行的速度将会非常缓慢。我的笔记本是Macbook Pro M1 16GB内存,集成GPU。对一个1分30秒的视频换脸,需要1300秒。facefusion所以,无论从环境配置还是计算速度来说,都不推荐本地化安装实现。4.2云服务解决方案另一个可选的方案,是利用云厂商已经提供好的大模型运行环境和计算能力。比如阿里云的PAI和AutoDL。注:这种方案需要产生一定的费用。我选择的是AutoDL,其官网是:https://www.autodl.com/home注册完成后,在算力市场中,选择你能接受价格的算力服务器。建议选取GPU配置更高的算力设备。4.2.2通过模型镜像启动GPU服务器在算法社区查找facefusion镜像:

AI 大语言模型赋予火火兔生命

5~6台火火兔+ folotoy模组(3套现场试玩的成品,2套拆开的裸组件),有更多其他形态的机子更佳用于连接火火兔和电脑的网络本地部署的dify服务器-- Larrytts和asr服务器两台笔记本+两张以上椅子展示用桌子两张屏幕2块一个相对安静的空间用于语音克隆

手把手教你本地部署大模型以及搭建个人知识库

所有人都会手把手教你部署XX大模型,听起来很诱人,因为不需要科学上网,不需要高昂的ChatGPT会员费用。但是在开启下面的教程之前,我希望你能有个概念:运行大模型需要很高的机器配置,个人玩家的大多数都负担不起所以:虽然你的本地可能可以搭建出一个知识库,但是它不一定能跑的起来下面我通过一组数据来让大家有个感性的认知。以下文字来源于视频号博主:黄益贺,非作者实操生成文字大模型最低配置:8G RAM + 4G VRAM建议配置:16G RAM + 8G VRAM理想配置:32G RAM + 24G VRAM(如果要跑GPT-3.5差不多性能的大模型)生成图片大模型(比如跑SD)最低配置:16G RAM + 4G VRAM建议配置:32G RAM + 12G VRAM生成音频大模型最低配置:8G VRAM +建议配置:24G VRAM而最低配置我就不建议了,真的非常慢,这个我已经用我自己8G的Mac电脑替你们试过了。讲这个不是泼大家冷水,而是因为我的文章目标是要做到通俗易懂,不希望通过夸大的方式来吸引你的眼球。

其他人在问
用这些AI工具电脑配置
以下是一些使用 AI 工具时可能需要的电脑配置相关信息: Garman:AI 具身对话机器人 硬件组装:需要一台电脑和一台 iPhone,安卓目前不支持。 工具准备:剪刀、钳子、小十字螺丝刀、单面胶、双面胶。 数据线:优先推荐双头 TYPEC 数据线,其次是 USB TYPEC 数据线,多备几条,注意充电线不一定是数据线,要确保可传输数据。 这不是一台电脑,这是一个伴侣! 开发者工具: 个性(LLM 的文本):一些开源模型(如 Vicuna 和 Pygmalion)已微调,适用于各种应用场景。 记忆(向量存储):像 Pinecone 这样的向量存储系统可建立持续关系,配置代码存储长期记忆等信息。 语音(语音合成):像 ElevenLabs 这样的产品可赋予声音,控制年龄、性别和口音。 外表(SD 模型作图):LoRAs 可精细控制图像风格等。 动画(视频动画):像 DID 和 HeyGen 这样的工具可使图像“说话”。 平台:大多数开发者在 GCP 和 AWS 上部署和运行,像 Steamship 这样的解决方案正受关注。 UI 层:SillyTavern、Agnaistic 和 KoboldAI 是受欢迎的选择。 绘制逻辑视图、功能视图、部署视图的工具 Lucidchart:流行的在线绘图工具,支持多种图表创建。 Visual Paradigm:全面的 UML 工具,提供多种架构视图创建功能。 ArchiMate:开源建模语言,与 Archi 工具配合使用。 Enterprise Architect:强大的建模、设计和生成代码工具。 Microsoft Visio:广泛使用的图表和矢量图形应用程序。 draw.io(diagrams.net):免费在线图表软件。 PlantUML:文本到 UML 转换工具。 Gliffy:基于云的绘图工具。 Archi:免费开源工具,支持创建 ArchiMate 和 TOGAF 模型。 Rational Rose:IBM 的 UML 工具。
2024-11-30
AI视频需要什么 电脑配置
制作 AI 视频通常需要以下方面的准备和配置: 1. 内容准备: 准备一段视频中播放的文字内容,例如产品介绍、课程讲解、游戏攻略等。可以自行创作,也可以利用 AI 生成。 2. 视频制作工具: 可以使用剪映 App 对视频进行简单处理,电脑端打开剪映 App 点击“开始创作”,选择顶部工具栏中的“文本”,并点击默认文本右下角的“+”号为视频添加文字内容轨道。 3. AI 换脸方面: 有多个 AI 产品可实现换脸效果,如开源免费的 facefusion。 本机解决方案需要 Python 环境、安装视频解码器等多个依赖软件,对 GPU 依赖较大,本地计算机若无 GPU 或 GPU 显存较小,执行速度缓慢,不推荐本地化安装。 云服务解决方案可利用云厂商如阿里云的 PAI 和 AutoDL 提供的大模型运行环境和计算能力,但会产生一定费用。例如选择 AutoDL,在算力市场中选取能接受价格且 GPU 配置更高的算力设备,并通过模型镜像启动 GPU 服务器。
2024-09-24
stable diffusion需要的电脑配置
为了顺利安装和使用 Stable Diffusion(简称“SD”),您需要先查看自己的电脑配置,注意以下两点: 1. 电脑系统:应为 Win10 或者 Win11,避免使用更低版本的系统。查看方法为在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。 2. 电脑性能: 电脑运行内存应在 8GB 以上。检查方法为:鼠标右击桌面底部任务栏,点击“任务管理器”,在“性能”里面找到“内存”,只要看图中划线的那一个参数即可。8GB 勉强达到标准,16GB 可以正常使用,32GB 则能非常自由地使用 SD。 应是英伟达(俗称 N 卡)的显卡,显卡内存在 4GB 以上。检查方法为:在“任务管理器”中查看“GPU”,GPU 即显卡。 另外,带动 SD 推荐的电脑配置为:电脑运行内存 16GB 以上,英伟达显卡,显卡内存 8GB 以上。同时打开任务管理器的方式为同时按下 ctrl+shift+esc。
2024-08-13
安装 SD 电脑配置
安装Stable Diffusion对电脑配置有一定的要求,主要是为了确保能够顺利运行AI绘画模型并生成高质量的图像。以下是安装Stable Diffusion所需的基本电脑配置要求: 1. 显卡:需要使用NVIDIA显卡,因为Stable Diffusion主要依赖CUDA进行GPU加速。推荐的显卡配置从NVIDIA GeForce GTX 1070起,或NVIDIA Quadro P4000起。 2. 显存:最低配置需要4GB显存,基本配置6GB显存,推荐配置12GB显存或者以上。显存越大,可设置的图片分辨率越高,且能处理更复杂的图像生成任务。 3. 操作系统:需要是Windows 10或Windows 11。对于Mac用户,虽然可以使用CPU进行渲染,但速度会比较慢,因此推荐使用配备NVIDIA显卡的Windows电脑。 4. 硬盘空间:建议有60GB以上的硬盘空间,因为Stable Diffusion的模型文件通常较大,且批量生成图像会占用较多存储空间。 5. 内存:虽然没有具体要求,但为了保证运行流畅,建议有8GB以上的内存。 6. Python环境:Stable Diffusion是基于Python搭建的,因此需要在电脑上安装Python环境。建议安装3.10.6版本,这是Stable Diffusion WebUI作者推荐安装的版本。 7. Git:用于从GitHub上安装和更新Stable Diffusion及其插件。 8. Docker:如果选择使用Docker部署Stable Diffusion,需要在系统上安装Docker Desktop。 请注意,具体的配置要求可能会根据Stable Diffusion的版本和使用的具体功能有所不同。如果使用云端服务或在线工具,对本地电脑配置的要求会降低,因为大部分计算会在云端完成。
2024-05-01
本地化搭建问答机器人流程
本地化搭建问答机器人的流程如下: 1. 加载所需的库和模块:包括用于解析 RSS 订阅源的 feedparse,用于在 Python 程序中跑大模型的 ollama(使用前需确保 ollama 服务已开启并下载好模型)。 2. 从订阅源获取内容:通过函数从指定的 RSS 订阅 url 提取内容,如需接收多个 url 稍作改动即可。然后使用专门的文本拆分器将长文本拆分成较小的块,并附带相关元数据,最终合并成列表返回用于后续处理或提取。 3. 为文档内容生成向量:使用文本向量模型 bgem3(从 hf 下载好模型后假设放置在某个路径,通过函数利用 FAISS 创建高效的向量存储)。 4. 推荐 RSSHub 项目:可将关注的信息汇聚在同一平台,一旦有更新能在各种终端收到提醒。其为各种网站生成 RSS 源,大部分社交媒体、传统媒体和金融媒体都能配合订阅。 5. 流程拆解: 创建 Python 虚拟环境,并安装相关库,如 ollama(0.1.8)、langchain(0.1.14)、faisscpu(1.8.0,有 gpu 则安装 gpu 版本)、gradio(4.25.0)、feedparser(6.0.11)、sentencetransformers(2.6.1)、lxml(5.2.1)。 6. 了解 ollama: 支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同场景。 易于使用,适用于 macOS、Windows 和 Linux 系统,支持 cpu 和 gpu。 提供模型库,用户可从中下载不同模型,满足不同需求和硬件条件,模型库可通过 https://ollama.com/library 查找。 支持自定义模型,可修改温度参数等。 提供 REST API 用于运行和管理模型及与其他应用集成。 社区贡献丰富,有多种集成插件和界面。 先安装 ollama,访问 https://ollama.com/download/ 下载安装。安装完确保 ollama 后台服务已启动(在 mac 上启动应用程序,在 linux 上通过 ollama serve 启动),可通过 ollama list 确认,未下载模型时正常显示空,可通过 ollama 命令下载模型。
2024-12-21
可不可以提供一个本地化的大模型方法,让我建立这个合规法律的知识库
以下是为您提供的本地化大模型及搭建合规法律知识库的方法: 一、通过 Open WebUI 使用大模型 1. 首先访问相关网址。打开页面时需使用邮箱注册账号。 2. 登陆成功后,若您使用过类似 ChatGPT 的大模型对话网站,对该页面不会陌生。 3. Open WebUI 一般有两种使用方式: 聊天对话。 RAG 能力,即让模型根据文档内容回答问题,这是构建知识库的基础之一。 4. 如果要求不高,此时已搭建本地大模型,并通过 Web UI 实现对话功能。 5. ChatGPT 访问速度快且回答效果好的原因: 速度快是因为 GPT 大模型部署的服务器配置高。 效果好是因为 GPT 大模型的训练参数多、数据更优及训练算法更好。 二、您的硬件达标了么 运行大模型需要很高的机器配置,个人玩家大多负担不起。以下是不同类型大模型的配置要求: 1. 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型) 2. 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 3. 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 最低配置运行非常慢,不建议使用。但这不妨碍我们亲自实操一遍,以加深对大模型构建知识库底层原理的了解。若想要更顺滑的体验知识库,可以参考文章: 三、本地知识库进阶 若要更灵活掌控知识库,需额外软件 AnythingLLM。它包含 Open WebUI 的所有能力,并额外支持以下能力: 1. 选择文本嵌入模型。 2. 选择向量数据库。 AnythingLLM 安装和配置 安装地址:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步: 1. 第一步:选择大模型。 2. 第二步:选择文本嵌入模型。 3. 第三步:选择向量数据库。 构建本地知识库 AnythingLLM 中有 Workspace 的概念,可创建独有的 Workspace 与其他项目数据隔离。具体步骤: 1. 首先创建一个工作空间。 2. 上传文档并在工作空间中进行文本嵌入。 3. 选择对话模式。AnythingLLM 提供两种对话模式: Chat 模式:大模型会根据自己的训练数据和上传的文档数据综合给出答案。 Query 模式:大模型仅依靠文档中的数据给出答案。 4. 测试对话。完成上述配置后,即可与大模型进行对话。 四、写在最后 “看十遍不如实操一遍,实操十遍不如分享一遍”。若您对 AI Agent 技术感兴趣,可以联系我或者加我的免费知识星球(备注 AGI 知识库)。
2024-12-18
本地化单机版问答AI怎样创建,需要详细操作代码步骤
以下是创建本地化单机版问答 AI 的一般步骤: 1. 基于用户的问题,从向量数据库中检索相关段落,并根据设定的阈值进行过滤,最后让模型参考上下文信息回答用户的问题,从而实现 RAG。 2. 创建网页 UI,通过 gradio 创建网页 UI,并进行评测。 3. 对于同样的问题和上下文,基于 Qwen7b、Gemma、Mistral、Mixtral 和 GPT4 分别进行多次测试。 4. 主要结论(只是针对有限的几次测试,个人主观评判): GPT4 表现最好,指令遵循能力很强,在回答的时候能附上引用段落编号。 Mixtral 表现第二,但没有在回答的时候附上引用。 Qwen7b 表现第三,也没有在回答的时候附上引用。 Gemma 表现一般,而且回答里面有一些幻觉。 Mistral 表现一般,使用英文回复,不过在回答的时候附上了引用段落编号。 总结: 1. 本文展示了如何使用 Langchain 和 Ollama 技术栈在本地部署一个资讯问答机器人,同时结合 RSSHub 来处理和提供资讯。 2. 上下文数据质量和大模型的性能决定了 RAG 系统性能的上限。 3. RAG 通过结合检索技术和生成模型来提升答案的质量和相关性,可以缓解大模型幻觉、信息滞后的问题,但并不意味着可以消除。 需要上述完整代码的读者,关注本公众号,然后发送 fin,即可获取 github 仓库代码链接。
2024-11-28
本地化单机版问答AI怎样创建
创建本地化单机版问答 AI 可以通过以下步骤实现: 1. 基于用户的问题,从向量数据库中检索相关段落,并根据设定的阈值进行过滤,最后让模型参考上下文信息回答用户的问题,从而实现 RAG。 2. 创建网页 UI,通过 gradio 创建,并进行评测。 3. 对于同样的问题和上下文,基于 Qwen7b、Gemma、Mistral、Mixtral 和 GPT4 分别进行多次测试。主要结论(只是针对有限的几次测试,个人主观评判)如下: GPT4 表现最好,指令遵循能力很强,在回答的时候能附上引用段落编号。 Mixtral 表现第二,但没有在回答的时候附上引用。 Qwen7b 表现第三,也没有在回答的时候附上引用。 Gemma 表现一般,而且回答里面有一些幻觉。 Mistral 表现一般,使用英文回复,不过在回答的时候附上了引用段落编号。 总结: 1. 本文展示了如何使用 Langchain 和 Ollama 技术栈在本地部署一个资讯问答机器人,同时结合 RSSHub 来处理和提供资讯。 2. 上下文数据质量和大模型的性能决定了 RAG 系统性能的上限。 3. RAG 通过结合检索技术和生成模型来提升答案的质量和相关性,可以缓解大模型幻觉、信息滞后的问题,但并不意味着可以消除。 如需获取上述完整代码,关注本公众号,然后发送 fin,即可获取 github 仓库代码链接。
2024-11-28
蛟龙16pro配置(处理器R7-7745HX,显卡RTX4060 8G,硬盘512GPCIE4.0SSD)可以用于审计人员本地化部署大模型用于数据分析工作吗
蛟龙 16pro 的配置(处理器 R77745HX,显卡 RTX4060 8G,硬盘 512G PCIE4.0 SSD)对于审计人员本地化部署大模型用于数据分析工作来说,可能存在一定的局限性。 处理器 R77745HX 具有一定的计算能力,但在处理大规模数据和复杂的模型运算时,其性能可能不够强劲。 显卡 RTX4060 8G 对于一些较为复杂的图形处理和计算任务能够提供一定的支持,但对于大规模的深度学习模型训练和数据分析,可能会显得不足。 512G 的 PCIE4.0 SSD 硬盘容量相对较小,在存储大量数据时可能会很快耗尽空间。 综上所述,该配置在一定程度上可以用于简单的数据分析任务,但对于较为复杂和大规模的大模型本地化部署及数据分析工作,可能需要更强大的硬件配置,例如更高性能的处理器、更大容量和更高性能的显卡,以及更大的存储空间。
2024-09-14
蛟龙16pro配置可以用于审计人员本地化部署大模型用于数据分析工作吗
蛟龙 16pro 的配置信息对于能否用于审计人员本地化部署大模型进行数据分析工作,需要更多关于该设备具体配置的详细信息才能准确判断。一般来说,本地化部署大模型进行数据分析工作对计算机的硬件配置有较高要求,包括但不限于强大的 CPU 性能、充足的内存容量、高速的存储设备以及优秀的显卡性能等。如果您能提供蛟龙 16pro 更详细的配置参数,我可以为您做出更准确的评估和建议。
2024-09-14
哪一个开源大语言模型对中文支持比较好?
以下是一些对中文支持较好的开源大语言模型: 1. OpenChineseLLaMA: 地址: 简介:基于 LLaMA7B 经过中文数据集增量预训练产生的中文大语言模型基座,对比原版 LLaMA,该模型在中文理解能力和生成能力方面均获得较大提升,在众多下游任务中均取得了突出的成绩。 2. BELLE: 地址: 简介:开源了基于 BLOOMZ 和 LLaMA 优化后的一系列模型,同时包括训练数据、相关模型、训练代码、应用场景等,也会持续评估不同训练数据、训练算法等对模型表现的影响。 3. Panda: 地址: 简介:开源了基于 LLaMA7B,13B,33B,65B 进行中文领域上的持续预训练的语言模型,使用了接近 15M 条数据进行二次预训练。 4. Llama2Chinese13bChat: 地址: 5. Gemma7bit: 地址: 此外,AndesGPT 在语言理解与抽取、角色扮演能力上排名国内前一,在代码、生成与创作、上下文对话能力上排名国内前三,各项能力较为均衡,聚焦在移动设备端的应用。Baichuan213BChat 是百川智能自主训练的开源大语言模型,是中文开源模型的主导力量。
2024-12-20
开源的开源的 LLM 微调推理,agent开发平台
以下是为您整理的关于开源的 LLM 微调推理、agent 开发平台的相关内容: LLM 作为 Agent 的“大脑”的特点: 1. 知识获取能力:通过预训练学习大量语言数据,掌握丰富语言信息和常识知识,能处理多种任务。 2. 指令理解:擅长解析人类语言指令,采用深度神经网络进行自然语言理解和生成,精准理解意图。 3. 泛化能力:在未见过的数据上表现良好,能利用先前知识处理新挑战,形成对语言结构的通用理解。 4. 推理和规划:能够进行逻辑推理和未来预测,分析条件制定最佳行动方案,在复杂环境中做出理性选择。 5. 交互能力:拥有强大对话能力,在多人多轮次对话中自然流畅交流,改善用户体验。 6. 自我改进:基于用户反馈和效果评估,通过调整参数、更新算法提升性能和准确性。 7. 可扩展性:可根据具体需求定制化适配,针对特定领域数据微调提高处理能力和专业化水平。 相关产品和平台: 1. ComfyUI:可在其中高效使用 LLM。 2. Vercel AI SDK 3.0:开源的工具,可将文本和图像提示转换为 React 用户界面,允许开发者创建丰富界面的聊天机器人。 3. OLMo7BInstruct:Allen AI 开源的微调模型,可通过资料了解从预训练模型到 RLHF 微调模型的所有信息并复刻微调过程。 4. Devv Agent:能提供更准确、详细的回答,底层基于 Multiagent 架构,根据需求采用不同 Agent 和语言模型。 实例探究: 1. ChemCrow:特定领域示例,通过 13 个专家设计的工具增强 LLM,完成有机合成、药物发现和材料设计等任务。 2. Boiko et al. 研究的 LLM 授权的科学发现 Agents:可处理复杂科学实验的自主设计、规划和执行,能使用多种工具。
2024-12-12
开源大模型训练推理,应用开发agent 平台
以下是一些关于开源大模型训练推理、应用开发 agent 平台的相关信息: Agent 构建平台: Coze:新一代一站式 AI Bot 开发平台,集成丰富插件工具,适用于构建各类问答 Bot。 Mircosoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,可将 Copilot 部署到多种渠道。 文心智能体:百度推出的基于文心大模型的智能体平台,支持开发者打造产品能力。 MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识等,并访问第三方数据和服务或执行工作流。 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于客服、营销、销售等场景,提供多种成熟模板。 钉钉 AI 超级助理:依托钉钉优势,在处理高频工作场景如销售、客服、行程安排等方面表现出色。 Gemini 相关:大型语言模型的推理能力在构建通用 agents 方面有潜力,如 AlphaCode 团队构建的基于 Gemini 的 agent 在解决竞争性编程问题方面表现出色。同时,Gemini Nano 提升了效率,在设备上的任务中表现出色。 成为基于 Agent 的创造者的学习路径:未来的 AI 数字员工以大语言模型为大脑串联工具。Agent 工程如同传统软件工程学有迭代范式,包括梳理流程、任务工具化、建立规划、迭代优化。数字员工的“进化论”需要在 AI 能力基础上对固化流程和自主思考作出妥协和平衡。
2024-12-12
对企业来说直接用开源大模型和用国内大厂收费的大模型有哪些区别
对于企业来说,直接使用开源大模型和使用国内大厂收费的大模型主要有以下区别: 数据方面: 开源大模型的数据获取相对容易,但数据质量可能参差不齐。例如,OpenAI 训练大模型所用的中文数据虽源自中国互联网平台,但经过了深度处理,而国内中文互联网数据质量普遍被认为相对较低。 国内大厂收费的大模型可能在数据处理和质量上更具优势,但获取高质量数据对于企业尤其是初创企业来说成本较高且存在风险。 商业化落地方面: 客户在商业化落地时更关注实用性而非原创性,有时因成本低会倾向选择开源大模型的非原创技术。 但使用开源大模型可能存在拼装和套壳后强调原创,从而影响迭代能力,导致内耗、刷榜和作假等问题。 其他方面: 金沙江创投主管合伙人朱啸虎指出,使用大模型要有垂直行业数据,能实现数据闭环,并持续保持和客户的连接。对于大厂而言,要关心自身边界,而创业公司必须对客户和大厂有自身价值才能立足。 目前国内大模型的商业化落地仍处于拿着锤子找钉子的阶段,预计到今年年底头部大模型能基本达到 3.5 水平,明年 11 月有望到 4,但真正能落地的商业化场景有限。
2024-12-07
最新的开源的关于大语言模型的书有哪些?
以下是一些最新的开源的关于大语言模型的书籍和资源: 《LLM 开源中文大语言模型及数据集集合》: Awesome Totally Open Chatgpt: 地址: 简介:This repo record a list of totally open alternatives to ChatGPT. AwesomeLLM: 地址: 简介:This repo is a curated list of papers about large language models, especially relating to ChatGPT. It also contains frameworks for LLM training, tools to deploy LLM, courses and tutorials about LLM and all publicly available LLM checkpoints and APIs. DecryptPrompt: 地址: 简介:总结了 Prompt&LLM 论文,开源数据&模型,AIGC 应用。 Awesome Pretrained Chinese NLP Models: 地址: 简介:收集了目前网上公开的一些高质量中文预训练模型。 《AIGC Weekly 19》:包含了多篇相关文章,如腾讯的开源图像模型 Stable Diffusion 入门手册、马丁的关于 AIGC 的碎片化思考、多邻国创始人 Luis von Ahn 专访、Meta AI 发布的自监督学习 CookBook 等。 《进阶:a16z 推荐进阶经典》: 《GPT4 technical report》(2023 年):来自 OpenAI 的最新和最伟大的论文。 《LLaMA:Open and efficient foundation language models》(2023 年):来自 Meta 的模型。 《Alpaca:A strong,replicable instructionfollowing model》(2023 年):来自斯坦福大学的模型。
2024-12-03
强化学习+开源代码
以下是关于强化学习的开源代码入门指南: 1. 基础知识准备: 若概率论和线性代数基础薄弱,可利用周末约一天时间学习相关课程,若不关注公式可忽略。 若机器学习基础为零,先看吴恩达课程,再以李宏毅课程作补充,若仅为入门强化学习,看李宏毅课程前几节讲完神经网络部分即可,此课程约需 25 小时。 2. 动手实践: 跟随《动手学深度学习 https://hrl.boyuai.com/》学习并写代码,入门看前五章,约 10 小时。 观看 B 站王树森的深度学习课程前几节学习强化学习基础知识点,约 5 小时。 3. 项目实践: 参考《动手学强化学习》(已开源 https://hrl.boyuai.com/),看到 DQN 部分,约十几小时。 模型构建:DQN 的网络模型采用一层 128 个神经元的全连接并以 ReLU 作为激活函数,选用简单的两层网络结构。 缓存区:需要一个缓存区来存放从环境中采样的数据。 训练函数:批量从缓存区获取数据,使用 DQN 算法进行训练。 主循环函数:在每个 episode 中,选择一个动作(使用 εgreedy 策略),执行该动作,并将结果存储在 replay buffer 中。训练完使用保存好的 model.pth 参数即可实际使用。 4. Qlearning 算法: 比如在状态 s1 上,根据 Q 值表选择行动,如发现向下行动 Q 值最大则向下走。获取 Q(s1,下)乘上衰减值 gamma(如 0.9)并加上到达下一个状态的奖励 R,作为“Q 现实”,之前根据 Q 表得到的是“Q 估计”。通过公式更新 Q(s1,下)的值,公式为:。 算法流程:初始化 Q,for 序列 e = 1 > E do: 用 ε Greedy 策略根据 Q 选择当前状态 s 下的动作 a,得到环境反馈的 r,s‘,得到初始状态 s,for 时间步 t = 1> T do: ,End for,End for。启动程序训练 100 次后可较好进行游戏。
2024-11-21
帮我提供几款国内产品的AI,使用于小学教学的。
以下是几款适用于小学教学的国内 AI 产品: 1. 语言学习方面:Speak(https://www.speak.com/)、Quazel(https://www.quazel.com/)和 Lingostar(https://www.lingostar.ai/),能够实时交流,并对发音或措辞给予反馈。 2. 数学学习方面:Photomath(https://photomath.com/en)和 Mathly(https://mathly.webflow.io/),可指导学生解决数学问题。 3. 历史学习方面:PeopleAI(https://chatbotkit.com/apps/peopleai?ref=theresanaiforthat)和 Historical Figures(https://twitter.com/scottbelsky/status/1611244139764649991),通过模拟与杰出人物的聊天来教授历史。 4. 写作辅助方面:Grammarly、Orchard(https://orchard.ink/)和 Lex(https://lex.page/~),帮助学生克服写作难题,提升写作水平。 5. 内容创作方面:Tome(https://beta.tome.app/)和 Beautiful.ai(https://www.beautiful.ai/),可协助创建演示文稿。 您还可以了解更多关于(https://a16z.com/2023/02/08/thefutureoflearningeducationknowledgeintheageofai/)。
2024-12-16
帮我提供几款,国内用于小学教师辅助教学的AI
以下是几款国内可用于小学教师辅助教学的 AI: 1. :能够实时交流,并对发音或措辞给予反馈。 2. :提供个性化的学习计划。 3. :辅助语言学习。 4. :指导学生解决数学问题。 5. :帮助学生在数学学习中“摆脱困境”。 6. :通过模拟与杰出人物的聊天来教授历史。 7. :辅助历史教学。 8. Grammarly:帮助学生克服写作难题,并提升写作水平。 9. :协助学生提升写作能力。 10. :助力学生解决写作方面的问题。 此外,处理其他形式内容的产品如。
2024-12-16
要提供几款有助于教师教学的AI。
以下是几款有助于教师教学的 AI: 1. :提供实时交流和语言学习反馈,如发音或措辞指导。 2. :指导学生解决数学问题。 3. :通过模拟与杰出人物的聊天来教授历史。 4. Grammarly、:帮助学生克服写作难题,提升写作水平。 5. :协助创建演示文稿。 此外,还有以下与教学相关的 AI 应用或工具: 1. 百度文库(https://wenku.baidu.com):付费,质量较好。 2. 讯飞智文(https://zhiwen.xfyun.cn/):免费,引导较好。 3. Chatppt.com:付费,自动化程度高。 4. Mindshow.fun:支持 Markdown 导入。 5. Gamma.app:支持 Markdown 导入。 6. Tome.app:AI 配图效果好。
2024-12-16
我想要看书、学习记笔记,帮我推荐几款记笔记的AI 工具,按热度排名
以下是为您推荐的几款热度较高的记笔记 AI 工具: 1. 讯飞听见会议总结功能:能够自动总结会议发言内容。 2. AI Diary:采用人工智能技术为用户提供更加深入的反思和个人成长体验,可进行真实对话,进行情绪和写作分析,并为用户生成日记摘要和人工智能生成诗歌。 3. Descript:多功能工具,可帮助用户进行写作、录制、转录、编辑、协作和分享视频和播客,具有高精度和速度的转录和更正工具,能够快速创建社交媒体平台所需的视频剪辑和字幕等。 4. ResearchAIde:适用于学生、研究人员和商业专业人士,能够快速高效地从研究论文中提取并综合相关信息,可快速找到需要的信息,无需阅读整篇研究论文,还能整理研究并轻松浏览多篇论文,同时提供强大的数据提取能力。 5. Audio Pen:可以记录和总结用户想法的个人助手应用,不但录下声音,还会直接转成文字,并用类似 ChatGPT 的摘要功能,把它们全都整理成清晰的文字。
2024-12-09
推荐几款数字人生成软件
以下为您推荐几款数字人生成软件: 1. HeyGen:这是一个 AI 驱动的平台,能够创建逼真的数字人脸和角色。它使用深度学习算法生成高质量的肖像和角色模型,适用于游戏、电影和虚拟现实等应用。 2. Synthesia:这是一个 AI 视频制作平台,允许用户创建虚拟角色并进行语音和口型同步。支持多种语言,可用于教育视频、营销内容和虚拟助手等场景。 3. DID:这是一家提供 AI 拟真人视频产品服务和开发的公司,只需上传人像照片和输入要说的内容,平台提供的 AI 语音机器人将自动转换成语音,然后合成一段非常逼真的会开口说话的视频。 此外,还有以下一些 AI 视频软件: 1. Runway:有网页和 app 版本,使用方便。网址:https://runwayml.com 。工具教程: 2. haiper:网址:https://app.haiper.ai/ ,免费。 3. SVD:网址:https://stablevideo.com/ ,有免费额度,对于景观更好用。工具教程: 4. Pika:网址:https://pika.art/ ,收费,可控性强,可以对嘴型,可配音。工具教程: ,群友分享入门教程:https://mp.weixin.qq.com/s/maLCP_KLqZwuAxKd2US_RQ 5. PixVerse:网址:https://pixverse.ai/ ,免费,人少不怎么排队,还有换脸功能。工具教程: 6. Dreamina:网址:https://dreamina.jianying.com/ ,剪映旗下,生成 3 秒,动作幅度有很大升级,最新 S 模型,P 模型。工具教程: 7. Morph Studio:网址:https://app.morphstudio.com/ ,还在内测。 8. Heygen:网址:https://www.heygen.com/ ,数字人/对口型。 如果您想实现剪映数字人的“私有化”,可以参考以下步骤: 1. 第一步:打开谷歌浏览器,点击链接 https://github.com/facefusion/facefusioncolab 并点击 open colab 就进到程序主要运行界面。在右上角点击“代码执行程序”选择“全部运行”就行,无需安装,无需付费。点击红框对应的 URL 就会打开操作界面。 2. 第二步:点击“source”上传自己的照片和“target”上传之前的剪映数字人视频,保持默认参数,点击“START”就能生成! 3. 第三步:等着自己专属的数字人视频出炉! 有关数字人使用上的问题,欢迎在底部评论区留言,一起交流。同时如果对数字人课程感兴趣的话,欢迎查看通往 AGI 之路 X AI 沃茨的《克隆你自己》课程! 在线观看第一节:https://www.bilibili.com/video/BV1yw411E7Rt/?spm_id_from=333.999.0.0 。 请注意,这些工具的具体功能和可用性可能会随着时间和技术的发展而变化。在使用这些工具时,请确保遵守相关的使用条款和隐私政策,并注意保持对生成内容的版权和伦理责任。更多数字人工具请访问网站查看:https://www.waytoagi.com/category/42 。
2024-11-18
帮我推荐几款ai绘画的免费软件。
以下为您推荐几款 AI 绘画的免费软件: 1. 吐司:https://tusiart.com/images/635511733697550450?post_id=635512498197535244&source_id=nzywoVHilkK7o_cqaH31xAh 2. 哩布:https://www.liblib.ai/
2024-09-27