直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

使用开源大模型本地化部署使用电脑配置,推荐几款笔记本电脑

回答

以下是关于使用开源大模型本地化部署所需电脑配置及笔记本电脑推荐的相关信息:

运行大模型需要较高的机器配置,个人玩家大多负担不起。以下是不同类型大模型的配置要求:

  • 生成文字大模型:
    • 最低配置:8G RAM + 4G VRAM
    • 建议配置:16G RAM + 8G VRAM
    • 理想配置:32G RAM + 24G VRAM(跑 GPT-3.5 差不多性能的大模型)
  • 生成图片大模型(比如跑 SD):
    • 最低配置:16G RAM + 4G VRAM
    • 建议配置:32G RAM + 12G VRAM
  • 生成音频大模型:
    • 最低配置:8G VRAM
    • 建议配置:24G VRAM

对于本地化部署,不建议使用最低配置,因为速度会非常慢。例如,用 8G 的 Mac 电脑尝试过,效果不佳。

由于本地化部署对电脑配置要求较高,不太推荐本地化安装实现。如果想使用开源大模型,可选择利用云厂商已提供好的大模型运行环境和计算能力,比如阿里云的 PAI 和 AutoDL。

在笔记本电脑选择方面,建议选择具备以下配置的机型:

  1. 内存:16GB 及以上的 RAM。
  2. 显卡:具有 8GB 及以上 VRAM 的独立显卡。

但具体的笔记本电脑型号还需根据您的预算和其他需求来确定。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

实战: 每个人都可以用10分钟轻松制作AI换脸、AI数字人视频的方法!

有多个AI产品可以实现换脸效果,这里介绍一个开源、免费的解决方案:facefusion开源地址:https://github.com/facefusion/facefusion4.1本机解决方案这个软件需要python环境,以及要安装视频解码器等多个依赖的软件,因此如果你想在本地电脑上安装,需要一定的编程知识。可以参考网站:https://docs.facefusion.io/说明来进行本地的安装。由于facefusion的运行推理计算的速度,非常依赖于GPU,因此如果本地计算机没有GPU或者GPU显存较小,那么执行的速度将会非常缓慢。我的笔记本是Macbook Pro M1 16GB内存,集成GPU。对一个1分30秒的视频换脸,需要1300秒。facefusion所以,无论从环境配置还是计算速度来说,都不推荐本地化安装实现。4.2云服务解决方案另一个可选的方案,是利用云厂商已经提供好的大模型运行环境和计算能力。比如阿里云的PAI和AutoDL。注:这种方案需要产生一定的费用。我选择的是AutoDL,其官网是:https://www.autodl.com/home注册完成后,在算力市场中,选择你能接受价格的算力服务器。建议选取GPU配置更高的算力设备。4.2.2通过模型镜像启动GPU服务器在算法社区查找facefusion镜像:

AI 大语言模型赋予火火兔生命

5~6台火火兔+ folotoy模组(3套现场试玩的成品,2套拆开的裸组件),有更多其他形态的机子更佳用于连接火火兔和电脑的网络本地部署的dify服务器-- Larrytts和asr服务器两台笔记本+两张以上椅子展示用桌子两张屏幕2块一个相对安静的空间用于语音克隆

手把手教你本地部署大模型以及搭建个人知识库

所有人都会手把手教你部署XX大模型,听起来很诱人,因为不需要科学上网,不需要高昂的ChatGPT会员费用。但是在开启下面的教程之前,我希望你能有个概念:运行大模型需要很高的机器配置,个人玩家的大多数都负担不起所以:虽然你的本地可能可以搭建出一个知识库,但是它不一定能跑的起来下面我通过一组数据来让大家有个感性的认知。以下文字来源于视频号博主:黄益贺,非作者实操生成文字大模型最低配置:8G RAM + 4G VRAM建议配置:16G RAM + 8G VRAM理想配置:32G RAM + 24G VRAM(如果要跑GPT-3.5差不多性能的大模型)生成图片大模型(比如跑SD)最低配置:16G RAM + 4G VRAM建议配置:32G RAM + 12G VRAM生成音频大模型最低配置:8G VRAM +建议配置:24G VRAM而最低配置我就不建议了,真的非常慢,这个我已经用我自己8G的Mac电脑替你们试过了。讲这个不是泼大家冷水,而是因为我的文章目标是要做到通俗易懂,不希望通过夸大的方式来吸引你的眼球。

其他人在问
AI视频需要什么 电脑配置
制作 AI 视频通常需要以下方面的准备和配置: 1. 内容准备: 准备一段视频中播放的文字内容,例如产品介绍、课程讲解、游戏攻略等。可以自行创作,也可以利用 AI 生成。 2. 视频制作工具: 可以使用剪映 App 对视频进行简单处理,电脑端打开剪映 App 点击“开始创作”,选择顶部工具栏中的“文本”,并点击默认文本右下角的“+”号为视频添加文字内容轨道。 3. AI 换脸方面: 有多个 AI 产品可实现换脸效果,如开源免费的 facefusion。 本机解决方案需要 Python 环境、安装视频解码器等多个依赖软件,对 GPU 依赖较大,本地计算机若无 GPU 或 GPU 显存较小,执行速度缓慢,不推荐本地化安装。 云服务解决方案可利用云厂商如阿里云的 PAI 和 AutoDL 提供的大模型运行环境和计算能力,但会产生一定费用。例如选择 AutoDL,在算力市场中选取能接受价格且 GPU 配置更高的算力设备,并通过模型镜像启动 GPU 服务器。
2024-09-24
stable diffusion需要的电脑配置
为了顺利安装和使用 Stable Diffusion(简称“SD”),您需要先查看自己的电脑配置,注意以下两点: 1. 电脑系统:应为 Win10 或者 Win11,避免使用更低版本的系统。查看方法为在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。 2. 电脑性能: 电脑运行内存应在 8GB 以上。检查方法为:鼠标右击桌面底部任务栏,点击“任务管理器”,在“性能”里面找到“内存”,只要看图中划线的那一个参数即可。8GB 勉强达到标准,16GB 可以正常使用,32GB 则能非常自由地使用 SD。 应是英伟达(俗称 N 卡)的显卡,显卡内存在 4GB 以上。检查方法为:在“任务管理器”中查看“GPU”,GPU 即显卡。 另外,带动 SD 推荐的电脑配置为:电脑运行内存 16GB 以上,英伟达显卡,显卡内存 8GB 以上。同时打开任务管理器的方式为同时按下 ctrl+shift+esc。
2024-08-13
安装 SD 电脑配置
安装Stable Diffusion对电脑配置有一定的要求,主要是为了确保能够顺利运行AI绘画模型并生成高质量的图像。以下是安装Stable Diffusion所需的基本电脑配置要求: 1. 显卡:需要使用NVIDIA显卡,因为Stable Diffusion主要依赖CUDA进行GPU加速。推荐的显卡配置从NVIDIA GeForce GTX 1070起,或NVIDIA Quadro P4000起。 2. 显存:最低配置需要4GB显存,基本配置6GB显存,推荐配置12GB显存或者以上。显存越大,可设置的图片分辨率越高,且能处理更复杂的图像生成任务。 3. 操作系统:需要是Windows 10或Windows 11。对于Mac用户,虽然可以使用CPU进行渲染,但速度会比较慢,因此推荐使用配备NVIDIA显卡的Windows电脑。 4. 硬盘空间:建议有60GB以上的硬盘空间,因为Stable Diffusion的模型文件通常较大,且批量生成图像会占用较多存储空间。 5. 内存:虽然没有具体要求,但为了保证运行流畅,建议有8GB以上的内存。 6. Python环境:Stable Diffusion是基于Python搭建的,因此需要在电脑上安装Python环境。建议安装3.10.6版本,这是Stable Diffusion WebUI作者推荐安装的版本。 7. Git:用于从GitHub上安装和更新Stable Diffusion及其插件。 8. Docker:如果选择使用Docker部署Stable Diffusion,需要在系统上安装Docker Desktop。 请注意,具体的配置要求可能会根据Stable Diffusion的版本和使用的具体功能有所不同。如果使用云端服务或在线工具,对本地电脑配置的要求会降低,因为大部分计算会在云端完成。
2024-05-01
蛟龙16pro配置(处理器R7-7745HX,显卡RTX4060 8G,硬盘512GPCIE4.0SSD)可以用于审计人员本地化部署大模型用于数据分析工作吗
蛟龙 16pro 的配置(处理器 R77745HX,显卡 RTX4060 8G,硬盘 512G PCIE4.0 SSD)对于审计人员本地化部署大模型用于数据分析工作来说,可能存在一定的局限性。 处理器 R77745HX 具有一定的计算能力,但在处理大规模数据和复杂的模型运算时,其性能可能不够强劲。 显卡 RTX4060 8G 对于一些较为复杂的图形处理和计算任务能够提供一定的支持,但对于大规模的深度学习模型训练和数据分析,可能会显得不足。 512G 的 PCIE4.0 SSD 硬盘容量相对较小,在存储大量数据时可能会很快耗尽空间。 综上所述,该配置在一定程度上可以用于简单的数据分析任务,但对于较为复杂和大规模的大模型本地化部署及数据分析工作,可能需要更强大的硬件配置,例如更高性能的处理器、更大容量和更高性能的显卡,以及更大的存储空间。
2024-09-14
蛟龙16pro配置可以用于审计人员本地化部署大模型用于数据分析工作吗
蛟龙 16pro 的配置信息对于能否用于审计人员本地化部署大模型进行数据分析工作,需要更多关于该设备具体配置的详细信息才能准确判断。一般来说,本地化部署大模型进行数据分析工作对计算机的硬件配置有较高要求,包括但不限于强大的 CPU 性能、充足的内存容量、高速的存储设备以及优秀的显卡性能等。如果您能提供蛟龙 16pro 更详细的配置参数,我可以为您做出更准确的评估和建议。
2024-09-14
为审计人员利用大模型本地化部署进行数据分析的电脑如何配置
对于审计人员利用大模型本地化部署进行数据分析的电脑配置,以下是相关建议: 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型) 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 需要注意的是,最低配置运行速度可能非常慢。另外,对于 SDXL 的大模型,分为两个部分: 第一部分,base + refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于对生成的模型进行细化,生成细节更丰富的图片。 第二部分,还有一个配套的 VAE 模型,用于调节图片的画面效果和色彩。 想要在 webUI 中使用 SDXL 的大模型,首先要在秋叶启动器中将 webUI 的版本升级到 1.5 以上。接下来,将模型放入对应的文件夹中,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。完成之后,启动 webUI,就可以在模型中看到 SDXL 的模型。
2024-09-12
最为审计人员利用大模型本地化部署在电脑上进行数据分析,电脑如何配置
对于审计人员利用大模型本地化部署在电脑上进行数据分析,电脑配置需要考虑以下方面: 模型选择与下载: SDXL 大模型分为 base+refiner 两个必须下载的部分,base 是基础模型用于文生图操作,refiner 是精炼模型用于细化生成的模型,还有一个配套的 VAE 模型用于调节图片效果和色彩。您可以关注公众号【白马与少年】,回复【SDXL】获取下载链接。 除了上述模型,还可在 Civitai(C 站)https://civitai.com/ 寻找更多模型。使用 C 站时需科学上网,点击右上角筛选按钮找到所需模型类型,如 Checkpoint=大模型、LoRA=Lora,看到感兴趣的模型点击下载保存到电脑本地。 模型存放路径与使用: 将下载的模型放入对应文件夹,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下,vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。启动 webUI 后可在模型中看到 SDXL 模型。 硬件配置需求: ChatGLM6B 模型:模型文件下载至本地需要 15 GB 存储空间。量化等级不同,对 GPU 显存要求不同,如 FP16(无量化)最低 GPU 显存(推理)需 13 GB,高效参数微调需 14 GB;INT8 推理需 8 GB,高效参数微调需 9 GB;INT4 推理需 6 GB,高效参数微调需 7 GB。 MOSS 模型:模型文件下载至本地需要 70 GB 存储空间。FP16(无量化)最低 GPU 显存(推理)需 68 GB。 Embedding 模型:默认选用的约占用显存 3GB,也可修改为在 CPU 中运行。
2024-09-12
本地化部署
以下是关于本地化部署的相关内容: SDXL 的本地化部署: SDXL 的大模型分为两个部分: 1. 第一部分,base+refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于对文生图生成的模型进行细化,生成细节更丰富的图片。 2. 第二部分,SDXL 还有一个配套的 VAE 模型,用于调节图片的画面效果和色彩。 这三个模型的下载链接可关注公众号【白马与少年】,回复【SDXL】获取。 在 webUI 中使用 SDXL 大模型,需先在秋叶启动器中将 webUI 的版本升级到 1.5 以上。然后将模型放入对应的文件夹中,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。完成后启动 webUI,即可在模型中看到 SDXL 的模型。 正常使用方法:先在文生图中使用 base 模型,填写提示词和常规参数,尺寸可设为 10241024 进行生成。生成图片后,可将其发送到图生图中,大模型切换为“refiner”,重绘幅度开小一点,再次点击生成。 对于配置较高的电脑,如显卡为 4080ti,生成时间约在十秒左右。配置较低的需自行测试。 还可安装 refine 插件,在扩展列表中搜索 refine 并安装,重启后可在文生图界面直接使用 refine 模型进行绘画。 Google Gemma 的本地化部署: Google 发布的家用版小模型 Gemma 有 2b(20 亿参数)和 7b(70 亿参数)版本。 部署环境准备: 1. 首先提一下 Ollama,它是一个开源的大型语言模型服务,可方便地部署最新版本的 GPT 模型并通过接口使用,支持热加载模型文件,无需重新启动即可切换不同的模型。 2. 进入 ollama.com,下载程序并安装(支持 windows,linux 和 macos)。 3. 查找 cmd 进入命令提示符,输入 ollama v 检查版本,安装完成后版本应显示 0.1.26。 4. 输入 cls 清空屏幕,然后直接输入 ollama run gemma 运行模型(默认是 2b),首次需下载,等待一段时间。若想用 7b,运行 ollama run gemma:7b。完成后即可直接对话,2 个模型都安装后,可重复上述指令切换。
2024-09-11
目前有哪些开源绘画模型
目前常见的开源绘画模型有: Stable Diffusion:生态最完整,能够加载的框架有 ComfyUI 框架、SD.Next 框架、Stable Diffusion WebUI 框架、diffusers 框架。 MidJourney:模型风格包罗万象,操作简洁,极富美感和艺术感。 Dall·E3(ChatGPT):具有惊人的语义理解能力,可像甲方一样连续修改。 Fooocus:优化程度高,操作简便,类似本地化 mj。 ComfyUI:门槛高,定制化强。 HunYuanDiT:国内第一个开源绘图模型。 SDXL:开源时间为 2023.7。 SD3:开源时间为 2024.6。 KOLORS:开源时间为 2024.7,目前生图质量最高,有相关的教学视频,如“Kolors 中文生图绘画模型开源,快手接连放出高质量开源项目,是否会成为中国的 StabilityAI”等。 Flux:开源时间为 2024.8。
2024-11-07
有哪些开源或者免费的数字人工具
以下是一些开源或者免费的数字人工具: 1. HeyGen:AI 驱动的平台,能创建逼真的数字人脸和角色,使用深度学习算法生成高质量肖像和角色模型,适用于游戏、电影和虚拟现实等。 2. Synthesia:AI 视频制作平台,允许创建虚拟角色并进行语音和口型同步,支持多种语言,可用于教育视频、营销内容和虚拟助手等场景。 3. DID:提供 AI 拟真人视频产品服务和开发,上传人像照片和输入内容,平台的 AI 语音机器人能自动转换成语音并合成逼真的说话视频。 更多数字人工具请访问网站查看:https://www.waytoagi.com/category/42 此外,还有一些相关的开源代码仓库: ASR 语音识别: openai 的 whisper: https://github.com/openai/whisper wenet: https://github.com/wenete2e/wenet speech_recognition:https://github.com/Uberi/speech_recognition AI Agent: 大模型:ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等。 Agent 部分:可使用 LangChain 的模块自定义,https://www.langchain.com/ TTS: 微软的 edgetts:https://github.com/rany2/edgetts,只能使用预设人物声音,目前接口免费。 VITS:https://github.com/jaywalnut310/vits,还有很多分支版本。 sovitssvc: https://github.com/svcdevelopteam/sovitssvc,专注于唱歌。 请注意,这些工具的具体功能和可用性可能会随时间和技术发展而变化。在使用时,请确保遵守相关使用条款和隐私政策,并注意保持对生成内容的版权和伦理责任。
2024-11-07
有哪些开源免费的数字人工具
以下是一些开源免费的数字人工具: 1. HeyGen:这是一个 AI 驱动的平台,能创建逼真的数字人脸和角色,使用深度学习算法生成高质量肖像和角色模型,适用于游戏、电影和虚拟现实等应用。 2. Synthesia:AI 视频制作平台,允许创建虚拟角色并进行语音和口型同步,支持多种语言,可用于教育视频、营销内容和虚拟助手等场景。 3. DID:提供 AI 拟真人视频产品服务和开发,上传人像照片和输入内容,平台的 AI 语音机器人将自动转换成语音并合成逼真的会开口说话的视频。 更多数字人工具请访问网站查看:https://www.waytoagi.com/category/42 。 请注意,这些工具的具体功能和可用性可能会变化。使用时请遵守相关使用条款和隐私政策,并注意生成内容的版权和伦理责任。 此外,以下是一些与数字人相关的开源代码仓库: ASR 语音识别: openai 的 whisper: https://github.com/openai/whisper wenet: https://github.com/wenete2e/wenet speech_recognition:https://github.com/Uberi/speech_recognition AI Agent: 大模型部分包括 ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等。 Agent 部分可使用 LangChain 的模块自定义,包含了 Agent 实现的几个组件:https://www.langchain.com/ TTS: 微软的 edgetts:https://github.com/rany2/edgetts,只能使用里面预设的人物声音,目前接口免费。 VITS:https://github.com/jaywalnut310/vits,还有很多分支版本。 sovitssvc: https://github.com/svcdevelopteam/sovitssvc,专注于唱歌。 人物建模模型可通过手动建模(音频驱动)或者 AIGC 的方式生成人物的动态效果(例如 wav2lip 模型)实现。 以下是部分摊位信息中与数字人相关的内容: |编号|摊位活动主题和内容|摊位区域|摊位编号| ||||| |54|AI 数字人的技术以及应用场景|D|D4| |59|百度数字人试拍|D|D3|
2024-11-07
阿里开源的数字人
阿里开源的数字人相关信息如下: 阿里的虚拟数字人:https://www.aliyun.com/product/ai/avatar?spm=5176.21213303.8115314850.1.72de53c9pdvu6T&scm=20140722.S_card@@%E4%BA%A7%E5%93%81@@1161322.S_card0.ID_card@@%E4%BA%A7%E5%93%81@@1161322RL_%E6%95%B0%E5%AD%97%E4%BA%BAOR_serV_2P0_0 关于阿里在 AIGC 实践方面的相关文章: 在构建高质量的 AI 数字人方面,建好的模型可以使用 web 前端页面(Live2D 就提供了 web 端的 SDK)或者 Native 的可执行程序进行部署,最后呈现在用户面前的是一个 GUI。笔者的开源数字人项目(项目地址:https://github.com/wanh/awesomedigitalhumanlive2d)选择了 live2d 作为数字人躯壳,因为这类 SDK 的驱动方式相比现在的 AI 生成式的方式更加可控和自然,相比虚幻引擎这些驱动方式又更加轻量和简单;另外超写实的数字人风格在目前的技术能力下,处理不好一致性问题,容易带来虚假的感觉或者产生恐怖谷效应,而卡通二次元的形象给人的接受度更高。关于 live2d 的 SDK 驱动方式可以参考官方示例:https://github.com/Live2D 。
2024-11-07
开源数字人
以下是关于开源数字人的相关信息: 组合方案: 1. 先剪出音频,使用 https://elevenlabs.io/speechsynthesis 或使用 GPTsovits()克隆声音,做出文案的音频。 2. 使用 wav2lip 整合包,导入视频和音频,对口型得到视频。基础 wav2lip+高清修复整合包下载地址:https://github.com/Rudrabha/Wav2Lip 。这就是目前的本地跑数字人的方案,效果都差不多,都是用的 wav2lip 。产品:https://synclabs.so/ 构建高质量的 AI 数字人: 1. 构建数字人躯壳:建好的模型可以使用 web 前端页面(Live2D 就提供了 web 端的 SDK)或者 Native 的可执行程序进行部署,最后呈现在用户面前的是一个 GUI 。笔者的开源数字人项目(项目地址:https://github.com/wanh/awesomedigitalhumanlive2d)选择了 live2d 作为数字人躯壳,因为这类 SDK 的驱动方式相比现在的 AI 生成式的方式更加可控和自然,相比虚幻引擎这些驱动方式又更加轻量和简单;另外超写实的数字人风格在目前的技术能力下,处理不好一致性问题,容易带来虚假的感觉或者产生恐怖谷效应,而卡通二次元的形象给人的接受度更高。关于 live2d 的 SDK 驱动方式可以参考官方示例:https://github.com/Live2D 。 相关算法开源代码: 1. ASR 语音识别: openai 的 whisper: https://github.com/openai/whisper wenet: https://github.com/wenete2e/wenet speech_recognition(这是一个语音识别的接口集合,里面有不同实现的语音识别的接口): https://github.com/Uberi/speech_recognition 2. AI Agent: 大模型部分:包括 ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等等。 Agent 部分:可以使用 LangChain 的模块去做自定义,里面基本包含了 Agent 实现的几个组件 3. TTS: 微软的 edgetts:https://github.com/rany2/edgetts,只能使用里面预设的人物声音,目前接口免费。 VITS:https://github.com/jaywalnut310/vits,还有很多的分支版本,可以去搜索一下,vits 系列可以自己训练出想要的人声。 sovitssvc: https://github.com/svcdevelopteam/sovitssvc,专注到唱歌上面,前段时间很火的 AI 孙燕姿。 除了算法,人物建模模型可以通过手动建模(音频驱动)或者 AIGC 的方式生成人物的动态效果(例如 wav2lip 模型)实现,这样就完成了一个最简单的数字人。当然这种简单的构建方式还存在很多的问题,例如: 1. 如何生成指定人物的声音? 2. TTS 生成的音频如何精确驱动数字人口型以及做出相应的动作? 3. 数字人如何使用知识库,做出某个领域的专业性回答?
2024-11-06
开源大模型ChatGLM 系列有哪些版本
ChatGLM 系列的开源版本包括: ChatGLM36B:第三代 ChatGLM 对话模型,采用全新设计的 Prompt 格式,原生支持工具调用、代码执行和 Agent 任务等复杂场景。 ChatGLM36Bbase:第三代 ChatGLM 基座模型,采用更多样的训练数据、更充分的训练步数和更合理的训练策略,在 10B 以下的基础模型中性能较强。 ChatGLM36B32k:第三代 ChatGLM 长上下文对话模型,在 ChatGLM36B 的基础上进一步强化了对长文本的理解能力,能处理最多 32K 长度的上下文。
2024-11-04
帮我推荐几款ai绘画的免费软件。
以下为您推荐几款 AI 绘画的免费软件: 1. 吐司:https://tusiart.com/images/635511733697550450?post_id=635512498197535244&source_id=nzywoVHilkK7o_cqaH31xAh 2. 哩布:https://www.liblib.ai/
2024-09-27
我做过微商,主要是网上卖门票优惠劵,美食优惠卷,过节卖月饼种子礼盒,还有蟹卡,我平时时间比较富裕,请推荐我适合做那个行业的副业,我45岁,男士,适合利用哪款ai工具来帮助我的副业,我应该具体从什么开始学起,我是做能源石油开采行业的,请给我推荐几款副业,
您好,鉴于您的情况,以下是一些可能适合您的副业推荐: 1. 电商直播带货:您有销售经验,可以通过直播介绍和销售各类特色产品。 2. 在线咨询服务:利用您在能源石油开采行业的专业知识,为相关从业者提供咨询。 在 AI 工具方面,您可以考虑以下几种: 1. 智能客服工具:例如阿里云小蜜等,帮助您处理客户的常见问题,提高服务效率。 2. 数据分析工具:如百度统计、腾讯分析等,帮助您分析市场数据和客户需求。 对于学习,建议您从以下方面开始: 1. 了解 AI 工具的基本功能和操作方法。 2. 学习如何运用数据分析工具来挖掘潜在的市场需求和客户偏好。 希望以上建议对您有所帮助。
2024-09-16
推荐几款效果比较好的文生视频和图生视频大模型
以下为您推荐几款效果较好的文生视频和图生视频大模型: 1. 可灵:在场景识别(包括室内和室外)、物体识别(静态和动态)、人物识别(面部和姿态)、动作识别(基本和复杂)、事件检测(简单和复杂)、环境变化(光线和天气)、多对象场景(单一和多对象)、特殊场景(遮挡和非标准)、细节检测(小物体和微表情)等方面表现出色。 2. Pika:是一款出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 3. SVD:如果熟悉 Stable Diffusion,可以安装这款最新的插件,在图片基础上直接生成视频。这是由 Stability AI 开源的 video model。 4. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需要收费。 5. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 6. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的文生视频的网站可以查看: Kolors 是最近开源的文生图模型中表现给力的一个,在多个方面有改进和优势,实测效果不错,展现了快手的技术实力。
2024-09-09
推荐几款翻译软件,并把文字转为音频的工具
以下为您推荐几款翻译软件和文字转音频的工具: 翻译软件: 1. DeepL(网站): 点击页面「翻译文件」按钮,上传 PDF、Word 或 PowerPoint 文件即可。 2. 沉浸式翻译(浏览器插件): 安装插件后,点击插件底部「更多」按钮,选择「制作双语 BPUB 电子书」、「翻译本地 PDF 文件」、「翻译 THML / TXT 文件」、「翻译本地字幕文件」 。 3. calibre(电子书管理应用): 下载并安装 calibre,并安装翻译插件「Ebook Translator」 。 4. 谷歌翻译(网页): 使用工具把 PDF 转成 Word,再点击谷歌翻译「Document」按钮,上传 Word 文档。 5. 百度翻译(网页): 点击导航栏「文件翻译」,上传 PDF、Word、Excel、PPT、TXT 等格式的文件,支持选择领域和导出格式(不过进阶功能基本都需要付费了)。 6. 彩云小译(App):下载后点击「文档翻译」,可以直接导入 PDF、PDF、Word、Excel、PPT、TXT、epub、srt 等格式的文档并开始翻译(不过有免费次数限制且进阶功能需要付费)。 7. 微信读书(App):下载 App 后将 PDF 文档添加到书架,打开并点击页面上方「切换成电子书」,轻触屏幕唤出翻译按钮。 8. 浏览器自带的翻译功能:如果一些 PDF 太大,翻译工具不支持,除了将 PDF 压缩或者切分外,还可以转成 HTML 格式,然后使用浏览器自带的网页翻译功能。 文字转音频工具: 1. Eleven Labs:https://elevenlabs.io/ ElevenLabs Prime Voice AI 是一款功能强大且多功能的 AI 语音软件,使创作者和出版商能够生成逼真、高品质的音频。人工智能模型能够高保真地呈现人类语调和语调变化,并能够根据上下文调整表达方式。 2. Speechify:https://speechify.com/ Speechify 是一款人工智能驱动的文本转语音工具,使用户能够将文本转换为音频文件。它可作为 Chrome 扩展、Mac 应用程序、iOS 和 Android 应用程序使用,可用于收听网页、文档、PDF 和有声读物。 3. Azure AI Speech Studio:https://speech.microsoft.com/portal Microsoft Azure Speech Studio 是一套服务,它赋予应用程序能力,让它们能够“听懂、理解并与客户进行对话”。 视频自动字幕工具: 1. Reccloud:这是一个免费的在线 AI 字幕生成工具,可以直接上传视频进行精准识别,并且可以对识别的字幕进行翻译,自动生成双语字幕。它声称已经处理了 1.2 亿+视频,识别准确率接近 100%。 2. 绘影字幕:这是一个一站式专业视频自动字幕编辑器,提供简单、准确、快速的字幕制作和翻译服务。它支持 95 种语言,并且有 98%的超高准确率。此外,用户还可以自定义视频字幕样式,包括字体、颜色、大小、位置等。 3. Arctime:这是一款可以对视频语音自动识别并转换为字幕的工具,甚至支持自动打轴。它支持 Windows 和 Linux 等主流平台,并且支持 SRT 和 ASS 等字幕功能。 4. 网易见外:这是一个国内知名的语音平台,支持视频智能字幕功能,转换的正确率比较高,并且支持音频转写功能。 以上工具各有特点,您可以根据自己的需求选择最适合您的工具。
2024-08-30
请帮我推荐几款英语口语练习的AI
以下为您推荐几款适合练习英语口语的 AI 工具: 1. LingoDeer(https://www.lingodeer.com/):通过游戏和互动活动教孩子英语,提供各种课程,包括字母、数字、语法和词汇等,还有家长仪表板可跟踪孩子进度和设置学习目标。 2. Busuu(https://www.busuu.com/):流行的语言学习应用,提供英语等多种语言课程,使用多种教学方法,包括音频、视频课程和互动练习,具有社区功能可与世界各地孩子练习口语。 3. Memrise(https://www.memrise.com/):利用抽认卡和游戏教孩子英语,涵盖基本词汇到会话技巧,具有社交功能可与朋友家人一起学习。 4. Rosetta Stone(https://www.rosettastone.com/):使用沉浸式方法教孩子英语,注重在自然环境中使用英语,具有语音识别功能帮助练习发音。 5. Duolingo(https://www.duolingo.com/):免费的语言学习应用,提供多种语言课程,使用游戏化方法使学习有趣。 对于 4 岁儿童,在选择 AI 工具时,需考虑孩子的年龄、兴趣和学习风格,还应考虑应用程序的功能和成本。比如: 1. 应用程序的年龄适配性:确保适合孩子年龄。 2. 趣味性和吸引力:孩子更易坚持使用有趣的应用。 3. 有效性:有些应用教学效果更好,选择前可阅读评论和研究。 4. 费用:有免费和付费订阅之分,要考虑预算。 如果是为了求职外企提升口语,还可以选择: 1. Speak:AI 英语学习 APP,利用先进技术提供实时反馈,提供个性化学习体验,OpenAI 曾投资。 2. Call Annie:能根据发言调整表情和动作,可随时通过视频或语音进行英语对话。 使用这些工具时,建议结合实际对话练习,如参与语言交换、加入学习小组或与母语为英语的人对话,定期复习和持续实践对提高口语能力也很重要。
2024-08-26
有没有做ppt课件的ai应用,推荐几款
以下是一些做 PPT 课件的 AI 应用推荐: 讯飞智文:由科大讯飞推出的 AI 辅助文档编辑工具,利用语音识别和自然语言处理技术,提供智能文本生成、语音输入、文档格式化等功能。 SlidesAI:一款 AI 制作 PPT 工具。 Decktopus AI:具有制作 PPT 的功能。 Tome:可用于制作 PPT。 MagicSlides:帮助用户制作 PPT。 Presentations.AI:提供 PPT 制作服务。 Canva:包含 PPT 制作功能。 Simplified:可辅助制作 PPT。 GlimmerAI:用于生成 PPT。 Sendsteps:一款 PPT 制作工具。 Plus AI:具备制作 PPT 的能力。 Microsoft 365 Copilot:可协助制作 PPT。 Gamma:提供 PPT 制作相关服务。 Canva Magic Design:帮助用户设计 PPT。 ChatGPT:可辅助生成 PPT 内容。 Beautiful.AI:用于制作美观的 PPT。 这些工具通过自动化和智能化的设计流程,简化了 PPT 的制作工作,使非设计专业人士也能轻松制作出高质量的演示文稿。用户可以根据自己的需求和喜好选择合适的 AI PPT 工具,以提高工作效率和演示效果。
2024-07-10