直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

为审计人员利用大模型本地化部署进行数据分析的电脑如何配置

回答

对于审计人员利用大模型本地化部署进行数据分析的电脑配置,以下是相关建议:

生成文字大模型:

  • 最低配置:8G RAM + 4G VRAM
  • 建议配置:16G RAM + 8G VRAM
  • 理想配置:32G RAM + 24G VRAM(如果要跑 GPT-3.5 差不多性能的大模型)

生成图片大模型(比如跑 SD):

  • 最低配置:16G RAM + 4G VRAM
  • 建议配置:32G RAM + 12G VRAM

生成音频大模型:

  • 最低配置:8G VRAM
  • 建议配置:24G VRAM

需要注意的是,最低配置运行速度可能非常慢。另外,对于 SDXL 的大模型,分为两个部分:

  • 第一部分,base + refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于对生成的模型进行细化,生成细节更丰富的图片。
  • 第二部分,还有一个配套的 VAE 模型,用于调节图片的画面效果和色彩。

想要在 webUI 中使用 SDXL 的大模型,首先要在秋叶启动器中将 webUI 的版本升级到 1.5 以上。接下来,将模型放入对应的文件夹中,base 和 refiner 放在“……\sd-webui-aki-v4.2\models\Stable-diffusion”路径下;vae 放在“……\sd-webui-aki-v4.2\models\VAE”路径下。完成之后,启动 webUI,就可以在模型中看到 SDXL 的模型。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

【SD】向未来而生,关于SDXL你要知道事儿

SDXL的大模型分为两个部分:第一部分,base+refiner是必须下载的,base是基础模型,我们使用它进行文生图的操作;refiner是精炼模型,我们使用它对文生图中生成的模型进行细化,生成细节更丰富的图片。第二部分,是SDXL还有一个配套的VAE模型,用于调节图片的画面效果和色彩。这三个模型,我已经放入了云盘链接中,大家可以关注我的公众号【白马与少年】,然后回复【SDXL】获取下载链接。想要在webUI中使用SDXL的大模型,首先我们要在秋叶启动器中将webUI的版本升级到1.5以上。接下来,将模型放入对应的文件夹中,base和refiner放在“……\sd-webui-aki-v4.2\models\Stable-diffusion”路径下;vae放在“……\sd-webui-aki-v4.2\models\VAE”路径下。完成之后,我们启动webUI,就可以在模型中看到SDXL的模型了。我们正常的使用方法是这样的:先在文生图中使用base模型,填写提示词和常规参数,尺寸可以设置为1024*1024,进行生成。我这边使用了一个最简单的提示词“1girl”,来看看效果。生成的图片大家可以看一下,我觉得是相当不错的。

手把手教你本地部署大模型以及搭建个人知识库

所有人都会手把手教你部署XX大模型,听起来很诱人,因为不需要科学上网,不需要高昂的ChatGPT会员费用。但是在开启下面的教程之前,我希望你能有个概念:运行大模型需要很高的机器配置,个人玩家的大多数都负担不起所以:虽然你的本地可能可以搭建出一个知识库,但是它不一定能跑的起来下面我通过一组数据来让大家有个感性的认知。以下文字来源于视频号博主:黄益贺,非作者实操生成文字大模型最低配置:8G RAM + 4G VRAM建议配置:16G RAM + 8G VRAM理想配置:32G RAM + 24G VRAM(如果要跑GPT-3.5差不多性能的大模型)生成图片大模型(比如跑SD)最低配置:16G RAM + 4G VRAM建议配置:32G RAM + 12G VRAM生成音频大模型最低配置:8G VRAM +建议配置:24G VRAM而最低配置我就不建议了,真的非常慢,这个我已经用我自己8G的Mac电脑替你们试过了。讲这个不是泼大家冷水,而是因为我的文章目标是要做到通俗易懂,不希望通过夸大的方式来吸引你的眼球。

其他人在问
本地化搭建问答机器人流程
本地化搭建问答机器人的流程如下: 1. 加载所需的库和模块:包括用于解析 RSS 订阅源的 feedparse,用于在 Python 程序中跑大模型的 ollama(使用前需确保 ollama 服务已开启并下载好模型)。 2. 从订阅源获取内容:通过函数从指定的 RSS 订阅 url 提取内容,如需接收多个 url 稍作改动即可。然后使用专门的文本拆分器将长文本拆分成较小的块,并附带相关元数据,最终合并成列表返回用于后续处理或提取。 3. 为文档内容生成向量:使用文本向量模型 bgem3(从 hf 下载好模型后假设放置在某个路径,通过函数利用 FAISS 创建高效的向量存储)。 4. 推荐 RSSHub 项目:可将关注的信息汇聚在同一平台,一旦有更新能在各种终端收到提醒。其为各种网站生成 RSS 源,大部分社交媒体、传统媒体和金融媒体都能配合订阅。 5. 流程拆解: 创建 Python 虚拟环境,并安装相关库,如 ollama(0.1.8)、langchain(0.1.14)、faisscpu(1.8.0,有 gpu 则安装 gpu 版本)、gradio(4.25.0)、feedparser(6.0.11)、sentencetransformers(2.6.1)、lxml(5.2.1)。 6. 了解 ollama: 支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同场景。 易于使用,适用于 macOS、Windows 和 Linux 系统,支持 cpu 和 gpu。 提供模型库,用户可从中下载不同模型,满足不同需求和硬件条件,模型库可通过 https://ollama.com/library 查找。 支持自定义模型,可修改温度参数等。 提供 REST API 用于运行和管理模型及与其他应用集成。 社区贡献丰富,有多种集成插件和界面。 先安装 ollama,访问 https://ollama.com/download/ 下载安装。安装完确保 ollama 后台服务已启动(在 mac 上启动应用程序,在 linux 上通过 ollama serve 启动),可通过 ollama list 确认,未下载模型时正常显示空,可通过 ollama 命令下载模型。
2024-12-21
可不可以提供一个本地化的大模型方法,让我建立这个合规法律的知识库
以下是为您提供的本地化大模型及搭建合规法律知识库的方法: 一、通过 Open WebUI 使用大模型 1. 首先访问相关网址。打开页面时需使用邮箱注册账号。 2. 登陆成功后,若您使用过类似 ChatGPT 的大模型对话网站,对该页面不会陌生。 3. Open WebUI 一般有两种使用方式: 聊天对话。 RAG 能力,即让模型根据文档内容回答问题,这是构建知识库的基础之一。 4. 如果要求不高,此时已搭建本地大模型,并通过 Web UI 实现对话功能。 5. ChatGPT 访问速度快且回答效果好的原因: 速度快是因为 GPT 大模型部署的服务器配置高。 效果好是因为 GPT 大模型的训练参数多、数据更优及训练算法更好。 二、您的硬件达标了么 运行大模型需要很高的机器配置,个人玩家大多负担不起。以下是不同类型大模型的配置要求: 1. 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型) 2. 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 3. 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 最低配置运行非常慢,不建议使用。但这不妨碍我们亲自实操一遍,以加深对大模型构建知识库底层原理的了解。若想要更顺滑的体验知识库,可以参考文章: 三、本地知识库进阶 若要更灵活掌控知识库,需额外软件 AnythingLLM。它包含 Open WebUI 的所有能力,并额外支持以下能力: 1. 选择文本嵌入模型。 2. 选择向量数据库。 AnythingLLM 安装和配置 安装地址:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步: 1. 第一步:选择大模型。 2. 第二步:选择文本嵌入模型。 3. 第三步:选择向量数据库。 构建本地知识库 AnythingLLM 中有 Workspace 的概念,可创建独有的 Workspace 与其他项目数据隔离。具体步骤: 1. 首先创建一个工作空间。 2. 上传文档并在工作空间中进行文本嵌入。 3. 选择对话模式。AnythingLLM 提供两种对话模式: Chat 模式:大模型会根据自己的训练数据和上传的文档数据综合给出答案。 Query 模式:大模型仅依靠文档中的数据给出答案。 4. 测试对话。完成上述配置后,即可与大模型进行对话。 四、写在最后 “看十遍不如实操一遍,实操十遍不如分享一遍”。若您对 AI Agent 技术感兴趣,可以联系我或者加我的免费知识星球(备注 AGI 知识库)。
2024-12-18
本地化单机版问答AI怎样创建,需要详细操作代码步骤
以下是创建本地化单机版问答 AI 的一般步骤: 1. 基于用户的问题,从向量数据库中检索相关段落,并根据设定的阈值进行过滤,最后让模型参考上下文信息回答用户的问题,从而实现 RAG。 2. 创建网页 UI,通过 gradio 创建网页 UI,并进行评测。 3. 对于同样的问题和上下文,基于 Qwen7b、Gemma、Mistral、Mixtral 和 GPT4 分别进行多次测试。 4. 主要结论(只是针对有限的几次测试,个人主观评判): GPT4 表现最好,指令遵循能力很强,在回答的时候能附上引用段落编号。 Mixtral 表现第二,但没有在回答的时候附上引用。 Qwen7b 表现第三,也没有在回答的时候附上引用。 Gemma 表现一般,而且回答里面有一些幻觉。 Mistral 表现一般,使用英文回复,不过在回答的时候附上了引用段落编号。 总结: 1. 本文展示了如何使用 Langchain 和 Ollama 技术栈在本地部署一个资讯问答机器人,同时结合 RSSHub 来处理和提供资讯。 2. 上下文数据质量和大模型的性能决定了 RAG 系统性能的上限。 3. RAG 通过结合检索技术和生成模型来提升答案的质量和相关性,可以缓解大模型幻觉、信息滞后的问题,但并不意味着可以消除。 需要上述完整代码的读者,关注本公众号,然后发送 fin,即可获取 github 仓库代码链接。
2024-11-28
本地化单机版问答AI怎样创建
创建本地化单机版问答 AI 可以通过以下步骤实现: 1. 基于用户的问题,从向量数据库中检索相关段落,并根据设定的阈值进行过滤,最后让模型参考上下文信息回答用户的问题,从而实现 RAG。 2. 创建网页 UI,通过 gradio 创建,并进行评测。 3. 对于同样的问题和上下文,基于 Qwen7b、Gemma、Mistral、Mixtral 和 GPT4 分别进行多次测试。主要结论(只是针对有限的几次测试,个人主观评判)如下: GPT4 表现最好,指令遵循能力很强,在回答的时候能附上引用段落编号。 Mixtral 表现第二,但没有在回答的时候附上引用。 Qwen7b 表现第三,也没有在回答的时候附上引用。 Gemma 表现一般,而且回答里面有一些幻觉。 Mistral 表现一般,使用英文回复,不过在回答的时候附上了引用段落编号。 总结: 1. 本文展示了如何使用 Langchain 和 Ollama 技术栈在本地部署一个资讯问答机器人,同时结合 RSSHub 来处理和提供资讯。 2. 上下文数据质量和大模型的性能决定了 RAG 系统性能的上限。 3. RAG 通过结合检索技术和生成模型来提升答案的质量和相关性,可以缓解大模型幻觉、信息滞后的问题,但并不意味着可以消除。 如需获取上述完整代码,关注本公众号,然后发送 fin,即可获取 github 仓库代码链接。
2024-11-28
蛟龙16pro配置(处理器R7-7745HX,显卡RTX4060 8G,硬盘512GPCIE4.0SSD)可以用于审计人员本地化部署大模型用于数据分析工作吗
蛟龙 16pro 的配置(处理器 R77745HX,显卡 RTX4060 8G,硬盘 512G PCIE4.0 SSD)对于审计人员本地化部署大模型用于数据分析工作来说,可能存在一定的局限性。 处理器 R77745HX 具有一定的计算能力,但在处理大规模数据和复杂的模型运算时,其性能可能不够强劲。 显卡 RTX4060 8G 对于一些较为复杂的图形处理和计算任务能够提供一定的支持,但对于大规模的深度学习模型训练和数据分析,可能会显得不足。 512G 的 PCIE4.0 SSD 硬盘容量相对较小,在存储大量数据时可能会很快耗尽空间。 综上所述,该配置在一定程度上可以用于简单的数据分析任务,但对于较为复杂和大规模的大模型本地化部署及数据分析工作,可能需要更强大的硬件配置,例如更高性能的处理器、更大容量和更高性能的显卡,以及更大的存储空间。
2024-09-14
蛟龙16pro配置可以用于审计人员本地化部署大模型用于数据分析工作吗
蛟龙 16pro 的配置信息对于能否用于审计人员本地化部署大模型进行数据分析工作,需要更多关于该设备具体配置的详细信息才能准确判断。一般来说,本地化部署大模型进行数据分析工作对计算机的硬件配置有较高要求,包括但不限于强大的 CPU 性能、充足的内存容量、高速的存储设备以及优秀的显卡性能等。如果您能提供蛟龙 16pro 更详细的配置参数,我可以为您做出更准确的评估和建议。
2024-09-14
智能送餐机器人大数据分析
很抱歉,目前知识库中没有关于智能送餐机器人大数据分析的相关内容。但一般来说,智能送餐机器人大数据分析可能涉及以下方面: 1. 送餐路径优化:通过分析机器人的运动轨迹和送餐时间,优化送餐路径,提高送餐效率。 2. 客户需求预测:根据历史订单数据,预测不同区域和时间段的客户需求,合理安排机器人的配送任务。 3. 机器人性能评估:分析机器人的运行数据,如电池寿命、故障频率等,评估其性能,以便进行维护和改进。 4. 服务质量分析:通过收集客户的反馈数据,分析机器人送餐的服务质量,如准时性、准确性等,从而进行针对性的提升。 希望以上内容能为您提供一些思路和方向。
2024-12-19
国内EXCEL到数据分析的AI
目前国内关于 Excel 到数据分析的 AI 工具主要有以下几种: 1. Excel Labs:这是一个 Excel 插件,新增了基于 OpenAI 技术的生成式 AI 功能,可在 Excel 中直接利用 AI 进行数据分析和决策支持。 2. Microsoft 365 Copilot:微软推出的 AI 工具,整合了 Word、Excel、PowerPoint、Outlook、Teams 等办公软件,用户通过聊天形式告知需求,Copilot 自动完成任务,包括数据分析和格式创建等。 3. Formula Bot:提供数据分析聊天机器人和公式生成器两大功能,用户可通过自然语言交互式地进行数据分析和生成 Excel 公式。 4. Numerous AI:支持 Excel 和 Google Sheets 的 AI 插件,除公式生成外,还能根据提示生成相关文本内容、执行情感分析、语言翻译等任务。 随着技术的不断发展,未来可能会有更多 AI 功能被集成到 Excel 中,进一步提高工作效率和数据处理的智能化水平。但请注意,以上内容由 AI 大模型生成,请仔细甄别。 另外,在 ShowMeAI 周刊 No.10 中也提到了一些相关话题,如“把大模型输出的数据搞成 Excel 表格,一共有几种方法?”等。
2024-12-10
从Excel到数据分析AI
以下是关于 Excel 到数据分析 AI 的相关内容: 目前有多种工具和插件可以增强 Excel 的数据分析能力: 1. Excel Labs:这是一个 Excel 插件,基于 OpenAI 技术,新增了生成式 AI 功能,可在 Excel 中直接利用 AI 进行数据分析和决策支持。 2. Microsoft 365 Copilot:微软推出的 AI 工具,整合了多种办公软件,用户通过聊天形式告知需求,Copilot 自动完成任务,包括 Excel 中的数据分析和格式创建等。 3. Formula Bot:提供数据分析聊天机器人和公式生成器两大功能,用户能通过自然语言交互式地进行数据分析和生成 Excel 公式。 4. Numerous AI:支持 Excel 和 Google Sheets 的 AI 插件,除公式生成外,还能根据提示生成相关文本内容、执行情感分析、语言翻译等任务。 在使用 AI 撰写专业区域经济报告时: 1. 信息收集:利用 AI 搜索与权威网站结合获取关键数据,AI 可辅助提取结构化表格数据或编写抓取程序。 2. 内容拆分:针对报告需求将内容拆分,避免 AI 单次处理任务过长。 3. 数据处理:借助传统工具如 Excel,结合 AI 指导高效操作数据筛选与图表生成。 4. 分析与撰写:通过整理数据,利用 AI 辅助分析后撰写报告初稿,可指定风格并校验数据与结论准确性。但要注意 AI 仅作辅助,最终内容需人工主导校验,避免误导性结论。 在数据收集、报告拆分、分析与写作等方面,要把 AI 作为辅助,优化信息处理和写作效率,注重人工与 AI 配合,确保数据准确性和结论可靠性。
2024-12-10
我想学会用AI来做数据分析,有什么工具以及课程推荐吗
以下是为您推荐的学习用 AI 做数据分析的工具、课程和相关资源: 了解 AI 基本概念:建议阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。同时,浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 开始 AI 学习之旅:在「」中,您可以找到一系列为初学者设计的课程,特别推荐李宏毅老师的课程。您还可以通过在线教育平台(如 Coursera、edX、Udacity)上的课程按照自己的节奏学习,并有机会获得证书。 书籍推荐:在 Python 方面,推荐《Python 学习手册》《Python 编程》;在 AI 方面,推荐《人类简史》《深度学习实战》。 课程&资源推荐:对于 Python 入门,推荐 B 站 up 主「PAPAYA 电脑教室」的 Python 入门课(https://space.bilibili.com/402780815/channel/seriesdetail?sid=2762019);对于大模型的讲解,推荐 Andrej Karpathy 的课程,油管地址:https://www.youtube.com/watch?v=zjkBMFhNj_g,B 站地址:https://www.bilibili.com/video/BV1AU421o7ob。对于资料库,推荐 AJ 和众多小伙伴们共创的「🌈通往 AGI 之路」(https://waytoagi.feishu.cn/wiki/QPe5w5g7UisbEkkow8XcDmOpn8e)。 体验 AI 产品:与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 实际案例与技巧:您可以参考《ChatGPT 助力数据分析:实际案例与技巧》(原文地址:https://mp.weixin.qq.com/s/Fld25MxyoFEnUbnDmGJNXg),文中介绍了两种 AI 数据分析方式,包括 SQL 分析和个性化分析,并展示了分析完成后的结果数据图表和分析结论。
2024-12-02
帮我生成一个个人的职业目标为数据分析师,职业规划为想要找到一个计算机行业类的公司,我的优势是社交方面和处理数据方面很强,我的2弱势是不太可以创新
以下是为您生成的以数据分析师为职业目标,且希望在计算机行业公司工作的职业规划建议: 首先,鉴于您在社交和处理数据方面的优势,您可以积极利用这两点。在社交方面,主动参与行业相关的社交活动、线上论坛或社群,扩大人脉资源,这有助于您获取更多的行业信息和潜在的工作机会。在处理数据方面,不断提升自己的专业技能,例如学习更高级的数据处理工具和技术,以提高工作效率和质量。 对于您在创新方面的弱势,建议您多关注行业内的创新案例和趋势,通过学习和模仿来逐渐培养创新思维。可以参加一些创新思维的培训课程或者阅读相关的书籍。 在求职过程中,有针对性地投递计算机行业中对数据分析师有需求的公司。准备一份精心制作的简历,突出您在社交和数据处理方面的优势,并诚实地提及您在创新方面的不足以及您为改进所做的努力。 进入公司后,持续学习和提升自己,与团队成员保持良好的沟通和合作,不断积累项目经验,逐步提升自己在数据分析领域的专业能力和影响力。
2024-11-20
表格数据分析
以下是关于表格数据分析的相关内容: ChatGPT 助力数据分析: 第一个用户提示:限定 SELECT SQL,要求不要用 SELECT 查询全部列,仅回复一条 SELECT SQL 语句,至少查询两列(数据项、数据值),不能直接查询长类型字段,可用 count/substring 等函数处理。 系统提示是表结构信息,对难以理解的字段可告知 GPT 其意义,若有多个表可分开描述。 需校验 GPT 生成的 SQL,不通过直接返回提示“抱歉,不支持此类请求”,通过再执行 SQL 查询数据。 数据分析的用户提示:提示数据分析,限定返回的 JSON 格式(conclusion、keyMap、title),keyMap 用于数据 key 的映射以渲染图表,根据结果数据的维度选择不同的 prompt 传递给 GPT,且结果数据 tableData 已通过 SQL 查询,不能让 GPT 再次生成,以免耗时。 生成式 AI 季度数据报告 2024 月 1 3 月: 数据来源:Similarweb、Visit,单位:万,变化公式:3 月/2 月 1 100%。 包括数据分析(446 万)、天花板潜力(1000 亿美元)、对标公司(oracle)、总体趋势(快速增长,88.19%)、月平均增速(70 万 PV/月)、原生产品占比(高)、竞争情况(Top1、Top3 占比,马太效应、网络效应强弱,大厂是否入局及占比,技术门槛)、Top1 公司(非大厂)的相关信息等。 还提供了 23 年 12 月至 24 年 3 月月访问量排行榜及变化情况、赛道月访问总量及构成、23 年 4 月访问量 Top10 等数据。 58 数据分析 161 万: 包含名称、二级分类、三级分类、网址、2 月至 11 月的数据及 11/5 月的变化计算等信息,如帆软数据、RATH、rows.com、亚信科技数智产品、神策数据等。
2024-11-10
我想要让AI来操作,我这个电脑,然后呢?去充当一个AI客服的角色去回答微信上的问题有什么办法吗?
目前在微信中,Coze 平台是一个 AI 智能体创作平台,可以根据需求构建 AI 机器人并发布到多种社交平台。微信的不同功能在与 AI 对接上有所差异: 1. 个人微信/微信群:Coze AI 平台之前不支持直接对接,但国内版正式发布 API 接口功能后,直接对接已成为可能。 2. 微信公众号:Coze AI 平台支持对接,能让 AI 机器人自动回复用户消息。 3. 微信服务号:同样支持对接,可帮助企业提升服务效率。 4. 微信客服:Coze AI 平台支持对接,使 AI 机器人能够自动回答用户咨询,提高客服响应速度。 在把 AI 大模型能力接入微信后,对于类似客服的应用场景,存在模型幻觉导致胡乱回答的问题。对于非技术从业者,落地场景存在困难。一个问答机器人的界面配置包括 AI 模型、提示词、知识库。
2024-12-20
ChatGPT与Sora 是不是只有苹果手机或苹果电脑才能注册与登入?
ChatGPT 注册与登录: 苹果系统: 中国区正常无法在 AppleStore 下载 ChatGPT,需切换到美区。美区 AppleID 注册教程可参考知乎链接:https://zhuanlan.zhihu.com/p/696727277 。 最终在 AppleStore 搜到 ChatGPT 下载安装,注意别下错。 打开支付宝,地区切换到美区任意区,购买【App Store&iTunes US】礼品卡,按需要金额购买(建议先买 20 刀),然后在 apple store 中兑换礼品卡,在 chatgpt 中购买订阅 gpt plus,中途不想继续订阅可到订阅列表中取消。 会员不管在苹果还是安卓手机上购买的,电脑上都能登录。 注册美区 ID 详细步骤: 1. 电脑上打开 Apple ID 的注册页面:https://appleid.apple.com/ac 。 2. 填写验证码后点继续。 3. 到谷歌邮箱接收邮箱验证码。 4. 接着验证手机号码。 5. 验证完后会出现页面,此时美区 ID 已注册但未激活,切换到手机操作。 6. 打开 App Store,点击右上角人形头像。 7. 拉到最底下,点击退出登录,先退出国内的 ID。 8. 之后再点击右上角人形头像。 9. 手动输入美区 ID,会收到短信进行双重验证。 10. 之后完成美区的 ID 登录。 11. 随便找个软件下载,会弹出提示,点击“检查”进行激活。 12. 点击同意,进入下一页填写美国地址。 13. 若付款方式中没有“无”或“none”选项,输入街道地址和电话。 14. 至此,通过中国 IP、中国手机号、免信用卡成功注册一个美区 ID,可用于下载例如小火箭、ChatGPT、Discord、X、TikTok 等软件。 关于 Sora 的注册与登录相关信息未提及。
2024-12-16
如何下载CHATGPT程序到电脑应用
以下是将 ChatGPT 程序下载到电脑应用的方法: 苹果系统: 1. 在 AppleStore 下载 chatgpt:中国区正常下载不了,需要切换到美区才可以下载。美区 AppleID 注册教程参考知乎链接: 。最终在 AppleStore 搜到 chatgpt 结果进行下载安装,注意别下错。 2. 支付宝 购买苹果礼品卡 充值 订阅付费 App:打开支付,地区切换到【美区任意区】,往下滑,找到【品牌精选 折扣礼品卡】,点击进去,可以看到【大牌礼品卡】,往下滑找到【App Store&iTunes US】礼品卡,按需要的金额购买即可,建议先买 20 刀。具体步骤包括支付宝购买礼品卡、在 apple store 中兑换礼品卡、在 chatgpt 中购买订阅 gpt plus,如果中途不想继续订阅了,可到订阅列表中取消订阅。 安卓系统: 1. 安装 google play: 到小米自带的应用商店搜索 google play 进行安装。 安装好后,打开 GooglePlay,按照提示一步步操作,登录 GooglePlay。 2. 下载安装 chatgpt: 到谷歌商店搜索“ChatGPT”进行下载安装,开发者是 OpenAI,别下错。可能遇到“google play 未在您所在的地区提供此应用”的问题,解决方法是在 google play 点按右上角的个人资料图标。依次点按:设置>常规>帐号和设备偏好设置>国家/地区和个人资料。在这里看到账号没有地区,可以“添加信用卡或借记卡”,国内的双币信用卡就行,填写信息时地区记得选美。如果回到 google play 首页还搜不到 chatgpt,可以卸载重装 google play,操作过程保持梯子的 IP 一直是美,多试几次。 3. 体验 ChatGPT:如果只想体验 ChatGPT 3.5 版本,不升级 GPT4,直接登录第二部注册好的 ChatGPT 账号即可。 4. 订阅 GPT4 Plus 版本:先在 Googleplay 中的【支付和订阅】【支付方式】中绑定好银行卡,然后在区 chatgpt 里订阅 Plus。 完成上述步骤后,就可以开始使用 ChatGPT 4o 了。会员不管是在苹果还是安卓手机上购买的,电脑上都能登录。使用时,打开 ChatGPT 应用或网页,点击开始对话。版本切到 ChatGPT 4o,点击右下角“耳机🎧”图标,选择一个声音,就可以体验流畅的语音对话。
2024-12-16
学ai用什么电脑比较好
学习 AI 选择电脑需要考虑硬件情况和自身财力: 本地部署:如果是 M 芯片的 Mac 电脑(Intel 芯片出图速度慢,不建议)或者 2060Ti 及以上显卡的 Windows 电脑,可以选择本地部署,强烈建议在配有 N 卡的 Windows 电脑上进行。 在线平台:对于电脑不符合要求的小伙伴可以直接使用在线工具,在线工具分为在线出图和云电脑两种,前者功能可能会受限、后者需要自己手动部署,大家根据实际情况选择即可。 配台电脑:非常不建议一上来就配主机,因为大概率会变成游戏机或者吃灰(土豪请随意)。玩几个月后还对 AI 有兴趣的话再考虑配个主机。主机硬盘要大,显卡预算之内买最好,其他的随意。 截止 2024 年 5 月,主流的 AI 笔记本电脑主要是一些专门为人工智能和深度学习设计的高性能移动工作站,包括: 1. 微软(Microsoft)第 11 代 Surface Pro 2. 微星(MSI)Creator/Workstation 系列 3. 技嘉(GIGABYTE)Aero/Aorus 系列 4. 戴尔(Dell)Precision 移动工作站 5. 惠普(HP)ZBook 移动工作站 6. 联想(Lenovo)ThinkPad P 系列 这些笔记本一般采用英特尔酷睿或 AMD Ryzen 的高端移动 CPU,配备 NVIDIA RTX 30/40 系列或 AMD Radeon Pro 专业级 GPU。同时也提供了大容量内存(32GB 以上)和高速 NVMe SSD 存储选配。除了硬件配置,这些 AI 笔记本还通常预装了 NVIDIA CUDA、cuDNN 等深度学习框架,以及各种 AI 开发工具,为用户提供了开箱即用的 AI 开发环境。当然,这类高端 AI 笔记本价格也相对较高,通常在 2000 美元以上。用户可以根据自身的 AI 应用需求和预算情况,选择合适的型号。同时也要关注笔记本的散热、续航等实际使用体验。
2024-12-09
AI属于电脑操作系统吗?AI是如何学习的?
AI 不属于电脑操作系统。AI 是人工智能的简称,它的学习方式有多种,主要包括以下几种: 1. 机器学习:这是让电脑找规律学习的方式,包括监督学习、无监督学习和强化学习。 监督学习:使用有标签的训练数据,算法的目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习:学习的数据没有标签,算法自主发现规律,经典任务如聚类,比如让模型根据一堆新闻文章的主题或内容特征分成具有相似特征的组。 强化学习:从反馈里学习,以最大化奖励或最小化损失,类似训小狗。 2. 深度学习:这是一种参照人脑的方法,具有神经网络和神经元,因为有很多层所以叫深度。神经网络可以用于监督学习、无监督学习、强化学习。 3. 生成式 AI:可以生成文本、图片、音频、视频等内容形式。 4. 大语言模型:如谷歌的 BERT 模型,可用于语义理解(不擅长文本生成),像上下文理解、情感分析、文本分类等。 2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制(SelfAttention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN)。Transformer 比 RNN 更适合处理文本的长距离依赖性。
2024-12-04
我想配置一台可以跑SD的电脑 我该怎么选择?
如果您想配置一台可以跑 SD(Stable Diffusion)的电脑,以下是一些选择建议: 1. 系统要求:系统需为 Win10 或 Win11。查看电脑系统的方法是在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。 2. 配置查看: 查看电脑运行内存: 打开任务管理器(同时按下 ctrl+shift+esc)。 查看电脑运行内存,8GB 运行内存可以勉强运行 SD,推荐 16GB 以上运行内存。 查看电脑显卡内存(显存): 鼠标右击桌面底部任务栏,点击“任务管理器”。 查看“GPU”,首先先看右上角显卡的名字或者型号,必须确认是 NVIDIA(俗称 N 卡)。 接着看到下面划线的专用 GPU 内存,4GB 显存可运行 SD,推荐 8GB 以上显存。 3. 配置达标情况: 电脑运行内存 8GB 以上。 是英伟达(NVIDA)的显卡。 显卡内存 4GB 以上。 4. 配置不够的选择:如果配置不够,可选择云端部署(Mac 也推荐云端部署)。 Win 系统 SD 安装教程:https://qa3dhma45mc.feishu.cn/wiki/D5nawAs1fivF4ykx88ucRIYwn1d SD 云端部署教程:https://qa3dhma45mc.feishu.cn/wiki/A6WYw1Nm0ikGplkuO9Ecwomqnnd 5. 备选:如果觉得 SD 太难,可先试试简单的无界 AI:
2024-12-02
哪个AI修改审计报告最好
目前没有明确指出哪个 AI 专门用于修改审计报告最好。但生成式 AI 在金融服务领域有诸多应用,例如: 1. 可以帮助金融服务团队从更多数据源获取数据,并自动化突出趋势、生成预测和报告的过程。包括帮助编写 Excel、SQL 和 BI 工具中的公式和查询以实现分析自动化,发现模式并为预测建议输入,自动创建文本、图表、图形等内容并调整报告,帮助综合、总结税法和潜在扣除项等。 2. 在合规性方面,生成式 AI 能够高效筛查,更准确地预测洗钱者,更快地进行文档分析,用于培训和教育,还能让新进入者利用公开合规数据自我启动。 另外,AI Review(测试版)是一项可查看代码库中最近更改以捕获潜在错误的功能,您可以单击各个审阅项查看编辑器中的完整上下文,并与 AI 聊天获取更多信息。为让其发挥作用,您可为 AI 提供自定义说明,目前有查看工作状态、查看与主分支的差异、查看上次提交等几个审核选项。
2024-12-07
审计行业可以使用什么ai
在审计行业,以下是一些可以使用的 AI 应用: 1. 自动化文档处理:利用 AI 技术自动处理和分析大量的审计文档,提高工作效率。 2. 数据分析与预测:通过 AI 对财务数据进行深入分析,发现潜在的风险和趋势,辅助做出更准确的审计判断。 3. 智能检索与分类:借助自然语言处理和机器学习算法,对相关资料进行高效检索和分类。 在专利审查方面,AI 也得到了广泛应用: 1. 专利检索与分类:AI 能够进行高效的专利检索和分类,例如通过 Google Patents、IBM Watson for IP 等平台,利用自然语言处理和机器学习算法,自动识别和分类专利文献。 2. 专利分析和评估:可以分析专利文本,评估专利的新颖性和创造性,预测专利的授权可能性。如 TurboPatent、PatentBot 等平台。 3. 自动化专利申请:帮助自动生成专利申请文件,减少人工编写和审查时间,如 Specifio、PatentPal 等平台。 4. 专利图像和图表分析:利用 Aulive 等平台的 AI 技术分析专利中的图像和图表,自动识别技术内容和创新点。 在金融服务业中,生成式 AI 也发挥了重要作用: 1. 更动态的预测:帮助编写 Excel、SQL 和 BI 工具中的公式和查询,实现分析的自动化,发现模式,并从更广泛、更复杂的数据集中为预测建议输入。 2. 报告:自动创建文本、图表、图形等内容,并根据不同的示例调整此类报告。 3. 会计和税务:综合、总结税法相关内容,并就税法和潜在的扣除项提出可能的答案。 4. 采购和应付账款:帮助自动生成和调整合同、采购订单和发票以及提醒。
2024-10-29
审计行业和ai相关的产品和文章有哪些
以下是一些与审计行业和 AI 相关的产品和文章: 1. 案例方面: “AI 产品案例和投稿”中提到了七大行业的商业化应用,包括企业运营(如日常办公文档材料撰写整理、营销对话机器人等)、教育、游戏/媒体、零售/电商、金融/保险等领域的应用。您可以通过查看详情。 2. 应用方面: 100 个 AI 应用涵盖了辅助创作与学习(如 AI 智能写作助手、语言学习助手等)、推荐与规划(如图像识别商品推荐、旅游行程规划器等)、监控与预警(如宠物健康监测设备、家居安全监控系统等)、优化与管理(如办公自动化工具、物流路径优化工具等)、销售与交易(如 AI 艺术作品生成器、汽车销售平台等)等多个方面。 3. 研究报告方面: 2023 年 11 月 15 日更新了一批 AI 相关的研究报告,特别推荐的有《红杉中国:2023 企业数字化年度指南》(基于对 235 家企业数字化负责人的调研,63.5%的企业已把 AIGC 列入企业发展战略)、《华为:加速行业智能化白皮书》(结合华为行业智能化实践及面向智能世界 2030 的展望,与各界进行万场以上座谈研讨)。如需下载,可访问我们的知识星球。此外,还有《一文带你了解提示攻击!》这篇文章,带您从零开始了解越狱、提示攻击、与传统安全的关系以及大语言模型的安全问题。
2024-10-29
最为审计人员利用大模型本地化部署在电脑上进行数据分析,电脑如何配置
对于审计人员利用大模型本地化部署在电脑上进行数据分析,电脑配置需要考虑以下方面: 模型选择与下载: SDXL 大模型分为 base+refiner 两个必须下载的部分,base 是基础模型用于文生图操作,refiner 是精炼模型用于细化生成的模型,还有一个配套的 VAE 模型用于调节图片效果和色彩。您可以关注公众号【白马与少年】,回复【SDXL】获取下载链接。 除了上述模型,还可在 Civitai(C 站)https://civitai.com/ 寻找更多模型。使用 C 站时需科学上网,点击右上角筛选按钮找到所需模型类型,如 Checkpoint=大模型、LoRA=Lora,看到感兴趣的模型点击下载保存到电脑本地。 模型存放路径与使用: 将下载的模型放入对应文件夹,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下,vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。启动 webUI 后可在模型中看到 SDXL 模型。 硬件配置需求: ChatGLM6B 模型:模型文件下载至本地需要 15 GB 存储空间。量化等级不同,对 GPU 显存要求不同,如 FP16(无量化)最低 GPU 显存(推理)需 13 GB,高效参数微调需 14 GB;INT8 推理需 8 GB,高效参数微调需 9 GB;INT4 推理需 6 GB,高效参数微调需 7 GB。 MOSS 模型:模型文件下载至本地需要 70 GB 存储空间。FP16(无量化)最低 GPU 显存(推理)需 68 GB。 Embedding 模型:默认选用的约占用显存 3GB,也可修改为在 CPU 中运行。
2024-09-12