直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

大模型合规

回答

大模型的安全问题包括以下方面:

  1. 对齐保障:通过对齐(指令调优),如 ChatGPT 从 GPT-3 经过对齐而来,使其更好地理解人类意图,增加安全保障,确保不输出有害内容。对齐任务可拆解为监督微调及获取奖励模型和进行强化学习来调整输出分布。例如 LLAMA2 使用安全有监督微调确保安全,强化学习能让模型根据人类反馈更细粒度思考答案的安全性,面对训练分布外数据也能拒绝不当回答。
  2. 数据过滤:在预训练阶段对数据进行过滤,如 baichuan2 采用此技术减少有害输出,但因数据关联性,仅靠此方法可能不够,模型仍可能从关联中学到有害内容,且面对不良信息时可能因缺少知识而处理不当。
  3. 越狱问题:用户可能通过越狱(Jailbreak)使模型的对齐失效,重新回答各种问题。

大模型的特点包括:

  1. 架构:分为 encoder-only、encoder-decoder、decoder-only 三类,目前熟知的 AI 助手多为 decoder-only 架构,由 transformer 衍生而来。
  2. 规模:预训练数据量大,来自互联网的多种来源,且参数众多,如 GPT-3 已达 170B 的参数。

GPT-3 与 ChatGPT 相比,除形式不同外,安全性也有差别。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

从 0 到 1 了解大模型安全,看这篇就够了

[title]从0到1了解大模型安全,看这篇就够了这张图来自于OpenAI()于2022年发布的论文,正是这篇论文造就了我们所熟知的ChatGPT。通过对齐,也叫做指令调优,使得语言模型更好的理解人类意图,同时也对语言模型增加了安全保障,确保语言模型不会输出有害的内容和信息。对于对齐任务来说,我们可以拆解为两部分第一个部分是图中的Step-1.监督微调第二个部分则是图中的二和三,通过Step2获取reward model与通过Step3进行强化学习,调整语言模型的输出分布。这两种方法都能用于保证语言模型的安全LLAMA2()是当前使用最广泛的开源大型语言模型,在其技术报告中提到他们专门使用了安全有监督微调用于确保语言模型的安全.通过给定危险的问题和拒绝的回答,语言模型就像背诵一样,学会了对危险的查询生成拒绝的响应强化学习通过引入带有人类反馈的数据对模型进行强化学习,根据人类的偏好和反馈,语言模型在调整分布的过程中,需要更细粒度的思考,究竟什么样的答案是更好的,更安全的.并且由于引入了类似思考的过程,语言模型在面对训练分布外的数据,也有可能学会举一反三的拒绝掉不该回答的内容,更少的胡编乱造,产生幻觉性的输出那么Alignment就足够防护所有的安全问题了吗?毕竟现在的大型语言模型如GPT-4和Claude()等已经几乎不会回复危险的问题了.不,并不安全,就像测试工程师经常苦恼的问题一样,用户们的创造力是无穷的.,他们会用各种各样难以想象的方法试图得到他们想要的”不受束缚的”AI这种技术被统称为越狱,Jailbreak!通过Jailbreak,模型的对齐基本失效,重新变为一个回答各种问题的模型关于越狱部分,我将在文章的后半部分中专门详细讲解。在这里,我们先来讲讲隐私问题。

从 0 到 1 了解大模型安全,看这篇就够了

[title]从0到1了解大模型安全,看这篇就够了这个区别是因为,GPT-3仍然是一个用于完成预测下一个词的语言模型,而ChatGPT是经过指令微调,也可以称为对齐的语言模型。一个更加危险的问题是由于大型语言模型在海量的数据上进行预训练,上百亿的参数也为其提供了强大的能力,因此用于预测下一个单词的语言模型是有着巨大危险的。相反,目前的AI助手,往往不会回答这些危险的问题,那么从GPT-3到ChatGPT,究竟发生了什么,使得语言模型更加安全?不会直接回答这些危险的问题呢?接下来,我们介绍一下大模型的安全问题。那么现在的AI助手是如何学会不回答危险或有害的内容呢?目前主流的方法有这三种一个最直观的办法,就是我们在预训练阶段,对模型的预训练数据进行过滤,不让模型学习那些我们不想要的有害知识,例如图示中的红色文档,灰色文档则代表有一定有害数据,但达不到过滤阈值的这样模型学习到的知识中就不直接包含这些有害数据了但此方法往往应用于工业界,例如baichuan2在其开源的技术报告中就提到他们使用了这种技术进行了数据过滤,用于减少模型的有害输出但是考虑到数据之间的关联性,即使一些有害信息丰富的文档被删除掉,但大模型仍然可能从数据的关联中学会有害的内容,并且在面对不良信息时,模型缺少相关知识,反而有可能因此仅仅使用数据过滤是不够的。ChatGPT的早期版本,也就是我们俗称的GPT3.5,正是由GPT-3经过对齐得来的通过让模型与人类的价值观进行对齐,语言模型的任务目标从续写变为了人类的AI助手不光输出形式和任务形式发生了极大的变化并且对齐的helpful,honest,harmless原则确保了语言模型输出的无害性和真实性。那么对齐是如何确保语言模型的输出是安全的,又是如何训练的呢?

从 0 到 1 了解大模型安全,看这篇就够了

[title]从0到1了解大模型安全,看这篇就够了encoder-only:这些模型通常适用于可以自然语言理解任务,例如分类和情感分析.最知名的代表模型是BERTencoder-decoder:此类模型同时结合了Transformer架构的encoder和decoder来理解和生成内容。该架构的一些用例包括翻译和摘要。encoder-decoder的代表是google的T5decoder-only:此类模型更擅长自然语言生成任务。典型使用包括故事写作和博客生成。这也是我们现在所熟知的众多AI助手的结构我们目前耳熟能详的AI助手基本都来自左侧的灰色分支,当然也包括ChatGPT。这些架构都是根据谷歌2017年发布的论文“attention is all you need”中提出的transformer衍生而来的,在transformer中,包括Encoder,Decoder两个结构目前的大型语言模型就是右侧只使用Decoder的Decoder-only架构的模型大模型又大在哪呢?第一,大模型的预训练数据非常大,这些数据往往来自于互联网上,包括论文,代码,以及可进行爬取的公开网页等等,一般来说,现在最先进的大模型一般都是用TB级别的数据进行预训练。第二,参数非常多,Open在2020年发布的GPT-3就已经达到170B的参数在GPT3中,模型可以根据用户输入的任务描述,或给出详细的例子,完成任务但这与我们熟知的ChatGPT仍然有着很大的差距,使用ChatGPT只需要像和人类一样对话,就可以完成任务。除了形式上的不同之外,还有一个更加重要的差距,那就是安全性上的差别。

其他人在问
可不可以提供一个本地化的大模型方法,让我建立这个合规法律的知识库
以下是为您提供的本地化大模型及搭建合规法律知识库的方法: 一、通过 Open WebUI 使用大模型 1. 首先访问相关网址。打开页面时需使用邮箱注册账号。 2. 登陆成功后,若您使用过类似 ChatGPT 的大模型对话网站,对该页面不会陌生。 3. Open WebUI 一般有两种使用方式: 聊天对话。 RAG 能力,即让模型根据文档内容回答问题,这是构建知识库的基础之一。 4. 如果要求不高,此时已搭建本地大模型,并通过 Web UI 实现对话功能。 5. ChatGPT 访问速度快且回答效果好的原因: 速度快是因为 GPT 大模型部署的服务器配置高。 效果好是因为 GPT 大模型的训练参数多、数据更优及训练算法更好。 二、您的硬件达标了么 运行大模型需要很高的机器配置,个人玩家大多负担不起。以下是不同类型大模型的配置要求: 1. 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型) 2. 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 3. 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 最低配置运行非常慢,不建议使用。但这不妨碍我们亲自实操一遍,以加深对大模型构建知识库底层原理的了解。若想要更顺滑的体验知识库,可以参考文章: 三、本地知识库进阶 若要更灵活掌控知识库,需额外软件 AnythingLLM。它包含 Open WebUI 的所有能力,并额外支持以下能力: 1. 选择文本嵌入模型。 2. 选择向量数据库。 AnythingLLM 安装和配置 安装地址:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步: 1. 第一步:选择大模型。 2. 第二步:选择文本嵌入模型。 3. 第三步:选择向量数据库。 构建本地知识库 AnythingLLM 中有 Workspace 的概念,可创建独有的 Workspace 与其他项目数据隔离。具体步骤: 1. 首先创建一个工作空间。 2. 上传文档并在工作空间中进行文本嵌入。 3. 选择对话模式。AnythingLLM 提供两种对话模式: Chat 模式:大模型会根据自己的训练数据和上传的文档数据综合给出答案。 Query 模式:大模型仅依靠文档中的数据给出答案。 4. 测试对话。完成上述配置后,即可与大模型进行对话。 四、写在最后 “看十遍不如实操一遍,实操十遍不如分享一遍”。若您对 AI Agent 技术感兴趣,可以联系我或者加我的免费知识星球(备注 AGI 知识库)。
2024-12-18
关于欧盟人工智能法案AI禁止性规定的合规指南
欧盟人工智能法案的禁止性规定主要包括以下方面: 1. 全面禁止人工智能用于生物识别监控、情绪识别、预测性警务。 公共空间中的“实时”远程生物识别系统被禁止。 “邮寄”远程生物特征识别系统,仅在起诉严重犯罪且经司法授权后除外。 禁止使用敏感特征(如性别、种族、民族、公民身份、宗教、政治取向)的生物识别分类系统。 禁止预测警务系统(基于分析、位置或过去的犯罪行为)在执法、边境管理、工作场所和教育机构中的应用。 禁止在执法、边境管理、工作场所和教育机构中的情绪识别系统。 禁止从互联网或闭路电视录像中无目的地抓取面部图像以创建面部识别数据库。 2. ChatGPT 等生成式人工智能系统必须披露内容是人工智能生成的。 3. 用于在被认为高风险的选举中影响选民的人工智能系统受到限制。 这些规则旨在促进以人为本、值得信赖的人工智能的应用,并保护健康、安全、基本权利和民主免受其有害影响。同时,欧盟在平衡人工智能创新发展与安全规范方面更倾向于保护欧盟境内人员的安全和维护欧盟价值观。
2024-12-04
2024年生成式人工智能-海外合规白皮书
以下是为您找到的与 2024 年生成式人工智能相关的内容: 《2024 年生成式人工智能海外合规白皮书(东南亚篇)》由垦丁律师事务所联合 WEEE Consulting 和 Boosterhub 撰写,深入分析了东南亚地区生成式人工智能(AI)的产业现状、监管框架及合规要求。报告涵盖了新加坡、越南、泰国、马来西亚、印度尼西亚和菲律宾六国,探讨了 AI 产品合规性、数据本地化、跨境数据传输、内容安全和知识产权等关键问题。报告指出,尽管东南亚国家在 AI 发展上展现出潜力,但各国法规和伦理标准存在差异,对 AI 的法律监管和合规要求也各不相同。 2024 年 8 月 26 日的《》,其中提到上周,Ideogram 推出功能强大的 2.0 图像生成模型,同时 Jamba 1.5 系列在非 Transformer 架构上取得突破。AI 工具如 ComfyUI 和 Cluade 更新,Cursor 获巨资融资。Google 的 Gemini AI 项目新增技术领导,亚马逊通过 AI 工具极大提升代码开发效率。 此外,还有其他一些相关研究报告,如: 《爱分析:2024 智能办公厂商全景报告》强调智能办公系统在企业数字化转型中的关键作用。 《平安证券:AI 系列深度报告(五)AI 手机》指出 AI 手机的发展重心正逐步向端侧转移,全球出货量将呈现指数级增长。 关于 2024 年人工智能的报告还包括: 2024 人工智能报告中提到,欧盟人工智能法案获得批准并正式生效,欧洲成为世界上第一个全面采用人工智能监管框架的地区。美国大型实验室努力应对欧洲监管,中国人工智能监管进入执行时代,美国对中国实施更严格的出口管制和投资限制。 《生成式 AI 季度数据报告 2024 月 13 月》,作者为郎瀚威 Will、张蔚 WeitoAGI、江志桐 Clara ,报告包含总体流量概览、分类榜单等内容。 您可在知识星球下载其它一些研究报告: 。公众号回复“2024 一季度”,可以获得《生成式 AI 季度数据报告 2024 月 13 月》的 PDF 。
2024-12-02
通过提示词可以提高模型的数学计算能力吗
通过提示词可以在一定程度上提高模型的数学计算能力。例如 PoT 技术,它是思维链技术的衍生,适用于数值推理任务,会引导模型生成一系列代码,再通过代码解释器工具进行运算,这种方式能显著提升模型在数学问题求解上的表现。PoT 作为 CoT 的衍生技术,遵循零样本和少样本的学习范式,零样本 PoT 与 CoT 方法相似,不需要大量样本即可进行有效推理,少样本 PoT 也通过较少样本优化模型表现。但需要注意的是,大模型在解决数学问题时可能存在不够可靠的情况。
2024-12-20
哪一个开源大语言模型对中文支持比较好?
以下是一些对中文支持较好的开源大语言模型: 1. OpenChineseLLaMA: 地址: 简介:基于 LLaMA7B 经过中文数据集增量预训练产生的中文大语言模型基座,对比原版 LLaMA,该模型在中文理解能力和生成能力方面均获得较大提升,在众多下游任务中均取得了突出的成绩。 2. BELLE: 地址: 简介:开源了基于 BLOOMZ 和 LLaMA 优化后的一系列模型,同时包括训练数据、相关模型、训练代码、应用场景等,也会持续评估不同训练数据、训练算法等对模型表现的影响。 3. Panda: 地址: 简介:开源了基于 LLaMA7B,13B,33B,65B 进行中文领域上的持续预训练的语言模型,使用了接近 15M 条数据进行二次预训练。 4. Llama2Chinese13bChat: 地址: 5. Gemma7bit: 地址: 此外,AndesGPT 在语言理解与抽取、角色扮演能力上排名国内前一,在代码、生成与创作、上下文对话能力上排名国内前三,各项能力较为均衡,聚焦在移动设备端的应用。Baichuan213BChat 是百川智能自主训练的开源大语言模型,是中文开源模型的主导力量。
2024-12-20
说明jetson orin nano可以使用什么模型?Grok-1模型可以吗?
目前没有关于 Jetson Orin Nano 是否可以使用 Grok1 模型的明确信息。但一般来说,Jetson Orin Nano 可以支持多种常见的深度学习模型,如基于 TensorFlow、PyTorch 框架开发的模型等。具体能够使用哪些模型,还需要考虑模型的计算需求、内存占用以及 Jetson Orin Nano 的硬件配置和性能限制等因素。
2024-12-20
怎么用已经公布的源代码,自己拥有一个私人ai。详细步骤,并且列出硬件设施,说明jetson orin nano可以使用什么模型?
目前已公布的源代码种类繁多,要利用其拥有一个私人 AI 并非简单直接的过程,且需要一定的技术知识和经验。 一般来说,以下是大致的步骤: 1. 选择合适的源代码:根据您的需求和技术能力,从众多已公布的源代码中选择适合的项目。 2. 环境搭建:安装所需的开发工具、编程语言和相关依赖库。 3. 数据准备:收集和整理适合训练和优化模型的数据。 4. 代码理解与修改:深入理解所选源代码的结构和逻辑,根据您的需求进行必要的修改和优化。 5. 训练模型:使用准备好的数据对模型进行训练。 6. 评估与优化:对训练好的模型进行评估,根据评估结果进行进一步的优化。 关于硬件设施,Jetson Orin Nano 是一款性能不错的嵌入式计算设备。它可以支持多种模型,例如常见的深度学习模型如卷积神经网络(CNN)、循环神经网络(RNN)等。但具体能使用哪些模型,还取决于模型的规模、计算需求以及您对性能和资源的要求。
2024-12-20
卷积神经网络模型原理
卷积神经网络(CNN)通常由卷积层、池化层和全连接层叠加构成。在卷积过程中,卷积层中的卷积核依次与输入图像的像素做卷积运算来自动提取图像中的特征。卷积核尺寸一般小于图像,并以一定的步长在图像上移动得到特征图。步长设置越大,特征图尺寸越小,但过大步长会损失部分图像特征。此外,池化层作用于产生的特征图上,能保证 CNN 模型在不同形式的图像中识别出相同物体,同时减少模型对图像的内存需求,其最大特点是为 CNN 模型引入了空间不变性。
2024-12-19
ai模型种类
以下是一些常见的 AI 模型: OpenAI 模型: GPT4 Beta:一组改进 GPT3.5 的模型,可以理解和生成自然语言或代码。 GPT3.5:一组改进 GPT3 的模型,可以理解并生成自然语言或代码。 DALL·E Beta:可以在给定自然语言提示的情况下生成和编辑图像的模型。 Whisper Beta:可以将音频转换为文本的模型。 Embeddings:一组可以将文本转换为数字形式的模型。 Codex Limited Beta:一组可以理解和生成代码的模型,包括将自然语言转换为代码。 Moderation:可以检测文本是否敏感或不安全的微调模型。 GPT3:一组可以理解和生成自然语言的模型。 智谱·AI 模型: WebGLM10B:利用百亿参数通用语言模型(GLM)提供高效、经济的网络增强型问题解答系统。 WebGLM2B MathGLM2B:在训练数据充足的情况下,20 亿参数的 MathGLM 模型能够准确地执行多位算术运算,准确率几乎可以达到 100%。 MathGLM500M MathGLM100M MathGLM10M MathGLMLarge:采用 GLM 的不同变体作为骨干来训练 MathGLM。 ProductHunt 2023 年度最佳产品榜单中的模型: GPT4(免费可用):与人类水平相当的 LLM,是 OpenAI 在深度学习规模扩大方面的最新里程碑,是一个大型多模态模型(接受图像和文本输入,输出文本),在各种专业和学术基准测试中表现出与人类相当的水平。 Midjourney v5(免费):最新、最先进的模型,具有极高的一致性,擅长以更高分辨率解释自然语言 prompt,并支持像使用 tile 这样的重复图案等高级功能。 DALL·E 3(免费可用):代表了生成完全符合文本的图像能力的一大飞跃。 Mistral 7B(免费):是一个具有 73 亿参数的模型,在所有基准测试上超越了 Llama 2 13B,在许多基准测试上超越了 Llama 1 34B,在代码任务上接近 CodeLlama 7B 的性能,同时在英语任务上表现良好。
2024-12-19