直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

你是哪家的哪个大模型的哪个版本

回答

以下是一些常见的大模型及其版本:

  • PCI-TransGPT 佳都科技小范围内测 API 版本。
  • Chinese-Alpaca2-13B,由 yiming cui(个人开发者)开发,是个人开源的基于 Llama2 的汉化版中文模型。
  • 360GPT_Pro 是 360 智脑的 API 升级版本 Pro。
  • Llama_2_13B_Chat 是 Meta 官方开源的 2 代 13B 的 Chat 版本。

此外,还有:

  • 百川 2 大模型中的 Baichuan2-7B-Chat 版本。
  • 360 安全大模型目前发展到 3.0 初级版本,只依赖大模型本身的能力,用于攻击事件的检测和发现,在恶意流量分析和恶意邮件检测效果方面全面超越 GPT 4。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

2023年度中文大模型基准测评报告.pdf

[title]VIRTUAL中文大模型基准测评2023年度报告[heading2]测评模型列表[heading3]12.PCI-TransGPT佳都科技小范围内测API版本25.Chinese-Alpaca2-13B yiming cui(个人开发者)个人开源的基于Llama2的汉化版中文模型13.360GPT_Pro 360 360智脑的API升级版本Pro26.Llama_2_13B_Chat Meta官方开源的2代13B的Chat版本本次测评数据选取了SuperCLUE-12月测评结果,模型选取了国内外有代表性的26个大模型在12月份的版本。SuperCLUE模型象限

创作:基于百川大模型向微信群大佬们虚心学习

这里我们选用Baichuan2-7B-Chat的版本(预训练模型也可在文末网盘中下载),使用LLaMA-Efficient-Tuning训练框架,根据自己的cuda版本安装pytorch,安装bitsandbytes做量化服务

周鸿祎免费课AI系列课程第二讲-企业如何拥抱AI

360作为国内唯一又懂大模型又懂安全的双料厂商,我们要解决大模型的安全问题,必须亲自躬身入局。我的想法是以“模法”打败魔法,因为大模型越来越智能,它的安全问题肯定不是用传统安全的路子来解决,所以我们提出了以模制模的理念。我们打造一个专业的聪明的大模型,它没有别的能力,就用来盯着其他大模型,如果发现有不安全的因素输出,或者不轨的行为,对其他大模型的行为进行分析和监控。目前这个大模型是个初级版本,只发展到3.0。我们只依赖大模型本身的能力,就是说不依赖外部工具,不依赖微调,也就是没有作弊。现在有些大模型测试很容易作弊,你提前把考题头天晚上做一遍,第二天去考试怎么也能考个七八十分。我们就在恶意流量分析和恶意邮件检测效果方面,全面超越GPT 4。再跟360积累了很多年的工具做结合,你让这个大模型写诗写不出来,奥数题也回答不了,它只干一件事——攻击事件的检测和发现。

其他人在问
你的知识库更新到什么时候,用的是哪家的大模型
以下是关于大模型的相关知识: 大模型与小模型的区别:小模型在特定任务上表现出色,但只能用于特定任务;大模型像多功能基础平台,能处理多种任务,应用范围广泛且拥有更多通识知识。 大模型的知识范围:大模型并不拥有无限知识,其知识来源于训练过程中接触的数据,这些数据有限,且训练后知识库不会自动更新,在某些特定或专业领域的知识可能不够全面。 大模型的运作机制:主要通过大量数据训练学习语言结构和模式,根据输入生成相应文本,类似于词语接龙游戏。 常见的大模型:包括 OpenAI 的 3.5 和 4 版本,微软 Bing 使用 4 和 3.5 的混合,谷歌的 Bard 由 PaLM 2 等基础模型驱动,Anthropic 的 Claude 2 具有非常大的上下文窗口,且不太可能恶意行事。 关于知识库的更新时间和使用的具体大模型,上述内容未明确提及。
2024-11-07
文生视频哪家强
目前在文生视频领域,以下是一些表现较为出色的产品: 1. Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 2. Pika:是一款出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。其新模型在文生视频质量上有大幅提升,例如生成皮克斯风格的镜头效果出色,稳定性高,语义理解强,动作幅度大,在 3D 和 2D 动画效果方面表现优秀。 3. SVD:如果熟悉 Stable Diffusion,可以安装这款最新的插件,在图片基础上直接生成视频,由 Stability AI 开源。 4. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需要收费。 5. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 更多的文生视频的网站可以查看:https://www.waytoagi.com/category/38 。 以下是 Sora 和其他模型能力的对比表格: |能力分类|能力|SORA|其他| ||||| |底层技术|架构|Transformer|UNet 为主| |底层技术|驱动方式|数据|图片| |对于真实世界的理解/模拟能力|世界理解能力|可理解世界知识|弱| |对于真实世界的理解/模拟能力|数字世界模拟|支持|不支持| |对于真实世界的理解/模拟能力|世界互动能力|支持|不支持| |对于真实世界的理解/模拟能力|3D 运动连贯性|强|弱| |对于真实世界的理解/模拟能力|物体一致性|强|弱| |对于真实世界的理解/模拟能力|物体持久性/连续性|强|弱| |对于真实世界的理解/模拟能力|文本理解|强|一般| |对于真实世界的理解/模拟能力|运动控制|其他|提示词提示词+运动控制工具| |基于模拟的视频编辑能力|无缝连接能力|强|弱| |基于模拟的视频编辑能力|视频到视频编辑|支持|部分| |基于模拟的视频编辑能力|扩展生成视频|前/后|后| |外显视频基础属性|视频时长|60 秒|2~4 秒| |外显视频基础属性|原生纵横比|支持|不支持| |外显视频基础属性|清晰度|1080P|最高 4K| 不同工具适合于不同的使用场景和需求,您可以根据自己的具体情况进行选择。
2024-10-15
国内ai哪家强大
在国内,以下是一些在 AI 领域表现较为突出的公司和产品: 腾讯:腾讯元宝是相对较晚推出的 AI 应用,其最大亮点在于强大的 AI 搜索功能,能够访问大量微信生态系统内的私域资源,还依托于腾讯“混元”大语言模型生成高质量内容。 Soul:旗下的异世界回响在情感陪伴方面有一定特色。 海鸟科技:推出了 AI 变脸产品。 MiniMax:推出了 MoE 架构的新模型,以及“星野”这个目前国内较成功的 AI 陪聊 APP。 杭州超节点:有无界 AI 产品,在图片生成方面表现不错。 兴利和:美趣 AI 是其在图片生成领域的产品。 智谱:一年间推出了 4 代 GLM,一直是国内能力较好的模型之一。 需要注意的是,在 2023 年官宣 AI 大模型的公司众多,其中不乏蹭流量的。从产品层面看,2C 端真正出圈的是“妙鸭相机”,但只是昙花一现。在硬件层,国内目前仍缺乏能胜任大模型训练的芯片,华为昇腾在单卡指标上距离不远,但因稳定性和生态问题仍需打磨。
2024-10-08
WayToAGI是什么?是哪家厂商做的?
WaytoAGI 直译就是通往 AGI 之路,它是一个自组织的AI社区,发起人是 AJ 和轻侯。AGI 指通用人工智能。
2024-09-29
国内哪家智能驾驶做的最好
目前国内有多家企业在智能驾驶领域表现出色,但很难确切地说哪家是最好的。一些在智能驾驶方面具有较强实力和影响力的企业包括百度、华为、小鹏汽车、蔚来汽车等。这些企业在技术研发、实际应用和市场表现等方面都各有优势和特点。百度在自动驾驶技术的研发和测试方面投入较大,并取得了一定的成果;华为凭借其在通信和技术领域的积累,为智能驾驶提供了相关的解决方案;小鹏汽车和蔚来汽车等新兴造车势力也在智能驾驶的功能和体验上不断创新和优化。然而,智能驾驶技术仍在不断发展和演进,各企业的表现也会随着时间和市场的变化而有所不同。
2024-09-18
你使用的是哪家基础大模型?
目前常见的基础大模型包括: Fooocus 程序默认用到了 3 个 SDXL 的模型,分别是一个 base,一个 Refiner,和一个 LoRA。其大模型(base 和 Refiner)默认放在:Fooocus_win64_1110\\Fooocus\\models\\checkpoints;LoRA 模型默认放在:Fooocus_win64_1110\\Fooocus\\models\\loras。如果单独安装,需要下载三个模型:SDXL 基础模型:https://huggingface.co/stabilityai/stablediffusionxlbase1.0/resolve/main/sd_xl_base_1.0_0.9vae.safetensors;refiner 模型:https://huggingface.co/stabilityai/stablediffusionxlrefiner1.0/resolve/main/sd_xl_refiner_1.0_0.9vae.safetensors;LoRA 模型:https://huggingface.co/stabilityai/stablediffusionxlbase1.0/resolve/main/sd_xl_offset_examplelora_1.0.safetensors。如果部署了 SD 秋叶包,也可以共用模型(大模型和 LoRA),可在 Fooocus_win64_1110\\Fooocus\\modules\\path.py 中修改路径为秋叶包模型对应的路径。配置好后点击 run.bat 文件启动。 在大型语言模型方面,主要有以下几家:OpenAI 制作了 GPT3.5 和 GPT4,它们驱动了 ChatGPT 和微软的 Bing(在 Edge 浏览器上访问);Google 在 Bard 的标签品牌下有各种模型;Anthropic 制造了 Claude 和 Claude 2。 每个微调工作都从一个默认为 curie 的基本模型开始,模型可以是 ada、babbage、curie 或 davinci。您可以使用 OpenAI CLI 开始微调工作,具体操作及相关注意事项如上述说明。
2024-09-09
ChatGPT最新的版本是什么
目前 ChatGPT 官网主要有以下版本: 1. GPT3.5:免费版本,拥有 GPT 账号即可使用,但智能程度相对较低,无法使用 DALL.E3(AI 画图功能)、GPTs 商店和高级数据分析等插件,知识更新到 2022 年 1 月。 2. GPT4:智能程度较高,知识更新到 2023 年 12 月。想要使用更多功能需要升级到 PLUS 套餐,收费标准为 20 美金一个月,还有团队版和企业版,费用更贵,一般推荐使用 PLUS 套餐。 3. ChatGPT 4o:5.13 发布,可免费体验,但免费体验次数有限,知识更新到 2023 年 10 月。想要更多功能也需要升级到 PLUS 套餐。
2024-11-09
开源大模型ChatGLM 系列有哪些版本
ChatGLM 系列的开源版本包括: ChatGLM36B:第三代 ChatGLM 对话模型,采用全新设计的 Prompt 格式,原生支持工具调用、代码执行和 Agent 任务等复杂场景。 ChatGLM36Bbase:第三代 ChatGLM 基座模型,采用更多样的训练数据、更充分的训练步数和更合理的训练策略,在 10B 以下的基础模型中性能较强。 ChatGLM36B32k:第三代 ChatGLM 长上下文对话模型,在 ChatGLM36B 的基础上进一步强化了对长文本的理解能力,能处理最多 32K 长度的上下文。
2024-11-04
目前最新版本的chatgpt是哪个版本
目前 ChatGPT 官网有两个版本,分别是 GPT3.5 和 GPT4。GPT3.5 是免费版本,拥有 ChatGPT 账号即可使用,但智能程度不如 GPT4 高,且无法使用 DALL.E3(AI 画图功能)、GPTs 商店和高级数据分析等插件。若想使用更多功能更智能的 GPT4,需要升级到 PLUS 套餐,收费标准是 20 美金一个月。此外,GPT4 还有团队版和企业版,功能更多、限制更少,但费用也更贵,一般推荐使用 PLUS 套餐。
2024-10-19
chatgpt版本更新时间
ChatGPT 不同版本的知识更新时间如下: ChatGPT 3.5 的知识更新到 2022 年 1 月。 ChatGPT 4o 的知识更新到 2023 年 10 月。 ChatGPT 4 更新到 2023 年 12 月。
2024-10-14
AI 指令精调版本是什么意思
AI 指令精调版本指的是:对于在通用数据集上预训练的模型,进行复制后,以这些学习到的权重为起点,在新的特定领域数据集上重新训练模型。这种技术在很多不同的用例中都非常有效。 指令调整可以使模型更好地遵循指令。例如在生成式人工智能项目中,对于一个预训练过的模型,可以通过微调来获得更好的回答。在大型语言模型中,通过在格式化为指令的任务混合物上对模型进行微调,可以获得并增强遵循提示的能力。经过指令调整的模型能够更准确地遵循指令,在未见任务上的表现显著优于未调整的模型,将大型语言模型转变为通用任务解决器,是 AI 发展历史上的一个范式转变。 但当对大型语言模型(LLM)进行微调时,会遇到一些挑战。因为 LLM 规模较大,更新每个权重可能需要很长时间的训练工作,同时还涉及到为这个巨大模型提供服务的麻烦和成本等问题,所以微调大型语言模型可能不是最佳选择。
2024-09-19
chatgpt最新版本
ChatGPT 是一种基于 GPT 架构的人工智能模型,由 OpenAI 开发。目前 ChatGPT 官网有三个版本,分别是 GPT3.5、GPT4 和 ChatGPT 4o。GPT3.5 是免费版本,拥有 GPT 账号即可使用,但智能程度相对较低,且无法使用 DALL.E3 等插件。GPT4 和 ChatGPT 4o 则功能更强大,知识更新也更及时。想要使用更多功能更智能的版本,需要升级到 PLUS 套餐,收费标准为 20 美金一个月。此外,GPT4 还有团队版和企业版,费用更高,功能也更多。在注册 ChatGPT 账号之前,建议先注册一个谷歌账号,以便日后使用。
2024-06-30
chilloutmix模型
以下是关于 chilloutmix 模型的相关信息: 在腊八节相关的生成中,模型为 chilloutmix_NiPrunedFp32Fix,生成尺寸与草稿图保持一致,有正、负面关键词及 ControlNet 设置等具体参数。 在猫猫相关的生成中,虽然作者建议使用 chilloutmix_NiPrunedFp32Fix 模型,但也可以尝试其他模型。 在 AIGC Weekly 09 中,提到从 civitai 下载 ChilloutMix 模型并放到整合包 models\\Stablediffusion 目录里启动 web UI 切换模型。
2024-11-17
SD好的模型分享
以下是为您分享的关于 SD 模型的相关内容: 对于 SDXL 的 ControlNet 模型中的 Canny 硬边缘模型,有不同型号,如 4080ti 笔记本测试中,12G 显存下,sdxl base+refiner 模型,使用 diffusers 的 2.5Gfull 模型绘制 10241024 尺寸图片需 2 分 57 秒,320Mb 的 small 模型用时 34s,质量差距不大但时间优势明显。其他作者如 kohya 的用时 33 秒,更接近真实质感。sai 的 128lora 和 256lora 分别用时 39 秒和 1 分 08 秒,偏绘画感觉。t2i 的用时 34s,偏插画。关闭 refiner 能节省一半左右时间,平均 17 秒左右。 在 Depth 深度模型测试中,图形尺寸 6641024,diffusers 的 full 模型用时 2 分 48 秒,small 模型用时 23s,kohya 模型用时 42 秒,sai 模型用时 1 分 12 秒,sargezt 模型用时 1 分 52 秒。 用 Stable Diffusion 时,要先确定照片风格,如生成真人 AI 小姐姐可选用 chilloutmix 的大模型。部分常用大模型可在分享的链接中根据文件夹名称找到。文章第三部分会详细介绍模型下载位置和存放位置。 对于 ControlNet 中线条约束类的预处理器和模型,作者已整理好,如需获取可添加公众号【白马与少年】回复【SD】。同时作者还附上一张图帮助理解 ControlNet 模型的命名规则。
2024-11-17
sd模型
Stable Diffusion(SD)模型是由 Stability AI 和 LAION 等公司共同开发的生成式模型,参数量约 1B,可用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等任务。 文生图任务是将一段文本输入到 SD 模型中,经过一定迭代次数生成符合文本描述的图片。例如输入“天堂,巨大的,海滩”,模型生成美丽沙滩的图片。 图生图任务在输入文本基础上再输入一张图片,模型根据文本提示将输入图片重绘以更符合文本描述。比如在之前生成的沙滩图片上添加“海盗船”。 输入的文本信息需通过“桥梁”CLIP Text Encoder 模型转换为机器数学信息。该模型作为 SD 模型中的前置模块,将输入文本信息编码,生成 Text Embeddings 特征矩阵,用于控制图像生成。 CLIP 模型包含 Text Encoder 和 Image Encoder 两个模型,在 Stable Diffusion 中主要使用 Text Encoder 模型。它将输入的文本 Prompt 编码转换成 Text Embeddings(文本的语义信息),通过 UNet 网络中的 CrossAttention 模块嵌入 Stable Diffusion 中作为 Condition,对生成图像的内容进行控制与引导。目前 SD 模型使用的是中的 Text Encoder 模型。 CLIP ViTL/14 中的 Text Encoder 是只包含 Transformer 结构的模型,由 12 个 CLIPEncoderLayer 模块组成,模型参数大小是 123M,输出的 Text Embeddings 维度为 77x768。 以下是相关资源获取方式: SD 模型权重百度云网盘:关注 Rocky 的公众号 WeThinkIn,后台回复:SD 模型,即可获得包含多种模型权重的资源链接。 SD 保姆级训练资源百度云网盘:关注 Rocky 的公众号 WeThinkIn,后台回复:SDTrain,即可获得包含数据处理、模型微调训练及基于 SD 的 LoRA 模型训练代码等全套资源。 Stable Diffusion 中 VAE,UNet 和 CLIP 三大模型的可视化网络结构图下载:关注 Rocky 的公众号 WeThinkIn,后台回复:SD 网络结构,即可获得网络结构图资源链接。
2024-11-17
我是一名高中历史老师,请问用什么大模型能帮我做教学设计
以下为您推荐一些利用大模型辅助高中历史教学设计的案例: 有一位历史老师使用 GPT 给学生讲课,通过 GPT 生成一个“沉浸式”历史片段游戏,让学生扮演一个角色“设身处地”地做决策,学生的作业是找出 GPT 的错误。例如明朝灭亡、南京、1645 年 5 月的相关案例,您可以参考:https://chat.openai.com/share/86815f4e674c4410893c4ae3f1b7412e/continue 。 对于历史专业的学生,当他们遇到像 ChatGPT 这样的语言模型时,已经训练有素能够识别一些常见的陷阱,如事实不准确等,并通过事实核查、分析体裁和受众、在相关来源中搜索等技能来解决这些问题。 语言模型对于历史学家和历史专业的学生是有益的,但对于历史老师和其他教育工作者在短期内可能会带来一些问题,需要重新思考许多作业的布置方式。 您可以尝试借鉴这些案例,根据您的教学需求和学生特点,对大模型的应用进行调整和优化。
2024-11-17
大模型可以修复老旧的分辨率低的视频吗
大模型在修复老旧低分辨率视频方面是可行的,但具体效果因模型和方法而异。 例如,使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型、StableSR 模块和 VQVAE 等,通过不同的放大方法进行测试。如“Ultimate SD upscale”脚本放大,重绘幅度不同效果有别,重绘幅度大可能导致人物失真。“后期处理”的放大方法能使眼神更锐利,但对模糊的头发改善有限。而 StableSR 的放大则需要进行相应的模型和参数调整。 另外,像 Sora 这样的大型视觉模型,能够在原始尺寸上训练、理解和生成视频及图像。它可以处理不同格式和分辨率的视觉数据,保持原始宽高比,改善生成视频的构图和框架。其基础模型用于低分辨率视频生成,通过级联扩散模型细化提高分辨率,采用 3D UNet 架构,结合多种技术和方法,能生成高保真度且具有可控性的视频。
2024-11-17
如何可以使用到chatgpto1大模型
目前 ChatGPT 没有 ChatGPT1 这个大模型。ChatGPT 有多个版本,如 ChatGPT3、ChatGPT3.5、ChatGPT4 等。您可以通过以下方式使用 ChatGPT 相关模型: 1. 访问 OpenAI 的官方网站,按照其指引进行注册和使用。 2. 部分应用和平台可能集成了 ChatGPT 的接口,您可以在这些应用中体验其功能。 需要注意的是,使用 ChatGPT 时应遵循相关的使用规则和法律法规。
2024-11-16