Llama 3 是 Meta 发布的语言模型。以下是关于 Llama 3 的一些重要信息:
【Zho】不用下载模型了,现在llama-3-70B-Instruct已经可以在刚刚推出的Hugging Chat上直接用了!!!!!!!!!!!开源牛逼!!!!!网页:https://huggingface.co/chat/app下载:https://apps.apple.com/us/app/huggingchat/id6476778843?l=zh-Hans-CN[heading2]简介[content]简短描述【Zho】Llama 3正式发布了!· 8B和70B双模型·比Llama 2的数据集大7倍以上· 128K token·更强的推理和编码能力·训练效率比Llama 2高3倍·已集成到Meta AI📝绘画来自ZHO(DALLE)[heading2]测评报告[content]8B的能力远超llama 2 70-b
2024年4月18日今天早些时候,Meta发布了Llama家族的下一个迭代版本[Llama 3](https://huggingface.co/blog/llama3)。Llama 3有两种尺寸:[8B](https://huggingface.co/meta-llama/Meta-Llama-3-8B-Instruct)适用于在消费级GPU上进行高效部署和开发,[70B](https://huggingface.co/meta-llama/Meta-Llama-3-70B-instruct)适用于大规模AI原生应用。两者均有基础和指令调优变体。除了这4个型号外,Llama Guard的新版本在Llama 3 8B上进行了微调,并作为Llama Guard 2(安全微调)发布。在这篇博客中,您将学习如何将[meta-llama/Meta-Llama-3-70B-Instruct](https://huggingface.co/meta-llama/Meta-Llama-3-70B-Instruct)模型部署到Amazon SageMaker。我们将使用Hugging Face LLM DLC,这是一个专为在安全和受控环境中轻松部署LLMs的推理容器。该DLC由[文本生成推理(TGI)](https://github.com/huggingface/text-generation-inference)提供支持,是一个可扩展、优化的解决方案,用于部署和提供大型语言模型(LLMs)。该博客文章还包括不同模型尺寸的硬件要求。在本博客中将介绍如何:1.设置开发环境2.硬件要求3.将Llama 3 70b部署到Amazon SageMaker4.运行推理并与模型聊天5.使用llmperf对llama 3 70B进行基准测试6.清理让我们开始吧!
1.性能测试8B和70B参数模型在预训练和微调上表现最佳。后期训练改进减少错误拒绝率,提升对齐度和响应多样性。推理、代码生成和指令跟踪能力显著增强。2.模型架构使用128K词库的标记化器,提高编码效率和性能。8B和70B模型采用分组查询关注(GQA)以提升推理效率。训练基于8,192词组序列,使用掩码避免自我关注跨越文档边界。3.训练数据超过15T词库的预训练,是Llama 2的七倍。包含的代码数量是Llama 2的四倍。预训练数据集含5%以上的非英语数据,覆盖30多种语言。采用数据过滤管道,包括启发式、NSFW、语义重复删除和文本分类器。00000004.使用方式将支持AWS、Databricks、Google Cloud等平台。得到AMD、AWS等硬件平台支持。可在Meta AI官方助手上体验。5.未来支持未来几个月将推出新功能、更长上下文窗口、更多型号尺寸。性能将进一步提升。将分享Llama 3研究论文。