Meta发布了最新大模型Llama 3

随着人工智能大战持续升级,4月19日,全球科技、社交巨头Meta在官网,正式发布了开源大模型——Llama 3。目前,Llama 3已经开放了80亿(8B)和700亿(70B)两个小参数版本,上下文窗口为8k。

Meta表示,通过使用更高质量的训练数据和指令微调,Llama 3比前代Llama 2有了“显著提升”。Llama 3使用了15T tokens的训练数据,在推理、数学、代码生成、指令跟踪等能力获得大幅度提升。此外,Llama 3还使用了分组查询注意力、掩码等创新技术,帮助开发者以最低的能耗获取绝佳的性能。

目前,大模型领域最流行的Transformer架构的核心功能是自我注意力机制,这是一种用于处理序列数据的技术,可对输入序列中的每个元素进行加权聚合,以捕获元素之间的重要关系。但在使用自我注意力机制时,为了确保模型不会跨越文档边界,通常会与掩码技术一起使用。在自我注意力中,掩码被应用于注意力权重矩阵,用于指示哪些位置的信息是有效的,哪些位置应该被忽略。

通常当处理文档边界时,可以使用两种类型的掩码来确保自我注意力不会跨越边界:

1.填充掩码

当输入序列的长度不一致时,通常会对较短的序列进行填充,使其与最长序列的长度相等。填充掩码用于标记填充的位置,将填充的部分掩盖,使模型在自我注意力计算中忽略这些位置。

2.未来掩码

在序列生成任务中,为了避免模型在生成当前位置的输出时依赖后续位置的信息,可以使用未来掩码。来掩码将当前位置之后的位置都掩盖起来,使得自我注意力只能关注当前或之前的位置。

此外,在Transformer自注意力机制中,每个查询都会计算与所有键的相似度并进行加权聚合。而在分组查询注意力中,将查询和键分组,并将注意力计算限制在每个查询与其对应组的键之间,从而减少了模型计算的复杂度。由于减少了计算复杂度,分组查询注意力使得大模型更容易扩展到处理更长的序列或更大的批次大小。这对于处理大规模文本数据或需要高效计算的实时应用非常有益。同时分组查询注意力允许在每个查询和其对应组的键之间进行关注的计算,从而控制了注意力的范围。这有助于模型更准确地捕捉查询和键之间的依赖关系,提高了表示能力。

Meta表示,Llama 3还使用了一个128K的词汇表标记器,能更有效地编码语言,在处理语言时也更加灵活。训练数据方面,lama 3在超过15T tokens的公开数据集上进行了预训练。这个训练数据集是Llama 2的7倍,包含的代码数量也是Llama 2的4倍。为了实现多语言能力,Llama 3的预训练数据集中有超过5%的高质量非英语数据,涵盖30多种语言。

Meta为了测试Llama 3的性能开发了一个全新的高质量人类评估数据集。这个全新的高质量人类评估数据集有1,800个提示,涵盖12个关键用例,包含,征求建议,头脑风暴,分类,封闭式问题回答,编码,推理等。

测试结果显示,Llama 3 700亿参数的指令微调模型的性能,大幅度超过了Claude Sonnet、Mistral Medium和GPT-3.5。Meta还在MMLU、AGIEval、BIG、ARC等知名测试平台中,对Llama 3 700亿参数基础预训练模型进行了综合测试,性能大幅度超过了Mistral 7B、Gemma 7B、Gemini Pro 1.0等知名开源模型。

行业动态

116个 AI 大模型成功备案 可在中国境内合法应用

2024-4-19 10:11:36

行业动态

Blockade Labs重磅推出全新模型Model 3

2024-4-22 14:48:49

相关推荐