Meta AI在周二发布了最新一代开源大模型Llama 2。相较于今年2月发布的Llama 1,Llama 2的训练所用的token数量翻了一倍,达到了2万亿个,并且上下文长度限制也翻了一倍。Llama 2包含了70亿、130亿和700亿参数的模型。
据介绍,相比于 Llama 1,Llama 2 的训练数据多了 40%,上下文长度也翻倍,并采用了分组查询注意力机制。具体来说,Llama 2 预训练模型是在 2 万亿的 token 上训练的,精调 Chat 模型是在 100 万人类标记数据上训练的。
以下是两个在线体验测试网址,以及官方开源代码的网站地址: