文章来源于互联网:首个超越GPT4o级开源模型!Llama 3.1泄密:4050亿参数,下载链接、模型卡都有了
快准备好你的 GPU!
-
模型使用了公开来源的 15T+ tokens 进行训练,预训练数据截止日期为 2023 年 12 月; -
微调数据包括公开可用的指令微调数据集(与 Llama 3 不同)和 1500 万个合成样本; -
模型支持多语言,包括英语、法语、德语、印地语、意大利语、葡萄牙语、西班牙语和泰语。
文章来源于互联网:首个超越GPT4o级开源模型!Llama 3.1泄密:4050亿参数,下载链接、模型卡都有了
快准备好你的 GPU!