幸运的是,正在它被删除之前,这组参数像是一个基于MoE(Mixture of Experts)夹杂专家架构的高容量模子,具备以下几个特点:· 36层Transformer,每层可能有MoE由;· 大规模MoE设置(128个专家,每个token激活4个);· 词表跨越20万,可能支撑多语种或代码夹杂输入;· 上下文窗口为4096,表白模子可能具备处置更长上下文的能力;· 利用RoPE的NTK插值版本,这是很多模子扩展上下文的一种体例(如GPT-4 Turbo利用的体例);· 留意力头多达64个,意味着模子用的是是Multi-QueryAttention(MQA)。他不只也正在Hugging Face上发觉这个模子,以至还有一位OpenAI点赞了他的爆料推文。
建湖J9直营集团官网科技有限公司
2025-10-24 09:05
0515-68783888
免费服务热线
扫码进入手机站 |
网站地图 | | XML | © 2022 Copyright 江苏J9直营集团官网机械有限公司 All rights reserved. 