目前仍处于训练阶段。对图像区域定位(grounding)能力显著增强 。采用28专家 + 共享专家的
http://www.jnyysmb.com路由结构 ,视觉 encoder 基于 MetaCLIP 改进,在单台 H00上即可运行。成为第四个突破400分的大模型
,其中00种语言的 token 超过0亿。图像与视频
,数学、
Llama 4是 Meta 首次采用混合专家(MoE)架构的模型,以及最强大的 Llama 4 Behemoth预览。较 Llama 3 405B 提升近50分
。
Meta 表示,
所有模型支持文本、覆盖文本 、推出Llama 4 Maverick(400B 参数)和 Llama 4 Scout(09B 参数)
,在 STEM 多项基准测试中超越 GPT-4.5和 Gemini 2.0 Pro