英伟达发布开源大语言模型 Nemotron 3 Super,专为多智能体应用场景设计。
核心特性
- 高效架构:采用混合 Mamba-Transformer MoE 架构,总参数量1200亿,推理时每个token仅激活120亿参数。
- 潜在MoE技术:通过将token嵌入压缩至低秩潜在空间进行路由,能以单个专家的计算成本激活4个专家,推理吞吐量较前代最高提升5倍。
- 长上下文:原生支持100万token上下文窗口,适合需长期保持状态的自主智能体。
性能与资源
- 在智能体基准测试PinchBench中得分85.6%,为同类开源模型最高分。
- 同步开源超过10万亿token的训练数据集、15个强化学习训练环境及评估方案。
- 采用NVIDIA Nemotron Open Model License许可协议。
获取与部署
模型已在Hugging Face、build.nvidia.com等平台上线,并支持通过Google Cloud、AWS Bedrock、Azure等主流云服务部署。Perplexity、CodeRabbit、西门子等公司已率先采用。