英伟达发布开源大语言模型 Nemotron 3 Super,专为多智能体应用场景设计。

核心特性

  • 高效架构:采用混合 Mamba-Transformer MoE 架构,总参数量1200亿,推理时每个token仅激活120亿参数。
  • 潜在MoE技术:通过将token嵌入压缩至低秩潜在空间进行路由,能以单个专家的计算成本激活4个专家,推理吞吐量较前代最高提升5倍
  • 长上下文:原生支持100万token上下文窗口,适合需长期保持状态的自主智能体。

性能与资源

  • 在智能体基准测试PinchBench中得分85.6%,为同类开源模型最高分。
  • 同步开源超过10万亿token的训练数据集、15个强化学习训练环境及评估方案。
  • 采用NVIDIA Nemotron Open Model License许可协议。

获取与部署
模型已在Hugging Face、build.nvidia.com等平台上线,并支持通过Google Cloud、AWS Bedrock、Azure等主流云服务部署。Perplexity、CodeRabbit、西门子等公司已率先采用。


🔥 实时行情点位,群内抢先看!

进群蹲精准做单提示→青岚免费交易社群 (电报)

以上仅为青岚姐个人观点,不作为投资建议,交易需谨慎|本文由青岚加密课堂整理优化