查看: 74|回复: 0
收起左侧

[IT业界] 英伟达最强开源权重 AI 模型:Nemotron 3 Super 登场,120B 参数、吞吐量飙升 5 倍

[复制链接]
anyangmo
发表于 2 小时前 | 显示全部楼层 |阅读模式
本帖最后由 anyangmo 于 2026-3-12 09:37 编辑

英伟达最强开源权重 AI 模型:Nemotron 3 Super 登场,120B 参数、吞吐量飙升 5 倍

IT之家 3 月 12 日消息,英伟达公司昨日(3 月 11 日)发布博文,宣布推出 Nemotron 3 Super 开源大模型,是其迄今为止最强大的开源权重 AI 模型。

11.jpg

IT之家注:开源权重模型(Open-weight AI models)是指将决定 AI 模型行为的关键参数(权重)向公众免费开放的模型。与完全闭源的模型(如 GPT-4)不同,开发者可以下载并在自己的设备上运行或微调这些模型。


Nemotron 3 Super 模型拥有 1200 亿参数,采用混合专家(MoE)架构(推理时仅激活 120 亿),专为大规模运行复杂智能体(Agentic AI)系统设计。


该模型结合了先进的推理能力,能够为自主智能体高精度地完成任务。Perplexity、Palantir 和西门子等行业巨头目前已将其应用于搜索、软件开发、电信和半导体设计等核心工作流中。


随着企业将 AI 应用从聊天机器人转向多智能体,往往面临两大瓶颈:“上下文爆炸”与“推理税”。多智能体交互会产生最多 15 倍的 Token 量,导致成本飙升和目标偏移;同时,复杂智能体每步都需要推理,让系统变得昂贵且迟钝。


Nemotron 3 Super 为解决这些问题,配备了 100 万 Token 的上下文窗口。这让智能体能够将完整的工作流状态保留在内存中,从而防止目标偏移,并大幅降低多步推理的成本。


在架构与性能方面,该模型采用了混合专家(MoE)架构,将吞吐量提升了 5 倍,准确率比前代翻倍。具体而言,其 Mamba 层使内存和计算效率提高了 4 倍,而 Transformer 层则负责高级推理。


此外,模型引入了“潜在 MoE(Latent MoE)”新技术,以单个专家的计算成本激活四个专家;并支持多 Token 预测,让推理速度提升 3 倍。在英伟达 Blackwell 平台上,该模型以 NVFP4 精度运行,相比 Hopper 架构上的 FP8,内存需求更低且推理速度快 4 倍。


英伟达对该模型采取了高度开放的策略。官方不仅遵循宽松许可证开源了模型权重,还公布了完整的训练方法,包括超 10 万亿 Token 的数据集和评估配方。在实际场景中,它能一次性加载完整代码库进行端到端调试,或瞬间读取数千页财务报告。


开发者目前可通过 Hugging Face、各大云服务商(谷歌云、甲骨文,及即将上线的 AWS 和 Azure)获取该模型。同时,它已被打包为 NVIDIA NIM 微服务,支持无缝部署制本地数据中心和云端。


22.jpg





原文地址:https://www.ithome.com/0/928/184.htm



您需要登录后才可以回帖 登录 | 快速注册

本版积分规则

手机版|杀毒软件|软件论坛| 卡饭论坛

Copyright © KaFan  KaFan.cn All Rights Reserved.

Powered by Discuz! X3.4( 沪ICP备2020031077号-2 ) GMT+8, 2026-3-12 12:28 , Processed in 0.084058 second(s), 4 queries , Redis On.

卡饭网所发布的一切软件、样本、工具、文章等仅限用于学习和研究,不得将上述内容用于商业或者其他非法用途,否则产生的一切后果自负,本站信息来自网络,版权争议问题与本站无关,您必须在下载后的24小时之内从您的电脑中彻底删除上述信息,如有问题请通过邮件与我们联系。

快速回复 客服 返回顶部 返回列表