据 1M AI News 监测,英伟达自研开源模型的核心动因是一个正在逼近的威胁:当前全球最优秀的开放权重模型几乎全部来自中国——DeepSeek、阿里 Qwen、Moonshot AI、Z.ai、MiniMax——大量海外初创公司和研究者已在中国模型之上构建应用。更关键的是,业内广泛传闻 DeepSeek 即将发布完全在华为芯片上训练的新模型。如果这一传闻属实,将证明「没有英伟达也能训出顶级模型」,可能促使更多开发者尝试华为硬件,直接动摇英伟达的芯片垄断地位。英伟达的应对策略是:自己做一套针对自家硬件深度优化的开源模型,让开发者留在英伟达生态内。
WIRED 从英伟达 2025 年 SEC 财务文件中发现,公司计划未来五年投入 260 亿美元用于构建开放权重 AI 模型,并获高管确认,此前未被公开报道。英伟达应用深度学习研究副总裁 Bryan Catanzaro 表示:「帮助生态系统发展符合我们的利益。我们是一家美国公司,但我们与全球各地的公司合作,让生态系统在各地都多样且强大符合我们的利益。」
英伟达同日发布其迄今最强的开放权重模型 Nemotron 3 Super,参数量 1280 亿,与 OpenAI GPT-OSS 最大版本相当。公司称该模型在 AI Index(跨 10 项基准测试的综合评分)中得分 37,超过 GPT-OSS 的 33,但低于数款中国模型。英伟达还称 Nemotron 3 Super 在 PinchBench(评估模型控制 OpenClaw 能力的新基准)上排名第一。此外,公司已完成一个 5500 亿参数模型的预训练。Allen 人工智能研究所 ATOM 项目负责人 Nathan Lambert 表示自己是「Nemotron 的忠实粉丝」,并呼吁美国政府也应资助开源模型。