NVIDIAはGTC 2026で、エージェントAI向けオープンウェイトモデル「Nemotron 3 Super」を公開した。120Bパラメータ(12Bアクティブ)のMixture-of-Experts(MoE)アーキテクチャで、Mamba-Transformerハイブリッド構造を採用。10兆トークンのトレーニングデータもオープンに公開され、カスタマイズや再現が可能だ。
Nemotron 3 Superは、MambaとTransformerを組み合わせたハイブリッドアーキテクチャにより、推論効率と長コンテキスト処理を両立する。120Bパラメータのうち12BがアクティブなMoE構造で、従来のフル稠密モデルと比較して5倍のスループット効率を実現。Nemotron 3 Ultraはフロンティアレベルの性能を、Nemotron 3 Omniは音声・画像・テキストの統合理解を、Nemotron 3 VoiceChatはリアルタイム音声対話を提供する。
build.nvidia.comまたはHugging Faceからモデルにアクセス可能。OpenRouter経由でAPIとしても利用できる。RTX GPUを搭載したローカル環境でも動作する。
この記事はAI業界の最新動向を速報でお届けする「AI Heartland ニュース」です。