何が起きたか
NVIDIAはGTC 2026で、エージェントAI向けオープンウェイトモデル「Nemotron 3 Super」を公開した。120Bパラメータ(12Bアクティブ)のMixture-of-Experts(MoE)アーキテクチャで、Mamba-Transformerハイブリッド構造を採用。10兆トークンのトレーニングデータもオープンに公開され、カスタマイズや再現が可能だ。
どう動くのか
Nemotron 3 Superは、MambaとTransformerを組み合わせたハイブリッドアーキテクチャにより、推論効率と長コンテキスト処理を両立する。120Bパラメータのうち12BがアクティブなMoE構造で、従来のフル稠密モデルと比較して5倍のスループット効率を実現。Nemotron 3 Ultraはフロンティアレベルの性能を、Nemotron 3 Omniは音声・画像・テキストの統合理解を、Nemotron 3 VoiceChatはリアルタイム音声対話を提供する。
エンジニアへの影響
- 完全オープン:モデルウェイト、学習データ、レシピがすべて公開。商用・学術・個人利用が自由
- エージェント最適化:複雑なツール呼び出し、推論チェーン、マルチステップタスクに特化した設計
- コスト効率:12Bアクティブパラメータのため、推論コストがフル稠密モデルの5分の1
- 主要プラットフォーム対応:Hugging Face、OpenRouter、build.nvidia.com、Perplexityで利用可能
- AIコーディング統合:CodeRabbit、Factory、Greptileが既にNemotron 3を統合
試してみるには
build.nvidia.comまたはHugging Faceからモデルにアクセス可能。OpenRouter経由でAPIとしても利用できる。RTX GPUを搭載したローカル環境でも動作する。
参考リンク
この記事はAI業界の最新動向を速報でお届けする「AI Heartland ニュース」です。
よくある質問
Q. Nemotron 3 Superとは何ですか?
NVIDIAが公開した120Bパラメータ(12Bアクティブ)のMoEオープンウェイトモデルで、Mamba-Transformerハイブリッド構造を採用しています。
Q. Nemotron 3 Superは無料ですか?
はい、モデルウェイト・学習データ・レシピがすべて公開されており、商用・学術・個人利用が自由です。
Q. Nemotron 3 Superのコスト効率は?
12Bアクティブパラメータのため推論コストがフル稠密モデルの5分の1で、5倍のスループット効率を実現します。
Q. どこで利用できますか?
Hugging Face、OpenRouter、build.nvidia.com、Perplexityで利用可能。RTX GPU搭載のローカル環境でも動作します。