
NVIDIA NeMo Framework を整理してみた
はじめに
こんにちは、クラスメソッド製造ビジネステクノロジー部の森茂です。
NVIDIA の生成 AI スタックでは「NeMo」と名のつくプロダクトが増え続けていて、「Curator と Automodel と Megatron-Bridge、それぞれどう違うんだっけ」「NIM って NeMo の一部だっけ、別物だっけ」と迷う場面、増えてきていないでしょうか。
本記事では、2026 年 4 月時点での NVIDIA NeMo Framework エコシステム全体の地図と、各コンポーネントを実機で試した DGX Spark 連載記事のインデックスを兼ねて整理してみました。「NeMo 全体は把握していないけど、今から追いかけ始めたい」という方の入口になれば嬉しいです。
情報の動きが速い領域なので、本記事は 2026-04-20 時点のスナップショットです。リリースサイクルが月次で回っているため、数か月後には細部が変わっている可能性はあります。その点はご了承ください。
ブランド整理 — Nemotron と NeMo と NIM と Cosmos と NemoClaw
まず、いちばんこんがらがりがちなブランド名を先に整理しておきましょう。
NVIDIA の AI 関連ブランドは似た名前が多くて、「Nemotron」「NeMo」「NIM」「Cosmos」「NemoClaw」がそれぞれ別物、という時点でまあまあの混乱ポイントです。ざっくりと次のように覚えておくとスッキリします。
- Nemotron は「モデル」です。NVIDIA がオープンウェイトで公開している LLM・VLM ファミリー(Nemotron 3 Nano / Super など)を指します
- NeMo は「フレームワーク」です。学習・カスタマイズ・評価・ガードレール・エージェント構築といった、生成 AI 開発のソフトウェアスタックの傘
- NIM は「推論マイクロサービス」です。学習・最適化済みのモデルを API エンドポイントとして配るパッケージで、NeMo ではなく NVIDIA AI Enterprise の一部
- Cosmos は「Physical AI の基盤モデル群」です。World Foundation Model(Cosmos-Predict / Cosmos-Transfer)と VLM(Cosmos-Reason)が中心で、NeMo とは GitHub organization も分かれている独立プロジェクト
- NemoClaw は「エージェント実行環境」です。サンドボックス(OpenShell)+ ポリシーエンジンを NeMo Guardrails と組み合わせた、安全なエージェント基盤
関係を整理すると、Nemotron モデルを NeMo Framework でカスタマイズし、本番配信は NIM マイクロサービスで、エージェントとして動かすなら NeMo Agent Toolkit や NemoClaw で、という形で組み合わせる想定です。Cosmos はそこに Physical AI 向けの世界モデルとして並走する、という構図ですね。
NVIDIA AI Enterprise と NeMo の線引き
もう一歩踏み込むと、ライセンスの境界も押さえておいた方が実務では迷わなくなります。
NeMo Framework 本体は OSS として GitHub で公開されていて、個人でも企業でも自由に使えます。Megatron-Bridge、Automodel、RL、Curator、Guardrails、Agent Toolkit、Evaluator などがこれにあたります。DGX Spark を個人で買って自宅に置いている方でも、このあたりは問題なく触れる領域です。
一方、NIM と NeMo Microservices(Customizer / Evaluator Microservice / Retriever / Guardrails Service など)は NVIDIA AI Enterprise の傘下にある商用製品です。NIM Operator(Kubernetes 向け)や Customizer Microservice を本番導入しようとすると、AI Enterprise のサブスクリプションが必要になります。
本記事ではこの境界に触れた上で、原則 OSS 版を扱います。商用前提の話題には「AI Enterprise 前提」と注記しますので、そのつもりで読み進めてもらえれば。
NeMo Framework の全体像
改めて、NeMo の傘下にどんなコンポーネントがあるのか、まずは 1 枚の図で俯瞰してみましょう。
大きく分けて 5 つのレイヤーに整理できます。学習・カスタマイズ基盤(Megatron-Bridge / Automodel / RL / Run)、データ・評価(Curator / Evaluator)、安全性・制御(Guardrails)、エージェント(Agent Toolkit / NemoClaw)、推論・配信(NIM / Microservices、AI Enterprise 傘下)の 5 区分です。
NeMo 1.0 時代のモノリシックな NVIDIA/NeMo リポジトリは、現在 Speech AI 中心にスリム化され、LLM/VLM 向けは Megatron-Bridge や Automodel といった独立したリポジトリに役割が分散される流れになっています。
「NeMo」と聞いて迷いがちなのは、このモジュール分解の過渡期に我々がいる、というのが大きいですね。1 年前の情報と今の情報が食い違うのは、NeMo が悪いのではなく、そういう節目だ、ということです。
カテゴリ別コンポーネント一覧
ここから、各カテゴリの主要コンポーネントを 2-3 段落ずつ紹介します。詳細を書いた記事は段落の中にインラインでリンクしていますので、気になるものから辿ってもらえれば。
学習・カスタマイズ基盤
Megatron-Bridge は、Megatron-Core ベースの学習ライブラリに Hugging Face との双方向変換を足したものです。Tensor Parallelism や Pipeline Parallelism といった並列化を活かしつつ、HF Hub のモデルと相互にウェイトを行き来できます。Mamba 層や MoE を含む大規模モデルを本気で学習する場面が主戦場です。DGX Spark で Nemotron 9B に Megatron-Bridge を適用した記事 で実験していますが、コンテナが x86_64 オンリーのため Brev H100 を借りて実行しました。
Automodel は、PyTorch DTensor ネイティブの SPMD 分散学習ライブラリです。HF モデルを OOTB で受け取れて、FSDP/DDP をシンプルな設定で使えます。Megatron-Bridge ほどの深いカスタマイズはできない代わりに、学習設定がコンパクトで読みやすいですね。2026 年に入ってから Nemotron 3 Super 120B や Mistral Small 4 119B のサポートが追加されていて、アクティブに育っているリポジトリです。
NeMo RL は、かつての NeMo Aligner の後継です。Aligner は 2025-11-19 にアーカイブされ、機能は NeMo RL に一本化されました。Ray ベースのポストトレーニング(RLHF / DPO / GRPO など)がメインで、v0.4 以降は Megatron-Bridge をバックエンドとして採用しています。
NeMo Run は、ML 実験の設定・起動・管理ツール。単体の学習 CLI というより、Megatron-Bridge や RL の実験を回す際の司令塔として使われます。
データ・評価
NeMo Curator は、学習前データの前処理・キュレーション専用ライブラリです。テキストを中心に、画像や動画のキュレーションにも対応範囲を広げていて、重複排除や品質フィルタを RAPIDS ベースで高速に回せます。NGC にコンテナが配布されていますが、ARM64 対応は公式に明示されていないため、DGX Spark で試すとしたら要検証領域です。
NeMo Evaluator は、LLM 評価基盤。lm-evaluation-harness / bigcode-eval / simple-evals など 23 ハーネス・421 タスクを 1 つの YAML から呼び出せて、BYOB(Bring Your Own Benchmark)でカスタム評価も統合可能です。ARM64 対応は lm-eval / bigcode / simple-evals / garak の 4 種で確認済み、vlmevalkit のみ amd64 専用でした。解説記事はこちら にまとめています。
安全性・制御
NeMo Guardrails は、LLM の入出力にルールを被せる OSS です。Input Rails(プロンプトの検閲)、Output Rails(応答の検閲)、Dialog Rails(会話フローの制御)、Retrieval Rails(RAG の検閲)、Execution Rails(ツール呼び出しの制御)の 5 階層で設計されていて、Colang という専用言語か Python のカスタムアクションで記述します。
日本語 LLM に安全装備を載せた Nemotron 3 Nano での実装記事 では、is_content_safe の英語キーワード固定問題や Colang 2.x の癖なども書いていますので、これから触る方は実装のハマりどころとして参考になるかもしれません。
エージェント
NeMo Agent Toolkit(旧 AIQ Toolkit、PyPI では nvidia-nat)は、LangChain / LangGraph / LlamaIndex / CrewAI といった主要フレームワークとのプラグイン統合をそろえ、YAML でワークフローを定義できるエージェント開発 SDK です。MCP サーバーとしてエージェントを公開する nat mcp serve や、評価を回す nat eval など、運用を意識した CLI がそろっています。
NemoClaw は、OpenShell というサンドボックスランタイムに NeMo Guardrails を組み合わせた、安全なエージェント実行環境です。AI エージェントをローカルで動かしつつ、ネットワークアクセスや破壊的操作に制約をかけるサンドボックスとして使われます。NVIDIA が GTC 2026 で正式発表し、DGX Spark Playbook にも載っています。
推論・配信(AI Enterprise 傘下)
NIM は、最適化済みの推論マイクロサービスとしてモデルを配るパッケージです。Docker / Kubernetes で起動すれば OpenAI 互換 API が立ち上がります。NeMo Microservices は、NIM と組み合わせて使うエンタープライズ向けサービス群で、Customizer(LoRA 含むファインチューニング)、Evaluator Microservice、Retriever、Guardrails Service、Data Designer、Safe Synthesizer などが含まれます。
NIM Operator 2.0 では「Customizer で LoRA を学習 → NIM に動的ロード」という Data Flywheel が公式パターンとして提案されていて、ここが AI Enterprise の売りどころ、という理解で概ね間違いないと思います。
DGX Spark / ARM64 対応状況マトリクス
DGX Spark(GB10、ARM64)で触るとなると、コンポーネントごとに対応状況が違うので、実測ベースで整理しておきます。
| コンポーネント | ARM64 対応 | 確認方法 | 備考 |
|---|---|---|---|
| Megatron-Bridge コンテナ | ❌ 非対応 | Nemotron 9B × Megatron-Bridge 記事 で x86_64 only を確認 | Brev H100 に逃がすのが現実解 |
| Automodel | △ 要検証 | Gemma 4 VLM FT では TRL+PEFT 直接構成で回避、Automodel 本体の ARM64 検証は未実施 | PyTorch ネイティブなので理論上は動く見込み |
| NeMo RL | △ 要検証 | NGC で linux/arm64 イメージが提供されているが DGX Spark 実機では未検証 |
v0.5.0+ |
| NeMo Curator | △ 要検証 | NGC コンテナに ARM64 明示なし、RAPIDS 依存の実態確認が必要 | 記事候補として残している |
| NeMo Evaluator | ✅ 対応 | 解説記事 で主要ハーネスの ARM64 マニフェスト確認済み | vlmevalkit のみ amd64 専用 |
| NeMo Guardrails | ✅ 対応 | Nemotron 安全装備記事 で実機動作確認 | Pure Python、ARM64 問題なし |
| NeMo Agent Toolkit | ✅ 対応 | Agent Toolkit ローカル記事 で uv pip install nvidia-nat → DGX Spark でそのまま動作確認 |
nemotron_h 系は --trust-remote-code 必須 |
| NemoClaw(OpenShell) | ✅ 対応 | ハンズオン記事 で DGX Spark Playbook 経由で動作確認 | Early Preview、nemoclaw setup-spark で cgroup v2 設定が必要 |
| Cosmos-Reason2 | ✅ 対応 | 構造化推論記事 で 2B/8B 両モデル動作確認 | vLLM はリポジトリのカスタムホイールが必要 |
| Cosmos-Predict 2.5 | △ 部分対応 | 2B は動作、14B は OOM、Multiview は 8 GPU 前提で不可 | W1 記事以降のアップデートは W2 ドラフトで検証中 |
| NIM | △ モデル依存 | モデルごとに ARM64 マニフェスト有無が異なる | AI Enterprise 前提、個別に要確認 |
ざっくりの指針としては、OSS の Python パッケージ系(Guardrails / Agent Toolkit / Evaluator)は ARM64 でも素直に動くと思って大丈夫、コンテナ系(Megatron-Bridge / NIM)は事前にマニフェスト確認が必須、というあたりですね。
連載インデックス — DGX Spark で試した NeMo 関連記事
今まで DGX Spark を中心にして各 NeMo コンポーネントを実機検証した記事を、シリーズ別に並べます。「このコンポーネントを知りたい」「あの記事で触れた話題をもう一度読みたい」というときの入口にしてもらえればと思います。
Nemotron モデル連載(7 本)
NVIDIA の日本語強化 LLM「Nemotron 9B-v2-Japanese」と、大規模 MoE の「Nemotron 3 Super」を中心に、学習・デプロイ・RAG・RLHF の一通りを追いかけたシリーズです。
| 記事 | 内容 | 公開日 |
|---|---|---|
| Nemotron 9B-v2-Japanese を色々なケースで試してみた | 基本操作・CLI・OpenAI 互換推論 | 2026-02-21 |
| Nemotron 9B を SageMaker 東京リージョンに VPC 閉域構成でデプロイ | クラウドデプロイ、セキュリティ設計 | 2026-02-21 |
| 国税庁 FAQ × RAFT で RAG 精度を上げてみた | RAFT(Retrieval-Augmented FT) | 2026-02-22 |
| DGX Spark で Nemotron 3 Nano を日本語ファインチューニング | LoRA FT、日本語データ | 2026-02-16 |
| クラスメソッドのカルチャー(CLP)を Nemotron 9B に教え込む | Constitutional AI + SimPO | 2026-02-23 |
| Megatron-Bridge で Mamba-2 含む全層 LoRA を H100 で学習 | Megatron-Bridge v0.2.0、Brev H100 | 2026-02-25 |
| Nemotron 3 Super を DGX Spark で動かしてみた | 120B Mamba-Transformer-MoE | 2026-03-12 |
評価・安全・エージェント(4 本)
NeMo の「評価・安全・エージェント」の 3 領域を 1 本ずつ解説した記事群です。エージェント領域は 2 本になっています。
- LLM 評価基盤「NeMo Evaluator」を DGX Spark で試してみた(2026-04-19) — コアエンジン + ランチャーの 2 層構造、23 ハーネス 421 タスク、BYOB の仕組み
- NeMo Guardrails で日本語 LLM に安全装備を載せてみた(2026-04-18) — Input/Output/Dialog/Retrieval/Execution Rails、日本語 self-check の custom parser 実装
- NemoClaw を DGX Spark で動かしてみた(2026-03-21) — OpenShell + NemoClaw プラグイン、ネットワーク隔離、reasoning モードの影響
- NeMo Agent Toolkit を DGX Spark + vLLM のローカル構成で動かしてみた(2026-04-20) —
nvidia-natのローカル運用、Arize Phoenix トレース、nat mcp serveでの MCP 公開
Cosmos 連載(3 本)
Physical AI 側のモデル群、Cosmos Predict 2.5 と Cosmos Reason2 を DGX Spark で実機検証したシリーズです。
- DGX Spark で NVIDIA Cosmos 世界基盤モデルを動かしてみた(2026-03-06) — Cosmos Predict 2.5 + Reason2、世界モデルの初手
- Cosmos-Reason2-8B を DGX Spark で PPE 検出向けにファインチューニング(2026-03-31) — TRL + PEFT で VLM SFT、Base 46.7% → SFT 90.0%
- Cosmos-Reason2 で画像と動画の構造化分析を試してみた(2026-04-17) — 2D Grounding / Temporal Localization / Robot CoT / Embodied Reasoning / AV CoT / Describe Anything の 6 機能検証
GTC 2026 レポート
- NemoClaw を NVIDIA GTC 2026 の発表から読み解く(2026-03-17) — 現地で得た一次情報ベース
今後の予告
公開済み記事のほかにも、Cosmos-Reason2 を対象にした NeMo Guardrails の続編や、nat eval を使った Agent Toolkit の評価編を準備中です。未着手の領域では、NeMo Curator や NeMo RL、Automodel の単独記事、NeMo Retriever、NIM ベースのファインチューニング・サービス化、ShieldGemma 2 や Llama Guard 4 を組み合わせた VLM 安全性評価、Cosmos Predict 2.5 の深掘りなども書こうと思っています。
NeMo を学ぶための外部リソース
最後に、公式ドキュメントや一次情報への導線を残しておきます。
- NVIDIA NeMo Framework User Guide — 公式ドキュメント。現在 Speech AI 中心の記述にリニューアル中で、LLM/VLM は Megatron-Bridge / Automodel のリポジトリに分散
- NVIDIA-NeMo GitHub organization — Curator / RL / Guardrails / Automodel / Megatron-Bridge などの一次リポジトリ
- NVIDIA/NeMo-Agent-Toolkit — Agent Toolkit は
NVIDIAorg 配下なので注意 - NVIDIA Cosmos 公式サイト — Physical AI スタック全体像
- NVIDIA NIM for Developers — NIM の技術概要と利用開始ガイド
- NVIDIA DGX Spark Playbook — DGX Spark 向けの公式ハンズオン集
まとめ
NeMo Framework は、一見すると「ブランド乱立でわかりづらい」と感じる領域ですが、モデル(Nemotron / Cosmos)→ 学習(Megatron-Bridge / Automodel / RL)→ データ・評価(Curator / Evaluator)→ 安全(Guardrails)→ エージェント(Agent Toolkit / NemoClaw)→ 推論(NIM / Microservices)という流れで眺めれば、各コンポーネントの位置付けはそこまで複雑ではないと思います。
DGX Spark で触るなら、まずは次の 3 パターンから始めるのがおすすめです。
- LLM を動かしたい — Nemotron 3 Nano や Cosmos-Reason2 を Ollama / vLLM で動かすところから(Nemotron 日本語 FT 記事 から)
- エージェントを作りたい — NeMo Agent Toolkit + Nemotron 3 Nano でローカルエージェントを構築(Agent Toolkit ローカル記事 から)
- 安全に運用したい — NeMo Guardrails で Input/Output レールを被せる(Guardrails 入門記事 から)
NeMo はブランドやコンポーネント名こそ入れ替わりが激しいものの、思想としては「モデルとフレームワークと推論サービスを分離して、各層を柔軟に組み合わせる」という素直な構造だと思います。本記事は 2026-04 時点の地図として参照してもらえればと思います。








