
GTC 2026 オンデマンドセッションから気になる 7 本をピックアップしてみた
こんにちは、クラスメソッド製造ビジネステクノロジー部の森茂です。
2026 年 3 月に San Jose で開催された NVIDIA GTC 2026 に現地参加してきました。展示やハッカソンに追われて見逃したセッションも多かったのですが、ありがたいことに 700 本以上のセッションがオンデマンドで公開されています。
帰国前にいくつかキャッチアップしたので、自分が見た 7 本のセッションを「Nemotron とオープンモデル」「エッジ AI と推論最適化」「AI ファクトリーとデジタルツイン」の 3 テーマに分けて紹介します。各セッションのポイントと、自分が DGX Spark を触ってきた立場から感じたことをまとめました。
なお、本記事の内容はオンデマンド動画を視聴して自分なりに聞き取った内容をもとにしています。聞き間違いや表記の誤りがある可能性がありますので、正確な情報は各セッションの動画や公式資料をご確認ください。
Nemotron とオープンモデル
Nemotron Unpacked(S81719)
NVIDIA の VP of Applied Deep Learning Research である Bryan Catanzaro 氏が、Nemotron プロジェクトの全貌を語ったセッションです。
Nemotron は単なるモデルではなく、モデル、データセット、学習手法を含むオープンなエコシステムです。Nano(30B/3B active)、Super(120B/12B active)、Ultra(~500B)の 3 段階で構成されていて、Super は先日リリースされたばかりです。Artificial Analysis のインテリジェンス・インデックスで 36 点を獲得し、GPT OSS 120B の 33 点を上回っています。
特に刺さったのは「Acceleration is intelligence」という言い回しです。モデルを速くすれば事前学習でより多くのトークンを処理でき、強化学習でより多くのラウンドを回せ、推論でより多くの思考サイクルを使える。速さはそのまま賢さにつながるという、ハードウェアメーカーならではの視点ですね。
技術面では、Mamba2 トランスフォーマーのハイブリッドアーキテクチャが面白いです。大部分が線形時間のアテンション層で構成されていて、二次アテンション層は少数に抑えられています。「10 倍 less quadratic」という表現がされていました。100 万トークンのコンテキスト長を実現するうえで、この設計は必然だったのだろうと思います。
NVFP4(4.75 ビット)での事前学習も注目です。公開されている範囲では、このスケールで 4 ビット事前学習を行ったのは NVIDIA が初とのこと。Blackwell Ultra の FP4 スループット強化を見据えた先行投資なわけですが、実際に DGX Spark の Blackwell GPU でこの恩恵がどう出るのかは気になるところです。
Nemotron Coalition の発表もありました。Mistral、Perplexity、Cursor、Black Forest Labs など複数の企業と連携してモデル開発を進める体制です。最初のプロジェクトは Mistral との事前学習で、事後学習では各社が自社のニーズに応じて参加する形になるそうです。CUDA の 20 年にわたる投資と同じように、Nemotron も長期的な取り組みとして位置付けているという発言は、NVIDIA らしいなと感じました。
セッション後も Nemotron ファミリーの展開は続いています。GTC 前後で Nemotron-Cascade 2 がリリースされました。30B MoE / 3B active という Nano と同じパラメータ構成ながら、Cascade RL とマルチドメインの on-policy distillation で推論性能を大幅に強化したモデルです。IMO 2025 や IOI 2025 でゴールドメダルレベルのスコアを出しており、Qwen3.5-35B-A3B を上回る性能をアクティブパラメータ 3B で実現しています。20 倍少ないパラメータでフロンティアモデルに匹敵する「intelligence density」という方向性は、まさに Bryan Catanzaro が語っていた「faster models are smarter models」の具体例ですね。
エッジ向けではさらに小型の Nemotron 3 Nano 4B もリリースされていて、軽量デプロイを想定した構成になっています。
ドメインエキスパートエージェントの構築(S81707)
Aible と NVIDIA による、Nemotron 3 のファインチューニング実践セッションです。
このセッションで繰り返し出てくるのが「データフライホイール」という概念です。プロンプトエンジニアリングだけでは精度が頭打ちになる複雑なエージェントタスク(Tool-calling や構造化出力など)に対して、NeMo ツールキットを使ったファインチューニングのサイクルを回す方法が具体的に説明されていました。
興味深い数字として、現時点でモデルをファインチューニングしている企業はわずか 12% しかないそうです。それでも NeMo Data Designer を使えば、少量の高品質な例から合成データを大量生成でき、ファインチューニングのコストは「数ドル」で済むと強調されていました。
Aible の事例では、Txt2SQL のファインチューニングで精度を大幅に改善しています。Yum! Brands の事例では、最初は大型の推論モデルで運用し、その出力データをもとに小型モデルをファインチューニングして徐々に切り替えるという「ハイブリッドエージェント」のアプローチが紹介されていました。最終的なコスト最適化まで見据えた構成で、なかなか現実的だなと思います。
NeMo ツールキットとしては、実行トレースをキャプチャする Agent Toolkit、合成データを生成する Data Designer、LoRA 等でファインチューニングする Customizer、モデル評価の Evaluator、そして安全性を担保する Guardrails が紹介されていました。自分は DGX Spark で Nemotron Nano をファインチューニングした経験があるのですが、このフルスタックのパイプラインが整備されてきたのは心強いですね。
エッジ AI と推論最適化
エッジでの Vision AI モデル最適化(S81833)
NVIDIA の Louise Huang 氏による、エッジデバイスでの VLM 最適化セッションです。
Cosmos Reason 2 は Hugging Face で 200 万ダウンロードを超えているオープンな VLM で、物理 AI のユースケースに特化しています。2B と 8B のモデルサイズが用意されていて、Chain of Thought 推論や 256K の入力トークン長に対応しています。
実用的だと感じたのは NVFP4 による推論最適化です。4 ビット量子化でレイテンシとスループットが約 20% 改善し、メモリ使用量も削減されるとのこと。DGX Spark で VLM を動かすときにメモリが常に悩みの種だったので、この最適化は直接役に立ちそうです。
EVS(Efficient Video Sampling)も面白い技術です。動画から冗長なフレーム、たとえば動きの少ないシーンを動的に間引くことで、精度を保ちながらレイテンシを改善します。映像分析の現場では「全フレーム処理する必要は本当にあるのか」という問いに対する実用的な回答ですね。
ファインチューニングについては、LoRA を使った PEFT がフルファインチューニングと同等以上の精度を出せることが実証されていました。さらに AutoML でハイパーパラメータ探索を自動化すると、人間のエキスパートが 45 時間かけていた作業を 10 時間未満に短縮できるそうです。
地味にありがたかったのが、セッション内の全ベンチマークが Jetson Thor で計測されていた点です。データセンター GPU ではなくエッジ環境での実用性を前面に押し出す姿勢は、DGX Spark や Jetson のユーザーにとって心強いメッセージだと感じました。
AI ファクトリーとデジタルツイン
Enterprise AI Factory の構築(S81851)
NVIDIA の Enterprise AI Factory 部門を率いる 2 名による AI ファクトリーの全体像を解説するセッションです。
このセッションで面白かったのは「F1 カー vs SUV」の比喩です。一部の企業は最先端の超大規模 AI ファクトリーを必要としますが、多くの企業に必要なのはもっとアクセスしやすい構成です。NVIDIA はリファレンスアーキテクチャと認定システムを通じて、OEM パートナーが市場に迅速に製品を投入できるよう支援しています。
具体的なビジネス成果の例も挙げられていました。独自データでオープンソースモデルをファインチューニングすることで不正率を 1% から 0.18% に削減した事例や、Agentic AI で生産性を 10 倍向上させた事例などです。
AI ファクトリーの導入で重要なのは Time to Value、つまり価値実現までの時間を 45 日程度に短縮することだという話もありました。クラウド、NCP(ネットワークコンピューティングプロバイダー)、オンプレミスの選択肢は「or」ではなく「and」だという指摘も、実務的に共感できるところです。
日立エナジーの AI ファクトリー電力ソリューション(EX82366)
日立エナジーと日立デジタルが NVIDIA と連携した、AI ファクトリーへの電力供給ソリューションのセッションです。Theater Talk なので 15 分と短いのですが、内容は濃いです。
「Velocity of Volts(ボルトの速度)」というキャッチフレーズが耳に残ります。1 GW 級の AI ファクトリーを電力グリッドに接続する際の計画プロセスを、NVIDIA のソルバー技術で数ヶ月から大幅に短縮するというアプローチです。DGX(トレーニング)、OVX/RTX(シミュレーション)、IGX(リアルタイム資産管理)という NVIDIA の 3 つのプラットフォームを組み合わせて、AI ファクトリーのライフサイクル全体を管理する構成は、スケールが大きすぎて DGX Spark ユーザーの自分にはちょっと遠い世界ですが、AI インフラの電力問題がここまで具体的なソリューションになっているのは新鮮でした。
NeMo Curator と Cosmos によるデータ品質改善(S81964)
APTO の高品氏によるセッションです。NeMo Curator のフィルタリング機能と Nemotron-Personas-Japan を使った実践事例が紹介されていました。
LLM の合成データ作成で 83 時間の工数削減を実現したという数字も具体的で良いのですが、個人的に一番面白かったのは安全性向上の事例です。日本の文化や人口統計を反映した Nemotron-Personas-Japan を使って、高齢者の視点からの質問を生成し、わずか 504 件のデータで攻撃成功率(ASR)を 0% に下げています。LoRA チューニングで全パラメータの 0.15% だけを更新し、学習時間は A100 2 基で約 20 分。この手軽さでこの効果が出るなら、自社データでの安全性強化はかなり現実的な選択肢ですね。
Cosmos Curator を使ったロボット向けイミテーションラーニングデータのキュレーションも紹介されていました。Mahalanobis 距離で異常な動作フレームを検出するアプローチは、堅実で実用的です。
都市 CFD シミュレーションとデジタルツイン(S81972)
東京工科大学のスーパーコンピューター「青嵐(Seiran)」を活用した、Omniverse と Ansys Fluent による大規模都市シミュレーションのセッションです。
Seiran は DGX B200 を 12 ノード、合計 96 基の Blackwell GPU で構成されたクラスターで、TOP500 で 374 位、AI 特化の HPLMXP で 22 位に入っています。HPLMXP で通常の 17 倍のスコアが出ているのは、Blackwell の AI 演算性能の高さを端的に示しています。
Ansys Fluent の GPU ソルバーを使うことで、CPU 比で 50〜60 倍の高速化を実現し、数日〜数週間かかっていた都市スケールの流体解析が数時間で完了するようになったそうです。国土交通省の PlaTO データを使って中央区の数万棟の建物を含む風環境解析を行っている映像は、なかなかの迫力でした。
NVIDIA の学生アンバサダープログラムの紹介もありました。NVIDIA のエンジニアがメンターとなり、学生が最新技術を実践的に学べる体制です。CAE ソフトウェアの成熟によって、専門知識が少ない学生でも高品質なシミュレーションを回せるようになっているとのことで、こういう環境で学べる学生が羨ましいなと思いました。
今回取り上げられなかったセッション
GTC 2026 では Physical AI 関連の発表も多く、ロボティクス分野では Isaac Lab 3.0(Early Access)と新しい GPU 物理エンジン Newton 1.0 が発表されています。Newton は Google DeepMind や Disney Research と共同で開発されたオープンソースの物理エンジンで、MuJoCo(MJX)比で最大数百倍の高速化を実現しているとのこと。Isaac Lab 3.0 の物理バックエンドとして統合されており、変形体のシミュレーションや接触リッチな操作タスクの強化学習を大幅に高速化します。関連セッション(DLIT81700)はハンズオンラボ形式だったため、オンデマンドでの視聴は現時点で確認できていません。動画が公開されたら改めてチェックしたいところです。
また、日立ビルシステムによる VLM と VSS を使った現場の安全性向上の事例(S81896)も気になるセッションですが、こちらもまだ動画が公開されていませんでした。
まとめ
7 本のセッションを自分の関心で選んだ結果、見えてきたキーワードは「オープンモデルのカスタマイズ」「エッジ推論の最適化」「AI ファクトリーの実用化」の 3 つでした。
Nemotron が単なるモデルリリースではなく、エコシステム全体を支えるプラットフォームとして設計されていること。エッジでの VLM 最適化が NVFP4 や EVS などの具体的な技術で実用段階に入っていること。AI ファクトリーが電力インフラまで含めた総合ソリューションとして提供されていること。それぞれのレイヤーで着実に進歩が見られました。
GTC のオンデマンドセッションは無料の Virtual Pass で視聴できます。700 本以上あるのでさすがに全部は見切れませんが、この記事で気になったセッションがあれば、ぜひチェックしてみてください。
参考リンク
本記事で紹介したセッションは、GTC On-Demand のサイトでセッション ID(S81719 など)で検索すると視聴できます。
| セッション ID | タイトル |
|---|---|
| S81719 | Nemotron Unpacked: Build, Fine-Tune, and Deploy NVIDIA's Open Models |
| S81707 | Building Domain-Expert Agents: How to Optimize Txt2SQL and Tool-Calling with Open Models |
| S81833 | Optimize Performance of Vision AI Models on the Edge |
| S81851 | The Builder's Toolkit: Scaling Enterprise AI Factories |
| EX82366 | The Velocity of Volts: Hitachi and NVIDIA Bring Physical AI to Energy Infrastructure |
| S81964 | NVIDIA サービスを活用し、LLM の精度向上からフィジカル AI への応用について |
| S81972 | Digital Twin and City Simulation Experienced with Omniverse: Interactive CFD Forefront |









