2026年3月16日から19日にかけて、NVIDIA主催の大規模AIカンファレンス「GTC 2026」が、アメリカ・カリフォルニア州のサンノゼでハイブリッド開催されました。今年のGTCではフィジカルAIのセッションが多かったのですが、ゲームAIや動画生成AIに関する発表もありました。本稿では、AI駆動型NPC、ゲーム画面生成AI、そして世界シミュレーターに関するセッションを紹介します。
あらゆるデバイスで高品質なAI駆動型NPCの実現を目指すUbisoft
Ubisoft所属のマキシム・サザダリー(Maxime Sazadaly)氏は、同社のAI駆動型NPCに関する取り組みについて発表しました。はじめにサザダリー氏は、UbisoftのAI駆動型NPC取り組みの歴史から話しました。同社はGTC 2024において、対話能力を実装したNPCを披露しました。対話を可能とするために、感情表現や話す内容にあったNPCのアニメーションも開発しました。
GTC 2024での発表から得たフィードバックを参考に、Ubisoftの研究チームはNPCの改良に着手しました。改良点として、NPCと環境との相互作用を強化しました。こうして誕生したのが、AIチームメイトのJASPARです。ロボット型のこのNPCは、環境を知覚しながら人間プレイヤーと共闘できます。

Ubisoftは、AI駆動型NPC開発のために、AIの専門知識がなくても使える開発プラットフォームを整備しました。それは、以下のような3つのパートから構成されています。
オンデバイス:AI駆動型NPCが動作するデバイス上のモジュール群。開発者やデザイナーが入力したプロンプトをコードに変換するSDKと、各種ゲームエンジンのプラグインから構成される。クラウド:SDKは、必要に応じてクラウド上のAIモデルを呼び出す。ツール:開発者にはトラッキングツールやデバッグツール、デザイナーにはプロンプトを反復的に入力できるプロンプトイテレーターや、ワールドやキャラクターの設定を編集できるシートが提供されている。

Ubisoftは、AI駆動型NPCが期待通りに動作しているかどうかを評価する、以下のような3つの指標も設けています。
行動の妥当性:NPCが選択した行動は、実行可能なものなのか?この評価点は、ルールベースのアルゴリズムで判定する。行動の関連性:NPCが選択した行動は、状況に関連したものなのか?この評価点は、LLMベースの判定者が判定する。パーソナリティの適合性:NPCが選択した行動は、そのキャラクターの性格に合致したものなのか?この評価点も、LLMベースの判定者が判定する。

最後にサザダリー氏は、最近の取り組みとしてAIモデルの自社開発について話しました。開発しているのは、以下のスライドに掲載したようなパラメータ数が最先端モデルに比べて小さい、軽量モデルです。軽量モデルであってもファインチューニングすることで、AI駆動型NPCの品質を落とさずに動作させることが可能です。こうした軽量モデルの開発により、より多くのデバイスで高品質なNPCが動作するようになります。

以上に紹介したUbisoftの取り組みは、モバイルゲームにおいて高度なNPCが登場する未来を予感させます。
ゲーム開発のスピードアップを可能とするゲーム画面生成AI
AIスタートアップDecart所属のイーサン・ピーターセン(Ethan Petersen)氏、およびNVIDIA所属のバヴァニ・ゴパラクリシュナ・ラオ(Bhavani Gopalakrishna Rao)氏とアレックス・ダン(Alex Dunn)氏は、ゲーム画面生成AIの現状と可能性について発表しました。
はじめにピーターセン氏は、Decart社の近年の歩みについて話しました。同社は2024年10月、リアルタイムにゲーム画面を生成するOasisを発表して、大きな注目を集めました。
参考記事:『マインクラフト』プレイ画面やADV画面を生成。進化が著しいゲーム生成AIの最新事例
2025年夏には、生成動画全体の様式を変えられるLucy Restyleを発表しました。そして2026年初頭、動画の一部を編集できるLucy 2をリリースしました。Lucy 2を使えば、生成動画内のキャラクターに、例えばNVIDIA CEOのジェンスン・フアン氏が愛用する黒革のジャケットを着せることができます。

この発表の約1か月前にDecartが開催したハッカソンでは、同社のゲーム画面生成APIを活用したゲームエンジンが開発されました。それは、プリミティブなオブジェクトを設置後、プロンプトによって、それらをゲームキャラクターとして描画するものでした。

続いてラオ氏は、Lucy Restyleのアーキテクチャについて話しました。同モデルには、高画質画像を低遅延で生成するモジュールが必要でした。そこで採用されたのが、NVIDIAのGDN(Graphics Delivery Network)でした。

GDNは、以下のアーキテクチャ図のようにLucy Restyleに対するクラウドサーバとして設置されました。入力されたゲーム画面は、GDNサーバに送られて次のコマのゲーム画面が生成されます。生成された画面は、RTX REMIXを介して出力されます。

最後に登壇したダン氏は、Lucy Restyleを活用したゲーム開発の可能性について話しました。同氏によると、ゲーム開発において、ブロックアウト(Blockout)という段階が存在します。この段階は、簡単なゲームステージを制作したうえで、基本的なゲームロジックが動作するかどうかを確認する段階です。以下のスライドの右上が、この段階におけるグラフィックです。
ゲームロジックに問題がないことが確認できたら、ゲームステージを本格的に作り込んでいきます。作り込んだ画面が、スライドの右下です。ブロックアウトを活用したゲーム開発では、グラフィックは最後に作られるため、さまざまなグラフィック様式を試行錯誤するのが困難となります。

Lucy Restyleを活用すれば、ブロックアウトにおける問題を解消できます。ブロックアウト段階で制作した簡単なグラフィックに関して、同モデルを使ってデザイナーが望むグラフィック様式に変換すればよいのです。

以上のように、Lucy Restyleをはじめとするゲーム画面生成AIは、ゲーム開発のプロセスをスピードアップする可能性があり、NVIDIAもこうしたモデルの研究を続ける、と述べてダン氏は発表を終えました。
世界シミュレーターとして活用される動画生成AI
動画生成AIを開発するAIスタートアップRunwayでCTOを務めるアナスタシス・ゲルマニディス(Anastasis Germanidis)氏は、同社における動画生成AI開発の歩みと、動画生成AIの新たな可能性について発表しました。
ゲルマニディス氏によれば、Runwayの動画生成AI開発は、スケーリング則に沿って進められました。すなわち、パラメータ数や学習データを増やせば、その増量に比例して、動画生成AIの性能が上がるのです。以下のグラフは、動画生成AIの性能指標のひとつであるFID-50Kを縦軸にしています。横軸のパラメータ数(Transformer Gflops)や学習データ(Traning Compute)が増えるにしたがって、右肩下がりとなっています。FID-50Kは小さいほど高性能を意味するので、スケーリング則が視覚的に証明されています。

Runwayが最近実現した技術革新のひとつに、リアルタイム動画生成があります。従来はプロンプトを入力後、動画が出力されるまで生成時間を要しました。こうしたなか、NVIDIAとの共同研究によって、プロンプト入力後、即座に動画を生成できるようになりました。この新技術により、プロンプトによる動画演出や編集が可能となりました。


ゲルマニディス氏は、動画生成AIの新たな可能性として、世界シミュレーターについても話しました。動画生成AIが登場した時、動画制作の技術的敷居を劇的に下げる点が大いに注目されました。こうしたなか同氏が注目するのは、動画生成AIを活用すれば、物理世界やデジタル世界の挙動を再現できる点です。

動画を世界シミュレーターとして活用するユースケースとして、ゲルマニディス氏はフィジカルAIを実装した各種ロボットの訓練を挙げました。こうしたロボットの弱点として、失敗事例を学べないことがあります。この弱点は、動画生成AIによって失敗事例データを生成して、ロボットにその失敗データを学ばせることで克服できます。

動画生成AIを用いずに失敗データを制作する場合、3Dシミュレーション環境を構築したうえで、そのなかに各種オブジェクトを設置する必要があります。この方法は、非常に時間がかかります。対して動画生成AIによってさまざまな事例をシミュレートすれば、学習データを短時間で整備できるのです。ゲルマニディス氏は、動画生成AIを世界シミュレーターとして活用するユースケースをこれから多数発表していきたい、と今後の展望を述べて発表を終えました。
以上に紹介した3つの発表は、生成AIによってゲーム開発やロボット開発に新たな可能性が生まれつつあることを示しています。現在の生成AIは単純な業務効率化を超えて、生成AIによってはじめて可能となるタスクを開拓しているのです。
Writer:吉本幸記
