NVIDIAはCOMPUTEX TAIPEI 2025にあわせ、GTC Taipeiを開催し、コンシューマー向けのデモショーケースを報道関係者などに向け公開した。
このショーケースでは、RTX 50シリーズGPUが実現する最新ゲーミングテクノロジー、AIを活用した新しい配信支援機能、クリエイティブワーク向けの生成AIアプリケーション、そしてAIエージェントによるPC操作の変革など、幅広い分野におけるイノベーションが紹介された。

RTX 50シリーズGPUと最新ゲーミングテクノロジー
デモの中心となったのは、RTX 50シリーズGPUで実現される最新のゲーミングテクノロジー、特にDLSS 4とその主要機能であるMulti-Frame GenerationおよびRay Reconstruction Transformer modelの性能向上と画質改善だった。
まず、「Wrang Fallen Feathers」によるRTX 5060シリーズのデモが披露された。このゲームは1080pの最高グラフィック設定で実行されており、DLSSをオフにした状態では約50FPSだったのに対し、DLSS 4を有効にすると、ほぼ200~220 FPSに達した。これは4倍以上のFPS向上を意味する。担当者は、この大幅なフレームレート向上を実現しつつ、元のフレームレートを下回るレイテンシーを維持している点を強調した。

別のデモでは、RTX 5060ノートPCで「Cyberpunk 2077」でのデモが行なわれた。DLSSをまったく使用しないネイティブ解像度の場合、フレームレートは約30FPS。一方、DLSS 4を使用した場合、ネイティブ比で約6倍近いFPSとなるほぼ180FPSを達成した。
さらに、レイテンシーはネイティブの半分以下に削減。デモに使用された144Hzのモニターの性能を、30 FPSではまったく活かせなかったのに対し、200 FPS近いフレームレートで最大限に活用できるようになった。

これらのデモは、DLSS 4、特にMulti-Frame Generationが、GPUのレンダリング負荷を軽減し、大幅なフレームレート向上をもたらすことを明確に示した。前世代であるAda Lovelaceアーキテクチャーでは、フレーム生成は1つのネイティブフレームに対して1つの補間フレームを生成する2Xフレーム生成が主流だったが、Blackwellアーキテクチャーに基づくRTX 50シリーズでは、Multi-Frame Generationにより、ひとつのネイティブフレームに対してひとつ、2つ、あるいは3つの補間フレームを生成可能になった。
これにより、より高いリフレッシュレートを持つモニターやパネルの能力を十分に引き出せるようになるとのこと。
RTX 4060とRTX 5060を比較した「Tireless Firebreak」のデモでは、同じ2Xフレーム生成に加えて、5060で4Xフレーム生成を実行し、その性能差が示された。120Hzのパネルを搭載したシステムで、ほぼ200 FPSを達成し、パネルを有効活用できる様子が披露された。

また、デモではDLSS 4の一部であるRay Reconstruction Transformer modelの画質改善効果が強調された。前世代のDLSS 3.5で導入されたRay Reconstructionは、AI非搭載の従来のハンドチューンデノイザーと比較して、パストレーシングにおけるノイズや不安定さ(ちらつき)を大幅に低減。しかし、従来のRay Reconstructionでは、移動中に地面のタイルなどの細かいディテールが消失し、静止すると再び現れるという問題があった。
新しいTransformer modelは、この問題を解決し、移動中でもディテールが保持されるようになった。「Portal with RTX」を使用したデモでは、地面の傷や汚れ、本の文字など、細かいテクスチャのディテールが、Transformer modelを使用しない場合と比較してより鮮明かつ安定して表示される様子が示された。

これは、AIがより多くのコンテキスト情報を利用して画像を再構築することで実現される。このTransformer modelは、RTX 50シリーズだけでなく、RTX 20、30、40シリーズでもNV app overrideを使用することで利用可能になる予定とのこと。これにより、旧世代のGPUでもDLSS 4の画質改善の一部を享受できる可能性がある。
さらに、リアルタイムパストレーシングの画質と性能を向上させる新技術として、Neural Radiance Cacheが紹介された。
デモでは、Neural Radiance Cacheを有効にすることでFPSが158 FPSから172 FPSに向上したほか、ボタンを踏んだ際の色変化が、旧技術ではフェードインするのに対し、Neural Radiance Cacheでは瞬時に反映される様子が示され、ライティングの応答性が劇的に向上したことが示された。これらの技術により、ゲームにおけるパストレーシングは、オフラインレンダリングによる映画品質のビジュアルにリアルタイムでより近づけるようになる。
AIによるストリーマー支援
NVIDIAは、ライブストリーマー向けの主要ツールプロバイダーであるStreamlabsと提携し、AIを活用したインテリジェントストリーミングエージェントを開発している。ライブストリーマーの仕事は、ゲームプレイ、視聴者とのインタラクション、チャット対応、配信設定の調整など、同時に多数のタスクをこなす必要があり、非常に負担が大きい。プロのストリーマーはこれをチームで実現しているが、AIエージェントはこれらのタスクの多くをオフロードし、ストリーマーの負担を軽減することを目指す。

このエージェントは、NVIDIAの最新技術であるACE (Audio to Face) プラグインを使用し、Diffusionモデルを活用してリアルなフェイシャルアニメーションを生成する。エージェントには大きく分けて3つの機能がある。
まず、Sidekick(相棒)機能。これは視聴者とのエンゲージメントを高めるのに役立つ機能で、例えば、ゲーム開始前の待ち時間などに、自動でゲーム関連の話題を振ったり、ドロップ地点を提案したりする。また、チャットの内容を読み取り、視聴者の意見(例えばドロップ地点の提案)を集計して報告することも可能で、これは音声コマンドで実行できる。
エージェントは、ストリーマーが一定時間無言なことを検知すると、ゲーム内の状況にコメントしたり質問したりして、ストリーマーに話しかけるよう促す。エージェントの外見、人格、応答スタイルは自由にカスタマイズ可能だ。
次に、Producer(プロデューサー)機能がある。これは、配信のプロダクション品質を向上させるための複雑な作業を自動化する機能。エージェントは、ゲームで敗北した際などの「重要な瞬間」を認識すると、自動でリプレイを保存する。また、事前に設定された自動化シーケンスを実行することも可能だ。

デモでは、ゲームオーバー時にエージェントがコメントし、ゲームオーバーのテキストと音声を出し、しばらく待機した後にこれらを非表示にし、ライブカメラにシーンを切り替えるという一連の動作が自動で行なわれた。このような複雑な流れをゲームプレイ中に手動で行なうのは現実的に難しく、AIエージェントによる自動化が非常に有効であることが示された。ユーザーは、Streamlabsが用意したテンプレート化された自動化を利用できるほか、自分の配信に合わせて自由にカスタマイズすることも可能になる予定だ。
最後に、Tech Support(テクニカルサポート)機能だ。これは、配信中の技術的な問題を検知し、その解決を支援する。例えばストリーマーのマイクがミュートされていることに気づかず話しているといった、多くのストリーマーが経験する問題を検知し、「マイクがミュートされていますが、音声を戻しますか?」のように問題を通知し、解決を提案に導いてくれる。
音声コマンドでマイクのミュート解除をエージェントに指示も可能だ。

StreamlabsはこのAIエージェントをNVIDIAと提携して開発しており、最新のACE(Audio to Face)プラグインや拡散モデルを用いたリアルなフェイシャルアニメーションを活用している。このエージェントは年内にローンチされる予定だ。
また、ストリーミングやPCとの新しいインタラクション方法の例として、Project R2XというPC向けのデジタルヒューマンインターフェースも紹介された。これはLangflowというAIツール連携プラットフォームを使用し、OpenAIを含むさまざまなLLMやNVIDIA NIMsをバックエンドに利用できる。ローカルでレンダリングされたキャラクターがAIアニメーションで自然な動きを見せる。

短い詩の朗読デモでは、同じテキストでもエキサイトしたeスポーツアナウンサー風や、ゆっくりと悲しい調子など、さまざまな話し方や感情を表現できることが示され、用途に応じたパーソナライズの可能性が提示された。
クリエイティブワーク向けAI活用
RTX 50シリーズは、ゲーミングだけでなく、クリエイティブワーク向け機能も強化された。特に、映像編集分野では、近年普及が進む4:2:2フォーマットのハードウェアエンコードおよびデコード機能がRTX 50シリーズに追加された。4:2:2フォーマットの映像は高画質だが、ハードウェアアクセラレーションがない場合、4Kストリームを複数再生する際にスタッター(かくつき)が発生しやすい。
デモでは、4Kの4:2:2ストリーム4本を再生する際に、フル装備のMacBook M4 Maxが8 FPS程度だったのに対し、RTX 5090搭載ノートPCは60 FPSでのスムーズな再生を実現し、ハードウェアアクセラレーションの重要性を示した。

また、RTX 5090ではトリプルエンコーダーを搭載し、ビデオ編集のエクスポート時間を大幅に短縮できる。
さらに、生成AI(GenAI)を建築ビジュアライゼーションに応用したデモも実施された。Stable Diffusionを使用し、RTXアクセラレーションによってワークフローが100倍高速化され、ほぼリアルタイム(約3秒)で画像の生成が可能になった。テキストプロンプトだけでなく、簡単なスケッチを入力として読み取り、AIがそれを反映した画像の生成にも対応。これは、建築家だけでなく、部屋の模様替えをイメージしたい一般ユーザーにとっても、アイデアを素早く視覚化するのに役立つツールとなるとのこと。

より複雑なGenAIワークフローを扱うプロフェッショナル向けには、Blueprintsが紹介された。これはNVIDIAが提供するフレームワークで、テキストイメージモデルと、Blenderのビューポートから生成される深度マップを組み合わせて画像を生成するもの。テキストプロンプトが「なにを」表現するかを指示し、深度マップがシーン内のオブジェクトの「どこに」配置するかを指示することで、より制御性の高い画像生成が可能になる。
このブループリントは、NVIDIA NIMを使用して最適化されており、例えば大規模なテキストイメージモデルであるFluxをNIMで量子化することで、VRAM使用量を23GBから9~10GBに削減し、推論速度を3倍に高速化している。これにより、通常はリソースを多く消費するGenAIワークフロー全体をオンデバイスで実行できる。
このBlueprintsは柔軟で拡張可能であり、デモではシーンに配置する3Dオブジェクトを生成する機能が追加されている例が示された。ユーザーはLLM(Llama 3.18B NIMを使用)にアイデアを伝えることで、オブジェクトの推奨や、それに適したテキストプロンプトを生成してもらえる。
これにより、アイデア出しから、必要な3Dオブジェクトの生成、そしてそれを用いたシーン全体の画像生成までの一連のワークフローを短時間で実行可能。オブジェクトの追加やプロンプトの変更によって、シーン全体の雰囲気(例えば、元のシーンを台北のナイトマーケット風に変更するなど)を容易に変更できる様子が示された。このBlueprintsは、複雑なGenAIワークフローの開始点として提供され、ユーザーが自身のニーズに合わせて構築・拡張することを想定している。

G assist - AIによる新しいPC操作
NVIDIA App内に搭載されるAIエージェント「G-Assist」はGPU上で動作するSLM(Small Language Model)とASRモデルによるローカルAIコンピューティングを特徴とし、音声またはテキストによる操作が可能。基本的な機能として、ゲームライブラリー内のゲームを認識して起動することなどができる。

G-Assistの最も重要な拡張機能は、Pluginアーキテクチャーの導入だ。これにより、他のアプリケーションのAPIを呼び出し、それらのアプリケーションと連携することが可能になる。デモでは、以下のような連携例が紹介された。
まず、Discordプラグインでは、ゲームをプレイしている最中に音声コマンドを使ってDiscordアプリのAPIを呼び出し、特定のチャットにメッセージを投稿する様子が示された。次に、プラグイン経由でGoogle Geminiのような外部LLMのAPIを呼び出すことで、ゲーム大会のスケジュールや優勝予想といった最新情報を取得可能になる。
G-Assistは文脈を理解する能力も持ち合わせており、これらの情報に関するフォローアップの質問にも対応。さらに、ルーティン実行機能も利用できる。これは、ユーザーが「Game Time」のようなカスタムルーティンを事前に定義しておくことで、単一の音声コマンドでデスクファンのオン、ゲーム関連ニュースのメール送信、Spotifyの操作といった複数のアクションを一括で実行できるようにするものだ。
Signal RGBプラグイン連携のデモでは、Signal RGBのようなシステム設定ユーティリティと連携し、自然言語処理を使ってシステムのRGBエフェクトの変更や明るさの調整などを実行するもの。これにより、複雑な設定画面を探す手間を省き、AIがユーザーの意図を解釈してPCを操作するという、PC操作の新しい方法を示唆している。

これらのPluginアーキテクチャーは非常に強力であり、APIを持つさまざまなアプリケーションやサービスとの連携が可能になる。NVIDIAは、このPluginアーキテクチャーのテンプレートをChatGPTにも提供しており、ユーザーがChatGPTを使ってG-Assist向けのプラグインのPythonコードを生成できるようにすることで、プラグイン開発を支援する取り組みを進めている。
【関連サイト】
