NVIDIAは台湾・台北で開催中のCOMPUTEX 2025に関連して、ジェンスン・ファンCEOによるプレス向けQ&Aセッションを5月21日開催した。セッションでは各国のメディアから、最新技術の発表に加え、AI時代のインフラ構築、地政学的課題、市場戦略、そして将来の技術展望について質問があった。
8枚のGPUをNVLink Switchで接続し1つのGPUにする
AIシステム「RTX Pro Enterprise AI server」
セッション冒頭、ファン氏は新しいサーバーのマザーボードを紹介。これは多数のGPUを搭載し、NVLink Switchで相互接続することで「8枚のGPUが1つのGPUになる」システムであると説明。さらに、CX8ネットワーキングにより他のコンピューターとも接続される。このシステムは空冷式で導入が容易であり、世界の主要なエンタープライズIT OEMから提供される予定だという。

x86ベースであり、既存のエンタープライズITソフトウェアやOS(Red Hat, VMware, Nutanixなど)がそのまま動作するため、ファン氏は「コンピューターグラフィックス、AI、エージェントなど、あらゆる用途に利用できる」と説明。これを「RTX Pro Enterprise AI server」と称した。これは「非常に大きな発表」であり、AI市場がクラウド中心から企業内へと拡大することを示唆。これはNVIDIAの新たなエンタープライズAIシステムと話している。

RTXはAIに等しい
最初の質問者は、エンタープライズ市場の重要性とAIPCの話題に触れ、メディアとの協力の可能性について尋ねた。ファン氏は、前夜にマイクロソフトがWindows MLをNVIDIA上で動作させると発表したことに言及。NVIDIAのRTXにはCUDAとTensor Coreがあり、「数億台のRTX PCが世界にある。RTXはAIに等しい」とし、Windows MLがRTX上で動作することで「何億ものPCユーザー、ワークステーションユーザー、ラップトップ、デスクトップ、皆が恩恵を受ける」と述べた。
開発者向けには、クラウドに頼らずローカルでAI開発ができ、「パーソナルAIスーパーコンピューター」として位置づけられる「DGX Spark」と「DGX Station」を提供する。ネットワークで接続し、クラウドとまったく同じソフトウェアで利用可能。

続いて、過去5~10年で開発を中止した製品やパイプラインについて質問が出た。ファン氏は、プロジェクトを完全に中止することは「非常に稀」で、方向性を「何度も形作る、再形成する」ことが多いと答えた。その理由として「方向性が正しくなければならない」ことを挙げ、例としてOmniverseの初期開発を挙げた。
初期のOmniverseのビジョンは正しかったが、ソフトウェアのアーキテクチャが「エンタープライズやワークステーションの古いやり方に基づいており、スケーラブルでなかった」という。
最初は「複数のGPUを持つ単一インスタンスソフトウェア」として構築したが、それは「間違った答え」だった。Omniverseは「分散システムとして、複数のシステム、複数のOS、それぞれ複数のGPUを持つ複数のコンピューター上で実行されるべきだった」とし、これが今回のRTX Proのようなマシンを構築した理由だと述べた。
「RTX Pro」と呼ばれるのは「Omniverseの生成AIシステム」であるためだと説明。これは8つのGPUを持つ1つのコンピューターであり、さらに多くのコンピューターと接続できる。「Omniverseはこの全体で実行される。これは完璧なOmniverseコンピューター、完璧なロボティクスコンピューター、完璧なデジタルツインコンピューターだ」と語った。

次にDGX Sparkについて尋ねられたファン氏は、生産性の高いAI開発環境が必要であり、AIモデルは非常に大きいため、PythonソフトウェアとAIスタックで完全にアクセラレートされる環境を求めていると述べた。多くのコンピューターはAI開発に完璧ではなく、メモリーが不足しているか、古いバージョンだと指摘。
NVIDIAは「最先端のAIシステム」を「リモートWi-Fi環境」に置いて、すべてのコンピューターと接続できるようにしたとファン氏は説明。DGX Sparkの登場により、世界の3000万人以上のソフトウェア開発者に加え、同数のAI開発者が生まれると予測し、誰もが「本質的にAIスーパーコンピューターやAIクラウドを持つ」恩恵を受けられるようにしたとのこと。
NVLink Fusion戦略について問われたファン氏は、NVLink Fusionが「あらゆるデータセンターに、我々がNVLinkと呼ぶこの信じられない発明を活用させる」と説明。NVLinkは12年間開発しており、NVLinkとSpectrum X、Quantumネットワーキングは「高度に統合され最適化されている」ため、AIデータセンター、すなわち「AI工場」の性能が非常に良いのだという。

100億ドルの工場で効率が90%と60%では、30%の差が30億ドルになるため、ネットワーク効率、性能、効率、エネルギーは非常に重要だと強調した。多くの顧客がセミカスタムインフラを開発しており、彼らからNVLinkを使いたいという要望があったと明かした。
UALinkという業界の議論もあるが「あまりうまくいっていないと思う」とし、顧客がNVLinkのオープン化を求めてきたため「喜んで」オープン化に応じたと述べた。
NVLinkをオープンにする利点として、NVIDIAのネットワーク、すなわち「ファブリック」がデータセンターの「オペレーティングシステム」「神経系」であることを挙げた。これにより、NVIDIAの神経系を、NVIDIA技術であろうと顧客のセミカスタム技術であろうと、あらゆるデータセンターに拡張できる。
また、MediaTek、Alchip、MarvellのようなASIC企業にとっても良いとした。顧客にとっては、NVLinkのアーキテクチャーがラックシステムと統合されていることが最も重要であり、GB200を使っている顧客はすでにNVIDIAのラックを使っているため、セミカスタムであってもNVIDIAのラックを使い続けることができる。NVLink、ネットワーキングアーキテクチャーは1つであり、CPUはNVIDIA、Fujitsu、Qualcommなどさまざまでも良いと述べた。
性能が収益に等しくなるため
機器は毎年アップグレードする
AI工場における機器の寿命とアップグレード頻度について質問が出た。ファン氏は毎年アップグレードする理由として「工場では性能がコストに等しく、性能が収益に等しい」からだと説明。
電力に限界がある工場の場合、ワットあたりの性能が4倍になれば、そのデータセンターの収益も4倍になる。新世代を導入することで、顧客の収益は増え、コストは下がる。そのため、顧客には「毎年すべてを買うのではなく、毎年なにかを買う」よう伝えている。これにより、古い技術への過剰投資を防ぐ。NVIDIAのアーキテクチャーはすべての工場で互換性があり、ソフトウェアを長期間アップグレードできる利点があると述べた。
ソフトウェアの最適化とモデルの改善は、すべての工場、すべてのコンピューターに恩恵をもたらし、NVIDIAのCUDAは「非常に価値がある」ため、年1回のアップグレードも価値があると述べた。これらを組み合わせることで、データセンターフリート全体の収益が上がり、コストが下がり、寿命が延びる。
最後に、NVIDIA CUDAのインストールベースが非常に高いため、あらゆる新しいイノベーションがCUDA上で動作すること、開発者がまずCUDAで開発するのは性能、技術、そして最大インストールベースの大きさが理由であることを挙げた。これらの理由から、データセンターの寿命は「かなり長くなる」と述べた。

NVLink Fusionの外部提供について、顧客がカスタムチップとNVLink、NVLink Switchを使うようなビジョンは期待できるかという質問にファン氏は、それは「ひとつつのビジョン」だが、より可能性が高いのは、NVLinkチップレット、NVLink Switch、NVLink Spine、Spectrum-X、そして付随ソフトウェアを顧客が購入する形だろうと述べた。
例として富士通を挙げ、彼らは長年CPUシステムを販売しておりAIを追加したいと考えているとし、富士通のCPUと既存のソフトウェアスタックに、NVIDIAのAI技術を組み合わせるには、NVLink Fusionが使用される。NVIDIAがこのシステム(CPUとNVIDIA AIを組み合わせたもの)を富士通に販売し、彼らがNVLinkシステムに接続すれば、富士通のエコシステム全体が「AIスーパーチャージされる」と話す。
ファン氏は、顧客はNVIDIAのエコシステムとソフトウェアを求めているため、融合する意味があるとし、クアルコムのような他のCPUベンダーとも同様に行なうとし、NVLink IPをSynopsysやCadenceに提供したため、あらゆるCPU会社が可能になったと述べた。これにより、NVIDIAのエコシステムが他のエコシステムと融合すると説明した。

ソフトウェア産業の柔軟性について、GPUのような専用ハードウェアの将来性、GPGPUの継続性について質問があった。ファン氏はこれを「良い質問」と評価。流体、粒子物理、有限要素法、グラフィックスなどのアルゴリズムは「消えない」とし、長年洗練され、数兆ドル規模のソフトウェアが既に存在するため「書き直す理由はない」と述べた。
柔軟なソフトウェア、柔軟なハードウェアは「常に価値がある」とし、CPUが60年間成功した理由だと説明した。NVIDIAが開発したCUDAは20年以上の歴史を持ち、深層学習から古典的機械学習、データ処理、物理、化学など非常に多岐にわたる応用領域を持つ。
しかしNVIDIAの技術は「非常に高速」であるとした。高速で柔軟であれば、データセンターは多様な用途に使え、利用率が高くなり、コストが下がる。「汎用性イコール低コストだが、超高性能が必要」であり、これこそがCUDAが成功した理由だと説明。スティーブ・ジョブズがiPhoneを発表した際に、音楽プレーヤー、カメラ、PCといった別々のデバイスが1つの汎用デバイスになった例を挙げ、汎用デバイスは単体では高価でも、すべてを持つよりコストは低いと説明した。
NVIDIAを以前「ソフトウェア会社」と表現したことに関連して、将来NVIDIAを代表する要素(CUDA, Omniverse以外)はなにかと尋ねられた。ファン氏は、NVIDIAは常に「ソフトウェアから始める」、具体的には「アルゴリズム」から始めると説明。アルゴリズムを理解しないとアクセラレーションできないため、常にアルゴリズムから始めて、スタック全体を共同設計する。これはコンパイラ上で動作するCPUとは異なるとした。
NVIDIAは、ソフトウェアによるアルゴリズム加速(フルスタック)から始まり、システム会社、データセンター会社を経て、今は「AIインフラ会社」になっていると述べた。
インフラは重要であり、その上で動作するソフトウェアやシステム構成、最適化はPCとは大きく異なる。これらのAI工場を考える際には、「電力、冷却、ネットワーキング、スケールアップネットワーキング、ファブリック、セキュリティ、ストレージ」すべてを一度に考慮する必要がある。
ASMLの装置がTSMCの収益に直結するのと似ており、これまでのITデータセンターのコンピューターとは考え方がまったく異なる。AI工場は非常に高価であるため、極限まで最適化する必要があるとした。
NVLink Fusionがさまざまなプロセッサー間の通信を可能にすることについて、AI工場レベルでの意味合い、特に異なるワークロードが適切なチップにどのようにルーティングされるか、という質問にファン氏は、NVIDIAが作成したOSである「Dynamo」と、ネットワーキングAPIである「Nixell」に言及した。

Dynamoは「オーケストレーションシステム」であり、データセンターの異なる部分で処理を実行する。ワークロードを見て賢く判断し、コンテキスト処理、デコード、大規模モデル、小型モデルなど、タスクをデータセンター全体にルーティングできる。H100、H200、GB200、GB300などが混在してもDynamoがオーケストレーションする。特定のタスクに特化したアクセラレータがあれば、Dynamoは見つけてそれを使う。
NVIDIAアーキテクチャーの利点は、すべてが動作することであり、モデルの種類(大規模、小型、汎用、推論、画像、ビデオ、ワールド、ロボティクスなど)に関わらずCUDA上ですべてが動作すると強調した。そして、このデータセンターはすべてNVLink、Spectrum X対応であり、ラックアーキテクチャーも同じだと述べた。
ASICの成長速度と業界の期待についてという質問にファン氏は、NVIDIAがASICよりも速く成長すると予測していると述べた。多くのASICプロジェクトは失敗するか、長期間維持するのが非常に難しいが、NVIDIAのペースは速い。ASICを使う正当化のためには、NVIDIAよりも「かなり」優れている必要があるとし、NVIDIAの競争力、技術進歩の速さ、コスト削減、高い利用率、世界中での普及を挙げた。
AI開発者であればNVIDIAアーキテクチャー上で開発するのが最も理にかなっているとした。GoogleのTPUのようなASICも存在し、GoogleもGemini ProやGeminiをNVIDIA GPU上でも展開していることにも触れ、ASICは存在する理由があるが、それらはNVIDIAと競争しなければならないと述べた。
世界は「AI工場」を構築する新しい産業の始まりにいる
次に貿易摩擦、デ・グローバリゼーションの中でNVIDIAのグローバルサプライチェーン戦略、特に台湾の位置づけについて尋ねられた。ファン氏は、台湾は「成長し続ける」と断言。その理由として、世界は「AI工場」を構築する「新しい産業の始まりにいる」ことを挙げた。
「AIインフラはインターネットインフラが惑星を覆ったように、惑星全体を覆うだろう」と述べた。このAI工場/AIインフラの構築は、「数百億ドル規模から数十兆ドル規模」になり、約10年かかると予測。台湾では多くの建物、工場が建設されており、これはAI製造のためのインフラ構築競争の結果だと説明した。
同時に、世界の製造業はレジリエンス(回復力)と多様化が必要であり、一部は世界中に分散されると説明。米国でも製造されるが、すべてを国内で製造することは不可能であり不要だとした上で、国家安全保障上重要なものは可能な限り国内で製造し、世界中で冗長性を確保することでレジリエンスを持つべきだと述べた。
この再均衡は、AIインフラというまったく新しいインフラが初めて構築されている「非常に良いタイミング」で起こっているとした。多くの新しいプラントがどのみち必要だからだと説明。最も重要なのは、これらの新しいプラントに必要なエネルギーを供給することだと強調。コミュニティは、産業を成長させ経済的繁栄と安全保障を実現するために、AI工場を含む産業化にはエネルギーが必要であることを認識する必要があると指摘。政府当局には、水素、原子力、太陽光、風力など、あらゆる種類のエネルギーを支援し、産業をリセットしてAIインフラへと成長させるよう求めた。

中国への輸出規制により複数億ドルの在庫評価損が発生
ただしAI市場において規制の影響はあまりない
輸出規制について質問が続いた。ファン氏は、輸出規制によりH20は中国への出荷が禁止されたと述べ、これにより複数億ドルの在庫評価損が発生したと明かし、「多くの半導体企業の四半期収益に匹敵する大きさだ」と損失の大きさを強調した。中国市場は「非常に重要」であり、その理由はいくつかあると述べた。
第一に世界のAI研究者の50%が中国にいること。NVIDIAは彼らにNVIDIA上で開発してほしいと願っているとし、Deep SeekやQwen1.5はNVIDIA上で構築され、世界への贈り物となった例を挙げた。
第二に、中国市場は「非常に大きい」とし、来年のAI市場全体はおそらく「500億ドル」規模になり、これは多くのチップ企業の規模をはるかに超えると説明。この市場機会を享受しないのは「非常に残念」だと述べ、それは米国に税収をもたらし、雇用を創出し、産業を維持することにつながるからだと語った。
政策について「腹を立てているか」と問われ、「腹は立てていない。しかし、政策は間違っていると思う」と明確に答えた。その証拠として、4年前のバイデン政権開始時、NVIDIAの中国シェアは95%近かったが、今は50%に過ぎないことを挙げた。残りは中国の技術だという。
さらに、より低い仕様のチップを販売せざるを得ず、平均販売価格(ASP)も低下した。これによりNVIDIAは多くの収益を失ったが、「なにも変わっていない」と主張。AI研究者は中国でAI研究を続けており、NVIDIAがなければ自国技術や「次善策」を使うだけだとした。
また、現地の企業は非常に才能があり意欲的であり、輸出規制が彼らに開発を加速させる「精神、エネルギー、政府支援」を与えたと指摘。「全体として、輸出規制は失敗だったと思う。事実はそう示唆している」と結論付けた。

中国市場の話から、支出の冷え込みやDeep Seekの影響への懸念についての質問にファン氏は、Deep SeekがAIインフラに与えた影響が「信じられないほど」大きいと述べた。旧来のAIはワンショット(検索して答えを出す)だったが、Deep Seekは「推論モデル」であり思考が必要。速く思考するためには多くの演算が必要であり、Deep Seekが演算ニーズを「おそらく100から1000倍」増やしたと指摘。AI企業が「GPUが溶けている」(働きすぎ)と言っている理由だと説明した。
ファン氏はより多くのGPUが必要だと強調。マイクロソフトがGB200を最初にオンライン化し、OpenAIがすでに利用していること、そしてマイクロソフトが今年中に「数十万台のGB200」を構築する計画であることを明らかにした。これは「3年前のマイクロソフトの全データセンターを合わせたより多い」量であり、AIインフラの構築は「実際にはまだ始まったばかり」だと述べた。
これは「推論AI時代の始まり」であり、推論AIはさまざまなアプリケーションで非常に有用だとした。世界中でAIインフラが構築されており、AIインフラは電気やインターネットのように社会や産業の不可欠な一部となると語った。
さらに中東ではトランプ大統領が「AI拡散ルールの反転」を発表したことに言及。以前の拡散ルールはAIの拡散を制限することを目的としていたが、トランプ大統領はそれが「まったく間違った目標」であると認識しているとした。米国だけがAI技術提供者ではなく、米国がリードを保つためには、拡散を最大限に加速し、世界が「アメリカの技術」上で構築するようにする必要があると述べた。
これは「間違った政策の素晴らしい反転」であり、「ぎりぎり間に合った」が「速く進まなければならない」と強調。根本的な仮定は「米国がAIの唯一の提供者である」というものだったが、それは明らかに真実ではないと指摘した。
AI拡散ルールの反転が続くか、トランプ政権の態度、そして中国での競争において米国政府との連携でH20のような事態を避けられるかという質問にファン氏は、拡散ルールの詳細や将来の政策はわからないとした上で、最初の拡散ルールを導いた「根本的な仮定が完全に間違っていたことが証明された」ことが重要だと述べた。
政府の賢明な人々は国のために良いことをしようとするが、仮定が間違っていれば政策も変わらざるを得ないとし、「根本は完全に間違っていたことが証明された」ため、トランプ大統領はNVIDIAが米国外へリーチを拡大することを可能にした。トランプ大統領は「NVIDIAにできるだけ多くのGPUを世界中に販売してほしい」と公に述べた。
これは競争が激しくなっており、米国がリードを保つためには、制限ではなくAI拡散を最大限に加速する必要があることを彼が明確に理解しているためだと説明。他の誰かが喜んで提供するだろうとした。
AIは6Gの基盤にもなるため、将来の通信インフラにも影響があり、米国AI技術をできるだけ多くの場所に届け、開発者と連携し、エコシステムを構築し、AI革命に参加してもらう必要があると述べた。根本的な仮定とは「米国がAIの唯一の提供者である」というものだったが、それが明らかに真実ではないことが証明されたのだと改めて話していた。
中国市場の重要性、中国での競争、上海での研究センター投資、そして米国政府との連携についてファン氏は、上海の従業員のために新しいビルをリースしようとしていることについて説明。NVIDIAは30年間中国におり、従業員は狭い環境で働いている。柔軟なリモートワークポリシーがあるが、多くの人がオフィスに戻り始めており、オフィスが手狭になったため、椅子を置くスペースのある新しいビルが必要なのだと述べた。
これが大きなニュースになっていることに驚き、「新しい椅子を買ったようなものだ」と語った。中国での競争は「非常に激しい」と述べ、中国には活気ある技術エコシステムがあり、世界のAI研究者の50%がいて、ソフトウェアが「信じられないほど得意」だと評価した。

スピードも速いと話しており、NVIDIAが中国にいなければ現地の企業は「喜ぶだろう」とした。輸出規制は「まったく間違った政策」であり、NVIDIAが中国に戻って市場で競争できるようにしてほしいと願っていると述べた。現在のH20は中国への出荷が禁止されており、これ以上性能劣化させて市場に有用にする方法はわからないとした。
しかし市場にコミットしていると強調。輸出規制を遵守しつつ、市場に奉仕するために最善を尽くすのが仕事だと述べた。「かなり複雑になる」と話すものの、現時点では良いアイデアはないが考え続けると語った。
中国のスタートアップやHuaweiなどが自社チップを開発していることについてファン氏は、多くのスタートアップやクラウドサービスプロバイダーが自社チップを開発しており、Huaweiは「世界で最も手ごわい技術企業のひとつ」だと述べた。
AIの利点は、データセンターが大きく、携帯電話のようにひとつのワイヤーに収まる必要がないこと。チップ1つでダメなら2つ、4つと増やせる。エネルギーは多く消費するが、中国では電力のコスト効率が良いうえに土地も多い。そのため、H20の禁止は効果がないとし、彼らはスタートアップやHuaweiなどからより多くのチップを買うだけだと説明した。
米国政府が禁止の効果がないことを認識し、NVIDIAに戻って市場を早く勝ち取らせてくれることを「本当に願っている」と改めて表明した。
ヒューマノイドロボットが次の数兆ドル産業になる
NVIDIAが大規模から個人用AIデバイスまでシステムを構築している中で、個人用AIハードウェアを特に展開するか、ロボティクスと産業AIをどのように優先するかという質問がなげられた。ファン氏は、「DGX Spark」と「DGX Station」を「パーソナルAIスーパーコンピューター」のようなものだと再度強調。DGX StationはAI専用に作られた「世界初のAIコンピューター」であり、2016年にOpenAIに無償提供したのが最初の顧客だったと明かした。
世界中の開発者が自身のDGX Stationを欲しがるが、DGX Stationは大きいため小型版を作った。これらは「世界初のAIネイティブ個人コンピューター/システム」であると述べた。ロボティクスについては、「次の産業革命になる」と断言。技術の成功には、優れた能力、有用性、十分な顧客と量が必要であり、技術フライホイールが高ければ指数関数的な洗練と性能向上、コスト低下が起こる(スマートフォンのように)と説明。

ヒューマノイドロボットは、人間が多くの場所に存在するため「多くの場所で使える唯一のロボット」であり、自律走行車と同様の特性を持つ。これらが機能的、有用になればブレイクするとした。NVIDIAのIsaac GR00Tはヒューマノイドロボティクスプラットフォームであり「非常に成功している」と述べ、これが「次の数兆ドル産業」になると予測した。
データセンターをホリスティックに(広い視点で)見たように、他に見るべきセグメントはなにかという質問に対し、ファン氏は次に非常に大きくなるものは基調講演で断片的に触れていると述べた。「モデルスライド」はそのひとつで、次に挙げたのが「通信」だ。
1兆ドル規模のグローバル通信インフラがAIで「リセットされる」と述べ、現在の通信方法よりも、AIを使った圧縮技術は信じられないほど効率的であり、音声品質を向上させつつデータレートを下げられるとした。
機械学習などを使うことでスペクトル効率を劇的に高め、エネルギー消費を大幅に削減可能。世界の携帯電話が世界の電力の約3%を消費している現状に対し、「10分の1に減らせる可能性」を示唆し、AIが通信を革命すると述べた。
巨大データセンター、特にギガワット級のものが持続可能かという質問に対して、ファン氏はデータセンターが複数のデータセンターの集合体であり電力供給は可能だとした。中東のような余剰エネルギーを持つ国は、エネルギー輸出の代わりに「AIを輸出したい」と考えており、これにより産業を活性化し付加価値を高めると述べ、今後より多くの国がこれを望むだろうと予測した。
Advanced Packagingの重要性についての質問に対し、ファン氏はAIにとってAdvanced Packagingの重要性は「非常に高い」と強調。ムーアの法則がコスト効率の良いトランジスタ集積の限界に達したため、チップレットを2.5Dパッケージングでまとめる必要があり、将来はシリコンフォトニクスをパッケージに直接接続する技術(Co-packaged optics)も重要になる。将来のパッケージング技術は「非常に複雑でクール」だと述べた。
NVIDIAが企業のAI工場化を予測したように、将来、家庭に多くのワークステーションがあり、人々が自身のAIユースケースを作成・カスタマイズするパーソナルAIの未来を想像できるか、という質問にファン氏は「まったくその通りだ」と答え、DGX Stationのような小型コンピューターは、10年前未満のスーパーコンピューターより強力だと説明。アーキテクチャとソフトウェアのおかげでシステムは劇的に速く小型化しており、これは素晴らしいAIマシンになると述べた。
データセンターやコンピューティングインフラにおけるNVIDIAの次なる「限界突破」はなにかという質問に対し、ファン氏は「本当に良い質問」だが、秘密なので言えないと答えた。それが現在取り組んでいることだとし、今後のGTCで発表されるだろうと述べた。少なくとも今後5年間のGTCは「非常におもしろい」ものになるだろうとも話していた。
最後の質問として、台湾のオフィス拡大が地域の地政学的安定の信号か、あるいは米国政府への働きかけか、という質問が出た。ファン氏は、まずオフィス拡大の理由が「現在のオフィスに椅子が足りないから」というユーモラスな説明を繰り返した。

従業員全員が同時に座ったり作業したりできないため、より広いビルが必要なのだと述べた。地政学については、米国はAIの未来のスピードを最大化すべきであり、そうしないと競争相手が現れるとした。
米国政府は米国技術が中国市場にサービス提供、参加、競争することを許可すべきであり、なぜなら中国には世界のAI開発者の50%がおり、彼らが開発する際にNVIDIAや少なくとも米国技術上で開発することが重要だからだと改めて強調した。
加えて、この地域の安定性が非常に重要であり、世界中が安定を保つことを願うとも述べた。NVIDIAが成長しており、AI革命、AIインフラ構築はまだ始まったばかりであり、すべてを統合し変革し始めたばかりだと話している。
今後数年で「数兆ドル規模のAIインフラ」が構築されると予測できるため、台湾は製造のグローバル化が進む中でも、引き続き活気あるエコシステムであり続ける強調し、だからより多くのチップが必要になるのは当然だ、と締めくくった。
【関連サイト】
