2025.05.18PR 【匠が語る】台湾クアンタ・クラウド・テクノロジー(QCT)マイク・ヤン社長

次世代AIへの対応加速
NVIDIA GB300 NVL72軸に製品展開

データセンター向けサーバーやクラウドサービスをグローバル展開する台湾クアンタ・クラウド・テクノロジー(QCT)は、生成AI(人工知能)のさらなる普及を見据え、事業展開を強化している。米半導体大手エヌビディアの最先端GPU(画像処理半導体)を搭載した新型AI計算基盤「NVIDIA GB300 NVL72」を軸に、製品ラインナップを拡充。最新の熱管理技術で省電力化した次世代データセンターを世界に提案している。
日本市場も含めた今後の戦略をQCTのマイク・ヤン(楊麒令)社長が語った。

――AIインフラの現状と課題は。

ヤン社長世界トップ級の巨大IT企業のAI開発を加速させており、より大規模なモデルを開発し続けている。純粋なLLM(大規模言語モデル)から、動画や画像データを扱うマルチモーダルモデル、深い推論やリサーチを可能にするエージェンティックAIへと進化しており、計算需要をさらに高めている。
計算需要の増加によって、データセンターの機器の熱管理やワークロードの柔軟性などの課題も浮上し、総所有コスト(TCO)の上昇につながっている。QCTはこうした課題を積極的に支援している。

――NVIDIA GB300 NVL72の特徴と強みは。

ヤン社長AI推論性能が従来機に比べ1・5倍向上したことで、QCTのAIインフラソリューションが、より高速かつ効率的に推論処理できるようになる。大規模AIアプリケーションに特に有効で、データやタスク処理の向上やリアルタイムAIサービスの最適化につながる。
NVIDIA GB300 NVL72の40テラバイト高速メモリー容量は、大規模モデルのAIワークロード最適化に欠かせない。
特にトランスフォーマーベースの深層学習を加速し、頻繁なメモリーアクセスを減らすことでLLM推論の効率を大幅に改善する。生成AIやエージェンティックAIのようなリアルタイム性や効率的なメモリー処理が求められる用途で活用が広がるだろう。

――NVIDIA GB200 NVL72など従来製品からの進化点は。

ヤン社長QCTは、初の統合型スーパーコンピューター「NVIDIA® DGX-1™」以来、エヌビディアと強固なパートナーシップを築いてきた。データセンター向けGPUアーキテクチャであるHopperからBlackwell Ultraまで、常に中心的な役割を担うパートナー企業として協業し、深い製品開発ノウハウを有している。これにより、エヌビディアのスケジュールに完全に合わせた迅速な開発が可能だ。

GB300 NVL72システムは、72GPUのNVLinkドメインを誇る液冷ラックスケールソリューションで構成され、単一の大規模なGPUとして機能する。

▲NVIDIA GB300 NVL72

超大容量・超高速の高帯域幅メモリー「288GB HBM3e」と高性能ネットワークでAIの演算能力が前モデルの1・5倍に向上。AI推論やエージェンティックAI、ビデオ推論に最適化させた。
最新のGPUアーキテクチャ「NVIDIA Blackwell Ultra」を搭載し、高性能コンピューティング(HPC)向けに設計された新型ネットワークカード「NVIDIA ConnectX-8® (CX8)SuperNIC™」は、1GPUあたり最大800㌐ビット毎秒の接続速度を実現し、AIワークロードの効率を飛躍的に高めた。
ドライブに直接接続するPCIeスイッチ機能を統合したNVIDIA ConnectX-8® (CX8) SuperNIC™と、NVIDIA GB300 NVL72のアップグレードされた配電設計により、ケーブル配線設計も簡素化した。
D75U-1U NVIDIA GB300 NVL72は、NVIDIA GB200 NVL72構成にそのまま組み込める。
L11では、EDPP(強化された直接電力供給)に対応するため、電源シェルフのみをアップグレードし、それ以外はGB200 NVL72の設計を再利用した。L10 はほとんどの小さなボードを引き継ぎ、PDB と E1にマイナーな更新を加えた。主に水圧を調整する。2025年7月の量産に向けて準備を進めている。

――冷却技術として採用されるQoolRackサイドカー液冷ソリューションはNVIDIA GB300 NVL72の熱設計にどのように適応しますか。

ヤン社長ATDによりITラックから最大70㌔㍗の熱を放散できる。2台のQoolRackサイドカーソリューションにより、GB300に安定した熱サポートを提供。冗長化された電源、ポンプ、ファン設計でさまざまな業務に対しGPU性能を最適化する。漏液や流量、温度センサーなどを搭載し、冷却状況の効果的に監視できる。  AI時代には、全ての企業がAIを必要とするが、CPUやGPUのTDP(熱設計電力)の増加に既存設備が追いつかない場合も多い。そのためにも大規模なインフラ変更をせずに液冷システムへ移行できる液冷サイドカーソリューションが必要不可欠だ。

――先進的ネットワークによって大規模AIクラスター構築はどう進化しますか。

ヤン社長生成AIやエージェンティックAIの進化に伴い、基盤となるLLMモデルやトランスフォーマーモデルは急速に巨大化・複雑化している。単一サーバーやラック内での運用は非現実的となりつつあり、複数ラックをつなぐ高速・スケーラブルなネットワークインフラが欠かせない。 エヌビディアのConnectX-8® ネットワーク技術は、最大800㌐ビット毎秒のエンドツーエンド接続をサポート。高帯域・低遅延の接続は大規模AIクラスターに不可欠で、ノード間の効率的なデータ交換、通信ボトルネックの解消、全体スループットの最適化を通じて、モデルの大規模学習や推論を加速できる。

――ターゲットとする顧客層は。

ヤン社長QCTは高度なGPU需要を持つ顧客に注力している。NVIDIA GB300 NVL72ベースのソリューションは高コスト・高インフラ要件であり、ターゲットは明確だ。具体的には、GPUクラウドサービスプロバイダーやクラウドサービス事業者(CSP)、マネージドサービスプロバイダー(MSP)など、生成AIやエージェンティックAIを提供する事業者が中心だ。AIインフラで複雑かつ計算集約型ワークロードに取り組む大企業も含まれる。

――QCTが提供するGB300 NVL72ベースのソリューションの強みは。

ヤン社長QCTは単なるハード機器メーカーではなく、フルスタックAIソリューションプロバイダーだ。高性能ハード機器の提供にとどまらず、ワークロード分析から導入・運用サービス、性能最適化まで一貫してサポートする。NVIDIA GB300 NVL72のような複雑な構造設計でも迅速に導入できる。 データセンターのリモート管理ツールやAI管理プラットフォームなどソフトウエアも幅広く取りそろえ、ハードとソフトをシームレスに統合したエンドツーエンドのソリューションを提供する。

――日本市場に向けた戦略は。

ヤン社長日本は他国と比べてクラウドサービス導入に慎重で、信頼性やセキュリティー、品質を重視してきた。しかし、2023年以降、日本政府がAI主権確立に向けAIや半導体分野の国内強化を推進している。ソフトバンクやNTTなどの大手企業やAI開発を手がけるスタートアップも拡大し、高度なAIインフラを求める明確な潮流が生まれている。当社は日本市場の進化に合わせ、最先端AIインフラで変革を支援していく。 当社のNVIDIA GB300 NVL72ベースの企業向けソリューションは、大規模AIトレーニングやリアルタイム推論で画期的な性能を発揮し、製造・金融・物流などデータ駆動型の産業に最適なサービス。マルチモーダルやエージェンティックAIが進展し、その価値はさらに高まりつつある。  最先端AIインフラで日本企業の成長を支えることも当社の使命だ。日本のスペースと電力の制約に対応するために、空冷と液冷の両方のオプションを用意。単一サーバーから大規模AIクラスターまで拡張可能な柔軟な製品をそろえ、企業のAI活用を支援していく。 日本国内の技術・営業チームに加え、システムインテグレーターやパートナー企業と連携し、導入から運用まで一貫したサポートを提供していきたい。

匠が語るバックナンバー