NVIDIAとSamsungが戦略的協業を発表 ― カスタム非x86 CPU/XPUとNVLink Fusionが描く次世代AI半導体構想

2025年10月、NVIDIA CorporationとSamsung Electronicsが、カスタム非x86 CPUおよびXPU(汎用・専用処理を統合した次世代プロセッサ)に関する協業を発表しました。本提携は、NVIDIAが推進する高速インターコネクト技術「NVLink Fusion」エコシステムにSamsung Foundryが正式に参加し、設計から製造までの包括的支援体制を構築するものです。

この発表は、AIインフラ市場におけるNVIDIAの戦略的な転換点と位置づけられています。従来、NVIDIAはGPUを中心とする演算基盤の提供企業として知られてきましたが、近年ではCPUやアクセラレータ、さらには通信層まで含めたプラットフォーム全体の最適化を志向しています。一方のSamsungは、TSMCやIntelなどの競合と並び、先端半導体製造分野で存在感を強めており、今回の協業によって自社のファウンドリ事業をAI分野へ拡張する狙いを明確にしました。

本記事では、この協業の概要と技術的背景を整理した上で、業界構造への影響、アナリストによる評価、そして今後の展望について考察します。AIチップ市場の競争が加速する中で、NVIDIAとSamsungが描く新たなエコシステムの構想を冷静に分析します。

NVIDIAとSamsungの協業概要

NVIDIAとSamsungの協業は、AI時代における半導体設計と製造の新たな方向性を示すものです。両社は2025年10月、カスタム非x86 CPUおよびXPU(CPUとアクセラレータを統合した高性能プロセッサ)の共同開発体制を発表しました。Samsung Foundryは、NVIDIAが主導する高速接続基盤「NVLink Fusion」エコシステムに参画し、設計からテープアウト、量産までを一貫して支援する役割を担います。

この取り組みは、単なる製造委託契約にとどまらず、AI処理向けシステム全体を最適化する「プラットフォーム協調型」構想として位置づけられています。NVIDIAはGPUを中心とした計算プラットフォームの支配的地位を強化しつつ、CPUやカスタムチップを自社エコシステム内で連携可能にすることで、データセンターからクラウドまでを包含する統合的な基盤を形成しようとしています。

一方で、Samsungにとって本協業は、自社の先端プロセス技術をAI向けロジック半導体へ展開する重要な機会であり、TSMCやIntel Foundry Servicesに対抗する新たな戦略的提携とみなされています。

発表の経緯と目的

NVIDIAとSamsungの協業発表は、AIインフラ需要の急拡大を背景として行われました。生成AIや大規模言語モデル(LLM)の普及に伴い、従来のGPU単独では処理能力や電力効率に限界が見え始めており、CPUやアクセラレータを組み合わせた複合的な計算アーキテクチャの重要性が高まっています。NVIDIAはこうした状況に対応するため、GPUを中核としながらも、外部のカスタムチップを同一インターコネクト上で動作させる仕組みの整備を進めてきました。

その中核に位置づけられているのが、同社が推進する「NVLink Fusion エコシステム」です。これは、GPU・CPU・XPUなど複数の演算デバイス間を高速かつ低遅延で接続するための技術基盤であり、AIサーバーやハイパースケールデータセンターの拡張性を支える要素とされています。今回の発表では、このNVLink Fusion にSamsung Foundryが正式に参加し、設計段階から製造・実装までの包括的支援を行うことが明らかにされました。

この協業の目的は、NVIDIAが描く「GPUを中心とした統合計算プラットフォーム」をさらに拡張し、CPUやXPUを含めた総合的な演算基盤としてのエコシステムを確立することにあります。Samsung側にとっても、AIおよびHPC(高性能計算)市場における先端ロジック半導体需要の取り込みを図るうえで、NVIDIAとの連携は戦略的な意味を持ちます。両社の利害が一致した結果として、AI時代の新しい半導体製造モデルが具体化したといえます。

カスタム非x86 CPU/XPUとは

カスタム非x86 CPUおよびXPUとは、従来のx86アーキテクチャ(主にIntelやAMDが採用する命令体系)に依存しない、特定用途向けに最適化されたプロセッサ群を指します。これらは一般的な汎用CPUとは異なり、AI推論・機械学習・科学技術計算など、特定の計算処理を効率的に実行するために設計されます。

「非x86」という表現は、アーキテクチャの自由度を高めることを意味します。たとえば、ArmベースのCPUやRISC-Vアーキテクチャを採用する設計がこれに該当します。こうしたプロセッサは、電力効率・演算密度・データ転送性能の観点で柔軟に最適化できるため、大規模AIモデルやクラウドインフラにおいて急速に採用が進んでいます。

一方、「XPU」という用語は、CPU(汎用処理装置)とGPU(並列処理装置)の中間に位置する概念として使われます。XPUは、汎用的な命令処理能力を保持しつつ、AI推論やデータ解析など特定分野に特化したアクセラレータ機能を統合したプロセッサを指します。つまり、CPU・GPU・FPGA・ASICといった異なる設計思想を融合し、用途に応じて最適な演算を選択的に実行できるのが特徴です。

今回の協業でNVIDIAとSamsungが目指しているのは、このXPUをNVLink Fusionエコシステム内でGPUと連携させ、統一的な通信インフラの上で高効率な並列計算を実現することです。これにより、AI処理向けのハードウェア構成が従来の固定的なCPU-GPU構造から、より柔軟かつ拡張性の高いアーキテクチャへと進化していくことが期待されています。

技術的背景 ― NVLink Fusionの狙い

NVIDIAが推進する「NVLink Fusion」は、AI時代におけるデータ転送と演算統合の中核を担う技術として位置づけられています。従来のサーバー構成では、CPUとGPUがPCI Express(PCIe)などの汎用インターフェースを介して接続されていましたが、この構造では帯域幅の制約や通信遅延がボトルネックとなり、大規模AIモデルの学習や推論処理において性能限界が顕在化していました。

こうした課題を解決するため、NVIDIAは自社のGPUと外部プロセッサ(CPUやXPU)をより密結合させ、高速・低遅延でデータを共有できる新しいインターコネクトとしてNVLink Fusionを開発しました。この技術は単なる物理的接続の強化にとどまらず、演算資源全体を1つの統合システムとして動作させる設計思想を持っています。

今回のSamsungとの協業により、NVLink Fusion対応のカスタムシリコンがSamsung Foundryの先端プロセスで製造可能となり、AI向けプロセッサの多様化とエコシステム拡張が現実的な段階へ進みました。これにより、NVIDIAはGPU単体の性能競争から、システム全体のアーキテクチャ競争へと軸足を移しつつあります。

インターコネクト技術の重要性

AIや高性能計算(HPC)の分野において、インターコネクト技術は単なる補助的な通信手段ではなく、システム全体の性能を左右する中核要素となっています。大規模なAIモデルを効率的に学習・推論させるためには、CPU・GPU・アクセラレータ間で膨大なデータを高速かつ低遅延でやり取りする必要があります。演算性能がどれほど高くても、データ転送が遅ければ全体の処理効率は著しく低下するため、通信帯域とレイテンシ削減の両立が極めて重要です。

従来のPCI Express(PCIe)インターフェースは、汎用性の高さから長年にわたり標準的な接続方式として採用されてきましたが、AI時代の演算要求には十分対応できなくなりつつあります。そこでNVIDIAは、GPU間やGPUとCPU間のデータ転送を最適化するために「NVLink」シリーズを開発し、帯域幅とスケーラビリティを飛躍的に向上させました。最新のNVLink Fusionでは、これまでGPU専用だった通信を外部チップにも拡張し、CPUやXPUなど異種プロセッサ間でも同一インターコネクト上で協調動作が可能となっています。

この仕組みにより、複数の演算デバイスがあたかも1つの統合メモリ空間を共有しているかのように動作し、データ転送を意識せずに高効率な分散処理を実現できます。結果として、AIモデルの学習速度向上やエネルギー効率改善が期待されるほか、システム全体の拡張性と柔軟性が飛躍的に高まります。つまり、インターコネクト技術は、ハードウェア性能を最大限に引き出す「隠れた基盤技術」として、次世代AIコンピューティングに不可欠な存在となっているのです。

Samsung Foundryの役割

Samsung Foundryは、今回の協業においてNVIDIAの技術基盤を現実の製品として具現化する中核的な役割を担っています。同社は半導体製造における最先端のプロセス技術を保有しており、特に3ナノメートル(nm)世代のGAA(Gate-All-Around)トランジスタ技術では、量産段階に到達している数少ないファウンドリの一つです。これにより、NVIDIAが構想するNVLink Fusion対応のカスタムシリコンを高密度かつ高効率で製造することが可能となります。

Samsung Foundryは従来の製造委託(pure foundry)モデルに加え、設計支援からテープアウト、パッケージング、検証までを包括的にサポートする「Design-to-Manufacturing」体制を強化しています。NVIDIAとの協業では、この一貫したエンジニアリング体制が活用され、顧客の要件に応じたカスタムCPUやXPUを迅速に試作・量産できる環境が整えられます。このような包括的支援体制は、AI分野の開発スピードが年単位から月単位へと短縮されている現状において、極めて重要な競争要素となっています。

また、Samsung Foundryの参画は、NVLink Fusionエコシステムの拡張にも大きな意味を持ちます。NVIDIAが提供するインターコネクト仕様を、Samsung側の製造プラットフォーム上で直接適用できるようになることで、NVIDIAのエコシステムを利用したカスタムチップの開発・製造が容易になります。これにより、AIやHPC分野の多様な企業が自社の要求に合ったカスタムシリコンを設計できるようになり、結果としてNVIDIAのプラットフォームを中心とした新たな半導体開発の潮流が形成される可能性があります。

業界構造への影響

NVIDIAとSamsungの協業は、単なる技術提携にとどまらず、半導体産業全体の勢力図に影響を与える可能性を持っています。AIを中心とした高性能演算需要の拡大により、半導体市場は「汎用CPU中心の時代」から「用途特化型チップと統合アーキテクチャの時代」へと移行しつつあります。この流れの中で、両社の連携は設計・製造・接続を一体化した新しい供給モデルを提示するものであり、ファウンドリ業界やクラウド事業者、AIハードウェアベンダーに対して大きな戦略的示唆を与えています。

NVIDIAが推進するNVLink Fusionエコシステムは、従来のサーバー構成やチップ設計の分業構造を再定義する可能性を秘めています。これまで、チップ設計を行う企業と製造を担うファウンドリは明確に役割を分けてきましたが、今回の協業はその境界を曖昧にし、エコシステム内で設計・製造が緊密に統合された新たなモデルを形成しています。結果として、NVIDIAがAIコンピューティング分野で築いてきた支配的地位は、ハードウェア構造全体へと拡張しつつあります。

この章では、ファウンドリ業界の競争構造と、NVIDIAが進めるエコシステム拡張が市場全体にどのような変化をもたらすのかを検討します。

ファウンドリ業界の勢力図


ファウンドリ業界は、近年ますます寡占化が進んでおり、先端プロセスを扱う企業は世界でも限られています。現在、最先端の3ナノメートル(nm)級プロセスを商業規模で提供できるのは、台湾のTSMC(Taiwan Semiconductor Manufacturing Company)と韓国のSamsung Foundryの2社のみです。この二強構造に、米国のIntel Foundry Services(旧Intel Foundry Group)が追随しようとしているのが現状です。

TSMCはApple、AMD、NVIDIA、Qualcommなど、世界の主要半導体設計企業を顧客に持ち、その安定した製造品質と高い歩留まりによって圧倒的なシェアを維持しています。一方のSamsung Foundryは、先端プロセスの量産技術においてTSMCに対抗する唯一の存在であり、自社グループ内でメモリ・ロジック・パッケージを統合的に扱える点で独自の強みを持っています。

今回のNVIDIAとの協業は、Samsungにとってこの競争構造の中でポジションを強化する重要な契機となります。これまでNVIDIAはTSMCの製造能力に大きく依存してきましたが、Samsung FoundryがNVLink Fusionエコシステムに正式参加したことで、NVIDIAは製造リスクの分散とサプライチェーンの多様化を図ることができます。これにより、SamsungはTSMCに対して技術的・経済的な競争優位を再構築する足掛かりを得たといえます。

また、Intel Foundry Servicesは、米国内での製造強化と先端ノードの開発を進めているものの、顧客獲得や量産実績の面ではまだ発展途上です。結果として、今回のNVIDIA–Samsung協業は、TSMCの一極集中構造に対して一定の牽制効果をもたらし、世界のファウンドリ勢力図に新たな緊張関係を生み出したと評価されています。

エコシステム拡張と競争環境

NVIDIAとSamsungの協業は、単なる製造委託の枠を超え、NVIDIAが長年築いてきた独自エコシステムを外部パートナーへ拡張する試みとして注目されています。NVLink Fusionを中心とするこのエコシステムは、GPU・CPU・XPUといった異種プロセッサ間を高速かつ低遅延で接続し、統合的な計算基盤を構築することを目的としています。これにより、AIデータセンターやハイパースケール環境で求められる高効率な演算処理を、チップレベルから最適化できる体制が整いつつあります。

一方で、NVIDIAはこのエコシステムを開放的に展開する姿勢を見せつつも、通信プロトコルや制御仕様などの中核部分を自社で掌握しています。そのため、NVLink Fusionに参加する企業は一定の技術的制約のもとで設計を行う必要があり、完全なオープン標準とは言い難い側面もあります。こうした構造は、NVIDIAのプラットフォーム支配力を強化する一方で、パートナー企業にとっては依存度の高い関係を生み出す可能性があります。

競争環境の観点から見ると、この動きは既存のファウンドリおよびチップメーカーに新たな圧力を与えています。TSMCやIntelは、顧客の設計自由度を確保しつつオープンな開発環境を提供する方向に注力していますが、NVIDIAは「性能と統合性」を軸にエコシステムを囲い込む戦略を採っています。特に生成AIや高性能クラウドの分野では、ソフトウェアからハードウェアまでを一体化したNVIDIAのプラットフォームが標準化しつつあり、他社が参入しにくい構造が形成されつつあります。

このように、NVIDIAとSamsungの協業は、AIハードウェア業界における「統合型エコシステム対オープン型エコシステム」という新しい競争軸を生み出しました。今後は、どのモデルが市場の支持を得るかによって、半導体産業全体の主導権が再び移り変わる可能性があります。

アナリストの見解と市場評価

NVIDIAとSamsungの協業発表は、半導体業界内外のアナリストから大きな関心を集めています。特にAIインフラ市場の急成長と、それに伴う計算アーキテクチャの多様化を背景に、この提携は単なる企業間の協力ではなく、「プラットフォーム主導型競争」の新段階を示すものとして受け止められています。

複数の市場調査機関や業界メディアは、本件を「戦略的転換点」と位置づけています。NVIDIAがGPU中心の事業構造から、シリコン設計・インターコネクト・システム構築を包括する総合的なプラットフォーム戦略へと移行しつつある点を評価する一方で、エコシステムの閉鎖性や製造依存リスクに対する懸念も指摘されています。

この章では、TrendForceやTechRadar、Wccftechなど主要なアナリストの分析をもとに、市場が本協業をどのように評価しているかを整理します。評価の焦点は「プラットフォーム戦略の深化」と「オープン性・供給リスク」という二つの軸に集約されており、これらを中心に分析していきます。

評価点:プラットフォーム戦略の深化

アナリストの多くは、今回の協業をNVIDIAの長期的な戦略転換の一環として高く評価しています。これまで同社はGPUを中心とする演算基盤で市場をリードしてきましたが、今後はCPUやXPU、さらにはインターコネクト技術を含めた「統合プラットフォーム」を構築する方向へと進化しています。NVLink Fusionエコシステムを核に据えることで、NVIDIAは演算装置の多様化に対応しつつ、自社技術を基盤としたエコシステム全体の支配力を強化しようとしている点が注目されています。

TrendForceは、この取り組みを「GPU中心の事業モデルから、プラットフォーム型エコシステムへの移行を象徴する動き」と分析しています。これにより、NVIDIAは単なるチップベンダーではなく、AIコンピューティング全体を統合するアーキテクトとしての地位を確立しつつあります。特に、GPU・CPU・アクセラレータをNVLinkで一体化する設計思想は、データセンター全体を一つの巨大演算ユニットとして機能させるものであり、これまでの「デバイス単位の性能競争」から「システム全体の最適化競争」へと発想を転換させています。

また、WccftechやTechRadarの分析では、Samsungとの連携によりNVIDIAが製造キャパシティの多様化と供給安定化を図っている点が評価されています。これにより、TSMCへの依存を緩和しつつ、AIチップの開発スピードと柔軟性を高めることが可能になります。さらに、NVLink Fusionを通じて他社製カスタムチップとの接続を支援する構造は、外部企業の参加を促進する効果を持ち、NVIDIAのプラットフォームを事実上の業界標準へ押し上げる可能性があります。

アナリストは本協業を「NVIDIAがAIコンピューティングのインフラ層を再定義する動き」と捉えており、その影響はGPU市場を超えて、半導体産業全体のアーキテクチャ設計思想に波及すると見られています。

懸念点:オープン性と供給リスク

一方で、アナリストの間では本協業に対して一定の懸念も示されています。その多くは、NVIDIAが構築するエコシステムの「閉鎖性」と「供給リスク」に関するものです。NVLink Fusionは、極めて高性能なインターコネクト技術として注目を集めていますが、その仕様や制御層はNVIDIAが厳密に管理しており、第三者が自由に拡張・実装できるオープン標準とは言い難い構造となっています。

TechRadarは、「NVIDIAがプラットフォーム支配力を強化する一方で、NVLink Fusion対応チップの開発企業はNVIDIAの技術仕様に従わざるを得ない」と指摘しています。このため、NVLinkを採用する企業は高性能化の恩恵を受ける反面、設計上の自由度や独自最適化の余地が制限される可能性があります。結果として、NVIDIAエコシステム内での“囲い込み”が進み、パートナー企業がベンダーロックインの状態に陥る懸念が生じています。

また、供給リスクの観点でも慎重な見方が見られます。Samsung Foundryは先端プロセス技術において世界有数の能力を持つ一方、TSMCと比較すると歩留まりや量産安定性に関して課題を抱えているとの指摘があります。特にAI用途では、製造品質のわずかな差が性能・電力効率・コストに直結するため、安定した供給体制をどこまで確保できるかが注目されています。

さらに、地政学的リスクも無視できません。半導体製造は国際的な供給網に依存しており、地政学的緊張や輸出規制の影響を受けやすい産業です。Samsungが韓国を中心に製造拠点を持つ以上、国際情勢によって供給計画が左右される可能性があります。

アナリストは本協業を「高性能化とエコシステム強化の両立を目指す挑戦」と評価する一方で、オープン性の欠如や供給リスクをいかに管理・緩和するかが今後の鍵になると分析しています。

今後の展望

NVIDIAとSamsungの協業は、AIコンピューティング分野における新たな技術的潮流の起点となる可能性があります。特に、NVLink Fusionを軸とした統合アーキテクチャの拡張は、今後のデータセンター設計やAIチップ開発の方向性を大きく左右することが予想されます。従来のようにCPUとGPUを個別のコンポーネントとして接続するのではなく、演算・通信・メモリを一体化した「統合演算基盤(Unified Compute Fabric)」への移行が現実味を帯びてきました。

今後、NVLink Fusion対応のカスタムシリコンが実用化されれば、AIモデルの学習や推論処理の効率はさらに向上し、ハードウェア間の連携がシームレスになると考えられます。これにより、クラウド事業者やハイパースケールデータセンターは、特定用途に最適化された演算構成を柔軟に設計できるようになります。結果として、AIチップ市場は「汎用GPU依存型」から「カスタムXPU分散型」へと進化し、アーキテクチャの多様化が進むと見込まれます。

一方で、NVLink Fusionが業界標準として定着するかどうかは、今後のエコシステム形成にかかっています。NVIDIAが自社主導の仕様をどこまで開放し、外部パートナーとの協調を促進できるかが、広範な採用に向けた最大の課題となるでしょう。もしNVLink Fusionが限定的なプラットフォームにとどまれば、他社が推進するオープン型インターコネクト(例:CXLやUCIe)が対抗軸として成長する可能性もあります。

Samsungにとっては、本協業を通じて先端ロジック分野でのプレゼンスを拡大できるかが焦点となります。AI需要の増大に対応するためには、高歩留まり・安定供給・短期試作といった製造面での実績を積み重ねることが不可欠です。

本協業はAIハードウェア産業の将来像を方向づける試金石といえます。今後数年の技術進展と市場動向次第では、NVIDIAとSamsungの提携が次世代AIインフラの標準的モデルとなる可能性があります。

おわりに

NVIDIAとSamsungの協業は、AI時代の半導体産業が直面する構造変化を象徴する出来事といえます。両社は、従来のGPU中心型の演算構造を超え、CPUやXPUを含む多様なプロセッサを統合的に連携させる新たなアーキテクチャを提示しました。この取り組みは、AI処理の効率化やデータセンターの最適化に向けた現実的な解であると同時に、今後の半導体開発モデルを大きく変える可能性を持っています。

NVLink Fusionを基盤とするこの戦略は、NVIDIAにとって自社のエコシステムをさらに拡張し、ハードウェアからソフトウェア層までを一体化するプラットフォーム支配力を強化する動きです。一方で、Samsungにとっても、AI向けロジック半導体の製造分野において存在感を高める重要な機会となりました。両社の協業は、ファウンドリ業界の勢力図を再構成し、TSMCやIntelなど既存大手との競争を新たな段階へと押し上げています。

ただし、この構想が長期的に成功を収めるためには、技術的な優位性だけでなく、エコシステムの持続性と供給の安定性が不可欠です。NVIDIAがどこまでオープン性を確保し、パートナー企業と共存できるか、そしてSamsungが高品質な量産体制を維持できるかが、今後の鍵を握ります。

AIインフラを巡る競争は、もはや単一製品の性能ではなく、全体最適化と連携の設計力が問われる段階に入りました。NVIDIAとSamsungの協業は、その未来への一つの方向性を提示しており、半導体産業の新たな競争軸を形成する可能性を示しています。

参考文献

日本が次世代「Zettaスケール」スーパーコンピュータ構築へ──FugakuNEXTプロジェクトの全貌

2025年8月、日本は再び世界のテクノロジー界に衝撃を与える発表を行いました。理化学研究所(RIKEN)、富士通、そして米国のNVIDIAという三者の強力な連携によって、現行スーパーコンピュータ「富岳」の後継となる 次世代スーパーコンピュータ「FugakuNEXT(富岳NEXT)」 の開発が正式に始動したのです。

スーパーコンピュータは、単なる計算機の進化ではなく、国家の科学技術力や産業競争力を象徴する存在です。気候変動の解析や新薬の開発、地震や津波といった自然災害のシミュレーション、さらにはAI研究や材料科学まで、幅広い分野に応用され、その成果は社会全体の安全性や経済成長に直結します。こうした背景から、世界各国は「次世代の計算資源」をめぐって熾烈な競争を繰り広げており、日本が打ち出したFugakuNEXTは、その中でも極めて野心的な計画といえるでしょう。

今回のプロジェクトが注目される理由は、単に処理能力の拡大だけではありません。世界初の「Zettaスケール(10²¹ FLOPS)」に到達することを目標とし、AIと従来型HPCを有機的に融合する「ハイブリッド型アーキテクチャ」を採用する点にあります。これは、従来のスーパーコンピュータが持つ「シミュレーションの強み」と、AIが持つ「データからパターンを学習する力」を統合し、まったく新しい研究アプローチを可能にする挑戦でもあります。

さらに、日本は富岳の運用で得た経験を活かし、性能と同時にエネルギー効率の改善にも重点を置いています。600 exaFLOPSという途方もない計算能力を追求しながらも、消費電力を現行の40メガワット水準に抑える設計は、持続可能な計算基盤のあり方を示す挑戦であり、環境問題に敏感な国際社会からも注目を集めています。

つまり、FugakuNEXTは単なる「富岳の後継機」ではなく、日本が世界に向けて示す「未来の科学・産業の基盤像」そのものなのです。本記事では、このFugakuNEXTプロジェクトの概要、技術的特徴、国際的な意義、そして同世代に登場する海外のスーパーコンピュータとの比較を通じて、その全貌を明らかにしていきます。

FugakuNEXTの概要

FugakuNEXTは、日本が国家戦略として推進する次世代スーパーコンピュータ開発計画です。現行の「富岳」が2020年に世界ランキングで1位を獲得し、日本の計算科学を象徴する存在となったのに続き、その後継として 「世界初のZettaスケールを目指す」 という野心的な目標を掲げています。

プロジェクトの中心となるのは、理化学研究所(RIKEN)計算科学研究センターであり、システム設計は引き続き富士通が担います。そして今回特筆すべきは、米国のNVIDIAが正式に参画する点です。CPUとGPUという異なる計算リソースを融合させることで、従来以上に「AIとHPC(High-Performance Computing)」を両立させる設計が採用されています。

基本情報

  • 稼働予定地:神戸・ポートアイランド(富岳と同じ拠点)
  • 稼働開始予定:2030年前後
  • 開発予算:約1,100億円(7.4億ドル規模)
  • 計算性能目標:600 exaFLOPS(FP8 sparse演算)、実効性能は富岳の100倍規模
  • 消費電力目標:40メガワット以内(現行富岳と同等水準)

特に注目されるのは、性能向上と消費電力抑制の両立です。富岳は約21.2MWの電力を消費して世界最高性能を実現しましたが、FugakuNEXTはそれを大きく超える計算能力を、同水準の電力枠内で達成する設計となっています。これは持続可能な計算資源の実現に向けた大きな挑戦であり、日本が国際的に評価を受ける重要な要素となるでしょう。

富岳からの進化

「富岳」が従来型シミュレーションを中心に性能を発揮したのに対し、FugakuNEXTはAI活用を前提としたアーキテクチャを採用しています。すなわち、AIによる仮説生成・コード自動化と、シミュレーションによる精緻な実証の融合を可能にするシステムです。この融合は「AI for Science」と呼ばれ、次世代の研究手法として世界的に注目を集めています。

また、研究者や産業界が早期にソフトウェアを適応させられるよう、「virtual Fugaku」 と呼ばれるクラウド上の模擬環境が提供される点も特徴です。これにより、本稼働前からアプリケーション開発や最適化が可能となり、2030年の立ち上げ時点で即戦力となるエコシステムが整うことが期待されています。

国家戦略としての位置づけ

FugakuNEXTは単なる研究用の計算資源ではなく、気候変動対策・防災・エネルギー政策・医療・材料科学・AI産業など、日本の社会課題や経済競争力に直結する幅広い分野での利用が想定されています。そのため、文部科学省をはじめとする政府機関の全面的な支援のもと、国を挙げて推進されるプロジェクトとして位置づけられています。

つまり、FugakuNEXTの概要を一言でまとめるなら、「日本が科学・産業・社会基盤の未来を切り開くために投じる最大規模の計算資源」 ということができます。

技術的特徴

FugakuNEXTが世界的に注目される理由は、その計算性能だけではありません。

AIとHPCを融合させるための 革新的なアーキテクチャ設計、持続可能性を意識した 電力効率と冷却技術、そして研究者がすぐに活用できる 包括的ソフトウェアエコシステム によって、従来のスーパーコンピュータの枠を超える挑戦となっています。

ハードウェア構成 ― MONAKA-X CPU と NVIDIA GPU の融合

従来の「富岳」がArmベースの富士通A64FX CPUのみで構成されていたのに対し、FugakuNEXTでは 富士通のMONAKA-X CPUNVIDIA製GPU を組み合わせたハイブリッド構成が採用されます。

  • MONAKA-X CPU:富士通が新たに開発する高性能CPUで、メモリ帯域・並列処理能力を大幅に強化。大規模シミュレーションに最適化されています。
  • NVIDIA GPU:AI計算に特化した演算ユニットを搭載し、FP8やmixed precision演算に強みを発揮。深層学習や生成AIのトレーニングを高速化します。
  • NVLink Fusion:CPUとGPU間を従来以上に高帯域で接続する技術。データ転送のボトルネックを解消し、異種アーキテクチャ間の協調動作を実現します。

この組み合わせにより、物理シミュレーションとAI推論・学習を同一基盤で効率的に動かすことが可能になります。

ネットワークとI/O設計

スーパーコンピュータの性能を支えるのは、単なる計算ノードの集合ではなく、それらをつなぐ 超高速ネットワーク です。FugakuNEXTでは、富岳で培った独自のTofuインターコネクト技術をさらに発展させ、超低レイテンシかつ高帯域の通信基盤を構築します。

また、大規模データを扱うためのI/O性能も強化され、AI学習に必要な膨大なデータを効率的に供給できるストレージアーキテクチャが採用される予定です。

電力効率と冷却技術

FugakuNEXTが目標とする「600 exaFLOPS」という規模は、従来なら数百メガワット規模の電力を必要とすると予想されます。しかし本プロジェクトでは、消費電力を40メガワット以内に抑えることが掲げられています。

  • 高効率電源ユニットや冷却技術(水冷・液冷システム)を採用し、熱効率を最大限に向上。
  • 富岳で実績のある「液浸冷却」をさらに進化させ、安定稼働と環境負荷軽減を両立させることが期待されています。 この点は「環境負荷を最小限にした持続可能な計算資源」として、国際的にも高く評価されるでしょう。

ソフトウェア戦略 ― AIとシミュレーションの融合

ハードウェアに加えて、FugakuNEXTはソフトウェア面でも先進的です。

  • Mixed-precision演算:AI分野で活用されるFP16/FP8演算をHPCに取り込み、効率的な計算を可能にします。
  • Physics-informed neural networks(PINN):物理法則をAIに組み込むことで、従来の数値シミュレーションを補完し、より少ないデータで高精度な予測を実現。
  • AI for Science:AIが仮説生成や実験設計を支援し、シミュレーションでその妥当性を検証するという新しい科学研究モデルを推進。

これらにより、従来は膨大な計算資源を必要とした研究課題に対しても、より短時間かつ低コストで成果を出せる可能性があります。

研究支援基盤 ― virtual Fugaku と Benchpark

FugakuNEXTでは、研究者が本稼働を待たずに開発を始められるよう、「virtual Fugaku」 と呼ばれるクラウド上の模擬環境が提供されます。これにより、2030年の稼働開始時点から多数のアプリケーションが最適化済みとなることを狙っています。

さらに、米国エネルギー省と連携して開発された Benchpark という自動ベンチマーキング環境が導入され、ソフトウェアの性能測定・最適化・CI/CDが継続的に実施されます。これはスーパーコンピュータ分野では革新的な取り組みであり、従来の「一度作って終わり」ではなく、持続的な性能改善の仕組み を確立する点で大きな意義を持ちます。

まとめ

FugakuNEXTの技術的特徴は、単なる「ハードウェアの進化」ではなく、計算機科学とAI、そして持続可能性を統合する総合的な設計にあります。

MONAKA-XとNVIDIA GPUの協調、消費電力40MWの制約、virtual Fugakuの提供など、いずれも「未来の研究・産業の在り方」を見据えた選択であり、この点こそが国際的な注目を集める理由だといえるでしょう。

同世代のスーパーコンピュータとFugakuNEXT

以下は、2030年ごろの稼働を目指す日本のFugakuNEXTプロジェクトと、ヨーロッパ、イギリスなど他国・地域で進行中のスーパーコンピューティングへの取り組みを比較したまとめです。

国/地域プロジェクト名(計画)稼働時期性能/規模主な特徴備考
日本FugakuNEXT(Zettaスケール)約2030年600 exaFLOPS(FP8 sparse)AI‑HPC統合、消費電力40MW以内、MONAKA‑X+NVIDIA GPU、ソフトウェア基盤充実 世界初のZettaスケールを目指す国家プロジェクト
欧州(ドイツ)Jupiter2025年6月 稼働済み約0.79 exaFLOPS(793 petaFLOPS)NVIDIA GH200スーパーチップ多数搭載、モジュラー構成、暖水冷却、省エネ最優秀 現時点で欧州最速、エネルギー効率重視のAI/HPC共用機
欧州(フィンランド)LUMI2022年~稼働中約0.38 exaFLOPS(379 petaFLOPS 実測)AMD系GPU+EPYC、再生可能エネルギー100%、廃熱利用の環境配慮設計 持続可能性を重視した超大規模インフラの先駆け
欧州(イタリア)Leonardo2022年~稼働中約0.25 exaFLOPSNVIDIA Ampere GPU多数、異なるモジュール構成(Booster/CPU/Front-end)、大容量ストレージ 複数モジュールによる柔軟運用とAI/HPC併用設計
イギリス(事業中)Edinburgh Supercomputer(復活計画)/AIRR ネットワーク2025年以降に整備中Exascaleクラス(10^18 FLOPS)予定国家規模で計算資源20倍へ拡張、Isambard-AIなど既設施設含む UKのAI国家戦略の中核、再評価・支援の動きが継続中

注目点

  • FugakuNEXT(日本)は、他国のスーパーコンピュータを上回る 600 exaFLOPS級の性能を目指す最先端プロジェクトで、Zetta‑スケール(1,000 exaFLOPS)の世界初実現に挑戦しています  。
  • ドイツの「Jupiter」はすでに稼働中で 約0.79 exaFLOPS。AIとHPCを両立しつつ、エネルギー効率と環境設計に非常に優れている点が特徴です  。
  • フィンランドの「LUMI」約0.38 exaFLOPSの運用実績をもち、再生エネルギーと廃熱利用など環境配慮設計で注目されています  。
  • イタリアの「Leonardo」約0.25 exaFLOPS。多モジュール構成により、大規模AIとHPCの両用途に柔軟に対応できる構造を採用しています  。
  • イギリスは国策として 計算資源20倍への拡大を掲げ、Isambard‑AIなどを含むスーパーコンピュータ群とのネットワーク構築(AIRR)を含めた強化策を展開中です  。

FugakuNEXTの国際的意義

  1. 性能の圧倒的優位性  FugakuNEXTは600 exaFLOPSを目指し、「Zetta-スケール」に挑む点で、現在稼働中の最先端機をはるかに上回る性能規模です。
  2. 戦略的・統合的設計  AIとHPCを統合するハイブリッドプラットフォーム、さらに省電力や環境配慮に対しても後発設計で対処されている点で、JupiterやLUMIと比肩しつつも独自性があります。
  3. 国際的競争・協調との両立へ  2025年までには欧州における複数のエクサ級スーパーコンピュータが稼働し始め、日本は2030年の本稼働を目指すことで、世界の演算力競争の最前線で存在感を示す構図になります。

今後の展望

FugakuNEXTの稼働は2030年ごろを予定しており、それまでの数年間は開発、検証、そしてソフトウェアエコシステムの整備が段階的に進められます。その歩みの中で注目すべきは、単なるハードウェア開発にとどまらず、日本の科学技術や産業界全体に及ぶ広範な波及効果です。

1. ソフトウェアエコシステムの成熟

スーパーコンピュータは「完成した瞬間がスタートライン」と言われます。

FugakuNEXTも例外ではなく、膨大な計算能力をいかに研究者や企業が使いこなせるかが鍵となります。

  • virtual Fugaku の提供により、研究者は実機稼働前からアプリケーション開発を進められる。
  • Benchpark による継続的な最適化サイクルで、常に最新の性能を引き出せる環境を整備。 これらは「2030年にいきなりフル稼働できる」体制を築くための重要な取り組みとなります。

2. 国際的な競争と協調

FugakuNEXTが稼働する頃には、米国、中国、欧州でも複数の Exascale級スーパーコンピュータ が稼働している見込みです。特に米国の「FRONTIER」やドイツの「Jupiter」、中国が独自開発を進める次世代システムは強力なライバルとなります。

しかし同時に、国際的な協力関係も不可欠です。理研と米国エネルギー省の共同研究に象徴されるように、グローバル規模でのソフトウェア標準化や共同ベンチマーク開発が進めば、各国の計算資源が相互補完的に活用される未来もあり得ます。

3. 技術的課題とリスク

600 exaFLOPSという目標を実現するには、いくつかの技術的ハードルがあります。

  • 電力制約:40MWという制限内で性能を引き出す冷却技術・電源設計が最大の課題。
  • アプリケーション最適化:AIとHPCを統合する新しいプログラミングモデルの普及が不可欠。
  • 部品調達・サプライチェーンリスク:先端半導体やGPUの供給を安定確保できるかどうか。 これらの課題は、FugakuNEXTだけでなく世界中の次世代スーパーコンピュータ開発に共通するものでもあります。

4. 社会・産業への応用可能性

FugakuNEXTは研究用途にとどまらず、社会や産業のさまざまな分野に直接的なインパクトを与えると考えられます。

  • 防災・減災:地震・津波・台風といった災害の予測精度を飛躍的に向上。
  • 気候変動対策:温室効果ガスの影響シミュレーションや新エネルギー開発に活用。
  • 医療・創薬:新薬候補物質のスクリーニングをAIとHPCの融合で効率化。
  • 産業応用:自動車・半導体・素材産業における設計最適化やAI活用に直結。 これらは単に「計算速度が速い」という話ではなく、日本全体のイノベーション基盤を支える役割を果たすでしょう。

5. 日本の戦略的ポジション

FugakuNEXTが計画通り稼働すれば、日本は再びスーパーコンピューティング分野における リーダーシップ を取り戻すことになります。とりわけ「Zettaスケール」の象徴性は、科学技術政策だけでなく外交・経済戦略の観点からも極めて重要です。AI研究のインフラ競争が国家間で激化する中、FugakuNEXTは「日本が国際舞台で存在感を示す切り札」となる可能性があります。

まとめ:未来に向けた挑戦

FugakuNEXTは、2030年の完成を目指す長期プロジェクトですが、その過程は日本にとって大きな技術的・社会的実験でもあります。電力効率と性能の両立、AIとHPCの融合、国際協調と競争のバランス、社会応用の拡大――これらはすべて未来の科学技術のあり方を先取りする挑戦です。

今後数年間の開発と国際的な議論の進展が、FugakuNEXTの成否を決める鍵となるでしょう。

おわりに

FugakuNEXTは、単なる「スーパーコンピュータの後継機」ではありません。それは日本が掲げる 未来社会の基盤構築プロジェクト であり、科学技術力、産業競争力、さらには国際的な存在感を示す象徴的な取り組みです。

まず技術的な側面では、600 exaFLOPS級の演算性能MONAKA-X CPUとNVIDIA GPUのハイブリッド設計、そして 消費電力40MW以内という大胆な制約のもとに設計される点が特徴的です。これは「性能追求」と「環境配慮」という相反する要素を両立させようとする試みであり、持続可能なスーパーコンピューティングの未来像を提示しています。

次に研究手法の観点からは、AIとHPCを融合した「AI for Science」 の推進が挙げられます。従来のシミュレーション中心の科学研究から一歩進み、AIが仮説を生成し、シミュレーションがその妥当性を検証するという新しいアプローチが主流になっていく可能性があります。このシナジーは、医療や創薬、気候変動シミュレーション、災害予測といった社会的に極めて重要な分野に革新をもたらすでしょう。

さらに国際的な文脈においては、FugakuNEXTは単なる国内プロジェクトにとどまらず、米国や欧州、中国といった主要国が進める次世代スーパーコンピュータとの 競争と協調の象徴 でもあります。グローバル規模での研究ネットワークに接続されることで、日本は「科学の島国」ではなく「世界的な計算資源のハブ」としての役割を担うことになるでしょう。

社会的な意義も大きいと言えます。スーパーコンピュータは一般市民に直接見える存在ではありませんが、その成果は日常生活に広く浸透します。天気予報の精度向上、新薬の迅速な開発、安全なインフラ設計、新素材や省エネ技術の誕生――こうしたものはすべてスーパーコンピュータの計算資源によって裏打ちされています。FugakuNEXTの成果は、日本国内のみならず、世界中の人々の生活を支える基盤となるでしょう。

最終的に、FugakuNEXTは「計算速度の競争」に勝つためのものではなく、人類全体が直面する課題に答えを導くための道具です。気候変動、パンデミック、食糧問題、エネルギー危機といったグローバルな課題に立ち向かう上で、これまでにない規模のシミュレーションとAIの力を融合できる基盤は欠かせません。

2030年に稼働するその日、FugakuNEXTは世界初のZettaスケールスーパーコンピュータとして科学技術史に刻まれるとともに、「日本が未来社会にどう向き合うか」を示す強いメッセージとなるはずです。

参考文献

モバイルバージョンを終了