日本が次世代「Zettaスケール」スーパーコンピュータ構築へ──FugakuNEXTプロジェクトの全貌

2025年8月、日本は再び世界のテクノロジー界に衝撃を与える発表を行いました。理化学研究所(RIKEN)、富士通、そして米国のNVIDIAという三者の強力な連携によって、現行スーパーコンピュータ「富岳」の後継となる 次世代スーパーコンピュータ「FugakuNEXT(富岳NEXT)」 の開発が正式に始動したのです。

スーパーコンピュータは、単なる計算機の進化ではなく、国家の科学技術力や産業競争力を象徴する存在です。気候変動の解析や新薬の開発、地震や津波といった自然災害のシミュレーション、さらにはAI研究や材料科学まで、幅広い分野に応用され、その成果は社会全体の安全性や経済成長に直結します。こうした背景から、世界各国は「次世代の計算資源」をめぐって熾烈な競争を繰り広げており、日本が打ち出したFugakuNEXTは、その中でも極めて野心的な計画といえるでしょう。

今回のプロジェクトが注目される理由は、単に処理能力の拡大だけではありません。世界初の「Zettaスケール(10²¹ FLOPS)」に到達することを目標とし、AIと従来型HPCを有機的に融合する「ハイブリッド型アーキテクチャ」を採用する点にあります。これは、従来のスーパーコンピュータが持つ「シミュレーションの強み」と、AIが持つ「データからパターンを学習する力」を統合し、まったく新しい研究アプローチを可能にする挑戦でもあります。

さらに、日本は富岳の運用で得た経験を活かし、性能と同時にエネルギー効率の改善にも重点を置いています。600 exaFLOPSという途方もない計算能力を追求しながらも、消費電力を現行の40メガワット水準に抑える設計は、持続可能な計算基盤のあり方を示す挑戦であり、環境問題に敏感な国際社会からも注目を集めています。

つまり、FugakuNEXTは単なる「富岳の後継機」ではなく、日本が世界に向けて示す「未来の科学・産業の基盤像」そのものなのです。本記事では、このFugakuNEXTプロジェクトの概要、技術的特徴、国際的な意義、そして同世代に登場する海外のスーパーコンピュータとの比較を通じて、その全貌を明らかにしていきます。

FugakuNEXTの概要

FugakuNEXTは、日本が国家戦略として推進する次世代スーパーコンピュータ開発計画です。現行の「富岳」が2020年に世界ランキングで1位を獲得し、日本の計算科学を象徴する存在となったのに続き、その後継として 「世界初のZettaスケールを目指す」 という野心的な目標を掲げています。

プロジェクトの中心となるのは、理化学研究所(RIKEN)計算科学研究センターであり、システム設計は引き続き富士通が担います。そして今回特筆すべきは、米国のNVIDIAが正式に参画する点です。CPUとGPUという異なる計算リソースを融合させることで、従来以上に「AIとHPC(High-Performance Computing)」を両立させる設計が採用されています。

基本情報

  • 稼働予定地:神戸・ポートアイランド(富岳と同じ拠点)
  • 稼働開始予定:2030年前後
  • 開発予算:約1,100億円(7.4億ドル規模)
  • 計算性能目標:600 exaFLOPS(FP8 sparse演算)、実効性能は富岳の100倍規模
  • 消費電力目標:40メガワット以内(現行富岳と同等水準)

特に注目されるのは、性能向上と消費電力抑制の両立です。富岳は約21.2MWの電力を消費して世界最高性能を実現しましたが、FugakuNEXTはそれを大きく超える計算能力を、同水準の電力枠内で達成する設計となっています。これは持続可能な計算資源の実現に向けた大きな挑戦であり、日本が国際的に評価を受ける重要な要素となるでしょう。

富岳からの進化

「富岳」が従来型シミュレーションを中心に性能を発揮したのに対し、FugakuNEXTはAI活用を前提としたアーキテクチャを採用しています。すなわち、AIによる仮説生成・コード自動化と、シミュレーションによる精緻な実証の融合を可能にするシステムです。この融合は「AI for Science」と呼ばれ、次世代の研究手法として世界的に注目を集めています。

また、研究者や産業界が早期にソフトウェアを適応させられるよう、「virtual Fugaku」 と呼ばれるクラウド上の模擬環境が提供される点も特徴です。これにより、本稼働前からアプリケーション開発や最適化が可能となり、2030年の立ち上げ時点で即戦力となるエコシステムが整うことが期待されています。

国家戦略としての位置づけ

FugakuNEXTは単なる研究用の計算資源ではなく、気候変動対策・防災・エネルギー政策・医療・材料科学・AI産業など、日本の社会課題や経済競争力に直結する幅広い分野での利用が想定されています。そのため、文部科学省をはじめとする政府機関の全面的な支援のもと、国を挙げて推進されるプロジェクトとして位置づけられています。

つまり、FugakuNEXTの概要を一言でまとめるなら、「日本が科学・産業・社会基盤の未来を切り開くために投じる最大規模の計算資源」 ということができます。

技術的特徴

FugakuNEXTが世界的に注目される理由は、その計算性能だけではありません。

AIとHPCを融合させるための 革新的なアーキテクチャ設計、持続可能性を意識した 電力効率と冷却技術、そして研究者がすぐに活用できる 包括的ソフトウェアエコシステム によって、従来のスーパーコンピュータの枠を超える挑戦となっています。

ハードウェア構成 ― MONAKA-X CPU と NVIDIA GPU の融合

従来の「富岳」がArmベースの富士通A64FX CPUのみで構成されていたのに対し、FugakuNEXTでは 富士通のMONAKA-X CPUNVIDIA製GPU を組み合わせたハイブリッド構成が採用されます。

  • MONAKA-X CPU:富士通が新たに開発する高性能CPUで、メモリ帯域・並列処理能力を大幅に強化。大規模シミュレーションに最適化されています。
  • NVIDIA GPU:AI計算に特化した演算ユニットを搭載し、FP8やmixed precision演算に強みを発揮。深層学習や生成AIのトレーニングを高速化します。
  • NVLink Fusion:CPUとGPU間を従来以上に高帯域で接続する技術。データ転送のボトルネックを解消し、異種アーキテクチャ間の協調動作を実現します。

この組み合わせにより、物理シミュレーションとAI推論・学習を同一基盤で効率的に動かすことが可能になります。

ネットワークとI/O設計

スーパーコンピュータの性能を支えるのは、単なる計算ノードの集合ではなく、それらをつなぐ 超高速ネットワーク です。FugakuNEXTでは、富岳で培った独自のTofuインターコネクト技術をさらに発展させ、超低レイテンシかつ高帯域の通信基盤を構築します。

また、大規模データを扱うためのI/O性能も強化され、AI学習に必要な膨大なデータを効率的に供給できるストレージアーキテクチャが採用される予定です。

電力効率と冷却技術

FugakuNEXTが目標とする「600 exaFLOPS」という規模は、従来なら数百メガワット規模の電力を必要とすると予想されます。しかし本プロジェクトでは、消費電力を40メガワット以内に抑えることが掲げられています。

  • 高効率電源ユニットや冷却技術(水冷・液冷システム)を採用し、熱効率を最大限に向上。
  • 富岳で実績のある「液浸冷却」をさらに進化させ、安定稼働と環境負荷軽減を両立させることが期待されています。 この点は「環境負荷を最小限にした持続可能な計算資源」として、国際的にも高く評価されるでしょう。

ソフトウェア戦略 ― AIとシミュレーションの融合

ハードウェアに加えて、FugakuNEXTはソフトウェア面でも先進的です。

  • Mixed-precision演算:AI分野で活用されるFP16/FP8演算をHPCに取り込み、効率的な計算を可能にします。
  • Physics-informed neural networks(PINN):物理法則をAIに組み込むことで、従来の数値シミュレーションを補完し、より少ないデータで高精度な予測を実現。
  • AI for Science:AIが仮説生成や実験設計を支援し、シミュレーションでその妥当性を検証するという新しい科学研究モデルを推進。

これらにより、従来は膨大な計算資源を必要とした研究課題に対しても、より短時間かつ低コストで成果を出せる可能性があります。

研究支援基盤 ― virtual Fugaku と Benchpark

FugakuNEXTでは、研究者が本稼働を待たずに開発を始められるよう、「virtual Fugaku」 と呼ばれるクラウド上の模擬環境が提供されます。これにより、2030年の稼働開始時点から多数のアプリケーションが最適化済みとなることを狙っています。

さらに、米国エネルギー省と連携して開発された Benchpark という自動ベンチマーキング環境が導入され、ソフトウェアの性能測定・最適化・CI/CDが継続的に実施されます。これはスーパーコンピュータ分野では革新的な取り組みであり、従来の「一度作って終わり」ではなく、持続的な性能改善の仕組み を確立する点で大きな意義を持ちます。

まとめ

FugakuNEXTの技術的特徴は、単なる「ハードウェアの進化」ではなく、計算機科学とAI、そして持続可能性を統合する総合的な設計にあります。

MONAKA-XとNVIDIA GPUの協調、消費電力40MWの制約、virtual Fugakuの提供など、いずれも「未来の研究・産業の在り方」を見据えた選択であり、この点こそが国際的な注目を集める理由だといえるでしょう。

同世代のスーパーコンピュータとFugakuNEXT

以下は、2030年ごろの稼働を目指す日本のFugakuNEXTプロジェクトと、ヨーロッパ、イギリスなど他国・地域で進行中のスーパーコンピューティングへの取り組みを比較したまとめです。

国/地域プロジェクト名(計画)稼働時期性能/規模主な特徴備考
日本FugakuNEXT(Zettaスケール)約2030年600 exaFLOPS(FP8 sparse)AI‑HPC統合、消費電力40MW以内、MONAKA‑X+NVIDIA GPU、ソフトウェア基盤充実 世界初のZettaスケールを目指す国家プロジェクト
欧州(ドイツ)Jupiter2025年6月 稼働済み約0.79 exaFLOPS(793 petaFLOPS)NVIDIA GH200スーパーチップ多数搭載、モジュラー構成、暖水冷却、省エネ最優秀 現時点で欧州最速、エネルギー効率重視のAI/HPC共用機
欧州(フィンランド)LUMI2022年~稼働中約0.38 exaFLOPS(379 petaFLOPS 実測)AMD系GPU+EPYC、再生可能エネルギー100%、廃熱利用の環境配慮設計 持続可能性を重視した超大規模インフラの先駆け
欧州(イタリア)Leonardo2022年~稼働中約0.25 exaFLOPSNVIDIA Ampere GPU多数、異なるモジュール構成(Booster/CPU/Front-end)、大容量ストレージ 複数モジュールによる柔軟運用とAI/HPC併用設計
イギリス(事業中)Edinburgh Supercomputer(復活計画)/AIRR ネットワーク2025年以降に整備中Exascaleクラス(10^18 FLOPS)予定国家規模で計算資源20倍へ拡張、Isambard-AIなど既設施設含む UKのAI国家戦略の中核、再評価・支援の動きが継続中

注目点

  • FugakuNEXT(日本)は、他国のスーパーコンピュータを上回る 600 exaFLOPS級の性能を目指す最先端プロジェクトで、Zetta‑スケール(1,000 exaFLOPS)の世界初実現に挑戦しています  。
  • ドイツの「Jupiter」はすでに稼働中で 約0.79 exaFLOPS。AIとHPCを両立しつつ、エネルギー効率と環境設計に非常に優れている点が特徴です  。
  • フィンランドの「LUMI」約0.38 exaFLOPSの運用実績をもち、再生エネルギーと廃熱利用など環境配慮設計で注目されています  。
  • イタリアの「Leonardo」約0.25 exaFLOPS。多モジュール構成により、大規模AIとHPCの両用途に柔軟に対応できる構造を採用しています  。
  • イギリスは国策として 計算資源20倍への拡大を掲げ、Isambard‑AIなどを含むスーパーコンピュータ群とのネットワーク構築(AIRR)を含めた強化策を展開中です  。

FugakuNEXTの国際的意義

  1. 性能の圧倒的優位性  FugakuNEXTは600 exaFLOPSを目指し、「Zetta-スケール」に挑む点で、現在稼働中の最先端機をはるかに上回る性能規模です。
  2. 戦略的・統合的設計  AIとHPCを統合するハイブリッドプラットフォーム、さらに省電力や環境配慮に対しても後発設計で対処されている点で、JupiterやLUMIと比肩しつつも独自性があります。
  3. 国際的競争・協調との両立へ  2025年までには欧州における複数のエクサ級スーパーコンピュータが稼働し始め、日本は2030年の本稼働を目指すことで、世界の演算力競争の最前線で存在感を示す構図になります。

今後の展望

FugakuNEXTの稼働は2030年ごろを予定しており、それまでの数年間は開発、検証、そしてソフトウェアエコシステムの整備が段階的に進められます。その歩みの中で注目すべきは、単なるハードウェア開発にとどまらず、日本の科学技術や産業界全体に及ぶ広範な波及効果です。

1. ソフトウェアエコシステムの成熟

スーパーコンピュータは「完成した瞬間がスタートライン」と言われます。

FugakuNEXTも例外ではなく、膨大な計算能力をいかに研究者や企業が使いこなせるかが鍵となります。

  • virtual Fugaku の提供により、研究者は実機稼働前からアプリケーション開発を進められる。
  • Benchpark による継続的な最適化サイクルで、常に最新の性能を引き出せる環境を整備。 これらは「2030年にいきなりフル稼働できる」体制を築くための重要な取り組みとなります。

2. 国際的な競争と協調

FugakuNEXTが稼働する頃には、米国、中国、欧州でも複数の Exascale級スーパーコンピュータ が稼働している見込みです。特に米国の「FRONTIER」やドイツの「Jupiter」、中国が独自開発を進める次世代システムは強力なライバルとなります。

しかし同時に、国際的な協力関係も不可欠です。理研と米国エネルギー省の共同研究に象徴されるように、グローバル規模でのソフトウェア標準化や共同ベンチマーク開発が進めば、各国の計算資源が相互補完的に活用される未来もあり得ます。

3. 技術的課題とリスク

600 exaFLOPSという目標を実現するには、いくつかの技術的ハードルがあります。

  • 電力制約:40MWという制限内で性能を引き出す冷却技術・電源設計が最大の課題。
  • アプリケーション最適化:AIとHPCを統合する新しいプログラミングモデルの普及が不可欠。
  • 部品調達・サプライチェーンリスク:先端半導体やGPUの供給を安定確保できるかどうか。 これらの課題は、FugakuNEXTだけでなく世界中の次世代スーパーコンピュータ開発に共通するものでもあります。

4. 社会・産業への応用可能性

FugakuNEXTは研究用途にとどまらず、社会や産業のさまざまな分野に直接的なインパクトを与えると考えられます。

  • 防災・減災:地震・津波・台風といった災害の予測精度を飛躍的に向上。
  • 気候変動対策:温室効果ガスの影響シミュレーションや新エネルギー開発に活用。
  • 医療・創薬:新薬候補物質のスクリーニングをAIとHPCの融合で効率化。
  • 産業応用:自動車・半導体・素材産業における設計最適化やAI活用に直結。 これらは単に「計算速度が速い」という話ではなく、日本全体のイノベーション基盤を支える役割を果たすでしょう。

5. 日本の戦略的ポジション

FugakuNEXTが計画通り稼働すれば、日本は再びスーパーコンピューティング分野における リーダーシップ を取り戻すことになります。とりわけ「Zettaスケール」の象徴性は、科学技術政策だけでなく外交・経済戦略の観点からも極めて重要です。AI研究のインフラ競争が国家間で激化する中、FugakuNEXTは「日本が国際舞台で存在感を示す切り札」となる可能性があります。

まとめ:未来に向けた挑戦

FugakuNEXTは、2030年の完成を目指す長期プロジェクトですが、その過程は日本にとって大きな技術的・社会的実験でもあります。電力効率と性能の両立、AIとHPCの融合、国際協調と競争のバランス、社会応用の拡大――これらはすべて未来の科学技術のあり方を先取りする挑戦です。

今後数年間の開発と国際的な議論の進展が、FugakuNEXTの成否を決める鍵となるでしょう。

おわりに

FugakuNEXTは、単なる「スーパーコンピュータの後継機」ではありません。それは日本が掲げる 未来社会の基盤構築プロジェクト であり、科学技術力、産業競争力、さらには国際的な存在感を示す象徴的な取り組みです。

まず技術的な側面では、600 exaFLOPS級の演算性能MONAKA-X CPUとNVIDIA GPUのハイブリッド設計、そして 消費電力40MW以内という大胆な制約のもとに設計される点が特徴的です。これは「性能追求」と「環境配慮」という相反する要素を両立させようとする試みであり、持続可能なスーパーコンピューティングの未来像を提示しています。

次に研究手法の観点からは、AIとHPCを融合した「AI for Science」 の推進が挙げられます。従来のシミュレーション中心の科学研究から一歩進み、AIが仮説を生成し、シミュレーションがその妥当性を検証するという新しいアプローチが主流になっていく可能性があります。このシナジーは、医療や創薬、気候変動シミュレーション、災害予測といった社会的に極めて重要な分野に革新をもたらすでしょう。

さらに国際的な文脈においては、FugakuNEXTは単なる国内プロジェクトにとどまらず、米国や欧州、中国といった主要国が進める次世代スーパーコンピュータとの 競争と協調の象徴 でもあります。グローバル規模での研究ネットワークに接続されることで、日本は「科学の島国」ではなく「世界的な計算資源のハブ」としての役割を担うことになるでしょう。

社会的な意義も大きいと言えます。スーパーコンピュータは一般市民に直接見える存在ではありませんが、その成果は日常生活に広く浸透します。天気予報の精度向上、新薬の迅速な開発、安全なインフラ設計、新素材や省エネ技術の誕生――こうしたものはすべてスーパーコンピュータの計算資源によって裏打ちされています。FugakuNEXTの成果は、日本国内のみならず、世界中の人々の生活を支える基盤となるでしょう。

最終的に、FugakuNEXTは「計算速度の競争」に勝つためのものではなく、人類全体が直面する課題に答えを導くための道具です。気候変動、パンデミック、食糧問題、エネルギー危機といったグローバルな課題に立ち向かう上で、これまでにない規模のシミュレーションとAIの力を融合できる基盤は欠かせません。

2030年に稼働するその日、FugakuNEXTは世界初のZettaスケールスーパーコンピュータとして科学技術史に刻まれるとともに、「日本が未来社会にどう向き合うか」を示す強いメッセージとなるはずです。

参考文献

スーパーコンピュータ「ABCI 3.0」正式稼働──日本のAI研究を支える次世代インフラ

2025年1月、国立研究開発法人 産業技術総合研究所(AIST)が運用するスーパーコンピュータ「ABCI 3.0」が正式に稼働を開始しました。

その圧倒的な計算性能と柔軟なクラウドアクセス性を備えたこの新しいAIインフラは、日本のAI開発と産業応用を支える基盤として、今後ますます注目を集めていくことになるでしょう。

AI特化型スーパーコンピュータの最新進化

ABCI 3.0は、AI開発に特化した次世代スーパーコンピュータとして、これまでのABCIシリーズを大幅に凌駕する性能を備えています。とくに深層学習や生成AI、大規模マルチモーダルAIの訓練と推論に最適化された設計が特徴です。

最大の強みは、NVIDIA最新GPU「H200 Tensor Core」を6,128基搭載している点です。これにより、FP16(半精度浮動小数点)では最大6.22エクサフロップス(EFLOPS)という世界最高クラスのAI計算性能を達成しています。

また、各計算ノードには高性能なCPUと大容量のメモリが搭載され、GPU間やノード間の通信もInfiniBand NDR 200Gbpsによって高速かつ低遅延で実現されています。ストレージには全フラッシュ型75PBが用意されており、大規模データセットをストレスなく扱うことが可能です。

こうした構成により、ABCI 3.0は単なる数値計算用スーパーコンピュータを超え、次世代AI研究と産業活用を同時に支える「AIインフラ」としての役割を担っています。

ABCI 2.0とのスペック比較

項目ABCI 2.0ABCI 3.0向上点
稼働開始2021年2025年
GPUNVIDIA A100(4,352基)NVIDIA H200(6,128基)約1.4倍+世代更新
GPUメモリ40GB(A100)141GB(H200)約3.5倍の容量
FP16性能約0.91 EFLOPS約6.22 EFLOPS約6.8倍
CPUIntel Xeon Gold 6248 ×2Xeon Platinum 8558 ×2世代更新・高密度化
ノード数約544台766台約1.4倍
メモリ容量384GB/ノード2TB/ノード約5.2倍
GPU間通信NVLink 3.0NVLink 4+NDR InfiniBand高速化+低遅延化
ストレージ32PB HDD+一部SSD75PB オールフラッシュ高速化・容量拡張
ネットワークInfiniBand HDRInfiniBand NDR 200Gbps世代更新+帯域UP

ABCI 3.0の性能向上は、単なる数値的なスペックアップにとどまらず、生成AIや大規模LLMの研究を日本国内で自律的に進められるレベルへと引き上げた点にこそ意味があります。

これにより、国内の研究者や企業が、海外クラウドに依存せずに先端AIを育てる環境が整いつつあります。これは、今後の日本の技術主権(AIソブリンティ)を考えるうえでも非常に大きな一歩です。

何のために作られたのか?──ABCI 3.0の使命

ABCI 3.0は、単なる計算機の置き換えや性能向上を目的としたプロジェクトではありません。その本質は、日本におけるAI研究・開発の「基盤自立性」と「国家的競争力の強化」を支える次世代インフラを構築することにあります。

とくにここ数年で、生成AIの急速な進化とそれを牽引する海外プラットフォーマー(OpenAI、Google、Metaなど)の存在感が高まったことで、AI研究環境の国内整備とアクセス可能性が強く求められるようになってきました。ABCI 3.0は、こうした背景を受けて、日本のAI研究者・技術者・起業家が国産の計算資源で自由に開発を行える環境を提供するために構築されました。

政策的背景と位置づけ

ABCI 3.0は、経済産業省の「生成AI基盤整備事業」に基づいて推進された国家プロジェクトの一環であり、AI技術の社会実装・商用利用に直結する研究開発を支える「オープンで中立的な計算インフラ」として設計されています。

民間クラウドは性能・スケーラビリティに優れる一方で、利用コストやデータの主権、技術的制約(例:独自チップの使用制限、API封鎖)などの課題があります。ABCI 3.0は、こうした制約から解放された「自由に使える公的GPUスーパーコンピュータ」という点で、非常にユニークな存在です。

研究・産業界のニーズに応える汎用性

ABCI 3.0は、次のような広範なニーズに対応しています:

  • 生成AI・大規模言語モデル(LLM)の訓練・チューニング → 日本語コーパスを活用したローカルLLMの開発や、企業内モデルの学習に活用可能
  • マルチモーダルAIの研究 → 画像・音声・テキスト・3Dデータなど、複数のデータ形式を統合したAI処理(例:ビデオ理解、ヒューマンロボットインタラクション)
  • AI×ロボティクスの連携 → ロボットの動作学習や環境シミュレーション、デジタルツイン構築に活用される大規模並列処理
  • 製造業・素材産業でのAI応用 → 材料探索、工程最適化、異常検知など、従来型のCAEやシミュレーションとの融合によるAI駆動設計支援
  • 公共分野への応用 → 災害予測、都市計画、社会インフラの保守計画など、社会課題解決に向けた大規模データ処理

こうした幅広い応用可能性は、ABCI 3.0が単なる「計算機」ではなく、AIの社会実装のための共有プラットフォームとして設計されていることを物語っています。

教育・スタートアップ支援の側面

ABCI 3.0の利用対象は、国立大学・研究所だけに限定されていません。中小企業、スタートアップ、さらには高専や学部生レベルの研究者まで、広く門戸が開かれており、利用申請に通ればGPUリソースを安価に利用可能です。

これは、AI開発の「民主化」を進めるための重要な試みであり、新しい人材・アイデアの創出を支える基盤にもなっています。

国家の“AI主権”を支える存在

ABCI 3.0は、日本がAI技術を持続的に発展させ、他国依存から脱却するための“戦略的装置”でもあります。

たとえば、商用クラウドが規制や契約変更で利用できなくなると、開発そのものが停止する恐れがあります。そうした「計算資源の地政学リスク」に備え、国内で運用され、安定供給されるABCI 3.0の存在は極めて重要です。

ABCI 3.0は、スペックだけでなく、「誰のための計算機か?」「何を可能にするか?」という視点で見たときに、その意義がより明確になります。

日本の技術者・研究者が、自由に、かつ安心してAIと向き合える土壌を提供する──それがABCI 3.0の真の使命です。

ABCI 3.0の活用事例

ABCI 3.0は単なる“性能重視のスパコン”ではありません。現在も稼働中で、さまざまな分野の先駆的なプロジェクトが実際に成果を挙げています。ここでは、既に実用化されている活用事例を中心に紹介します。

◆ 1. 大規模言語モデル(LLM)構築支援

  • 株式会社Preferred Networks(PFN)は、ABCI 3.0を活用して日本語特化型LLMの開発を推進しています。第1回の「大規模言語モデル構築支援プログラム」で採択され、PLaMo・ELYZAといった日本語LLMを構築中です  。
  • 多様なスタートアップや大学によるLLM研究も支援されており、ABCI 3.0はまさに「LLMの実験室」として機能しています。

◆ 2. 自動運転・物流AI

  • 株式会社T2は、物流向け自動運転技術の開発にABCI 3.0を活用。大量の走行データ処理と強化学習により、新たな物流インフラ構築を目指しています  。

◆ 3. 音声認識AI/コミュニケーションAI

  • RevCommは、音声認識AIシステムをABCI上で開発し、営業通話の分析やリアルタイムアシスタント機能を実現しています  。

◆ 4. 社会インフラ/災害予測

  • 三菱重工業は、倉庫内のフォークリフトなど産業車両の安全運転支援AIを開発。カメラ映像のリアルタイム処理にABCIを使用しています  。
  • JAEA(日本原子力研究開発機構)は放射性物質拡散予測シミュレーションをリアルタイムで実行中。以前は数百GPU必要だった処理が、ABCI 3.0では60 GPU単位で高速実行できるようになりました  。

◆ 5. 材料開発・地震工学・流体シミュレーション

  • 前川製作所は、食肉加工機械の画像認識AIを構築し、骨検出の自動化を推進  。
  • 地震工学研究では、前身の「京」と比較して10倍に及ぶ高速CPU処理を実現し、数億メッシュの解析を可能にしています  。
  • AnyTech社は、流体挙動を動画解析AI「DeepLiquid」でモデリング。流体の可視化・最適化にABCIを活用  。

◆ 6. 産業界全般での導入

  • Panasonicは材料開発・自動運転用画像認識など多岐にわたる研究にABCIを活用。また独自セキュリティ基盤の構築にも言及し、高い評価を得ています  。
  • 富士通研究所はResNet-50による画像認識タスクで世界最速学習を達成。ABCIでは、最大24時間にわたって全ノードを占有するチャレンジプログラムも提供されています  。

スーパーコンピューティング環境

近年、生成AIや深層学習の需要増加にともない、GPUクラウドの利用が急速に普及しています。しかし、商用クラウドは万能ではなく、研究開発においては「コスト」「自由度」「一貫性」など多くの課題が存在します。

ABCI 3.0は、こうしたクラウドの制約を乗り越えるために設計された、“本物のスーパーコンピューティング環境”です。

◆ 高性能かつ一貫した計算環境

商用クラウドでは、同一インスタンスであっても物理ノードやリージョンによって性能に差が出ることがあります。一方でABCI 3.0は、統一されたハードウェア構成(全ノード:H200 ×8、DDR5 2TB、InfiniBand NDR)を持ち、ノード間の性能差が事実上ゼロという特性があります。

  • 高精度なベンチマーク比較が可能
  • ノード数を増やしても再現性が高い
  • ハードウェアの世代が完全に統一されているため、アルゴリズム検証や精密なスケーリング実験に最適

◆ 超低レイテンシ&高帯域なネットワーク構成

一般的なクラウドはEthernetベースの通信であり、ノード間のレイテンシや帯域は用途によって大きく変動します。

ABCI 3.0では、InfiniBand NDR(200Gbps ×8ポート/ノード)により、GPU同士、ノード同士の通信が極めて高速・安定しています。

この点が特に重要になるのは以下のような用途です:

  • 分散学習(Data Parallel/Model Parallel)
  • 3Dシミュレーションや流体解析のようなノード連携が重視される処理
  • グラフニューラルネットワーク(GNN)など通信集約型AIタスク

◆ ロックインなしのフルコントロール環境

クラウドでは提供事業者の仕様やAPIに依存した設計を強いられがちですが、ABCI 3.0はLinuxベースの完全なオープン環境であり、以下のような自由度が確保されています:

  • Singularity/Podmanによる自前コンテナの持ち込み可能
  • MPI/Horovod/DeepSpeedなどの独自ライブラリ構成が可能
  • ソフトウェア環境の切り替え・ビルド・環境構築が自由自在
  • 商用ライセンスの不要なOSSベースのスタックに特化(PyTorch, JAX, HuggingFace等)

◆ コスト構造の透明性と安定性

パブリッククラウドでは、GPUインスタンスが高騰しがちで、価格も時間単位で変動します。

ABCI 3.0では、利用料金が定額かつ極めて安価で、研究開発予算の予測が立てやすく、長期的な利用にも向いています。

  • GPU 8基ノードを使っても1時間数百円~1000円程度
  • 年度ごとの予算申請・利用時間枠の確保も可能(大学・研究機関向け)
  • 審査制である代わりに、営利利用よりも基礎研究向けに優遇された制度になっている

◆ セキュリティとガバナンスの安心感

ABCI 3.0は、政府機関の研究インフラとして設計されており、セキュリティ面も高水準です。

  • SINET6を通じた学術ネットワーク経由での閉域接続
  • 研究用途の明確な審査フローとログ管理
  • 商用クラウドと異なり、データの国外移転リスクやプロバイダ依存がない

研究・教育・公共データなど、扱う情報に高い安全性が求められるプロジェクトにおいても安心して利用できます。

◆ クラウド的な使いやすさも両立

ABCI 3.0は、伝統的なスパコンにありがちな「難解なCLI操作」だけでなく、WebベースのGUI(Open OnDemand)によるアクセスも可能です。

  • ブラウザからジョブ投入/モニタリング
  • ファイル操作やコード編集もGUIで可能
  • GUIからJupyterLabを立ち上げてPython環境にアクセスすることもできる

これにより、スパコンを使い慣れていない学生・エンジニアでも比較的スムーズに高性能な環境にアクセス可能です。

研究と産業の“橋渡し”を担う環境

ABCI 3.0は、パブリッククラウドのスケーラビリティと、スパコンならではの「統一性能・高速通信・自由度・安心感」を両立する、まさに“スーパーな研究開発環境”です。

  • 自前でGPUインフラを持てない研究者・中小企業にとっては「開発の起点」
  • クラウドの仕様に縛られない自由な実験環境として「検証の場」
  • 官学民の連携を促進する「AI開発の公共インフラ」

日本のAI技術が「海外依存」から一歩抜け出すための自立した基盤として、ABCI 3.0は今後さらに活用が進むことが期待されています。

日本のAI研究を“自立”させる鍵に

近年、生成AIや大規模言語モデル(LLM)の急速な発展により、AIの主戦場は米国を中心とする巨大テック企業のクラウドインフラ上へと移行しました。OpenAI、Google、Meta、Anthropic、xAIなどが次々と数千億円単位のGPUインフラを敷設し、それらを活用して世界規模のLLMやマルチモーダルモデルを次々と開発しています。

一方で、日本のAI研究者や企業にとって最大の課題は、それに対抗し得る計算資源を国内で持てていないことでした。

ハードウェアがなければ、モデルは育てられず、データがあっても訓練できない。優れた人材やアイデアがあっても、それを試す場がない──この「計算資源の格差」こそが、日本のAI研究の足かせとなっていたのです。

◆ 技術主権を支える「国産GPUインフラ」

ABCI 3.0は、こうした状況を打破するために構築された日本初の本格的な公的GPUスーパーコンピュータ基盤です。

6,000基を超えるNVIDIA H200 GPUを有し、FP16で6エクサフロップスを超える性能は、世界の研究機関においてもトップレベル。これは、もはや“スパコン”という枠を超え、AIソブリンインフラ(主権的インフラ)とも呼べる存在です。

  • 日本語特化型LLMの開発(例:ELYZA, PLaMo)
  • 商用クラウドを使えない安全保障・エネルギー・医療研究の推進
  • 海外規制や契約変更による「クラウドリスク」からの脱却

このようにABCI 3.0は、日本がAI開発を他国の都合に左右されず、持続的に推進していくための基盤として機能しています。

◆ “借りる”から“作る”へ──AIの自給自足体制を支援

現在、日本国内で使われているAIモデルの多くは、海外で訓練されたものです。LLMでいえばGPT-4やClaude、Geminiなどが中心であり、日本語特化型モデルの多くも、ファインチューニングにとどまっています。

この状況から脱するには、ゼロから日本語データでAIモデルを訓練する力=計算資源の独立性が不可欠です。

ABCI 3.0はこの点で大きな貢献を果たしており、すでに国内の複数の大学・企業が数百GPU単位での学習に成功しています。

  • 公的研究機関では日本語LLMをゼロから学習(例:Tohoku LLM)
  • スタートアップがGPT-3.5クラスのモデルを国内で育成
  • 医療・法務・金融などドメイン特化型モデルの国産化も進行中

これらは「国産AIモデルの種」を自国でまくための第一歩であり、AIの自立=自国で学び、作り、守る体制の確立に向けた重要な土台となっています。

◆ 単なる「スパコン」ではなく「戦略資産」へ

ABCI 3.0の真価は、その性能だけにとどまりません。

それは、日本がAI領域において独立した意思決定を持つための国家戦略装置であり、研究・教育・産業を横断する「AI主権」の要といえる存在です。

  • 政策的にも支援されており、経済産業省の生成AI戦略の中核に位置付け
  • 内閣府、文部科学省などとの連携による「AI人材育成」「スタートアップ支援」にも波及
  • 自衛隊や官公庁による安全保障・災害対応シミュレーション等への応用も視野

つまり、ABCI 3.0は、日本のAI研究を“研究者の自由”にゆだねつつ、その研究が国益としてつながる回路を構築しているのです。

ABCIは「未来を試せる場所」

「誰かが作ったAIを使う」のではなく、「自分たちでAIを作り出す」。

その挑戦を支える自由で高性能な環境こそが、ABCI 3.0です。

日本のAI研究がこの先、単なる技術追従から脱し、独自の思想・倫理・目的を持ったAI開発へと踏み出すためには、こうした自立したインフラが不可欠です。

ABCI 3.0は、そうした“未来を試す場所”として、すでに動き出しています。

おわりに

ABCI 3.0は、単なる高性能なスーパーコンピュータではありません。それは、日本のAI研究と産業界がこれからの未来に向けて自立した技術基盤を築くための“共有財”です。国内の研究者・技術者・起業家たちが、自らのアイデアや知見を最大限に試せる環境。そこには、これまで「計算資源が足りない」「クラウドコストが高すぎる」といった制約を超えて、自由に創造できる可能性が広がっています。

私たちが目の当たりにしている生成AIやマルチモーダルAIの進化は、もはや一部の巨大テック企業だけのものではありません。ABCI 3.0のような公共性と性能を兼ね備えたインフラが存在することで、日本からも世界レベルの革新が生まれる土壌が整いつつあるのです。

また、このような環境は単なる“研究のための場”にとどまりません。材料開発や自動運転、災害対策、医療・介護、ロボティクスなど、私たちの暮らしに直結する領域にも大きな変革をもたらします。ABCI 3.0は、そうした社会課題解決型AIの開発現場としても極めて重要な役割を担っています。

そしてなにより注目すべきは、これが一部の限られた人だけでなく、広く社会に開かれているということです。大学や研究所だけでなく、スタートアップ、中小企業、そしてこれからAIに挑戦しようとする学生たちにも、その扉は開かれています。

AIの未来を自分たちの手で切り拓く。

ABCI 3.0は、その第一歩を踏み出すための力強い味方です。

日本のAIは、いま“依存”から“自立”へ。

そして、そこから“創造”へと歩みを進めようとしています。

参考文献

モバイルバージョンを終了