2025年1月、国立研究開発法人 産業技術総合研究所(AIST)が運用するスーパーコンピュータ「ABCI 3.0」が正式に稼働を開始しました。
その圧倒的な計算性能と柔軟なクラウドアクセス性を備えたこの新しいAIインフラは、日本のAI開発と産業応用を支える基盤として、今後ますます注目を集めていくことになるでしょう。
AI特化型スーパーコンピュータの最新進化
ABCI 3.0は、AI開発に特化した次世代スーパーコンピュータとして、これまでのABCIシリーズを大幅に凌駕する性能を備えています。とくに深層学習や生成AI、大規模マルチモーダルAIの訓練と推論に最適化された設計が特徴です。
最大の強みは、NVIDIA最新GPU「H200 Tensor Core」を6,128基搭載している点です。これにより、FP16(半精度浮動小数点)では最大6.22エクサフロップス(EFLOPS)という世界最高クラスのAI計算性能を達成しています。
また、各計算ノードには高性能なCPUと大容量のメモリが搭載され、GPU間やノード間の通信もInfiniBand NDR 200Gbpsによって高速かつ低遅延で実現されています。ストレージには全フラッシュ型75PBが用意されており、大規模データセットをストレスなく扱うことが可能です。
こうした構成により、ABCI 3.0は単なる数値計算用スーパーコンピュータを超え、次世代AI研究と産業活用を同時に支える「AIインフラ」としての役割を担っています。
ABCI 2.0とのスペック比較
項目 | ABCI 2.0 | ABCI 3.0 | 向上点 |
---|---|---|---|
稼働開始 | 2021年 | 2025年 | ― |
GPU | NVIDIA A100(4,352基) | NVIDIA H200(6,128基) | 約1.4倍+世代更新 |
GPUメモリ | 40GB(A100) | 141GB(H200) | 約3.5倍の容量 |
FP16性能 | 約0.91 EFLOPS | 約6.22 EFLOPS | 約6.8倍 |
CPU | Intel Xeon Gold 6248 ×2 | Xeon Platinum 8558 ×2 | 世代更新・高密度化 |
ノード数 | 約544台 | 766台 | 約1.4倍 |
メモリ容量 | 384GB/ノード | 2TB/ノード | 約5.2倍 |
GPU間通信 | NVLink 3.0 | NVLink 4+NDR InfiniBand | 高速化+低遅延化 |
ストレージ | 32PB HDD+一部SSD | 75PB オールフラッシュ | 高速化・容量拡張 |
ネットワーク | InfiniBand HDR | InfiniBand NDR 200Gbps | 世代更新+帯域UP |
ABCI 3.0の性能向上は、単なる数値的なスペックアップにとどまらず、生成AIや大規模LLMの研究を日本国内で自律的に進められるレベルへと引き上げた点にこそ意味があります。
これにより、国内の研究者や企業が、海外クラウドに依存せずに先端AIを育てる環境が整いつつあります。これは、今後の日本の技術主権(AIソブリンティ)を考えるうえでも非常に大きな一歩です。
何のために作られたのか?──ABCI 3.0の使命
ABCI 3.0は、単なる計算機の置き換えや性能向上を目的としたプロジェクトではありません。その本質は、日本におけるAI研究・開発の「基盤自立性」と「国家的競争力の強化」を支える次世代インフラを構築することにあります。
とくにここ数年で、生成AIの急速な進化とそれを牽引する海外プラットフォーマー(OpenAI、Google、Metaなど)の存在感が高まったことで、AI研究環境の国内整備とアクセス可能性が強く求められるようになってきました。ABCI 3.0は、こうした背景を受けて、日本のAI研究者・技術者・起業家が国産の計算資源で自由に開発を行える環境を提供するために構築されました。
政策的背景と位置づけ
ABCI 3.0は、経済産業省の「生成AI基盤整備事業」に基づいて推進された国家プロジェクトの一環であり、AI技術の社会実装・商用利用に直結する研究開発を支える「オープンで中立的な計算インフラ」として設計されています。
民間クラウドは性能・スケーラビリティに優れる一方で、利用コストやデータの主権、技術的制約(例:独自チップの使用制限、API封鎖)などの課題があります。ABCI 3.0は、こうした制約から解放された「自由に使える公的GPUスーパーコンピュータ」という点で、非常にユニークな存在です。
研究・産業界のニーズに応える汎用性
ABCI 3.0は、次のような広範なニーズに対応しています:
- 生成AI・大規模言語モデル(LLM)の訓練・チューニング → 日本語コーパスを活用したローカルLLMの開発や、企業内モデルの学習に活用可能
- マルチモーダルAIの研究 → 画像・音声・テキスト・3Dデータなど、複数のデータ形式を統合したAI処理(例:ビデオ理解、ヒューマンロボットインタラクション)
- AI×ロボティクスの連携 → ロボットの動作学習や環境シミュレーション、デジタルツイン構築に活用される大規模並列処理
- 製造業・素材産業でのAI応用 → 材料探索、工程最適化、異常検知など、従来型のCAEやシミュレーションとの融合によるAI駆動設計支援
- 公共分野への応用 → 災害予測、都市計画、社会インフラの保守計画など、社会課題解決に向けた大規模データ処理
こうした幅広い応用可能性は、ABCI 3.0が単なる「計算機」ではなく、AIの社会実装のための共有プラットフォームとして設計されていることを物語っています。
教育・スタートアップ支援の側面
ABCI 3.0の利用対象は、国立大学・研究所だけに限定されていません。中小企業、スタートアップ、さらには高専や学部生レベルの研究者まで、広く門戸が開かれており、利用申請に通ればGPUリソースを安価に利用可能です。
これは、AI開発の「民主化」を進めるための重要な試みであり、新しい人材・アイデアの創出を支える基盤にもなっています。
国家の“AI主権”を支える存在
ABCI 3.0は、日本がAI技術を持続的に発展させ、他国依存から脱却するための“戦略的装置”でもあります。
たとえば、商用クラウドが規制や契約変更で利用できなくなると、開発そのものが停止する恐れがあります。そうした「計算資源の地政学リスク」に備え、国内で運用され、安定供給されるABCI 3.0の存在は極めて重要です。
ABCI 3.0は、スペックだけでなく、「誰のための計算機か?」「何を可能にするか?」という視点で見たときに、その意義がより明確になります。
日本の技術者・研究者が、自由に、かつ安心してAIと向き合える土壌を提供する──それがABCI 3.0の真の使命です。
ABCI 3.0の活用事例
ABCI 3.0は単なる“性能重視のスパコン”ではありません。現在も稼働中で、さまざまな分野の先駆的なプロジェクトが実際に成果を挙げています。ここでは、既に実用化されている活用事例を中心に紹介します。
◆ 1. 大規模言語モデル(LLM)構築支援
- 株式会社Preferred Networks(PFN)は、ABCI 3.0を活用して日本語特化型LLMの開発を推進しています。第1回の「大規模言語モデル構築支援プログラム」で採択され、PLaMo・ELYZAといった日本語LLMを構築中です 。
- 多様なスタートアップや大学によるLLM研究も支援されており、ABCI 3.0はまさに「LLMの実験室」として機能しています。
◆ 2. 自動運転・物流AI
- 株式会社T2は、物流向け自動運転技術の開発にABCI 3.0を活用。大量の走行データ処理と強化学習により、新たな物流インフラ構築を目指しています 。
◆ 3. 音声認識AI/コミュニケーションAI
- RevCommは、音声認識AIシステムをABCI上で開発し、営業通話の分析やリアルタイムアシスタント機能を実現しています 。
◆ 4. 社会インフラ/災害予測
- 三菱重工業は、倉庫内のフォークリフトなど産業車両の安全運転支援AIを開発。カメラ映像のリアルタイム処理にABCIを使用しています 。
- JAEA(日本原子力研究開発機構)は放射性物質拡散予測シミュレーションをリアルタイムで実行中。以前は数百GPU必要だった処理が、ABCI 3.0では60 GPU単位で高速実行できるようになりました 。
◆ 5. 材料開発・地震工学・流体シミュレーション
- 前川製作所は、食肉加工機械の画像認識AIを構築し、骨検出の自動化を推進 。
- 地震工学研究では、前身の「京」と比較して10倍に及ぶ高速CPU処理を実現し、数億メッシュの解析を可能にしています 。
- AnyTech社は、流体挙動を動画解析AI「DeepLiquid」でモデリング。流体の可視化・最適化にABCIを活用 。
◆ 6. 産業界全般での導入
- Panasonicは材料開発・自動運転用画像認識など多岐にわたる研究にABCIを活用。また独自セキュリティ基盤の構築にも言及し、高い評価を得ています 。
- 富士通研究所はResNet-50による画像認識タスクで世界最速学習を達成。ABCIでは、最大24時間にわたって全ノードを占有するチャレンジプログラムも提供されています 。
スーパーコンピューティング環境
近年、生成AIや深層学習の需要増加にともない、GPUクラウドの利用が急速に普及しています。しかし、商用クラウドは万能ではなく、研究開発においては「コスト」「自由度」「一貫性」など多くの課題が存在します。
ABCI 3.0は、こうしたクラウドの制約を乗り越えるために設計された、“本物のスーパーコンピューティング環境”です。
◆ 高性能かつ一貫した計算環境
商用クラウドでは、同一インスタンスであっても物理ノードやリージョンによって性能に差が出ることがあります。一方でABCI 3.0は、統一されたハードウェア構成(全ノード:H200 ×8、DDR5 2TB、InfiniBand NDR)を持ち、ノード間の性能差が事実上ゼロという特性があります。
- 高精度なベンチマーク比較が可能
- ノード数を増やしても再現性が高い
- ハードウェアの世代が完全に統一されているため、アルゴリズム検証や精密なスケーリング実験に最適
◆ 超低レイテンシ&高帯域なネットワーク構成
一般的なクラウドはEthernetベースの通信であり、ノード間のレイテンシや帯域は用途によって大きく変動します。
ABCI 3.0では、InfiniBand NDR(200Gbps ×8ポート/ノード)により、GPU同士、ノード同士の通信が極めて高速・安定しています。
この点が特に重要になるのは以下のような用途です:
- 分散学習(Data Parallel/Model Parallel)
- 3Dシミュレーションや流体解析のようなノード連携が重視される処理
- グラフニューラルネットワーク(GNN)など通信集約型AIタスク
◆ ロックインなしのフルコントロール環境
クラウドでは提供事業者の仕様やAPIに依存した設計を強いられがちですが、ABCI 3.0はLinuxベースの完全なオープン環境であり、以下のような自由度が確保されています:
- Singularity/Podmanによる自前コンテナの持ち込み可能
- MPI/Horovod/DeepSpeedなどの独自ライブラリ構成が可能
- ソフトウェア環境の切り替え・ビルド・環境構築が自由自在
- 商用ライセンスの不要なOSSベースのスタックに特化(PyTorch, JAX, HuggingFace等)
◆ コスト構造の透明性と安定性
パブリッククラウドでは、GPUインスタンスが高騰しがちで、価格も時間単位で変動します。
ABCI 3.0では、利用料金が定額かつ極めて安価で、研究開発予算の予測が立てやすく、長期的な利用にも向いています。
- GPU 8基ノードを使っても1時間数百円~1000円程度
- 年度ごとの予算申請・利用時間枠の確保も可能(大学・研究機関向け)
- 審査制である代わりに、営利利用よりも基礎研究向けに優遇された制度になっている
◆ セキュリティとガバナンスの安心感
ABCI 3.0は、政府機関の研究インフラとして設計されており、セキュリティ面も高水準です。
- SINET6を通じた学術ネットワーク経由での閉域接続
- 研究用途の明確な審査フローとログ管理
- 商用クラウドと異なり、データの国外移転リスクやプロバイダ依存がない
研究・教育・公共データなど、扱う情報に高い安全性が求められるプロジェクトにおいても安心して利用できます。
◆ クラウド的な使いやすさも両立
ABCI 3.0は、伝統的なスパコンにありがちな「難解なCLI操作」だけでなく、WebベースのGUI(Open OnDemand)によるアクセスも可能です。
- ブラウザからジョブ投入/モニタリング
- ファイル操作やコード編集もGUIで可能
- GUIからJupyterLabを立ち上げてPython環境にアクセスすることもできる
これにより、スパコンを使い慣れていない学生・エンジニアでも比較的スムーズに高性能な環境にアクセス可能です。
研究と産業の“橋渡し”を担う環境
ABCI 3.0は、パブリッククラウドのスケーラビリティと、スパコンならではの「統一性能・高速通信・自由度・安心感」を両立する、まさに“スーパーな研究開発環境”です。
- 自前でGPUインフラを持てない研究者・中小企業にとっては「開発の起点」
- クラウドの仕様に縛られない自由な実験環境として「検証の場」
- 官学民の連携を促進する「AI開発の公共インフラ」
日本のAI技術が「海外依存」から一歩抜け出すための自立した基盤として、ABCI 3.0は今後さらに活用が進むことが期待されています。
日本のAI研究を“自立”させる鍵に
近年、生成AIや大規模言語モデル(LLM)の急速な発展により、AIの主戦場は米国を中心とする巨大テック企業のクラウドインフラ上へと移行しました。OpenAI、Google、Meta、Anthropic、xAIなどが次々と数千億円単位のGPUインフラを敷設し、それらを活用して世界規模のLLMやマルチモーダルモデルを次々と開発しています。
一方で、日本のAI研究者や企業にとって最大の課題は、それに対抗し得る計算資源を国内で持てていないことでした。
ハードウェアがなければ、モデルは育てられず、データがあっても訓練できない。優れた人材やアイデアがあっても、それを試す場がない──この「計算資源の格差」こそが、日本のAI研究の足かせとなっていたのです。
◆ 技術主権を支える「国産GPUインフラ」
ABCI 3.0は、こうした状況を打破するために構築された日本初の本格的な公的GPUスーパーコンピュータ基盤です。
6,000基を超えるNVIDIA H200 GPUを有し、FP16で6エクサフロップスを超える性能は、世界の研究機関においてもトップレベル。これは、もはや“スパコン”という枠を超え、AIソブリンインフラ(主権的インフラ)とも呼べる存在です。
- 日本語特化型LLMの開発(例:ELYZA, PLaMo)
- 商用クラウドを使えない安全保障・エネルギー・医療研究の推進
- 海外規制や契約変更による「クラウドリスク」からの脱却
このようにABCI 3.0は、日本がAI開発を他国の都合に左右されず、持続的に推進していくための基盤として機能しています。
◆ “借りる”から“作る”へ──AIの自給自足体制を支援
現在、日本国内で使われているAIモデルの多くは、海外で訓練されたものです。LLMでいえばGPT-4やClaude、Geminiなどが中心であり、日本語特化型モデルの多くも、ファインチューニングにとどまっています。
この状況から脱するには、ゼロから日本語データでAIモデルを訓練する力=計算資源の独立性が不可欠です。
ABCI 3.0はこの点で大きな貢献を果たしており、すでに国内の複数の大学・企業が数百GPU単位での学習に成功しています。
- 公的研究機関では日本語LLMをゼロから学習(例:Tohoku LLM)
- スタートアップがGPT-3.5クラスのモデルを国内で育成
- 医療・法務・金融などドメイン特化型モデルの国産化も進行中
これらは「国産AIモデルの種」を自国でまくための第一歩であり、AIの自立=自国で学び、作り、守る体制の確立に向けた重要な土台となっています。
◆ 単なる「スパコン」ではなく「戦略資産」へ
ABCI 3.0の真価は、その性能だけにとどまりません。
それは、日本がAI領域において独立した意思決定を持つための国家戦略装置であり、研究・教育・産業を横断する「AI主権」の要といえる存在です。
- 政策的にも支援されており、経済産業省の生成AI戦略の中核に位置付け
- 内閣府、文部科学省などとの連携による「AI人材育成」「スタートアップ支援」にも波及
- 自衛隊や官公庁による安全保障・災害対応シミュレーション等への応用も視野
つまり、ABCI 3.0は、日本のAI研究を“研究者の自由”にゆだねつつ、その研究が国益としてつながる回路を構築しているのです。
ABCIは「未来を試せる場所」
「誰かが作ったAIを使う」のではなく、「自分たちでAIを作り出す」。
その挑戦を支える自由で高性能な環境こそが、ABCI 3.0です。
日本のAI研究がこの先、単なる技術追従から脱し、独自の思想・倫理・目的を持ったAI開発へと踏み出すためには、こうした自立したインフラが不可欠です。
ABCI 3.0は、そうした“未来を試す場所”として、すでに動き出しています。
おわりに
ABCI 3.0は、単なる高性能なスーパーコンピュータではありません。それは、日本のAI研究と産業界がこれからの未来に向けて自立した技術基盤を築くための“共有財”です。国内の研究者・技術者・起業家たちが、自らのアイデアや知見を最大限に試せる環境。そこには、これまで「計算資源が足りない」「クラウドコストが高すぎる」といった制約を超えて、自由に創造できる可能性が広がっています。
私たちが目の当たりにしている生成AIやマルチモーダルAIの進化は、もはや一部の巨大テック企業だけのものではありません。ABCI 3.0のような公共性と性能を兼ね備えたインフラが存在することで、日本からも世界レベルの革新が生まれる土壌が整いつつあるのです。
また、このような環境は単なる“研究のための場”にとどまりません。材料開発や自動運転、災害対策、医療・介護、ロボティクスなど、私たちの暮らしに直結する領域にも大きな変革をもたらします。ABCI 3.0は、そうした社会課題解決型AIの開発現場としても極めて重要な役割を担っています。
そしてなにより注目すべきは、これが一部の限られた人だけでなく、広く社会に開かれているということです。大学や研究所だけでなく、スタートアップ、中小企業、そしてこれからAIに挑戦しようとする学生たちにも、その扉は開かれています。
AIの未来を自分たちの手で切り拓く。
ABCI 3.0は、その第一歩を踏み出すための力強い味方です。
日本のAIは、いま“依存”から“自立”へ。
そして、そこから“創造”へと歩みを進めようとしています。
参考文献
- ABCI 3.0 — Evolution of the Leading AI Infrastructure in Japan
https://arxiv.org/abs/2411.09134 - ABCI 3.0 Overview|AIST
https://abci.ai/en/about_abci/info.html - ABCI活用事例一覧|AIST公式サイト
https://abci.ai/ja/use_case/ - OSS Tsukuba Gfarmワークショップ 2024年発表資料(ABCI 3.0編)
https://oss-tsukuba.org/wp-content/uploads/2024/10/ABCI3.0_GfarmWS-2024-1218-final.pdf - AIST、ABCI 3.0を2025年1月から本格稼働へ|プレスリリース
https://www.aist.go.jp/aist_j/news/pr20241010.html - ABCI Evolved to Meet Japan’s Changing AI Needs|The Next Platform
https://www.nextplatform.com/2025/04/14/abci-evolves-to-meet-japans-changing-ai-needs/ - Preferred Networks、ABCIで日本語LLM開発を推進
https://www.abci.ai/ja/use_case/case-5/ - ABCI利用企業・組織の取り組み例(RevComm、前川製作所など)
https://www.abci.ai/ja/use_case/ - ABCIは“GPUクラウドではない”:富士通の活用レポート
https://www.fujitsu.com/jp/solutions/industry/public-sector/government/casestudy/abci/ - ABCIに関する政策的背景と利活用動向(日経クロステック)
https://xtech.nikkei.com/atcl/nxt/column/18/00142/00795/(※一部有料)