AlphaGenomeが切り拓くDNA理解の新時代──非コード領域の謎に挑むAI革命

生命の暗号を読むという試み

私たち人類は、ヒトゲノム計画の完了によって、DNAの塩基配列という“設計図”そのものを解読することに成功しました。しかし、21世紀に入ってもなお、ゲノムの大部分──実に98%を占める非コード領域──の機能は謎のままでした。この膨大な「暗号領域」をどう読み解き、そこに潜む生命活動のルールを見出すかは、生命科学の未踏領域として長らく残されてきました。

この課題に正面から挑んだのが、Google DeepMindが開発した人工知能モデル「AlphaGenome」です。AlphaFoldがタンパク質の立体構造予測で生命科学に革命をもたらしたように、AlphaGenomeはDNA配列からその機能を予測するというまったく新たな試みに挑んでいます。

AlphaGenomeは単なる予測モデルではありません。それは、遺伝子発現の制御、スプライシング、転写因子の結合、さらには3Dゲノム構造に至るまで、数千にも及ぶ生物学的プロセスを分子レベルで予測する、かつてないスケールのAIシステムです。本稿では、AlphaGenomeの技術的特徴、応用可能性、科学的意義について、徹底的に掘り下げていきます。

AlphaGenomeとは何か

AlphaGenomeは、DNAの一次配列(ATGCの並び)を最大100万塩基まで入力として受け取り、そこから多様な遺伝子制御関連の特徴を高精度で予測することを目的としたAIモデルです。DeepMindはこのモデルを、「sequence-to-function」のフレームワークとして定義しており、配列から直接、機能的な情報を予測することに特化しています。

このモデルは従来のEnformerの後継に位置付けられ、トランスフォーマーをベースとしつつ、より深く、より長い配列への対応と高精度な出力の両立を実現しています。特に注目すべきは、100万塩基という大規模な入力長と、1塩基単位での予測精度の維持という技術的チャレンジを同時に克服している点です。

AlphaGenomeの内部構造と技術的ブレイクスルー

AlphaGenomeの構成は、大きく分けて三層から成っています。まず、畳み込み層によって短いモチーフやスプライシングジャンクションのような局所的なパターンを検出します。続くトランスフォーマー層では、100万塩基にわたる配列全体を俯瞰し、遠距離エンハンサーとプロモーターのような、長距離依存性のある調節要素をモデル化します。そして最後に、各モダリティ(クロマチンアクセス、転写因子結合、RNA発現量など)に対応した予測ヘッドが配置されています。

このような設計により、AlphaGenomeは単一モデルで22〜26種類の分子的特性を同時に予測可能となっています。データセットとしては、ENCODEやGTExなどの大規模オープンゲノムプロジェクトが利用されており、多様な条件下における遺伝子制御の学習がなされています。

興味深いのは、こうしたハイエンドなAIモデルでありながら、必要な演算資源は従来モデルの半分程度にまで抑えられている点です。これは、モデルのアーキテクチャ設計が極めて効率的であることを示しており、AlphaFoldに続くDeepMindの設計思想の一貫性が見て取れます。

予測可能な世界──AlphaGenomeが描くゲノムの機能地図

AlphaGenomeの最も革新的な点は、その予測対象の広さにあります。たとえば、ある塩基配列が転写因子とどのように結合するか、RNAスプライシングがどこで発生するか、クロマチン構造がどう開閉するか、さらにはゲノムの三次元的な折り畳み構造までもが、配列情報だけから予測可能です。

これにより、たとえばGWAS(ゲノムワイド関連解析)で見つかった疾患関連変異が、どのように遺伝子制御に影響を与えるかを推定することが可能になります。従来、非コード変異の機能解釈は非常に困難でしたが、AlphaGenomeはその「機能暗黒物質」に光を当てる道を開いたのです。

実際に、T細胞性急性リンパ芽球性白血病(T-ALL)におけるTAL1遺伝子の活性化メカニズムのように、従来モデルでは捉えきれなかった非コード変異の機能的帰結を正確に再現する事例が報告されています。

応用可能性──未来の生物学研究と創薬に与える影響

AlphaGenomeの応用は、基本研究から臨床応用まで多岐にわたっています。研究の初期段階では、変異の中から「注目すべき候補」を選別するツールとして機能します。変異ごとのスコアリングにより、実験リソースを最も重要な領域に集中させることができます。

また、合成生物学の分野においても、特定の細胞型で望ましい発現パターンを引き起こすDNA配列の設計に活用できます。たとえば、細胞治療や再生医療において、目的細胞のみで活性化するプロモーターやエンハンサーの設計が可能となるでしょう。

さらに、AlphaGenomeは機能ゲノミクスのツールとしても有用です。エンハンサーやサイレンサーといった調節要素のマッピング、ゲノム編集による機能解明の事前予測、さらには疾患メカニズムの仮説生成にまで、その利用範囲は広がっています。

限界と今後の展望

とはいえ、AlphaGenomeにも限界があります。まず、入力可能な配列長は最大で100万塩基に限られています。これは現状の技術としては驚異的ではありますが、100kbを超える長距離調節の全容を捉えるには依然として不十分な場面もあります。

また、AlphaGenomeは現時点で、ヒトおよびマウスの細胞株に特化したモデルとして設計されています。環境要因、発生段階、病態といったダイナミックな要素を含めたコンテキスト依存的な予測は、今後のモデル発展に委ねられているのが現状です。

さらに、臨床応用という観点からは、AlphaGenomeが出力する予測はあくまで“示唆”にとどまっています。直接的な疾患診断やリスク評価には、別途検証が必要である点を強調しておく必要があります。

AlphaGenomeがもたらす科学の新地平

AlphaGenomeは、まさに「非コード領域」というゲノムの暗黒物質に対する“可視化装置”です。AlphaFoldがタンパク質立体構造に革命をもたらしたように、AlphaGenomeはDNAの制御構造に対して新たな可視性を与えました。

配列から直接、機能へ。これは生命科学がかつてないほど定量的で予測的な学問へと進化していく証左であり、AlphaGenomeはその最前線を切り開いています。今後、このモデルがより多様な生物種、疾患、環境条件に対応するようになれば、私たちは生物の“プログラム”をさらに深く理解し、書き換える力を手に入れるかもしれません。

AlphaGenomeは、その始まりに過ぎません。

まとめ

AlphaGenomeは、非コード領域という長年の謎にAIの力で挑む画期的な取り組みです。深層学習を用いて、1塩基単位の精度で遺伝子制御の予測を可能にし、基礎生物学から疾患メカニズム解明、さらには合成生物学まで、幅広い分野への応用が期待されています。制約もまだ多く、臨床応用には課題が残るものの、その革新性は疑いようもありません。AlphaGenomeは、生命科学の未来に大きな一歩を刻みました。

参考文献

  1. DeepMind launches AlphaGenome: AI for better understanding the genome
    https://deepmind.google/discover/blog/alphagenome-ai-for-better-understanding-the-genome/
  2. DeepMind’s new AlphaGenome AI tackles the ‘dark matter’ in our DNA
    https://www.nature.com/articles/d41586-025-01998-w
  3. Google AI DeepMind launches AlphaGenome, new model to predict DNA encoding gene regulation
    https://www.statnews.com/2025/06/25/google-ai-deepmind-launches-alphagenome-new-model-to-predict-dna-encoding-gene-regulation/
  4. DeepMind Introduces New AI Tool For Predicting Effects Of Human DNA Variants
    https://www.biopharmatrend.com/post/1305-deepmind-introduces-new-ai-tool-for-predicting-effects-of-human-dna-variants/
  5. DeepMind launches AlphaGenome to predict how genetic mutations affect gene regulation
    https://www.maginative.com/article/deepmind-launches-alphagenome-to-predict-how-genetic-mutations-affect-gene-regulation/
  6. DeepMind’s AlphaGenome predicts disease from non-coding DNA
    https://www.cosmico.org/deepminds-alphagenome-predicts-disease-from-non-coding-dna/
  7. AlphaGenome: Reddit discussion thread (r/singularity)
    https://www.reddit.com/r/singularity/comments/1lk6l28/alphagenome_ai_for_better_understanding_the_genome/
  8. AlphaGenome – GitHub Repository
    https://github.com/google-deepmind/alphagenome

AppleがEUでApp Storeルールを変更──本当に“自由”はもたらされたのか?

はじめに

2025年6月、Appleが欧州連合(EU)の反トラスト規制に対応するかたちで、App Storeにおけるルールを大幅に変更しました。

この変更は、EUが施行した「デジタル市場法(DMA)」への対応として発表されたもので、特に注目されているのは「外部決済リンクの解禁」です。

一見すると、Appleの強固なエコシステムに風穴が開いたようにも見えます。しかし、その実態はどのようなものでしょうか。

この記事では、今回のルール変更の背景、内容、そして本当に開発者やユーザーにとって“自由化”と呼べるのかを考察します。


背景:Epic Gamesとの衝突が転機に

この問題の源流は2020年、Epic GamesがiOS版『Fortnite』にAppleの課金システムを迂回する外部決済機能を導入し、App Storeから削除された事件に遡ります。

EpicはAppleを相手取り、独占禁止法違反で訴訟を提起。以降、Appleの「App Storeにおける課金の独占構造」が国際的な議論の的となりました。

欧州ではこれを是正するため、2024年に「デジタル市場法(DMA)」が施行され、Appleを含む巨大テック企業に対し競争促進のための義務を課しました。


今回のルール変更:主な内容

Appleは、EU域内のApp Storeに対して以下の変更を導入しました:

✅ 外部決済リンクの許可

開発者は、アプリ内でApple以外の決済ページへのリンクやWebViewを使うことが可能になりました。

以前はこうした導線を設けると、アプリ審査で却下されるか、警告画面を挟むことが求められていましたが、今回は警告表示なしで直接遷移が可能とされました。

✅ 新たな手数料体系の導入

  • Apple課金を使った場合:通常20%、小規模事業者向けに13%
  • 外部決済を案内するだけの場合でも:5~15%の“手数料”を徴収
  • 加えて、Core Technology Fee(CTC)と呼ばれる5%の基盤使用料が追加

✅ サービスの「階層化」

Appleはサービス内容によって手数料を変動させる“Tier制”を導入。マーケティング支援などを受けたい場合は高い手数料を払う必要がある構造です。


「自由化」の裏に潜む新たな“壁”

Appleはこのルール変更をもって、「DMAに準拠した」と表明しています。

しかし、Epic GamesのTim Sweeney氏をはじめとする開発者コミュニティの反応は冷ややかです。

その主な理由は以下の通りです:

  • 外部決済を選んでもApple税が課される:Appleのシステムを使わなくても、5~15%の手数料が課される。
  • ルールは複雑で透明性に欠ける:階層制や条件付きリンク許可など、技術的・法的ハードルが依然として高い。
  • これは“自由”ではなく“管理された自由”にすぎないという批判。

欧州委員会の判断はまだこれから

現時点でAppleのルール変更が本当にDMAに準拠しているかどうかについて、EUの正式な見解は出ていません。

欧州委員会は現在、「開発者や業界関係者からのフィードバックを収集中」であり、数か月以内に適法性を評価する方針です。

Appleは一方で、この命令そのものの違法性を主張し、控訴を継続しています。


まとめ:名ばかりの譲歩か、それとも転換点か?

今回のルール変更は、App Storeの運用方針においてかつてない柔軟性を導入した点では、画期的です。

しかし、外部決済を選んでもなお課される手数料、地域限定(EUのみ)の適用、Appleによる継続的な審査・支配などを考慮すると、“真の自由化”とは言い難いのが実情です。

この対応がDMAの理念に沿ったものと認められるかどうかは、今後のEUによる評価と、それに対するAppleや開発者のリアクション次第です。

今後も目が離せないテーマと言えるでしょう。


参考文献

都市と農村を変える自動運転──テスラのロボタクシーと農業機械の未来

テスラのロボタクシー、本格展開は厳しい道のりに

限定運用の開始

2025年6月、テスラはテキサス州オースティンにおいて、完全自動運転機能(FSD)を搭載したModel Yによるロボタクシーの限定運用を開始しました。このプロジェクトは長年にわたりエロン・マスク氏が提唱してきた未来の都市交通の要として期待されてきたもので、ついに現実の公道に姿を現したことになります。ジオフェンスによって運行エリアを限定し、セーフティドライバーを同乗させる形式ながらも、乗客の募集や商用利用に向けたステップが踏まれた点で、業界にとって大きな一歩となりました。

初期トラブルと批判

一方で、初期段階から課題も浮上しています。交差点での誤進入や急ブレーキ、場合によっては進行方向のミスなど、走行中の不安定さがSNS上に広まり、注目度が高まる中での信頼性確保が急務となっています。特にテスラは他社が採用するLiDARや高精度マップを用いず、カメラとAIによる「視覚ベースの推論」に依存している点が特徴です。このアプローチはコスト削減に優れますが、視界不良や突発的な環境変化に対する脆弱性が指摘されています。

規制と反応

このような状況を受け、地元自治体や州議会からも慎重論が浮上しています。テキサス州では9月に新たな自動運転関連法規が施行される予定であり、これに先立ち、複数の議員が「正式な法整備まで待つべきではないか」との声明を発表しました。NHTSA(米国家道路交通安全局)も情報収集を進めており、近い将来、安全基準に関する具体的な勧告が出される可能性もあります。

テスラの今後の展望

にもかかわらず、テスラは運用拡大に前向きな姿勢を示しており、AIの自律進化とフリート学習により、短期間での精度向上を目指しています。自動運転技術を都市交通インフラの一部とするには、こうした段階的な試行とフィードバックの蓄積が不可欠であり、今後の進展に注目が集まっています。


自動運転技術の発展とその壁

世界の主なプレイヤー

テスラの取り組みは象徴的なものですが、世界的に見れば自動運転技術の開発は多様なアプローチと速度で進められています。Waymo(Googleの親会社Alphabet傘下)は既にフェニックスなど米国内の複数都市で完全自動運転タクシーを運用しており、2023年時点で有料ライド数は10万件を突破しました。Waymoは高精度の地図データとLiDAR、複数のセンサーを組み合わせた重装備型の構成を採用しており、センサーフュージョンによる安定した走行が可能です。

課題とトラブル事例

一方、Cruise(GM傘下)もサンフランシスコを中心にサービスを展開していましたが、2024年には複数の重大事故が発生し、一時的に全運行が停止されました。この一件は、自動運転車が直面する「予期せぬ現実」の複雑さを象徴しています。AIがあらゆる状況に即応するには、技術の成熟だけでなく、都市のインフラ整備や緊急時の遠隔制御体制の構築が求められます。

法整備と地域差

加えて、法制度の整備は技術進展と同じくらい重要なテーマです。自動運転車両の定義、走行許可、事故時の責任帰属、データ管理といった側面は、各国・各州で温度差があり、標準化には時間がかかる見通しです。テキサス州のように積極的な導入を支援する地域がある一方で、保守的な地域では実証実験すら難しい場合もあります。

セキュリティと設計思想の転換

また、セキュリティ面でも新たな課題が浮上しています。自動運転車両は常時ネットワークに接続されており、ソフトウェアアップデートや遠隔制御の仕組みが前提となっています。そのため、外部からの攻撃やシステム障害に備えた多重冗長構成が必要であり、これは従来の自動車メーカーにとっても大きな設計思想の転換を迫る要素となっています。


農業分野における自動化の加速

なぜ農業は自動化しやすいのか

農業が他分野に比べて自動化しやすい理由はいくつかあります。まず第一に、農業の作業エリアが原則として私有地内に限定されており、公道のような交通法規や他車両・歩行者との複雑な交差を考慮する必要がないという点があります。この「環境が制御されている」ことが、自動運転アルゴリズムの適用を容易にしているのです。

第二に、農作業の多くが繰り返し性・規則性の高いタスクであるという特徴があります。例えば、耕うん・播種・施肥・収穫といった一連の作業は、位置情報や作物の生育段階に応じた定型的なルートや動作で構成されており、ロボットによる自動化との相性が極めて良いのです。

第三に、農業分野は深刻な人手不足と高齢化に直面しており、作業の省力化や無人化に対する社会的要請が強いという背景があります。とりわけ広大な農地を抱えるアメリカやカナダ、中国、ブラジルなどでは、限られた人数で大量の作物を管理する必要があり、自動化による効率化のインセンティブが非常に高いといえます。

これらの条件が揃っているため、農業は都市交通よりも早い段階で自動運転技術の導入が可能となっており、実際に多くの企業が商用化を進めています。

先進企業の取り組み

John Deereはその最先端を走る企業の一つであり、GPSとRTK(リアルタイムキネマティック)による位置情報に基づく完全自動運転トラクターを既に商用化しています。作業経路は事前に設定され、農機はそのルートに沿って自律的に耕うんや播種を行います。異常検知や障害物回避、作物の状態を視覚的に判断する機能も搭載され、タブレット一つで複数台の農機を遠隔管理できる時代が到来しています。

ドローンとの協調

加えて、ドローンとの連携も急速に進んでいます。農業用ドローンは上空から農地全体をスキャンし、土壌の水分量や作物の生育状態を分析する役割を果たしています。このデータは自動走行する農機と共有され、リアルタイムで施肥や防除の調整が行われるようになっています。特に中国ではDJIが農業用ドローンを大規模に展開しており、1日に数百ヘクタールをカバーするシステムが実用化されています。

世界の事例と日本の動向

イギリスでは「Hands Free Hectare」プロジェクトが注目を集めています。このプロジェクトでは、1ヘクタールの農地を完全に無人で耕作・播種・収穫する実験が成功し、自動化農業の可能性を世界に示しました。さらに日本でも、クボタやヤンマーが自動操舵機能を持つトラクターや田植機、収穫機を投入しており、スマート農業の実装が進んでいます。

持続可能性と環境配慮

農業における自動化は、単なる労働力の代替にとどまりません。データに基づく精密農業の実現により、過剰施肥や水資源の浪費を抑え、環境負荷を軽減するという意味でも持続可能性に貢献しています。人が介入する必要があるのは最小限の監視と管理にとどまり、「人が農場に行かずに農業を行う」という未来が目前に迫っています。


まとめと今後の展望

共通する目標

都市交通におけるロボタクシーの進化と、農業分野における急速な自動化。その両者に共通するのは、「人間の手を離れても安全かつ効率的に動作するシステム」を構築するという目標です。

異なる課題と共通する希望

テスラのように公道を対象とした自動運転では、技術力だけでなく、社会的信頼、法制度、安全基準、そして都市環境との調和が不可欠です。課題は多いものの、着実な実証と法整備が進むことで、将来的には都市部においてもロボタクシーが日常的な移動手段として定着する未来が期待されています。

一方で、農業分野においては「制約が少ない環境」が功を奏し、自動運転技術が既に実用フェーズに突入しています。ドローンや自動農機の連携によって、効率的かつ持続可能な農業が可能となりつつあり、その成功事例は今後他分野へと波及する可能性を秘めています。

今後への期待

これらの技術は相互に補完関係にあり、農業で培われた遠隔管理やドローン活用の知見が、都市交通や物流、自律型インフラへと応用される未来も見えてきました。完全自動化社会の実現にはまだ越えるべき壁もありますが、現実のフィールドに着実に展開される今の動きは、その可能性を確実に広げています。

今後は、技術開発だけでなく、社会全体としてどのようにこれらの変化を受け入れ、制度や価値観をアップデートしていけるかが問われていくことになるでしょう。

参考文献

🚗 テスラ・ロボタクシー関連


🤖 自動運転技術の現状と課題


🌾 農業自動化とドローン活用

EUが進めるAIスーパーコンピューティングセンター構想とは

欧州連合(EU)は、AI分野における技術的主権を確立し、グローバルな競争に対応するため、AIスーパーコンピューティングセンター、いわゆる「AIギガファクトリー」の構想を進めています。これは、欧州委員会が主導する「InvestAI」プログラムの中核であり、民間企業や研究機関からなるコンソーシアムが提案・運営を担う形で展開されるのが特徴です。

背景には、ChatGPTをはじめとする大規模言語モデルの登場により、AIの訓練や推論に必要な計算資源が急激に増大しているという状況があります。これまでは米国のハイパースケーラー(Amazon、Google、Microsoftなど)がその多くを担ってきましたが、EUはその依存から脱却し、自前でAI基盤を構築する方針に大きく舵を切っています。

EUは、最終的に3〜5か所のAIギガファクトリーと、15か所以上のAIファクトリーを設置する計画です。これにより、域内で高性能な計算資源を自給可能にし、米国や中国に依存しない形でAIモデルの開発・運用を推進しようとしています。

各国の提案と動向

オランダ

オランダでは、De Groot Family Officeが中心となったコンソーシアムがAIセンターの設立を提案しています。この構想は、北海の洋上風力発電を活用したグリーン電力供給と、高速ネットワークを強みとするもので、サステナビリティと技術基盤の両立を狙っています。AMS-IX(アムステルダム・インターネット・エクスチェンジ)、ASML、ING、TU Eindhovenといった有力企業・機関が支援を表明しており、ヨーロッパの中心的なAI拠点として期待が高まっています。

スペイン

スペインでは、Móra la Novaを拠点とした構想が進んでいます。建設大手ACS、通信事業者Telefónica、さらにGPU開発企業Nvidiaが連携する50億ユーロ規模の提案は、バルセロナ・スーパーコンピューティング・センターとの連携も想定されており、南欧の拠点として有力視されています。スペイン政府とカタルーニャ州政府もこのプロジェクトを積極的に支援しており、地域経済への波及効果も期待されています。

ドイツとイタリア

ドイツでは、クラウド事業者のIonosやFraunhofer研究機構、建設大手Hochtiefなどが関与し、国家レベルでのインフラ構築が進行中です。提案内容には、分散型AI処理インフラの整備や産業用途向けAIクラウドの提供などが含まれています。一方、イタリアではBolognaを中心に、EUのAI Factoryフェーズ1に既に採択されており、EuroHPCとの連携の下、Leonardoスパコンなどのリソースも活用されています。

エネルギー問題とAIインフラの関係

AIスーパーコンピューティングセンターの建設において最も大きな課題の一つが、電力供給です。1拠点あたり数百メガワットという膨大な電力を必要とするため、安定かつクリーンなエネルギーの確保が必須となります。これにより、AIギガファクトリー構想はエネルギー政策とも密接に結びついています。

この点でオランダの風力発電、フィンランドの水力、フランスの原子力など、各国のエネルギー政策が提案の評価に大きく影響しています。フィンランドでは、LUMIという再生可能エネルギー100%によるスーパーコンピュータがすでに稼働しており、EU内でのモデルケースとされています。また、エネルギー効率を重視する新たなEU規制も導入されつつあり、データセンターの設計そのものにも環境配慮が求められています。

ウクライナ紛争を契機に、EUはロシア産エネルギーへの依存からの脱却を急速に進めました。LNGの輸入元多様化、電力グリッドの整備、そして再エネへの巨額投資が進行中です。AIギガファクトリー構想は、こうしたエネルギー転換とデジタル戦略を結びつけるプロジェクトとして、象徴的な意味を持っています。

支持企業と民間の関与

この構想には、欧州内外の大手企業が積極的に関与しています。オランダ案ではAMS-IXやASML、スペイン案ではTelefónicaとNvidia、ドイツ案ではIonosやFraunhoferなどが支援を表明しており、技術・資本・人材の面で強力なバックアップが得られています。

とりわけ注目されるのは、Nvidiaの動向です。同社は「主権あるAI(sovereign AI)」の概念を提唱しており、米国の法規制や供給リスクを回避しつつ、各国・地域ごとのAIインフラ自立を支援する立場を明確にしています。ASMLもまた、最先端の半導体露光装置を提供する立場から、欧州内のAI・半導体連携において中心的な存在です。

これらの企業の参加によって、欧州域内で高性能な計算資源を確保するだけでなく、AIに必要な半導体供給やネットワーク整備、ソフトウェア基盤の強化にもつながると期待されています。

今後の展望と課題

AIギガファクトリー構想は、単なるデジタルインフラの拡充にとどまらず、エネルギー政策、技術主権、経済安全保障といった広範なテーマと密接に関係しています。今後、EUがどの提案を選定し、どのように実行していくかは、欧州のAI戦略全体に大きな影響を与えるでしょう。

また、センターの建設や運用には、土地の確保、電力網との接続、地元自治体との調整、住民の理解など、多くのハードルが存在します。さらには、数年単位で更新が求められるGPUの世代交代や、冷却技術、運用コストの圧縮など、持続可能性の確保も無視できません。

それでも、これらの挑戦に応えることで、EUは「グリーンで主権あるAI社会」の実現に一歩近づくことができるはずです。AIの地政学的な主戦場がクラウドからインフラへと移行しつつある中、この構想の進展は国際社会にとっても注目すべき試みであると言えるでしょう。

参考文献

  1. If Europe builds the gigafactories, will an AI industry come?
    https://www.reuters.com/technology/artificial-intelligence/if-europe-builds-gigafactories-will-an-ai-industry-come-2025-03-11
  2. El Gobierno propone a Móra la Nova (Tarragona) como sede para una de las gigafactorías europeas de IA(El País)
    https://elpais.com/economia/2025-06-20/el-gobierno-propone-a-mora-la-nova-tarragona-como-sede-para-una-de-las-gigafactorias-europeas-de-inteligencia-artificial.html
  3. ACS busca entrada en el plan para la autonomía europea en la IA por la vía española y alemana(Cinco Días)
    https://cincodias.elpais.com/companias/2025-06-21/acs-busca-entrada-en-el-plan-para-la-autonomia-europea-en-la-ia-por-la-via-espanola-y-alemana.html
  4. Barcelona contará con una de las siete fábricas de inteligencia artificial de Europa
    https://elpais.com/tecnologia/2024-12-10/el-gobierno-y-la-generalitat-impulsan-la-primera-fabrica-de-inteligencia-artificial-en-barcelona.html
  5. EU mobilizes $200 billion in AI race against US and China(The Verge)
    https://www.theverge.com/news/609930/eu-200-billion-investment-ai-development
  6. EIB to allot 70 bln euros for tech sector in 2025-2027 – officials(Reuters)
    https://www.reuters.com/technology/eib-allot-70-bln-euros-tech-sector-2025-2027-officials-2025-06-20
  7. EU agrees to loosen gas storage rules(Reuters)
    https://www.reuters.com/business/energy/eu-agrees-loosen-gas-storage-rules-2025-06-24

6Gはどこまで来ているのか──次世代通信の研究最前線と各国の動向

6G時代の幕開け──次世代通信の姿とその最前線

はじめに

2020年代も半ばに差し掛かる今、次世代の通信インフラとして注目されているのが「6G(第6世代移動通信)」です。5Gがようやく社会実装され始めた中で、なぜすでに次の世代が注目されているのでしょうか?この記事では、6Gの基本仕様から、各国・企業の取り組み、そして6Gに至る中間ステップである5.5G(5G-Advanced)まで解説します。

6Gとは何か?

6Gとは、2030年前後の商用化が期待されている次世代の無線通信規格です。5Gが掲げていた「高速・大容量」「低遅延」「多数同時接続」といった特徴をさらに拡張し、人間とマシン、物理空間とサイバースペースをより密接に接続することを目指しています。

6Gで目指されている性能は、次のようなものです:

  • 通信速度:最大1Tbps(理論値)
  • 遅延:1ミリ秒以下、理想的には1マイクロ秒台
  • 接続密度:1平方キロメートルあたり1000万台以上の機器
  • 信頼性:99.99999%以上
  • エネルギー効率:10〜100倍の改善

こうした性能が実現されれば、単なるスマートフォンの進化にとどまらず、医療、製造業、教育、エンタメ、交通など、あらゆる分野に革命的変化をもたらします。

通信規格の進化比較

以下に、3Gから6Gまでの進化の概要を比較した表を掲載します。

世代主な特徴最大通信速度(理論値)遅延主な用途
3G音声とデータの統合通信数Mbps数百ms携帯ブラウジング、メール
4G高速データ通信、IPベース数百Mbps〜1Gbps10〜50ms動画視聴、VoIP、SNS
4.5GLTE-Advanced、MIMOの強化1〜3Gbps10ms以下高解像度動画、VoLTE
5G超高速・低遅延・多接続最大20Gbps1ms自動運転、IoT、AR/VR
6Gサブテラヘルツ通信、AI統合最大1Tbps0.1〜1μs仮想現実、遠隔医療、空中ネットワーク

各国・各社の取り組み

6Gはまだ規格化前の段階にあるとはいえ、世界中の企業や政府機関がすでに研究と実証を進めています。

日本:ドコモ、NTT、NEC、富士通

日本ではNTTとNTTドコモ、NEC、富士通などが中心となって、100〜300GHz帯のサブテラヘルツ領域での実証実験を進めています。2024年には100Gbpsを超える通信を100mの距離で成功させるなど、世界でも先進的な成果が出ています。

また、ドコモは海外キャリア(SKテレコム、AT&T、Telefonica)やベンダー(Nokia、Keysight)とも連携し、グローバル標準化を見据えた実証に取り組んでいます。

米国・欧州:Nokia、Ericsson、Qualcomm

NokiaはBell Labsを中心に、AIネイティブなネットワークアーキテクチャとサブテラヘルツ通信の研究を進めています。米ダラスでは7GHz帯の基地局実験をFCCの承認を得て展開しています。

EricssonはAI-RAN Allianceにも参加し、AIによる基地局制御の最適化やネットワークの消費電力削減に注力しています。

Qualcommは6G対応チップの開発ロードマップを発表しており、スマートフォン向けに限らず、IoT・自動運転・XR(拡張現実)などあらゆる領域を視野に入れています。

韓国・中国:Samsung、Huawei、ZTE

Samsungは韓国国内で、140GHz帯を用いたビームフォーミングの実証を進めており、6G研究センターも設立済みです。

Huaweiは政治的な制約を抱えつつも、6G関連技術の論文や特許の数では世界トップクラス。中国政府も国家戦略として6G研究を推進しており、すでに実験衛星を打ち上げています。

5.5G(5G-Advanced):6Gへの橋渡し

5.5Gとは、3GPP Release 18〜19で規定される「5Gの進化形」であり、6Gに至る前の中間ステップとされています。Huaweiがこの名称を積極的に使用しており、欧米では”5G-Advanced”という呼び名が一般的です。

特徴

  • 通信速度:下り10Gbps、上り1Gbps
  • 接続密度:1平方kmあたり数百万台規模
  • 遅延:1ms以下
  • Passive IoTへの対応(安価なタグ型通信機器)
  • ネットワークAIによる最適化

なぜ5.5Gが必要か

5Gは標準化はされているものの、国や地域によって展開の度合いに差があり、ミリ波や超低遅延といった機能は実用化が進んでいない部分もあります。5.5Gはこうした未達成領域をカバーし、真の5G性能を提供することを目的としています。

また、5.5Gは次世代のユースケース──自動運転の高精度化、インダストリー4.0、メタバース通信、XR技術の普及──を支えるための実践的な基盤にもなります。

まとめと今後の展望

6Gは単なる通信速度の高速化ではなく、現実空間と仮想空間を融合し、AIと共に動作する次世代の社会インフラです。ドローンの群制御、遠隔外科手術、クラウドロボティクス、空中ネットワーク(HAPSや衛星)、そして通信とセンシングが統合された世界──こうした未来が実現するには、まだ多くの研究と実験が必要です。

その橋渡しとして、5.5Gの実装と普及が極めて重要です。Release 18/19の標準化とともに、2025年〜2028年にかけて5.5Gが本格導入され、その後の2030年前後に6Gが商用化される──というのが現実的なロードマップです。

日本企業はNEC・富士通・NTT系を中心に研究で存在感を示していますが、今後はチップセットやアプリケーションレイヤーでも世界市場を狙う戦略が求められるでしょう。

用語解説

  • 6G(第6世代移動通信):2030年ごろ商用化が期待される次世代通信規格。超高速・超低遅延・高信頼性が特徴。
  • 5G-Advanced(5.5G):5Gの中間進化版で、6Gの前段階に当たる通信規格。速度や接続性能、AI対応などが強化されている。
  • サブテラヘルツ通信:100GHz〜1THzの高周波帯域を使う通信技術。6Gの主要技術とされる。
  • ミリ波:30GHz〜300GHzの周波数帯。5Gでも使われるが6Gではより高い周波数が想定されている。
  • Passive IoT:自身で電源を持たず、外部からの信号で動作する通信機器。非常に低コストで大量導入が可能。
  • ビームフォーミング:電波を特定方向に集中的に送信・受信する技術。高周波帯での通信品質を高める。
  • ネットワークAI:通信ネットワークの構成・制御・運用をAIが最適化する技術。
  • AI-RAN Alliance:AIと無線ネットワーク(RAN)の統合を進める国際アライアンス。MicrosoftやNvidia、Ericssonなどが参加。

参考文献

135倍の高速化──日立×東大が切り拓く「動的プルーニング」の革新

はじめに:探索空間の爆発と動的プルーニングの必然性

急速に膨張するビッグデータ社会では、グラフ構造を持つ膨大なデータの再帰検索や結合処理が一般化しています。しかしながら、高速化のボトルネックとなるのは、「探索の無駄」、すなわち成果が見込めないパスの延々と続く読み込みや計算です。特に再帰クエリは階層構造が深くなればなるほど検索空間が指数関数的に増加し、処理性能の限界に直面します。

そこで登場するのが「探索の価値」をリアルタイムに判断し、見込みの低い枝を早期に切り落とす技術―それが動的プルーニング(Dynamic Pruning)なのです。動作効率を飛躍的に高めつつ、リソース消費を抜本的に抑えるこの技術は、単なる高速化ではなく、「無駄を見抜く知性」が組み込まれた探索最適化方法といえます。

日立+東京大学がSIGMOD/PODS 2025で発表した新手法

2025年6月22〜27日、国際データベース会議SIGMOD/PODSの産業トラックでは、Hitachiと東京大学が共同で開発した技術が「Dynamic Pruning for Recursive Joins」として報告されました 。この共同研究では、

  1. 再帰的なJOIN処理中に中間到達結果をリアルタイムに取得し、
  2. そこからスコアや推定成功確率を算出し、
  3. 価値が小さい探索枝をその場で打ち切る

アルゴリズムを実装しています。

検証には製造業のトレーサビリティモデルが使われ、部品のステータスを辿って判断するクエリに対し、最大で135倍の高速化が確認されました。また、この技術はすでにHitachi Advanced Data Binder(HADB)に組み込まれており、Hitachi Intelligent Platformを通じた商用IoT基盤への実装も進行中です 。

動的プルーニングのコア技術

「実行時」を活かす賢さ

静的プルーニングは、クエリの最初の段階であらかじめ不要な枝を取り除くアプローチです。一方、**動的プルーニングでは処理の途中、実行時の状況に応じて「今この枝は動かす価値があるか」を判断します。**これにより、静的では捉えきれない情報を活用し、より効率的な探索が可能になります。

評価モデルの仕組み

具体的には以下の流れで処理されます:

  1. 中間到達ノードや深度などの情報を取得
  2. 経験的または統計的モデルによって、その枝が将来期待される成果の度合いを推定
  3. 成果推定値と探索コストを比較し、見込みが低い枝はリアルタイムで打ち切り

この判断プロセスはIoT環境など実運用でも非常に高速に動くよう設計され、ディスクI/O量・I/O回数が低減する結果、高速化につながります。

構造設計なくして動的プルーニングなし

インデックス・統計の埋め込みが不可欠

従来のB-treeやHashインデックスは一致検索には有効ですが、探索価値の予測には対応できません。動的プルーニングを実現するには、以下のような構造が必要です:

  • 各ブロック・ノード・パーティションなどに最大スコア・min/max属性・頻度分布などの統計情報をあらかじめ保持すること
  • 実行時にこれら統計値を活用して、枝の意義を判断可能にする

たとえば全文検索エンジンLuceneでは、BlockMax WANDにより各文書ブロックの最大スコア値を保持し、実行時に「このブロックは現在のスコアに届かない」と判断すれば即刻スキップする仕組みが採用されています  。

中間結果を取得するフック構造

再帰join処理では、中間状態の情報を取得するフックポイントが重要です。HADBやSpark Catalystのようなオプティマイザでは、JOIN処理のDo物理段階に入る直前で到達ノードや統計情報を取得し判断材料とします。この取得は軽量に設計されており、実行時のオーバーヘッドが最小限に抑えられます 。

製造業でのトレーサビリティクエリ具体例

動的プルーニングの効果が明確に証明されたのが製造業の部品追跡クエリです。たとえば、以下のように再帰的に部品の親子関係をたどり、不良品ステータスを持つものを除外するクエリでは、探索の枝が爆発的に増える可能性があります:

WITH RECURSIVE trace AS (
  SELECT * FROM parts WHERE id = :root
  UNION ALL
  SELECT p.* FROM parts p
  JOIN trace t ON p.parent_id = t.id
)
SELECT * FROM trace WHERE status = 'OK';

従来方式では膨大なノードを全探索し、I/Oや計算負荷が劇的に増加します。ところが動的プルーニングであれば、処理中に 「c→p間で子部品のステータスがOKにならない確率が高い」 と判断された枝を即座に切断。この結果、最大135倍の速度改善およびディスクアクセス削減を実現しました 。

他分野での動的プルーニング事例

■ Apache Spark Dynamic Partition Pruning(DPP)

Spark 3.0以降に導入されたDPPは、ジョイン処理時に小テーブル(Dimension)のフィルタ結果を動的に算出し、大テーブル(Fact)のパーティションスキャン対象を実行時に絞り込む仕組みです  。

たとえば以下のSQLにおいて:

SELECT o.customer_id, o.quantity
FROM Customers c
JOIN Orders o
  ON c.customer_id = o.customer_id
WHERE c.grade = 5;

SparkはこのSQLを実行する際、Dimensionテーブルのgradeフィルタ結果をもとにBroadcast変数を作成。その結果、Ordersテーブルのパーティション列(customer_id)に対してIN (…)形式のサブクエリフィルタが実行時に挿入され、その後不要なパーティションは読み込み対象から除外されます。実際の実行プランには以下のような記述が現れます:

... PartitionFilters: [customer_id IN (broadcasted list)], dynamicPruningExpression: ...

この手法によって、たとえば100区画のParquetテーブルが10区画スキャンで済むようになり、I/O量が1/10に、実行時間も大幅に短縮されました 。

Sparkでのコード例

spark.conf.set("spark.sql.optimizer.dynamicPartitionPruning.enabled", "true")

# CustomersとOrdersテーブルを作成(ParquetファイルをPartitioned by customer_id)
spark.sql("""
CREATE TABLE Customers(id INT, grade INT) USING parquet
AS SELECT id, CAST(rand()*10 AS INT) AS grade FROM RANGE(100)
""")
spark.sql("""
CREATE TABLE Orders(customer_id INT, quantity INT)
USING parquet PARTITIONED BY(customer_id)
AS SELECT CAST(rand()*100 AS INT) AS customer_id,
             CAST(rand()*100 AS INT) AS quantity
FROM RANGE(100000)
""")

# クエリを実行
res = spark.sql("""
SELECT o.customer_id, o.quantity
FROM Customers c JOIN Orders o
  ON c.customer_id = o.customer_id
WHERE c.grade = 5
""")
res.collect()

計画には dynamicPruningExpression が現れ、実際に不要パーティションのスキップが適用されていることが確認できます  。

■ Lucene / Elasticsearch:BlockMax WAND

全文検索エンジンでは、探索候補のスコアを計算しながら「これ以上上位スコアになれないからこの範囲は飛ばす」という枝刈りが有効です。LuceneではBlockMax WANDというアルゴリズムにより、ポスティングリストをブロック単位に分割し、その最大スコアを保存。対象ブロックのスコア上限が現在の閾値を下回ると判断されれば、そのブロックをまるごとスキップします  。

この方法は、従来のMaxScoreやWANDよりも効率的な結果の取得を可能にし、ElasticsearchやWeaviateなどでも採用例があります 。

■ 機械学習モデルなどにおける枝刈り

XGBoostやRandom Forestのような決定木学習では、Early Stoppingという手法で検証誤差が改善しなくなった段階で学習を打ち切る動的プルーニングが取り入れられています。この判断も「将来の改善が見込めない探索枝」を除外するという点で同様の思想を持ちます。

将棋やチェスAIで使われるα‑βプルーニングも、葉ノードの推定評価を基に無意味な盤面を打ち切る技術であり、動的プルーニングの歴史的源流ともいえるでしょう。

成功要因と技術導入の鍵

このような技術が実効性を持つためには、以下のような要件を満たす構造設計と統計設計が不可欠です:

  1. 推定可能性:探索枝が将来的に成果を生む可能性を定量評価できる構造であること
  2. 統計付きインデックス:スコア・min/max・頻度などの情報を保持できる構造設計
  3. 中間取得可能性:探索処理中にリアルタイムで情報を抽出可能で、判断処理が軽量であること
  4. 実装効率:SparkやHADBのような計画最適化ステージへの密接な統合
  5. 汎用性:製造、検索、AI、BIなど多分野で再利用できる汎用探索最適化メカニズムであること

今後の展望:異分野融合とAI連携の可能性

動的プルーニング技術の今後には、以下のような展開が期待されます:

  • 医療データ解析:診療トレースやリスクスコアリングにおける高速クエリ
  • 金融セキュリティ:不正取引や相関関係の追跡にリアルタイム性が要求される場面
  • AI連携:探索判断に機械学習モデルを組み合わせて予測精度を高める新たな枝刈り手法
  • IoTプラットフォームの拡張:リアルタイム分析対象の爆増に対応し、探索負荷を制御

既にHADBやSparkに導入されたこの技術は、さらなる分野展開と最適化を視野に入れているため、今後も注目され続ける可能性が高いといえるでしょう。

終わりに:動的プルーニングという知的発見と、未来のデータ探索へ

データが爆発的に増加し続ける現代において、「すべてを見に行く」ことが必ずしも合理的でなくなる時代が到来しています。特に再帰的な構造やグラフ構造を持つデータに対しては、探索の範囲が広がれば広がるほど、その中に「本質的に無駄な探索」が潜んでいる可能性が高まります。動的プルーニングとは、そうした探索の“ムダ”を知的に見抜き、実行時に自律的に排除する技術です。

この手法は、単にSQLクエリや探索アルゴリズムの高速化手段という枠を超えて、「探索とは何か」「検索価値とは何か」という本質的な問いに対する解答でもあります。データベースにおける従来の最適化は、主に静的な情報に基づいていました。WHERE句、JOIN条件、インデックス設計、クエリプランの選択といったものは、いずれも「事前にわかっている情報」から導かれるものでした。

一方、動的プルーニングは、実行中に得られる“状況”をもとにして動作方針を変えていくという点で、まさに探索の意思決定が「動的=リアルタイムに変わっていく」設計思想を持っています。これはAI的とも言える視点であり、今後のデータ探索技術がより「文脈を読む」「流れを見極める」方向へ進化していくことを象徴しています。

このような先進的なアプローチが、日本企業と大学の連携によって誕生し、さらに国際会議での評価を受けていることは、世界的に見ても価値のある事例です。産業界からのフィードバックを受けてすでに実装と運用フェーズに入りつつある点も、理論倒れで終わらない「技術の現場適用モデル」として非常に重要です。

将来的には、AIによる探索価値のスコアリングや、推論ベースでのプルーニング判断など、「知的判断の自動化」がより洗練されることが予想されます。単なる枝刈りではなく、「探索の価値自体を定義し、評価し、選び取る」時代に向けて、動的プルーニングはその第一歩となるでしょう。

この技術は、我々が日々扱う膨大なデータの中から「本当に見るべきもの」だけを抽出するための、新しい視点と手段を与えてくれます。検索技術、意思決定、AI、インフラ、業務最適化など、あらゆる文脈でこのアプローチは応用可能です。単に速度を上げるのではなく、「考えながら探す」ための仕組み。それが動的プルーニングです。

今後、この技術がどのように深化し、他分野と融合していくかは、技術者にとっても研究者にとっても、非常に刺激的な未来への入り口となることでしょう。私たちは、探索の「賢さ」を設計する時代に生きているのです。

この記事を作成する際に参照した主要な情報源(参考文献)は以下の通りです。各文献のタイトルとURLをセットで記載しています。

参考文献一覧

Perplexity AIをAppleが狙う理由とは?──検索戦略の再構築が始まった

はじめに

Appleが現在、AI検索分野に本格参入を模索しているなか、注目を集めているのが AI検索スタートアップ「Perplexity AI」 の買収をめぐる“社内協議”です。Bloombergの報道を皮切りに、この話題は各メディアでも続々報じられています。今回は主要メディアの報道を整理し、Appleの狙いと今後の展望をわかりやすく解説していきます。

🔍 主な報道まとめ

1. Reuters(ロイター)

  • Bloombergのレポートを受け、「内部で買収案が検討されたが、Perplexity側には共有されていない」 と伝える  。
  • Perplexityは「M&Aについて認識なし」と公式声明。Appleはコメントを控えています 。
  • Perplexityは最近の資金調達で評価額140億ドル、Apple史上最大のM&Aになり得ると報道  。
  • Adrian Perica(M&A責任者)とEddy Cue(サービス責任者)が協議に参加し、Safariへの統合を念頭に置いているとされます  。

2. The Verge

  • Eddy Cueが米司法省の独占禁止訴訟で、「Safariでは検索数が初めて減少した」と証言。これがAI検索導入の背景にあると報じました  。

3. Business Insider

  • Google検索からAI検索(OpenAI、Perplexity、Anthropic)へのトレンドシフトを報告し、Google株が8%以上急落したと解説  。

4. WSJ(Wall Street Journal)

  • AppleのAI戦略が岐路に立たされており、Siriの進化とSafariのAI統合が「失敗か成功か」の二択に直面していると指摘 。

🧠 背景と分析

✅ なぜ今、Perplexityなのか?

  • 評価額140億ドル のPerplexityは、ChatGPTやGoogle Geminiに迫る勢いで、若年層に支持されるAI検索エンジン 。
  • Siri や Apple Intelligence と比べ、即戦力としての性能・知名度ともに抜きん出ています  。

⚖️ Googleとの関係はどうなる?

  • AppleはGoogleに毎年約200億ドル支払い、Safariのデフォルト検索エンジンに設定。その契約は米司法省の独占禁止訴訟により見直し圧力がかかっています  。
  • AI検索への舵を切ることで、収益モデルの多角化やユーザーの利便性向上を狙っています。

🏁 他企業の動き

  • Meta:以前買収を試みた後、総額148億ドルでScale AIに出資  。
  • Samsung:既にPerplexityと提携交渉中で、Galaxy端末へのプリインストールなど報道あり  。

🧩 現状まとめ

ポジション状況
Apple内部で初期協議済。正式なオファーは未実施。Safari/Siri統合を視野に。
Perplexity買収交渉について「認識なし」と公式否定。
GoogleSafariデフォルト維持からAI検索転換で株価に影響。
競合他社Meta→Scale AI、Samsung→Perplexity連携が進行中。

💡 今後の注目点

  1. 公式アナウンスの有無  AppleまたはPerplexityからの正式声明・コメント発表をチェック。
  2. 独禁法裁判の行方  裁判次第ではGoogleとの契約が打ち切られ、Perplexity導入の動きが加速する可能性。
  3. Safari実装の実態  iOSやmacOSのアップデートで、Perplexityが選択肢に入るかどうか注目。
  4. 他社の提携進行  特にSamsungとの合意内容が示されると、Appleの後手が明らかに。

✨ 終わりに

AppleがPerplexityを買収すれば、それは年間200億ドル規模のGoogle依存からの脱却を意味します。SiriやSafariが強力なAI検索エンジンに進化すれば、ユーザー体験・収益構造ともに大きな転機となるでしょう。今後のアップル株の動きや、他社との提携競争にも注目です。

📚 参考文献リスト

Appleも参入──AIが切り拓く半導体設計の未来

2025年6月、Appleがついに「生成AIをチップ設計に活用する」という方針を打ち出しました。ハードウェア部門の責任者であるジョニー・スロウジ(Johny Srouji)氏は、既存の設計プロセスの課題を指摘しつつ、「AIはチップ設計における生産性を大きく向上させる可能性がある」と語りました。

Appleは、SynopsysやCadenceといったEDA(Electronic Design Automation)大手のAIツールと連携する形で、将来的には設計の初期段階から製造準備までの自動化を視野に入れているとのことです。

チップ設計の複雑化とAI活用の必然性

Appleの発表は決して突飛なものではありません。むしろこの数年で、チップの設計・製造にAIを導入する動きは急速に広がってきました。

ナノメートルスケールでの設計が求められる現代の半導体業界では、人間の手だけでは最適化が難しい領域が増えてきています。具体的には、次のような作業がボトルネックになっています:

  • 数百万個のトランジスタ配置(フロアプラン)
  • 消費電力・性能・面積(PPA)のトレードオフ
  • タイミングクロージャの達成
  • 検証作業の網羅性確保

こうした高難度の設計工程において、機械学習──特に強化学習や生成AI──が威力を発揮し始めています。

SynopsysとCadenceの先進事例

EDA業界のトップランナーであるSynopsysは、2020年に「DSO.ai(Design Space Optimization AI)」を発表しました。これは、チップ設計の中でも特に難しいフロアプランやタイミング調整を、AIに任せて自動最適化するという試みでした。

SamsungはこのDSO.aiを用いて、設計期間を数週間単位で短縮し、同時に性能向上も実現したと報告しています。Synopsysはその後、設計検証用の「VSO.ai」、テスト工程向けの「TSO.ai」など、AIプラットフォームを拡張し続けています。

Cadenceもまた「Cerebrus」などのAI駆動型EDAを開発し、チップ設計の一連のプロセスをAIで強化する路線を取っています。さらに最近では、「ChipGPT」なる自然言語による設計支援も開発中と報じられており、まさにAIを設計の第一線に据える姿勢を明確にしています。

Google・DeepMindの研究的アプローチ

一方で、GoogleはDeepMindとともに、AIを用いた論文レベルの研究も行っています。2021年には、強化学習を用いてトランジスタのフロアプランニングを自動化するモデルを発表し、同社のTPU(Tensor Processing Unit)の設計にも応用されているとされています。

人間設計者が数週間かける設計を数時間でAIが行い、しかも性能面でも同等以上──という結果は、チップ設計の常識を覆すものでした。

オープンソースの潮流──OpenROAD

また、米カリフォルニア大学サンディエゴ校を中心とする「OpenROAD」プロジェクトは、DARPA(米国防高等研究計画局)の支援のもとでオープンソースEDAを開発しています。

「24時間以内にヒューマンレスでRTLからGDSIIまで」を掲げ、AIによるルーティング最適化や自動検証機能を搭載しています。業界の巨人たちとは異なる、民主化されたAI設計ツールの普及を目指しています。

AppleがAIを導入する意味

Appleの発表が注目されたのは、同社がこれまで「社内主導・手動最適化」にこだわり続けてきたからです。Apple Siliconシリーズ(M1〜M4)では、設計者が徹底的に人間の手で最適化を行っていたとされています。

しかし、設計規模の爆発的増加と短納期のプレッシャー、競合他社の進化を前に、ついに生成AIの力を受け入れる方針へと舵を切った形です。

これは単なる設計支援ではありません。AIによる自動設計がAppleの品質基準に耐えうると判断されたということでもあります。今後、Apple製品の中核となるSoC(System on Chip)は、AIと人間の協働によって生まれることになります。

今後の予測──AIが支配するEDAの未来

今後5〜10年で、AIはチップ設計のあらゆるフェーズに浸透していくと予想されます。以下のような変化が考えられます:

  • 完全自動設計フローの実現:RTLからGDSIIまで人間の介在なく生成できるフローが実用段階に
  • 自然言語による仕様入力:「性能は◯◯、消費電力は△△以下」といった要件を英語や日本語で指定し、自動で設計スタート
  • AIによる検証とセキュリティ対策:AIが過去の脆弱性データやバグパターンを学習し、自動検出
  • マルチダイ設計や3D IC対応:複雑なダイ同士の接続や熱設計もAIが最適化

設計者の役割は、AIを監督し、高次の抽象的要件を設定する「ディレクター」のような立場に変わっていくことでしょう。

最後に──民主化と独占のせめぎ合い

AIによるチップ設計の革新は、業界の構造にも影響を与えます。SynopsysやCadenceといったEDA大手がAIで主導権を握る一方、OpenROADのようなオープンソースの流れも着実に力をつけています。

Appleが自社設計をAIで強化することで、他社との差別化がより明確になる一方で、そのAIツール自体が民主化されれば、スタートアップや大学も同じ土俵に立てる可能性があります。

AIが切り拓くチップ設計の未来。それは単なる技術革新ではなく、設計のあり方そのものを再定義する、大きなパラダイムシフトなのかもしれません。

用語解説

  • EDA(Electronic Design Automation):半導体やチップの回路設計をコンピュータで支援・自動化するためのツール群。
  • フロアプラン:チップ内部で回路ブロックや配線の物理的配置を決める工程。
  • PPA(Power, Performance, Area):チップの消費電力・処理性能・回路面積の3つの最重要設計指標。
  • タイミングクロージャ:回路の信号が制限時間内に確実に届くように調整する設計工程。
  • RTL(Register Transfer Level):ハードウェア設計で使われる抽象レベルの一種で、信号やレジスタ動作を記述する。
  • GDSII(Graphic Design System II):チップ製造のための最終レイアウトデータの業界標準フォーマット。
  • TPU(Tensor Processing Unit):Googleが開発したAI処理に特化した高性能な専用プロセッサ。
  • SoC(System on Chip):CPUやGPU、メモリコントローラなど複数の機能を1チップに集約した集積回路。
  • マルチダイ:複数の半導体チップ(ダイ)を1つのパッケージに統合する技術。
  • 3D IC:チップを垂直方向に積層することで高密度化・高性能化を実現する半導体構造。

参考文献

偽CAPTCHAだけじゃない──アドテックの闇に潜む巧妙な詐欺手法たち

はじめに

2025年6月、KrebsOnSecurityが報じた「Inside a Dark Adtech Empire Fed by Fake CAPTCHAs」は、広告ネットワークを悪用した巧妙な詐欺の実態を明らかにしました。この記事では、偽のCAPTCHA画面を使ってユーザーに「通知許可」や「クリック」を誘導し、マルウェアや詐欺サイトへ誘導するという手口が詳しく解説されています。

しかし、こうした「偽CAPTCHA」に限らず、アドテック業界には多数の悪用技術が存在します。本記事では、今回のケースと類似する手法を分類・整理して紹介します。

1. 偽CAPTCHA+通知許可誘導

✔ どんな手口か?

  • CAPTCHA風の画面で「ロボットでないことを証明するには通知を許可してください」と表示
  • ユーザーが通知を許可すると、後日ポップアップで詐欺通知や偽ウイルス警告が表示される

✔ なぜ危険か?

  • 通知はブラウザのシステムレベルで表示され、偽物と気づきにくい
  • 被害が継続的かつ非同期に発生する

2. マルバタイジング(Malvertising)

✔ どんな手口か?

  • 正規の広告枠に悪意あるコードを紛れ込ませ、ユーザーをマルウェアに誘導
  • 攻撃者はDSP(広告配信プラットフォーム)を経由し、広告審査をすり抜けて掲載

✔ 代表例

  • Flashのゼロデイ脆弱性を突いたAngler Exploit Kit
  • 広告を見ただけで感染する“ドライブバイダウンロード”

3. トラフィック・ディストリビューション・システム(TDS)

✔ どんな手口か?

  • アクセス元のIP、ブラウザ、リファラーなどを分析し、悪意のあるユーザーには悪質サイトを、セキュリティ研究者や検索エンジンには無害なページを返す
  • Cloaking(クローク)と併用されることが多い

✔ 使用例

  • 記事で紹介された「VexTrio」や「LosPollos」はTDSを活用

4. アドフラウド(広告詐欺)

✔ どんな手口か?

  • ボットや人力で広告を不正にクリックし、広告主の費用を盗む
  • ドメインスプーフィングにより、広告枠が信頼できる媒体で表示されているように偽装

✔ 関連する詐欺タイプ

  • インプレッション詐欺
  • クリック詐欺
  • SDKインジェクション(モバイルアプリ内で他の広告を盗用)

5. スケアウェア広告

✔ どんな手口か?

  • 「あなたのPCはウイルスに感染しています」といった偽警告をポップアップで表示し、偽のウイルス対策ソフトを購入させる
  • 通知機能を悪用して持続的に表示される

✔ なぜ防げない?

  • ブラウザ通知やOSのUIを模倣して表示するため、ユーザーは本物と誤認しやすい

6. ブラウザ通知の悪用

✔ どんな手口か?

  • アクセス初回に「通知を許可してください」と表示(偽CAPTCHAなどを通じて)
  • 許可後、外部から詐欺メッセージを継続配信(通知ポップアップで表示)

7. 被害が発生する経路の可視化

[通常サイト] → [乗っ取りWordPressサイト] → [TDS] → [偽CAPTCHA or 偽ニュース] → [通知許可] → [ブラウザ通知で詐欺表示]

このように、一見正規に見えるサイトやキャプチャが、攻撃の入り口になっている点が恐ろしいところです。

8. 対策と啓発

利用者側の対策サイト運営者の対策
通知許可を不用意に出さない広告ブロッカーを使うWordPressなどCMSの更新を徹底アフィリンクのチェック
セキュリティソフトやDNSフィルターの導入広告配信ネットワークの審査強化
ブラウザの「通知」設定を見直す正規のTDSや配信スクリプト以外は使わない

おわりに

偽のCAPTCHAや通知誘導は、ユーザーの「当たり前の行動」を逆手に取る非常に巧妙な手口です。しかも、広告の仕組みを利用するため、攻撃者は非常に広範囲なユーザーにアプローチ可能です。

便利で無料なサービスがあふれる一方で、こうした「裏側のビジネス」や「トラフィックの悪用」が広がっていることも、ぜひ知っておいてください。

📚 参考文献

  1. Inside a Dark Adtech Empire Fed by Fake CAPTCHAs
    https://krebsonsecurity.com/2025/06/inside-a-dark-adtech-empire-fed-by-fake-captchas/
  2. What is Malvertising? – NortonLifeLock
    https://us.norton.com/blog/malware/what-is-malvertising
  3. Traffic Distribution Systems Explained – Kaspersky Threat Intelligence
    https://www.kaspersky.com/resource-center/threats/traffic-distribution-systems
  4. Ad Fraud Tactics and Techniques – White Ops (now HUMAN)
    https://www.humansecurity.com/blog/understanding-ad-fraud
  5. Scareware and Fake Virus Alerts – Malwarebytes Labs
    https://www.malwarebytes.com/scareware
  6. Browser Notification Abuse by Fake Sites – BleepingComputer
    https://www.bleepingcomputer.com/news/security/scammers-abuse-browser-push-notifications-to-serve-scareware-ads/
  7. GoDaddy Security Report on WordPress Redirects (2024)
    https://www.godaddy.com/security/wordpress-site-hacks-and-redirects-2024

頻繁な再認証は本当に安全?──Tailscaleが提唱する“スマートな認証設計”とは

多要素認証(MFA)や定期的なログインを「セキュリティ対策」として徹底している企業は多いでしょう。ところが、VPNやゼロトラストネットワークを提供する Tailscale は、それに真っ向から異議を唱えています。

2025年6月、Tailscaleが発表した公式ブログ記事によれば、「頻繁な再認証はセキュリティを高めるどころか、逆にリスクを招きかねない」というのです。

再認証の“やりすぎ”が招く落とし穴

セキュリティ業界では昔から「パスワードは定期的に変えよう」「ログインセッションは短く保とう」といった教訓が信じられてきました。しかしTailscaleはこれらを「もはや時代遅れ」と断じます。

🔄 なぜ危険なのか?

  • ユーザーが疲弊する
    • 頻繁なMFA要求は「クリック癖(OK連打)」を誘発し、MFA疲労攻撃(Push Bombing)への耐性を下げます。
  • 認証フローが鈍化する
    • 作業のたびに認証を求められることで、業務効率が著しく低下します。
  • 形式的な安心感に依存
    • 「再認証してるから大丈夫」という誤解は、実際の攻撃への対応を疎かにします。

Tailscaleが提唱する「スマートな認証」

Tailscaleは「頻度よりも質」「強制よりも文脈」を重視すべきだと主張し、以下のようなアプローチを推奨しています。

✅ OSレベルのロックを活用する

ユーザーが席を離れたら自動ロック、戻ってきたらOSで再認証──これだけで十分。アプリケーション側で再認証を繰り返すよりも、自然でストレスのないセキュリティを実現できます。

✅ 必要なときだけ認証する

たとえばSSHログインや重要な設定変更など、高リスクな操作時だけ再認証を促す方式。Tailscaleでは「Check mode」やSlack連携を活用することで、ポリシーに応じた“オンデマンド認証”を実現しています。

✅ ポリシー変更への即時対応

「ユーザーが退職した」「端末が改造された」など、セキュリティリスクのある状態を検知したら即座にアクセスを遮断する。これを可能にするのが、以下の2つの仕組みです:

  • SCIM:IDプロバイダーと連携してユーザー情報をリアルタイム同期
  • デバイスポスチャーチェック:端末の状態(パッチ、暗号化、MDM登録など)を継続監視し、信頼性の低い端末はアクセスを拒否

そもそも「再認証」の目的とは?

私たちはしばしば、再認証という行為そのものがセキュリティを担保してくれていると勘違いします。しかし、重要なのは**「誰が」「どこで」「どの端末から」「何をしようとしているか」**をリアルタイムに判断できるかどうかです。

それを支えるのが、動的アクセス制御(Dynamic Access Control)という発想です。

結論:セキュリティは「煩わしさ」ではなく「適切さ」

Tailscaleが示すように、現代のセキュリティは「頻度」ではなく「文脈」と「信頼性」に基づいて設計すべきです。

過剰な再認証は、ユーザーを疲れさせ、攻撃者にはチャンスを与えます。

その代わりに、端末の状態をチェックし、IDの状態をリアルタイムで反映する設計こそ、次世代のセキュリティと言えるでしょう。

💡 補足:用語解説

🔄 SCIM(System for Cross-domain Identity Management)

SCIMは、複数のドメイン間でユーザーのアカウントや属性情報を統一的に管理・同期するための標準プロトコルです。主にクラウドベースのSaaSやIDaaS(Identity as a Service)間で、ユーザーの追加・変更・削除を自動化するために使用されます。

📌 特徴

  • 標準化されたREST APIとJSONスキーマ
    • RFC 7643(スキーマ)、RFC 7644(API)で定義
  • プロビジョニングとデプロビジョニングの自動化
    • IDaaS側でユーザーを作成・更新・削除すると、SCIM対応のSaaSにも自動反映される
  • 役職や部署、グループ情報の同期も可能
    • 単なるアカウント作成だけでなく、ロールベースのアクセス制御(RBAC)も実現可能

📘 ユースケース例

  • Oktaで新入社員のアカウントを作成 → SlackやGitHubなどに自動でアカウントが作成される
  • 社員の部署が異動 → 使用中のSaaSすべてに新しい役職情報を同期
  • 退職者が出たら → すべてのサービスから即時に削除して情報漏えいリスクをゼロに

🛡️ デバイスポスチャーチェック(Device Posture Check)

デバイスポスチャーチェックは、ユーザーが利用しているデバイスの「安全性」を評価する仕組みです。ゼロトラストアーキテクチャにおいて、「ユーザー本人であること」だけでなく、「使用している端末が信頼できること」も確認する必要があります。

📌 チェックされる代表的な項目

チェック項目説明
OSのバージョン最新のWindowsやmacOSなどが使われているか
セキュリティパッチ最新のパッチが適用されているか
ウイルス対策有効なセキュリティソフトが稼働中か
ストレージの暗号化BitLocker(Windows)、FileVault(Mac)などが有効か
ロック画面設定スクリーンロックやパスコードの有無
管理状態(MDM)企業による端末管理がなされているか
Jailbreakやroot化デバイスが不正に改造されていないか

📘 利用例

  • Tailscaleでは、信頼されていない端末からの接続を拒否するようにACL(アクセス制御リスト)で設定可能
  • OktaやGoogle Workspaceでは、MDM登録済みデバイスのみログインを許可するように設定可能
  • 一時的にセキュリティ状態が悪化したデバイス(ウイルス対策無効など)を自動でブロック

🎯 まとめ

用語主な目的対象
SCIMID情報の自動同期ユーザーアカウント・属性
デバイスポスチャーチェックデバイスの安全性確認利用端末の状態・構成

この2つを組み合わせることで、「ユーザー + デバイスの状態」という多層的な認証・認可モデルを実現でき、TailscaleのようなゼロトラストVPNでもより安全かつ利便性の高いアクセス制御が可能になります。

関連リンク

Meta、Scale AIに約2兆円を出資──CEOワン氏をスーパインテリジェンス開発へ招へい

Meta(旧Facebook)が、AIインフラを支える米国スタートアップ「Scale AI」に対して約14.3〜14.8億ドル(約2兆円)という巨額の出資を行い、AI業界に衝撃を与えました。さらに、Scale AIの創業者でCEOのアレクサンドル・ワン氏がMetaの“スーパインテリジェンス開発チーム”のトップに就任するという人事も発表され、今後の生成AI開発レースにおいて大きな転換点となりそうです。

Scale AIとは?

Scale AIは、2016年にアレクサンドル・ワン(Alexandr Wang)氏とルーシー・グオ(Lucy Guo)氏によって設立された米国サンフランシスコのスタートアップです。

主な事業は、AIモデルの学習に不可欠な「データのアノテーション(ラベリング)」と「モデルの評価サービス」の提供。高精度な学習データを効率よく大量に用意する能力が求められる現代のAI開発において、Scale AIの提供するサービスは、OpenAI、Meta、Google、Microsoftといったトッププレイヤーにとって不可欠な存在となっています。

特に、「人間とAIの協調によるラベリング(Human-in-the-Loop)」を軸としたラベル付けの品質管理技術は、同社の大きな強みです。ギグワーカーによるラベリングを世界規模で効率化しながら、精度を担保するためのプラットフォームとして「Remotasks」などを展開しています。

また、軍事や公共機関向けのプロジェクトにも関与しており、米国国防総省などとも契約を結ぶなど、その守備範囲は民間にとどまりません。

Metaの出資とCEO人事の背景

Metaは今回、非議決権株として49%の株式を取得するという形でScale AIに出資を行いました。この出資により、MetaはScale AIの経営には直接関与しない立場を取りながらも、データ供給とAI評価における独占的なアクセス権を得る可能性があります。

出資と同時に発表されたのが、Scale AIのCEOであるアレクサンドル・ワン氏がMetaに移籍し、同社の“Superintelligence Lab(スーパインテリジェンスラボ)”の責任者に就任するというニュースです。ワン氏はScale AIの創業以来、データ品質の重要性を業界に根付かせた立役者の一人。今回の人事は、MetaがAGI(汎用人工知能)開発に本格参入する象徴的な動きと見られています。

なお、ワン氏は引き続きScale AIの取締役として関与するものの、日常的な経営からは退く形となります。

業界へのインパクト

今回の出資と人事は、AI業界にとって無視できない影響を与えています。

GoogleやMicrosoft、OpenAIなどScale AIの顧客だった企業の中には、「Metaの傘下となった同社と今後もデータ契約を継続するべきか」について見直しを検討している企業も出てきています。競合と直接つながることに対して懸念があるためです。

一方で、Metaにとっては、LLaMAシリーズなどの大規模言語モデル開発で出遅れを取り戻すチャンスでもあります。AIの性能はモデルそのものだけでなく、「どれだけ高品質で信頼できる学習データを確保できるか」にかかっており、今回の出資はまさにその基盤を強化する狙いがあるといえるでしょう。

今後の展望

MetaのAI戦略は、OpenAIやAnthropic、xAIなどが凌ぎを削る次世代AI開発競争のなかで存在感を高めるための布石です。特に、AGI(Artificial General Intelligence)を見据えた「スーパインテリジェンス開発」という言葉が初めて正式に使われた点は象徴的です。

また、Scale AIはMetaに依存する形になったことで、業界での中立性を失う可能性があります。これは今後の顧客離れや再編にもつながるかもしれません。

まとめ

MetaによるScale AIへの出資とCEO人事は、表面的には“出資と転職”という単純な話に見えるかもしれません。しかし、その背後には次世代のAI開発に向けた熾烈な戦略競争があり、学習データというAIの「燃料」を誰が押さえるのかという本質的な争いが垣間見えます。

今後、MetaがScale AIの技術をどう取り込んでLLaMAシリーズやAGI開発を進めていくのか。競合各社がどのように対応するのか。業界全体の行方を左右する重要なトピックとなるでしょう。

参考文献

Midjourneyを提訴──ディズニーとユニバーサルが問う著作権の限界

はじめに

2025年6月、米ディズニーとユニバーサル・スタジオは、画像生成AIサービス「Midjourney」に対して著作権侵害および商標権侵害などを理由に提訴しました。

これは、生成AIが作り出すコンテンツが既存の著作物にどこまで接近できるのか、また著作権がAI時代にどのように適用されるかを問う重要な訴訟です。

本記事では、この訴訟の概要を紹介するとともに、LoRAやStable Diffusionなど他の生成AIツールにも関係する著作権の原則を整理します。

訴訟の概要

▶ 原告:

  • The Walt Disney Company
  • Universal Pictures

▶ 被告:

  • Midjourney Inc.(画像生成AIサービス)

▶ 主張の内容:

  1. 著作権侵害  Midjourneyが、ディズニーおよびユニバーサルのキャラクター画像などを無断で学習データに使用し、生成画像として提供している。
  2. 商標権侵害  キャラクター名・外観・象徴的な要素などを模倣し、消費者が混同するおそれがある。
  3. 不当競争  ライセンスを得ていない画像を提供することで、正規商品の市場価値を損なっている。

AI生成物と著作権の関係

AIによって生成された画像そのものに著作権があるかどうかは、各国で判断が分かれている分野ですが、生成のもとになった学習素材が著作物である場合には、問題が生じる可能性があります。

よくあるケースの整理:

ケース著作権的リスク
著作物の画像を学習素材として使用高い(無断使用は著作権侵害に該当する可能性)
学習に使っていないが、見た目が酷似内容次第(特定性・類似性が高い場合は侵害)
キャラを直接再現(LoRAやPromptで)高い(意匠の再現とみなされる可能性)
作風や画風の模倣通常は著作権の対象外(ただし境界は曖昧)

ファンアートや非営利創作も違法なのか?

結論から言えば、原作キャラクターの二次創作は原則として著作権侵害にあたります

  • 著作権法は、営利・非営利を問わず、原作の「表現の本質的特徴」を利用した場合、著作権者の許諾が必要としています。
  • よって、SNS上でのファンアート、同人誌の発行、LoRAモデルの配布なども、すべて「権利者の黙認」によって成り立っている行為です。

よくある誤解と整理

誤解実際
「非営利ならセーフ」❌ 著作権侵害は営利・非営利を問わない
「少し変えれば大丈夫」❌ 表現の本質的特徴が再現されていればNG
「第三者が通報すれば違法になる」❌ 著作権侵害の申し立ては権利者本人に限られる

今後の論点と注目点

  • LoRA・生成モデルにおける責任の所在  モデル作成者か?使用者か?それともサービス提供者か?
  • 訴訟によってAI学習に対する明確な指針が出る可能性  米国では「フェアユース」の適用範囲も議論対象になるとみられています。

まとめ

  • Midjourneyに対する著作権・商標権侵害訴訟は、AI生成物と著作権の関係を問う象徴的な事件です。
  • ファンアートやLoRAによる画像生成も、法的には著作権侵害に該当する可能性がある点に留意が必要です。
  • 著作権は営利・非営利を問わず適用されるため、「商売していなければ大丈夫」という認識は正しくありません。

AIを活用した創作活動を行う際には、法的リスクを理解し、可能であれば各コンテンツ提供者のガイドラインを確認することが望ましいと言えるでしょう。

モバイルバージョンを終了