損保ジャパンの情報漏えい──それ、他人ごとではないかもしれません

2025年6月11日、損保ジャパンが最大1,748万件の情報漏えいの可能性があると発表しました。きっかけは、同社のWebシステムが外部からの不正アクセスを受けたこと。これは決して珍しい事件ではありませんが、今回のケースには、私自身も他人ごとではないと感じさせられる点がいくつもありました。

発覚したのは社内向けシステムの「外部公開」

事件の概要はこうです。

2025年4月17日から21日にかけて、損保ジャパンのWebサブシステムに第三者による不正アクセスがありました。このシステムは本来、社内向けに運用されていたものでしたが、外部からもアクセスできる状態にあったようです。4月21日に不正アクセスを検知したのち、直ちにネットワークから遮断。以降、警察に通報し、外部専門機関と連携しながら調査が行われました。

漏えいの可能性があるのは以下の情報です:

  • 顧客関連情報:約726万件(氏名・連絡先・証券番号など)
  • 代理店関連情報:約178万件
  • 匿名化されたデータ:約844万件

これらを合わせると、最大で約1,748万件の情報が対象になります。

幸いなことに、マイナンバーやクレジットカードなどのセンシティブな情報は含まれていなかったとされています。現時点では、実際に情報が外部に流出した、あるいは悪用された事実も確認されていません。

それ、実はあなたのチームにも起こりうる

今回の件は「大企業で起きた話」で済ませてしまいがちです。しかし、私はこのニュースを読んで、ふと自分の環境を思い返しました。

  • 開発中のダッシュボード
  • 本番とは別の検証環境
  • 社内用の管理画面

それらのシステムが、本当に社外からアクセスできないようになっていると、すぐに言い切れるでしょうか?

とくに、検証のために一時的にポートを開けて放置していたり、環境変数でベーシック認証が外れていたり――ちょっとした油断で「外部に公開されている状態」は簡単に作られてしまいます。

「社内向けだからセキュリティは最低限でいい」

そう思っていたら、いつの間にか外からアクセスできる状態になっていた――それは誰の身にも起こりうることです。

今こそ、点検と対策を

この事件から学べる最大の教訓は、「リスクは常に自分の足元にある」ということです。

対策として、今すぐ以下の点を見直してみる価値があります。

✅ アクセス管理の再確認

  • 開発中/社内専用のサイトやAPIが外部に公開されていないか確認。
  • 意図しないルーティングやセキュリティグループの設定を見直す。

✅ 監視体制の強化

  • 怪しい挙動があった際に即時に検知できる監視ツールを導入。
  • WAF(Web Application Firewall)やIDS/IPSなどの導入も有効。

✅ 脆弱性診断の定期実施

  • 本番環境だけでなく、ステージング・開発環境も含めて診断対象に。
  • オープンソースライブラリの脆弱性情報にも注意。

✅ チーム内教育と運用ルールの整備

  • 「社内だから」「一時的だから」で済ませない文化を作る。
  • 新しい環境を立てる際にはチェックリストを運用する。

情報漏えいは、決して他人ごとではない

損保ジャパンのような大企業でさえ、不正アクセスのリスクを完全にゼロにすることはできていません。私たちが日々開発・運用しているサービスにも、同じような危うさは潜んでいます。

この機会に、もう一度環境を見直してみませんか?

「開発中だから」「社内向けだから」では済まされない時代が、すでにやってきています。

参考文献

WWDC25で明らかになったAppleプラットフォームの進化

WWDC25のプラットフォーム向け発表では、Apple製品のソフトウェア全体が一大アップデートを迎えました。特に「Liquid Glass」という新デザイン言語の導入は最大規模の刷新と言えますが、これ以外にもApple Intelligence(AI機能)の拡張、開発ツールやプログラミング言語の進化、visionOSの強化、ゲーム関連技術の充実、SwiftUIの新機能追加など、多岐にわたる発表が行われました。本記事ではそれらのポイントを整理し、わかりやすく解説します。

Liquid Glassデザインの刷新

Appleは新しいソフトウェアデザインとして「Liquid Glass」を発表しました。これはガラスのような光学特性と流動性を兼ね備えたソフトウェア素材で、アプリのUI要素に新たな深みと透明感をもたらします 。たとえば、ボタンやスイッチ、スライダーといった小さなコントロールから、ナビゲーション用のタブバーやサイドバーなど大きな要素まで、液体状のガラス素材が画面上で浮かび上がるように表示されます。Liquid Glassは周囲の光を反射・屈折し、背景のコンテンツを透かして「新たなレベルの活力」を演出しつつ、コンテンツへの注目を高めるデザインとなっています 。また、ダーク/ライトモード環境に応じて色調がインテリジェントに変化し、必要に応じて要素が拡大・縮小するなど動的に振る舞うことで、ユーザーの操作に合わせて柔軟に表示が変化します。

  • 新素材の特徴: 「Liquid Glass」はガラスの光学特性と流体的な感覚を組み合わせたデザインマテリアルで、従来のフラットなUIに透明感と奥行きを追加します 。
  • 幅広い適用範囲: ボタンやスライダーなどの小さなコントロールから、タブバーやサイドバーなどの大きなナビゲーション要素まで一貫してLiquid Glassが適用され、統一感のある外観になります 。
  • アイコン・ウィジェット: ホーム画面やロック画面のアイコン・ウィジェットも新しいクリアなデザインに更新されます。iPadでは「ロック画面やコントロールセンターで体験全体に活力がもたらされる」と説明されています 。さらに専用の「Icon Composer」アプリが提供され、レイヤーやハイライトを組み合わせたLiquid Glassスタイルのアイコンを簡単に作成できるようになります 。
  • 開発者への影響: SwiftUIなどのネイティブUIフレームワークはLiquid Glassデザインをサポートし、既存アプリでもコードをほとんど変更せずに新デザインを取り入れられます 。たとえば、タブバーが自動的に浮いたスタイルになるなど、多くの要素がOSレベルでアップデートされ、再コンパイルするだけで新しい外観を得られます 。

Apple Intelligenceの統合

AppleはAI機能(Apple Intelligence)も大幅に強化しました。まず開発者向けには、デバイス上で動作する大規模言語モデルへのアクセスを提供する「基盤モデルフレームワーク」を発表しました 。このフレームワークを使うことで、アプリ内でオフライン・プライバシー保護されたAI推論機能を無料で利用できるようになります 。Swiftにネイティブ対応しており、わずか3行のコードでApple Intelligenceのモデルにアクセス可能、生成的な文章作成やツール呼び出しなどの機能も組み込まれているため、既存アプリに高度なAI機能を簡単に追加できます 。実例として、日記アプリ「Day One」ではこのフレームワークを利用し、ユーザーのプライバシーを尊重しながらインテリジェントな支援機能を実現しています 。

  • 基盤モデルフレームワーク: 「Apple Intelligenceをベースに、無料のAI推論を利用して、インテリジェントでオフラインでも利用できる新たな体験を提供する」フレームワークが追加されました 。これにより、メモやメールなどのアプリでユーザーの入力をAIで拡張したり、自動要約や文脈理解機能などを組み込んだりすることが可能になります。
  • XcodeとAI: Xcode 26ではChatGPTなどの大規模言語モデルが統合されており、開発者はコード生成やテスト生成、デザインの反復、バグ修正などのタスクでAIを活用できます 。APIキーを使って別のモデルを利用したり、Appleシリコン上でローカルモデルを動かすこともでき、ChatGPTはアカウントなしですぐに利用可能です 。
  • その他のAI機能: ショートカット(Automation)からApple Intelligenceを直接呼び出す機能が追加され、翻訳や画像解析などのAI機能がより身近になります 。また、Apple製品全体では翻訳やビジュアル検索、絵文字生成(Genmoji)などエンドユーザー向け機能も強化されています 。

Xcode 26とSwift 6.2

開発環境も大きく進化しています。Xcode 26では前述の大規模言語モデル統合に加え、開発効率を高めるさまざまな機能が加わりました。たとえばCoding Toolsという機能では、コードのどこからでもプレビューやテスト生成、問題解決などの提案をインラインで受けられ、コーディングの流れを中断せずに作業できます 。また、音声コントロールが強化され、音声でSwiftコードを入力したり、Xcode操作を行ったりできるようになりました 。

  • LLM対応: XcodeにChatGPTなどのLLMがビルトインされ、外部APIやローカルモデルも利用可能に 。AIによるコード生成・ドキュメント作成・バグ修正支援がIDE内部でシームレスに利用できます。
  • ユーザーインタフェース: Xcode 26ではナビゲーションUIの再設計やローカリゼーションカタログの改善など、開発者の作業効率を高める細かな改良も行われています 。
  • Swift 6.2: プログラミング言語Swiftも6.2に更新され、パフォーマンスと並行処理機能が強化されました 。特に、C++やJavaとの相互運用性が向上し、オープンソースの協力でWebAssembly対応も実現しています。また、従来Swift 6で厳格になった並行処理の指定も簡素化され、モジュールやファイル単位でmain actor実行をデフォルト設定できるようになりました 。
  • 新ツール: ContainerizationフレームワークによりMac上でLinuxコンテナが直接動作可能になり、Windows環境からリモートのMacでMac向けゲーム開発を行えるMac Remote Developer Toolsなども提供されます 。加えてGame Porting Toolkit 3Metal 4など、ゲーム開発向けのツール・ライブラリも刷新され、より高度なグラフィックと機械学習のサポートで次世代ゲーム開発を支援します 。

visionOS 26とゲーム関連技術

Apple Vision Pro向けのOS「visionOS」も26にアップデートされ、空間体験やゲーム機能が強化されました。ウィジェットを空間内に固定表示できるようになり、物理空間に溶け込むインタラクションが可能になります。さらに生成AIを使って写真にリアルな奥行きを加えた「空間シーン」や、ユーザーのアバター「Persona」の表現強化などでより没入感が高まっています 。同じ部屋にいる他のVision Proユーザーと空間体験を共有し、3D映画を一緒に観たり、共同作業したりできる機能も追加されました 。

  • 空間体験の拡張: ウィジェットが空間に固定されるようになり、環境に合わせた自然な表示が可能です 。また、360度カメラや広角カメラからの映像に対応するほか、企業向けAPIによりカスタムの空間体験をアプリに組み込めます 。
  • 共有機能: Vision Pro同士でコンテンツを共有し、3Dムービー視聴や空間ゲームプレイ、遠隔地の参加者を交えたFaceTimeなどが楽しめます 。
  • ゲームサポート: PlayStation VR2のSenseコントローラに対応し、より没入感の高い新ジャンルのゲーム体験が実現します 。同時に、Game Porting ToolkitMetal 4の強化も進められ、MacでもPC/コンソール向けゲームの移植・開発が容易になっています 。

SwiftUIの新機能

UIフレームワークSwiftUIにも多くのアップデートがあります。前述のLiquid GlassデザインはSwiftUIコンポーネントにも組み込まれ、ツールバーやタブバー、検索フィールドなどにガラス状のエフェクトが適用できます 。検索フィールドはiPhoneでは画面下部に表示されるなど、操作性の向上が図られました 。さらに、Webコンテンツ埋め込みやリッチテキスト編集、3D空間でのビュー配置など、高度な表現機能が追加されました 。フレームワーク自体のパフォーマンスも改善され、新しいインストルメント(計測ツール)により効率的に最適化できるようになっています 。

  • Liquid Glass対応: 多くのツールバー項目やタブバーがLiquid Glassスタイルになり、遷移時には形状が滑らかに変化します 。ツールバーアイテムには色付け(Tint)が可能になり、コンテンツスクロール時にはツールバーにブラー効果が自動適用されるようになりました 。
  • レイアウト・検索: searchable モディファイアの変更なしで、iPhoneでは検索フィールドが下部に表示されるデザインに切り替わります 。タブアプリでは検索タブが分離され、検索タブがフィールドにモーフィングする新しい挙動になりました 。
  • 新機能: WebViewを使わずにWebコンテンツを表示できる組み込みビューや、リッチテキスト編集機能が追加されました 。加えてSwiftUIで3D空間上にビューを配置する機能も導入され、空間アプリ開発がサポートされます 。

今後の展望

WWDC25で示された新機能群は、Appleプラットフォーム全体の一体化と進化を強く印象づけるものです。Liquid GlassがOSの隅々に浸透することで、ユーザー体験はより直感的で美しいものになります。同時に、Apple Intelligenceの統合やXcodeのAI強化、visionOSやゲーム技術の充実により、開発者はこれまで以上に先進的なアプリを生み出す機会を得ました。各プラットフォーム間で共通化されたデザインや新たなAPIを活用すれば、質の高い体験を短時間で実現できるでしょう。今後のOS更新とツールの公開が待ち遠しい限りです。

AI調理家電が拓くスマートキッチンの未来

シャープ新製品:AI搭載ウォーターオーブン「ヘルシオ」

SHARPニュースリリースサイトより引用

シャープは2025年6月、ウォーターオーブン「ヘルシオ」の新モデル2機種を発表しました。それに合わせて業界初となる生成AI技術を使った音声対話サービス「クックトーク」を開始 。ヘルシオは2016年にWi-Fiを搭載して以降、クラウド経由でレシピ提案や自動調理メニューの追加など“進化”し続けてきました 。今回の「クックトーク」ではスマホからキャラクター相手に話しかけるだけで、献立の悩み相談や調理方法の質問に対してAIが自然な対話で答えてくれるのが特徴です 。たとえば「冷蔵庫に○○があるけど何作れる?」と聞けば、おすすめレシピを提案してくれるので、毎日の献立決めがグッとラクになります。

ヘルシオ本体の機能面でも便利さが向上しています。1~2人分を手軽にグリル調理できる専用「ヘルシオトレー」が付属し、少量調理メニューが拡充。さらにできたてのように温め直す「ヘルシオあたため(おいしさ復元)」機能にも新たに対応し、冷めた料理を美味しくリメイクできます 。また自動調理機能の「らくチン1品」も進化し、冷凍した食材や市販の冷凍野菜にも対応しました 。シャープは「電子レンジ累計1億5千万台突破」という実績もあり 、AIで培ったノウハウを活かして今後も日々の食生活を豊かにする商品開発を続けるとしています。

国内メーカーのAI調理家電いろいろ

シャープ以外の国内主要メーカーも、AIを活用した様々な調理家電やサービスを展開しています。まずパナソニックは、高機能オーブンレンジ「ビストロ」シリーズ向けにAI料理パートナー「Bistroアシスタント」というサービスを開始しました 。これはLINEの公式アカウント上で利用できる月額サービスで、チャットで質問すると生成AIがユーザーの好みやライフスタイルに合わせた最適なレシピ提案や、調理中の疑問への回答をリアルタイムで返してくれるというものです 。まるでプロのシェフが隣についてサポートしてくれる感覚で、料理が完成するまでの様々な悩みに寄り添ってくれます 。ビストロ購入者向けには月額330円で利用でき、非購入者でも最新ビストロをレンタル(本体込み月額3,980円)でサービスを使えるプランが用意されています 。レンジとAIアシスタントを組み合わせた新提案として注目されています。

次に象印では、自動調理鍋「STAN.(スタン)」シリーズでユニークな取り組みがあります。専用レシピを活用した献立自動作成アプリ「me:new(ミーニュー)」と提携し、AIが最長1週間分の献立を自動生成してくれるサービスを試験提供しました 。材料を入れてボタンを押すだけの電気調理鍋と、AI献立アプリを組み合わせることで、「もう献立選びに迷わない」とうたっています 。これは毎日の献立決めという主婦(主夫)層の悩みを解決する好例でしょう。また象印の高級炊飯器では、「AI」搭載をうたって過去の炊飯データを学習し火加減を調整するモデルもあります 。炊飯器が使うほどユーザーの好みに炊き加減を最適化していくという、まさに熟練の職人の勘を模したようなAI活用です。

日立の調理家電も負けていません。過熱水蒸気オーブンレンジ「ヘルシーシェフ」シリーズでは専用の**「ヘルシーシェフ」アプリを提供しており、本体にない新しいレシピを次々クラウド配信してレパートリーを増やせます 。アプリはクックパッド等の人気レシピとも連携し、スマホでメニュー検索や提案が可能です。さらにユーザーの嗜好に応じたおすすめレシピを毎日アプリ上で提案**してくれる機能もあり 、「いつでもあなたに合ったレシピが表示されます」とアピールしています 。AIという言葉こそ前面には出していませんが、好みの傾向を学習してパーソナライズしたメニュー提案を行う点で、広義のAI活用と言えそうです。

そして三菱電機では、調理“家電”とは少し異なりますが最新冷蔵庫にAI技術を導入しています。同社の「切れちゃう瞬冷凍A.I.」機能搭載の冷蔵庫では、扉の開閉タイミングや回数をAIが学習し、自動で最適なタイミングで瞬冷凍モードを作動します 。これにより食材を素早く部分冷凍して、使いたい分だけサクッと切り出し、残りは再冷凍といった効率的な下ごしらえが可能になります 。各家庭の生活パターンに合わせて冷凍・冷蔵の運転を賢く制御し、食品ロスや調理時間の削減に寄与する取り組みです。

CESで見えたフードテック最前線とAI調理家電の方向性

世界最大の家電見本市CESでは2024年・2025年と続けて、スマートキッチンやAI調理家電の最先端技術が多数紹介されました。そこから見えてきた今後の方向性として、パーソナライズ、健康志向、持続可能性、そしてデバイス連携といったキーワードが浮かび上がります。

まずパーソナライズの例としては、パナソニックがCES2024で発表したスマートオーブンのAIクッキングアシスタントが挙げられます。スマートキッチンプラットフォーム企業Fresco社と組んだこのAIは、ユーザーの食の好みや栄養ニーズに合わせてレシピをカスタマイズしたり、手持ちの食材に応じて代替材料を提案してくれるといいます 。複数機能搭載の「ホームシェフ」オーブンで調理する際、例えば「レシピの4人分を2人分に減らしたい」「牛乳がないけど豆乳で代用できる?」といった要望にAIが即座に対応し、温度・時間設定まで自動調整。まさに一人ひとりに最適化された料理体験を実現しようとしています 。

健康志向の面では、Samsung(サムスン)が披露した最新スマート冷蔵庫が象徴的です。CES2024で発表された「Bespoke 4-Door Flex 冷蔵庫 with AI Family Hub+」は内蔵カメラAI Vision Insideで最大33種類の食材を認識し 、ユーザーが冷蔵庫内の在庫や賞味期限を一目で把握できるようにしています。さらにSamsung Healthアプリと連動し、ユーザーの健康データに基づいたレシピ提案まで行ってくれるとのこと 。例えばカロリーや塩分を控えたい人にはそれに見合ったメニューをおすすめしてくれるわけです。冷蔵庫の大型スクリーンでYouTubeの料理動画を見たり、スマホ画面をミラーリングしてレシピを表示するといったIoT連携も充実 。キッチンが健康管理や情報発信のハブになりつつあることが伺えます。

また、CESには大小さまざまなフードテック・スタートアップも集結しており、彼らのアイデアからは持続可能性や省力化のヒントが見えます。例えばあるスマートBBQグリルはカメラで食材を認識し、クラウド経由で写真からレシピを自動生成してくれるそうです 。さらに内蔵する生成AI「Vera」に質問すれば「もっとスパイシーにするにはどの調味料を足せばいい?」といった相談にも答えてくれ、レシピが決まったら後はグリルが自動で調理してくれるとのこと 。経験や勘に頼らずともAIがプロ並みの焼き加減を実現してくれるので、バーベキュー初心者でも失敗なく美味しく焼けるといいます 。他にも、食材に応じて温度・時間を自律調整するワンタッチ調理のAIフライヤー や、自動でフラットブレッドを捏ねて焼く調理ロボット 、スパイスを最適配分してくれるスマートディスペンサー等、キッチンの自動化・省力化につながる製品が多数登場しました。

これらCESでのトレンドは、AI調理家電がよりユーザー個々のニーズに寄り添い、健康や環境に配慮し、そしてキッチン全体がシームレスに繋がる方向に進んでいることを示しています。AIがレシピをパーソナライズし、在庫や栄養を管理し、必要なら自動で調理までしてくれる世界——それは忙しい現代人にとって理想的な「スマートキッチン」の姿かもしれません。

AIに料理を任せて大丈夫?懸念と安全対策

便利なAI調理家電ですが、一方で「本当に任せて平気?」「AIが暴走したりしない?」といった不安の声もあるでしょう。典型的な懸念としては、例えば「AIが調理を拒否するような事態はないのか?」とか「間違った調理指示を出して失敗や事故につながらないか?」といった点が挙げられます。

まず「調理を拒否する」ケースについてですが、現時点で一般的な調理家電のAI機能はあくまでユーザーの指示や利便性向上のために働くものです。メーカーも「外部からの指令で勝手に動作を制限するような設計はしていない」と明言しています。 実際、スマートオーブンのAI機能は火加減の自動調整や省エネ運転などが中心で、ユーザーが使おうとしたときに勝手にロックがかかるようなものではありません 。例えば「電力会社や政府の意向で夕飯時にレンジが動かなくなるのでは?」という噂もありますが、そうした外部からの制御は現在の家電AIには組み込まれていないのが実情です 。基本的に賢い助手ではあっても主人(ユーザー)の許可なくキッチンを仕切ることはないので、その点は過度に心配しなくて良いでしょう。

次に「AIの誤作動でおかしな調理が行われる」リスクについて。こちらは十分注意が必要なポイントで、特に生成AIを使ったレシピ提案では過去にヒヤリとする事例も報告されています。海外ではスーパーの実験的なレシピBOTがChatGPTを使った際、ユーザーが入力した有毒な組み合わせの材料(漂白剤+アンモニアなど)に対し、致死性の有毒ガスを発生させる“殺人レシピ”を生成してしまったケースがありました 。もちろん通常の料理ではあり得ない材料ですが、AIは与えられた指示に従順なため、入力次第では危険な結果も起こり得るという教訓です。この件を受けて、そのスーパーではAIに自由な材料入力をさせずあらかじめ定義された安全な食材リスト内で組み合わせる方式に変更する対策を講じています 。同様に、各社のAIクッキングサービスでも不適切な回答や誤った手順を出さないようフィルタリングを強化していると考えられます。例えばSharpやPanasonicの対話型AIも、ベースとなるレシピデータは自社や提携先の蓄積した信頼できる料理データに限定し、暴走しないようチューニングされているでしょう。

またハード面の安全対策も進んでいます。AIカメラで調理の様子を見守り、焦げそうになると通知してくれるオーブンが登場しており、サムスンのBespoke AIオーブンは100種類以上の料理を認識して**「焦げる前」に警告してくれるそうです 。これはユーザーの「うっかり」をカバーし、キッチン火災などを未然に防ぐ心強い機能です。さらに調理ロボットにも異常検知や自動停止の仕組みが組み込まれており、たとえばCESに出展したあるロボット調理機はセンサーで異常を感知すると**「オートストップ」して安全を確保**する設計でした 。このように、AI+センサー技術で人間には難しい微妙な加減をコントロールしたり、逆に人間のミスをカバーしたりと、安全性はむしろ高まっている面もあります。

とはいえ、最終的に料理の責任を負うのは利用者自身です。AIの提案に疑問があれば無理に従う必要はありませんし、調理中は適宜人間の目で確認するのが大事です。幸い現在のAI調理家電は「人の良きアシスタント」に徹するよう設計されていますので、上手に活用しつつも過信しすぎないバランス感覚が肝要でしょう。便利さと安全性を両立させながら、AIとの新しい料理体験を楽しみたいですね。

参考文献

間もなく開幕、WWDC 2025──Appleが目指す次のエコシステム

Appleの年次開発者イベント「WWDC 2025(Worldwide Developers Conference)」は、**現地時間2025年6月9日(月)午前10時(日本時間6月10日(火)午前2時)**に開幕予定です。例年通りオンラインでのストリーミング配信が行われ、初日の基調講演では各OSの最新情報や新機能が発表される見込みです。

はじめに

Appleが毎年開催する開発者会議「WWDC 2025」が間もなく開幕します。例年、iPhone向けのiOSやMac向けのmacOSをはじめ、iPad、Apple Watch、Apple TV、さらにはVision Pro用のvisionOSまで各OSの大型アップデートが発表されており、今年も同様の発表が見込まれています。WWDC直前のBloomberg報道では、今年のOSは従来の「iOS 19」ではなくリリース年に合わせた番号になるとの情報が伝えられており、今回のイベントでiPhone用OSが**「iOS 26」と命名される可能性が高いです。その他のiPadOSやwatchOS、tvOS、visionOSも同様に「26」**に統一されると見られ、2025〜2026年に提供される世代であることが一目で分かるようになります。

もう一つの注目点は、2013年以来となる大胆なUIデザインの刷新で、「iOS 26はiOS 7以来の大改訂になる」と予想されています。加えて、昨年WWDC 2024で明かされたAppleのオンデバイスAI戦略「Apple Intelligence」を踏まえ、Siriを中心としたAI機能の強化も今年の主要テーマとなる可能性が高いです。

それでは、WWDC 2025にて発表が見込まれているOSや新機能について、現時点での情報を元に予測として整理します。

iOS 26:iPhone向けOSの大幅刷新が予想されます

iOS 26」では、UIデザインの一新が最大の注目点となっています。社内コードネーム「Solarium」と呼ばれるこのプロジェクトでは、ガラスのような半透明デザインが採用されると報じられており、2013年のiOS 7以来の大規模なビジュアルアップデートになると期待されています。

新しいインターフェースでは、通知や検索バー、メニューなどが浮かぶように表示され、影や照明効果が立体感を演出するスタイルになると予測されています。

  • 「Games」アプリ: Game Centerに代わるゲーム専用ハブアプリ「Games」が搭載されるとの噂があり、Apple Arcadeなどのゲームを統合的に管理できるようになる可能性があります。
  • 「プレビュー」アプリ: macOSに搭載されているPDF/画像編集アプリ「Preview」がiPhoneやiPadにも搭載されると報じられています。
  • 電話アプリの強化: お気に入り・履歴・留守電などを1画面に表示する新UIや、リアルタイム翻訳機能の搭載が予測されています。
  • メッセージ機能の追加: グループ内投票機能や背景画像の個別設定など、チャット体験の向上が期待されています。

iPadOS 26:Macライクな機能の追加が見込まれます

iPadOS 26」もiOSと同様のガラス調UIを採用しつつ、Magic Keyboard接続時にメニューバーが表示されるなど、Macに近い操作体系が導入されるとされています。これにより、生産性を高めるための改善が進む見込みです。

また、Apple Pencilではカリグラフィー用途の「リードペン先」の新オプションが追加されるとの情報もあり、手書き機能の拡充が期待されます。

macOS 26 “Tahoe”:Mac向けの新名称と共に発表される見込みです

次期Mac用OSは「macOS 26」で、コードネームは「Tahoe」である可能性が高いと報じられています。UIの刷新に加え、ショートカットアプリの改善や、Appleシリコンに最適化された機能強化が行われる見込みです。

旧Intel Macの一部モデルは今回のアップデート対象外になる可能性があるとされており、Appleシリコン以降の機種が中心となると考えられています。

watchOS 26:UIの調整と新しい操作性の導入が予想されます

watchOSでも新しいUIが導入され、より浮き出たような立体感のあるインターフェースが採用される可能性があります。また、コントロールセンターのカスタマイズ機能拡張により、サードパーティアプリへのアクセス性が向上するとみられています。

睡眠検知とAirPodsの連携により、寝落ち時に自動で再生を停止する機能の追加も噂されています。

tvOS 26とhomeOS:ホーム戦略の拡大に向けた兆しがあります

tvOS 26に関しては大きな刷新はないと見られていますが、内部番号の統一や安定性向上が行われると予測されています。一方、Appleは「homeOS」と呼ばれるホーム向け新OSの準備を進めているとの報道もあり、スマートディスプレイ型HomePod向けに何らかの発表があるか注目されています。

visionOS 26:Vision Pro向けの改良と新しい入力操作が期待されます

visionOSの次期バージョン「visionOS 26」では、視線によるスクロール操作や他社製VRコントローラーへの対応が追加される可能性があります。これにより、手を使わずに直感的な操作が可能になると期待されています。

Apple IntelligenceとAI統合の拡大が見込まれます

WWDC 2025では、Appleが掲げる「Apple Intelligence」戦略に沿ったAI機能の強化が進むとみられています。特に、電話でのリアルタイム翻訳や、iMessageにおける絵文字生成機能「Genmoji」など、生成AIの活用が予測されています。

また、Googleの大型言語モデル「Gemini」をSiriに統合するという報道もあり、Siriの強化に外部AIが活用される可能性も注目されています。

まとめ

WWDC 2025では、Appleの各プラットフォームにおけるUIの刷新AIの活用が主要テーマになると予想されています。イベントの開催により、これらの予測がどこまで実現されるかに注目が集まります。例年通りであれば、基調講演後すぐに開発者向けベータ版が公開され、夏にはパブリックベータ、秋には正式リリースが行われる見通しです。

参考文献


生成AIはなぜ事実と違うことを言うのか?ハルシネーションの原因とその影響

はじめに

近年、ChatGPTをはじめとする生成AI(Generative AI)が大きな注目を集めています。その一方で、ハルシネーションと呼ばれる現象によってAIが事実と異なる回答を返す問題も広く認識されるようになりました。ハルシネーションとは一体何なのでしょうか?この現象の背景や原因を正しく理解し、対策を知ることは非常に重要です。

本記事では、生成AIにおけるハルシネーションの技術的背景と発生要因を解説し、それによって引き起こされる問題点や各分野への影響、実際に起きた事例を紹介します。さらに、現在講じられている主な対策と今後の展望・課題について、できるだけ分かりやすく説明していきます。

ハルシネーションの技術的背景と発生要因

ハルシネーションとは、AIが事実ではない誤った情報や回答をあたかも事実であるかのように生成してしまう現象のことです。人工知能がまるで幻覚(hallucination)を見ているかのように感じられることから、この名前が付けられました。

では、なぜ生成AIはそのような誤回答を自信満々に作り出してしまうのでしょうか。その技術的背景には、大規模言語モデル(LLM)の動作原理が深く関係しています。多くのLLMでは、人間の会話や文章を学習データとして「次に最もあり得る単語」を予測しながら文章を生成する自己回帰型生成という手法が使われています。つまり、モデルは真実かどうかよりも「もっともらしい文章」を作るよう設計されているのです。そのため、十分な知識や文脈が無い質問に対しても、それらしく辻褄の合った回答を作り出そうとする傾向があります。

ハルシネーションが発生する具体的な原因としては、次のような要素が指摘されています:

  • 質問や指示が不明瞭であること:質問文が曖昧だったり情報が不足していたりすると、モデルは不確かなまま「もっともらしい単語」を並べて回答してしまいます。本来であれば「その質問内容では情報が足りません」といった返答が望ましい場面でも、特に性能が限定されたモデルでは誤った回答を生成しがちです。プロンプト(指示文)を明確にすることが重要だとされる所以です。
  • 学習データの偏りや不足:AIが学習したデータにバイアス(偏り)があったり情報量が不十分だったりすると、対応できる知識の範囲が狭まります。その結果、学習データに存在しない事柄について問われると誤った情報で埋め合わせてしまうことがあります。例えば、トレーニングデータが古い場合には最新の事象に関する質問に答えられず、ありもしない回答を作ってしまうといったケースです。
  • モデルの構造上の限界:モデル自体の設計や学習プロセスにも原因があり得ます。たとえば極端に複雑なモデル構造や不適切な学習によって、データにないパターンや特徴を生成してしまうことがあります。過学習を十分に防げていない場合や、学習データ自体に誤りが含まれる場合にも、間違った関連性を「学習」してしまい結果的に誤情報を吐き出す要因となります。モデルの巨大さゆえに内部で何が起きているか解釈が難しいことも、誤った出力を検知・抑制しづらい理由の一つです。

以上のように、生成AIのハルシネーションは**「もっともらしさ」を優先する言語モデルの性質データや入力の問題によって引き起こされます。モデルが大きく高性能になるほど正確性は向上する傾向にありますが、それでもハルシネーションを完全になくすことは難しい**とされています。要するに、現在の生成AIは優秀ではあるものの、根本的に「嘘をつく可能性」を内包したままなのです。

ハルシネーションがもたらす問題点

生成AIのハルシネーションは、単に回答が外れる程度の些細な問題から、深刻な誤りまでさまざまな影響を及ぼします。場合によっては人間が見れば笑い話のような明らかな間違い(例えば「ピザの具材をくっつけるために接着剤を使うべき」といった荒唐無稽な回答)で済むこともあります。しかし最悪のケースでは、医療や法務の分野で重大な誤情報を与えたり、差別的・危険な判断を引き起こしたりする可能性があります。つまり、精度が求められる場面でハルシネーションが起これば、現実社会に直接的なリスクをもたらしかねないのです。

また、ハルシネーションによる期待外れの回答が続くと、ユーザーの信頼を損ねるという問題も見逃せません。Deloitteの技術倫理責任者であるBeena Ammanath氏も「ハルシネーションは信頼を損ない、ひいてはAI技術の普及を妨げる可能性がある」と指摘しています。実際、生成AIが誤情報をもっともらしく発信してしまう現状では、ユーザーは**「AIの言うことだから正しい」と鵜呑みにできない**状態にあります。出力された回答をいちいち検証しなければならないとすれば、せっかくのAIの利便性も半減してしまいます。

さらに深刻なのは、ハルシネーションが社会的・法的なトラブルを引き起こすケースです。ハルシネーションによる誤情報で人や企業の名誉が傷つけられたり、権利が侵害されたりすれば、訴訟問題に発展する可能性もあります。実際に、あるオーストラリアの地方自治体の市長はChatGPTが虚偽の汚職疑惑情報を回答したことに対して抗議し、訂正がなされない場合はOpenAI社を提訴すると表明しました。このように、ハルシネーションが原因で裁判沙汰になるほどの重大なトラブルも現実に起き始めているのです。

エンジニアにとっても、生成AIの誤回答は無視できない問題です。たとえば社内でAIを活用している場合、ハルシネーションにより誤った分析結果や設計ミスが発生すれば業務効率の低下や経済的損失につながる恐れがあります。要するに、ハルシネーションは放置すれば信頼性・生産性の低下を招き、場合によっては深刻なリスクに直結するAIの弱点と言えるでしょう。

医療・教育・法務・ジャーナリズムへの影響

ハルシネーションの問題は幅広い分野で懸念されています。特に医療、教育、法務、ジャーナリズムといった領域では、誤情報の影響が大きいため慎重な扱いが求められています。それぞれの分野でどのような影響やリスクが指摘されているのか見てみましょう。

  • 医療分野: 医療現場で生成AIが誤った指示や診断を出すと、患者の生命に関わる重大な結果を招きかねません。例えば、医療用のAIチャットボットがありもしない治療法を「有効だ」と答えてしまったり、医師の音声記録を文字起こしするAIが患者に対する指示を捏造して付け加えてしまったケースも報告されています。米AP通信の調査によれば、医療で使われる音声認識AIが幻覚的な誤訳を起こし、人種差別的なコメントや暴力的発言、さらには架空の治療法まで出力してしまった例があったとのことです。このような誤情報は医療の信頼を損ない、誤治療や取り返しのつかない事故につながる恐れがあります。
  • 教育分野: 教育現場でもハルシネーションの影響が懸念されています。学生がレポート作成や調べ学習にAIを利用する場合、歴史的事実や科学的データの誤りがそのまま学習内容に反映されてしまう危険があります。例えば、AIが存在しない参考文献や間違った年代・統計をもっともらしく示した場合、気付かずにそれを引用してしまうと誤った知識が広まってしまいます。教師や教育機関側も、AIが作成した文章をチェックしないとカンニングや誤情報の提出を許してしまう可能性があります。こうした理由から、教育分野ではAI活用においてファクトチェックや指導者による確認が不可欠だと指摘されています。誤ったAI回答に頼りすぎると、本来身に付くはずの調査力や批判的思考力が損なわれる懸念もあります。
  • 法務分野: 法律の世界でもAIのハルシネーションによる混乱が現実に起きています。典型的なのは架空の判例や法律をAIがでっち上げてしまうケースです。2023年には、アメリカ・ニューヨークの弁護士がChatGPTを利用して作成した法廷ブリーフに、実在しない判例の引用が含まれていたため裁判官から制裁を科せられる事件が発生しました。このケースでは、ChatGPTがそれらしい判例名や判決文をでっち上げ、弁護士もそれを鵜呑みにしてしまったのです。幸い判事の指摘で発覚しましたが、もし見逃されていたら誤った法的判断につながりかねず非常に危険でした。法務分野ではこのようにAIの回答をうのみにできない状況であり、信頼性確保のため厳格な検証プロセスやガイドラインが求められています。
  • ジャーナリズム分野: ニュース記事の要約や執筆へのAI活用も進みつつありますが、報道における誤情報は社会に大きな影響を与えるため慎重さが必要です。イギリスBBCが主要なAIチャットボットのニュース回答精度を調査したところ、91%の回答に何らかの問題があり、そのうち約19%には事実誤認(日時や統計の誤り)が含まれ、13%には記事中の引用が改変または捏造されていたと報告されています。これはジャーナリズムの分野でAIが情報を歪曲する深刻なリスクを示しています。実際、米メディア大手のCNETでは試験的にAIに書かせた金融記事で半数以上に誤りが見つかり、後日人間が訂正する事態となりました。ニュース機関にとって信頼性は命であり、AIによる誤報が続けば読者からの信用を失いかねません。そのため各社とも、AIが作成したコンテンツには厳重なファクトチェックと編集者の確認を義務付けるなど対策を講じ始めています。

実際に起きたハルシネーション事例

ここでは、ハルシネーションに関連する具体的な事例をいくつか紹介します。企業やプロジェクトで実際に発生したケースから、問題の深刻さを実感してみましょう。

  • Google Bardの誤回答事件: 2023年2月、Googleが発表した対話型AIサービス「Bard」が宣伝動画の中で事実と異なる回答をしてしまい、大きなニュースになりました。Bardは天文学に関する質問に対し、あたかも正しいかのように誤った説明を返答。そのミスにより投資家の不安を招き、Google親会社Alphabetの株価は約1000億ドル(13兆円)もの時価総額を失う事態となりました。この例は、生成AIの一つの誤答が企業に甚大な経済的影響を与えた典型と言えます。
  • ChatGPTによる架空判例引用事件: 前述の法務分野のケースです。2023年、ニューヨークの弁護士がChatGPTを用いて作成した訴状に、ChatGPTがでっち上げた存在しない判例の引用が含まれていました。裁判所はこの弁護士とその同僚に対し制裁金を科す判断を下しています。当事者の弁護士は「テクノロジーがありもしない判例を作り出すとは思わなかった」と釈明しましたが、AIの回答を十分に検証せず利用したリスクが表面化した事件でした。
  • 医療音声記録でのAI捏造事件: OpenAI社の提供する音声認識AI「Whisper」を病院での診療記録の文字起こしに使用したところ、録音にないはずの発言をAIが勝手に付け加えてしまった事例があります。調査によれば、その捏造されたテキストの中には患者に関する不適切なコメントや架空の治療指示まで含まれていました。この問題により、本来存在しない指示に従ってしまう危険や、カルテ記録の信頼性が損なわれるリスクが指摘されています。医療現場でのAI導入において、人間による内容チェックの重要性を痛感させる出来事でした。
  • CNETのAI記事大量誤り事件: 米国のIT系メディアCNETは試験的にAIを使って金融記事を自動生成し公開していましたが、外部からの指摘により多数の記事で誤りが発覚しました。編集部が全77本のAI生成記事を精査したところ、その半数以上にあたる41本で修正が必要な誤りが見つかったと報告されています。この件でCNETはAI記者の運用を一時停止し、人間の手によるレビュー体制を強化する対応を取りました。専門家は「AIの記事生成は魅力的だが、現状では人間のチェックなしでは誤情報が紛れ込むリスクが高い」とコメントしており、メディア業界に大きな教訓を残した事例です。

ハルシネーションへの主な対策

深刻な問題を引き起こしかねないハルシネーションに対し、現在さまざまなレベルで対策が講じられています。ここでは主な対策をいくつか紹介します。

  • 出力の検証とファクトチェック: 最も基本的な対策は、AIの出力を人間や別の仕組みで検証することです。専門家も「生成AIの台頭に伴い、出力内容の検証(バリデーション)の重要性がこれまで以上に高まっている」と強調しています。具体的には、AIが回答した内容について信頼できる情報源と照合する、あるいはAI自身にもう一度問い直して自己検証させる(同じ質問を複数回聞いて一貫性を確認する、自信度を出力させる等)方法があります。企業によっては、AIの回答を評価・採点する別AIを組み合わせて誤情報を検出する取り組みも進んでいます。いずれにせよ、人間の目によるファクトチェック体制を組み込むことが現在のところ不可欠と言えるでしょう。
  • 外部知識の活用(RAG): Retrieve Augmented Generation(RAG)と呼ばれる手法も有効とされています。RAGではモデル単体に任せるのではなく、外部のデータベースや検索エンジンから関連情報を取得し、それをもとに回答を生成させるアプローチを取ります。モデルが自前の「記憶」だけで答えを作るのではなく、常に最新で信頼できる情報源にあたって裏付けを取るイメージです。実際、研究者らはこの方法でモデルの回答の正確性が向上しハルシネーションが減ることを確認しています。現在Bingなどの一部の検索エンジン統合型チャットAIや企業向けのAIソリューションで、このRAGの考え方が取り入れられています。
  • フィルタリングとガードレールの設定: モデルから出力されるテキストをフィルタリング(検閲)したり、あらかじめガードレール(安全策)を設けておくことも重要です。具体的には、明らかに事実誤認の疑いが高い回答を自動的にブロック・修正するルールを組み込んだり、機密情報や差別的内容が出力されないよう出力内容に制限をかけたりすることが挙げられます。また、ユーザーからのプロンプトを解析し「この質問はハルシネーションが起きやすいかもしれない」と判断した場合に警告を出す仕組みも考案されています。さらに、生成AIの開発企業は人間によるフィードバック(RLHF: 人間のフィードバックによる強化学習)を通じてモデルが危険な誤情報を出しにくくなるよう調整しています。これらの出力制御と人間の介入によって、ハルシネーションの影響を最小限に留める工夫がなされています。
  • モデルの改良と訓練データの改善: 根本的な対策としては、モデル自体の改良も不可欠です。現在、多くの企業や研究機関がハルシネーションを減らすためのモデルの工夫に取り組んでいます。例えば学習データセットを精査して質を高める、最新情報を継続的に学習させて知識ギャップを埋める、モデルが**「分からないときは分からないと答える」よう訓練する**、出力に不確実性の指標を持たせる、といったアプローチが試みられています。最近の研究では、モデルの出力における意味的な不確実性を統計的に検知する新手法も開発されており、法律や医療の高リスクな応答において精度向上が期待されています。モデルのサイズをただ大きくするだけでなく、こうしたアルゴリズム面での改良によってハルシネーションを技術的に抑制しようという取り組みが進んでいます。

今後の展望と技術的課題

生成AIのハルシネーション問題に対する取り組みは日進月歩で進んでおり、最新のモデルでは以前よりも誤情報が出にくくなるなど着実に進歩は見られます。例えばGPT-4など最新のLLMは、旧世代モデルに比べ明らかに事実誤認の頻度が減少しています。それでもハルシネーションが完全になくなったとは言えないのが現状です。実運用の中では依然として注意深い対策と人間の目によるチェックが欠かせません。企業各社が対策を講じているとはいえ、「ハルシネーションを完全に抑制できた」と胸を張って言えるモデルはまだ存在しないのです。

技術的な課題として大きいのは、創造性と正確性のトレードオフです。生成AIの魅力は人間には思いつかないような独創的アイデアや文章を生み出せる点ですが、事実に厳密に沿わせすぎるとそのクリエイティビティが損なわれてしまう恐れがあります。逆に自由に生成させると誤りが増えるというジレンマに、研究者たちは頭を悩ませています。「有用で正確な結果を出しつつ、ブレインストーミングのような創造的提案もできるモデル」を目指し、どこまで制御しどこまで自由にさせるかのバランス調整が今後も課題となるでしょう。

また、モデルが大規模化・ブラックボックス化する中で、なぜ誤った出力が生じたのかを説明可能にする技術(Explainability)も重要課題です。出力に至るプロセスが解明できれば、ハルシネーションの発生ポイントを特定して対策を打てる可能性があります。現在のところ、一部の研究ではモデル内部の確信度を推定して「この回答はあやしい」と検知する試みが成功を収めつつあります。こうした説明可能なAIの研究も、ハルシネーション問題解決の鍵を握るでしょう。

最後に、エンジニアやユーザー側の姿勢も重要です。どれほどAIが進歩しようとも、人間が完全にチェックを怠って良いという段階には達していないことを認識する必要があります。現実には、最終的な責任を持つのはAIではなくそれを使う人間です。ある専門家は「究極的には、我々人間がテクノロジーを制御し、責任を持って使うことが求められる」と述べています。生成AIを上手に活用するためにも、「鵜呑みにせず必ず検証する」「重要な判断は人間が関与する」という基本を忘れないようにしたいものです。

今後の展望としては、ハルシネーションの問題は完全になくすことは難しくとも、徐々にその発生率を下げ安全に利用できる範囲を広げていく方向で技術は発展していくでしょう。実際、新たな手法やモデル改善によって医療や法務など慎重さが求められる分野でも生成AIを活用できる道が開けつつあるとの報告もあります。エンジニアにとっては、最新の研究動向を追いつつ適切なガードレールを設計・実装することが求められます。ハルシネーションと上手に付き合いながら、生成AIの恩恵を最大限引き出す——それがこれからのチャレンジであり、未来への展望と言えるでしょう。

iPhoneがマイナンバーカードに:6月24日からスマホで行政手続きが可能に

iPhoneでマイナンバーカードが利用可能に

デジタル庁は、2025年6月24日より、iPhoneにマイナンバーカード機能を搭載するサービスを開始します。

これにより、iPhoneのApple Walletにマイナンバーカードを追加し、以下のような行政サービスをスマートフォンだけで利用できるようになります:

  • マイナポータルへのログインや電子署名
  • 住民票や印鑑登録証明書などのコンビニ交付サービス
  • 医療費や年金記録の確認、引越し手続きなど

これらの機能は、iPhoneの生体認証(Face IDやTouch ID)を活用して、パスワード入力なしで安全に利用できます。

7月から対面での本人確認も可能に

2025年7月中には、「マイナンバーカード対面確認アプリ」のiOS版が提供され、iPhoneを使った対面での本人確認が可能になります。

これにより、携帯電話の契約や銀行口座の開設など、これまで物理的なマイナンバーカードが必要だった場面でも、iPhoneだけで本人確認が完了するようになります。

今後の展開:マイナ保険証やマイナ免許証への対応

デジタル庁は、2025年9月頃を目処に、iPhoneを健康保険証として利用できる「マイナ保険証」機能の導入を予定しています。

また、運転免許証との一体化を図る「マイナ免許証」についても、警察庁と連携して早期実現に向けた検討が進められています。

MetaとConstellationによる原子力エネルギー契約の意義

AI時代の電力需要急増とMetaの戦略的転換

近年、AI技術の飛躍的な進展により、データセンターを運営するハイパースケーラー企業の電力需要が著しく増大しています。特にMeta(旧Facebook)は、AI推論や学習に「膨大な電力を必要としており、再生可能エネルギーだけでは賄いきれない状況に直面」していました。このような背景のもと、2025年に発表されたMetaと米国大手電力会社Constellation Energy(以下、Constellation)との20年間にわたる核エネルギー供給契約は、AIインフラ維持における重要な転換点として注目されています。

過去最大級のバーチャルPPA

  • 契約規模: MetaはConstellationから「1,121メガワット(MW)の核エネルギーを、20年間にわたって購入する契約」を締結しました。これは、過去にMicrosoftとConstellationが締結した契約を「約35%上回る規模」であり、「この取引は、Microsoftとの契約よりも35%大きい規模です」とBloombergのアナリストが指摘しています。
  • 対象施設: この電力は、Constellationがイリノイ州に保有するクリントン原子力発電所(Clinton Clean Energy Center)の「全出力を引き取る」形となります。契約は2027年6月から開始されます。
  • 「バーチャル」契約の意義: この契約は、Metaが原発隣接地にデータセンターを設置するのではなく、電力網を介して供給を受ける「バーチャル取引」です。「データセンターを原子力発電所のそばに建設しなくても、必要な電力はバーチャルで調達できます。」この方式は、インフラ整備の手間を省きつつ、大容量かつ安定した電力を長期にわたり確保できるという大きなメリットがあります。
  • 既存発電所の延命と拡張: このPPAは、州が出資するゼロエミッションクレジット(ZEC)プログラムの終了後、「20年間にわたり同施設の再ライセンシングと運営をサポート」します。さらに、「アップレートにより、発電所の出力をさらに30MW拡大」し、合計で1.121GWに増加させる予定です。ConstellationのCEOであるJoe Dominguezは、「既存発電所の再ライセンシングと拡張を支援することは、新しいエネルギー源を見つけることと同じくらいインパクトがあります。前進する上で最も重要なことは、後退することをやめることです」と述べています。

AIインフラにおける電力需要と環境目標への影響

  • AI推論による電力負荷: これまでAIの電力需要は訓練段階に焦点が当てられがちでしたが、実際には「訓練よりも推論が、はるかに多くの電力を必要としています」とマンディープ・シン氏が指摘するように、継続的な推論処理こそが膨大な電力を消費します。Metaは月間30億人以上のユーザーを抱え、生成AIサービスの導入を進めており、その「CPUやGPUの稼働率を100%に維持するには、安定した電力供給が不可欠」と認識しています。
  • 環境目標と原子力発電: 多くのテック企業が「2030年までにネットゼロ(実質カーボンゼロ)」を目指していますが、AIの電力需要急増により「昨年、AIの急増で電力需要が跳ね上がり、ガスや石炭に依存せざるを得ない状況が生まれました。これは彼らのカーボンフリー目標に真っ向から反する」という問題が生じていました。原子力発電は稼働時にCO₂をほとんど排出しないため、Metaのように「クリーンエネルギー目標を達成しつつ、大量の電力を安定的に確保したい」企業にとって理想的な選択肢となります。また、核燃料コストを長期固定契約することで、発電コストの安定化も図れます。

Constellationの役割と原子力発電の再興

  • 既存ライセンスの活用: Constellationはイリノイ州に複数の原子力発電所を運営しており、今回の契約対象プラントは既に追加反応炉ユニットの許認可を取得済みです。これにより、「新規原発を一から建設するよりも、拡張や運営継続によるコストやリスクを抑えられ」ます。
  • 新規建設への期待: 米国では、過去のジョージア州の事例のように「最後に大規模原発が建設されたのはジョージア州ですが、完成には7年遅延し、予算も数十億ドル上振れしました。この経験が、多くの企業を二の足を踏ませてきたのです」という課題がありました。しかし、MetaやMicrosoftといった「アンカー」となるハイパースケーラー企業が大量の電力を長期契約する意向を示すことで、Constellation側には「大口顧客を確保できれば、新規反応炉ユニット建設への自信につながる」という期待が生まれています。これにより、資金調達の見通しが立ち、ライセンス取得済みサイトの活用、そして市場への信頼醸成へと繋がります。
  • Constellation株価の高騰: Metaの契約発表後、Constellationの株価は5%以上急騰し、5ヶ月ぶりの高値となる1株あたり340ドルを記録、時価総額は1,000億ドルを超えました。ConstellationはOpenAIのChatGPTリリース以降、S&P 500の期間中51%のリターンを大きく上回る230%以上のリターンを投資家にもたらしており、「AIが企業アメリカを再構築したことで、ウォール街で最大の勝者の1つ」となっています。
  • 政治的後押し: ドナルド・トランプ大統領は5月23日に、2050年までに米国の原子力エネルギー容量を4倍にするという大統領令に署名しており、この動きは原子力発電の再興をさらに後押しする可能性があります。「原子力エネルギーは、かつて見捨てられた存在でしたが、AIの飽くなきエネルギー需要と、太陽光や風力発電の間欠性を補うために追加のエネルギー源が必要であるという認識の高まりによって、復活を遂げています」とYardeni Researchの創設者Ed Yardeniは述べています。

エネルギーインフラのボトルネックとソリューション

  • 送電網の制約: 原子力発電所からの電力供給契約が結ばれても、データセンターへの電力輸送には送電網の容量とリードタイムが大きな課題です。「送電線は、2~3年のバックログがあるため、設備の建設は進んでも、最後に送電線がつながらず完成できないケースが散見されます。」
  • スタートアップによる革新: この課題に対応するため、エネルギー領域では以下のスタートアップが注目されています。
  • Heron(旧Tesla幹部創業): シリコンバレー発のgrid-scale用ソリッドステートトランスフォーマーを開発し、送電網の小型化・効率化を目指しています。
  • NIRA Energy: AIを活用したソフトウェアで、ガス、風力、太陽光など複数の発電リソースを統合管理し、グリッドオペレーターに最適な送電指示を提供します。「送電インフラは、巨大なルービックキューブのように複雑に絡み合っており、それを解くためには効率的なデータ管理と先進的な電力機器が必要です。」 これらの企業は、AIデータセンター向けの電力需要を見据えたマイクログリッド構築や高度な制御技術で、エネルギーインフラの課題解決を試みています。

長期的な展望と社会への波及効果

  • 小規模ビジネスへの影響: Metaが確保する安定した大量電力は、同社が提供するAI関連サービスを通じて、小規模ビジネスのマーケティングや業務効率化に好影響をもたらす可能性があります。「小規模ビジネスは、わずかなコストでAIを使ってビデオ広告やキャンペーン素材を生成できる時代が来るでしょう。」
  • 産業・社会への影響: Metaの20年にわたる核エネルギー固定価格契約は、以下の長期的なインパクトをもたらします。
  • データセンター運営コストの安定化: 電力価格の長期固定により、コスト変動リスクを抑え、収益見通しが明確化されます。
  • 原子力発電再興への機運醸成: 大手テック企業の契約は、「原子力発電はリスクが高い」という負のイメージを払拭し、新規建設や既存炉のライフ延長投資を活性化させる可能性があります。
  • クリーンエネルギーへの道筋: 他のハイパースケーラーや大企業も同様の長期契約に動くことで、「総発電量に占める脱炭素電源の比率が一気に高まる」可能性があります。 「私たちはまだAI普及の入り口に立っているに過ぎません。今後の数十年で、産業・社会全体がこのAI・エネルギーの交差点で変革を遂げるでしょう。」
  • 「エネルギー戦略がビジネス戦略と直結する時代」: Metaの契約は、単なる電力調達に留まらず、AI時代におけるエネルギー戦略のモデルケースとなり得るものです。今後10年、20年というスパンで見たとき、AIの推論負荷は増大し続けると予想され、企業が「エネルギー供給を誰と、どのように確保するか」は、AI競争の鍵を握る要素となるでしょう。私たちは現在、その大きな「転換点」を目撃していると言えます。

まとめ

AI技術の急速な発展により、特に推論処理を中心に電力消費が大幅に増加しています。これに伴い、再生可能エネルギーだけでは賄いきれない場面も多くなり、化石燃料への依存が再び強まる懸念があります。そのため、AIの持続的な発展には、原子力などの低炭素エネルギーの活用を含めた電力源の見直しと、環境負荷を抑える戦略的なエネルギー選択が不可欠です。

AIの仮面をかぶった人力サービス:Builder.aiの「Natasha」が暴いたAIウォッシングの実態

Builder.aiは、Microsoftの支援を受けた革新的なAIスタートアップとして注目されていましたが、実際にはAIではなく、700人のインド人エンジニアによる人力サービスであったことが判明し、破産に追い込まれました。

同社は「Natasha」というAIアシスタントがソフトウェアアプリケーションを組み立てると宣伝していましたが、実際には顧客のリクエストはインドのオフィスに送られ、エンジニアが手作業でコードを書いていたとのことです。

この詐欺により、Builder.aiは8年間で4億4500万ドル(約640億円)の投資をMicrosoftを含む大手IT企業から集めましたが、アプリケーションは頻繁に不具合を起こし、コードは判読不能で、機能は動作しないなどの問題が発生しました。

破綻の始まりは、2023年にBuilder.aiに5000万ドル(約70億円)を融資したViola Creditという資産管理会社が、Builder.aiの債務不履行を受けて差し押さえを行ったことでした。この措置により、Builder.aiは事業運営能力と従業員への給料支払い能力を喪失し、破産手続きに入りました。

また、Builder.aiとインドのコンテンツ発信プラットフォーム・VerSe Innovationとの間で、架空の取引をして売上高を水増しする「循環取引」の疑いも報じられています。VerSeはこれを否定しています。

現在、Builder.aiはイギリスで正式な破産手続きを開始しており、裁判所が任命した管財人が資産の回収または事業の一部の救済方法を検討しています。同社は「初期の失敗により回復不可能な状況」になったことを認めています。

この事件は、AI技術の実態と企業の透明性に対する警鐘となっています。

コントのような話しだが

自動販売機の中で人が飲み物を提供している、といったシチュエーションはコントで時折見かけますが、現実にあったサービスでした。しかも(悪い意味で)AIが作ったようなできばえだったようです。

現在ではとても需要があるとは思えませんが、AIサービスは日々どんどん出てくる一方で、玉石混交といった状況も否めません。性能面でのパワーバランスが変わるという点もそうですが、見てくれやデモ、サービス内容は非常に優れているように見えていても、実際にはハリボテのように中身はボロボロといったものもある可能性を考慮に入れて検討や検証することが重要になります。

メタ、AIを活用した広告完全自動化を計画、早ければ年内にも

概要

Meta(Facebook、Instagram、WhatsAppの親会社)は、2026年末までに広告主がAIツールを使用して広告キャンペーンを完全に作成し、ターゲティングできるようになる計画を発表しました。この動きは、伝統的な広告業界に大きな影響を与える可能性があり、特に広告代理店やメディア代理店に対して脅威をもたらすと見られています。Metaのマーク・ザッカーバーグCEOは、この開発を「広告というカテゴリーの再定義」と位置づけており、広告収入のさらなる拡大を目指しています。

主要テーマと重要な事実

  1. AIによる広告作成とターゲティングの完全自動化:
  • Metaは、広告主が商品画像とマーケティング予算を提供することで、AIが画像、動画、テキストを含む広告全体を生成し、最適なユーザーへのターゲティングを決定するツールを開発中です。
  • 既存のAIツールが既存広告の微調整に留まっていたのに対し、新しいツールは「広告コンセプトをゼロから完全に開発する」ことを可能にします。
  • 「地理位置情報」などのターゲティング機能を活用し、ユーザーの関心のある可能性のある目的地に特化した旅行会社の広告をカスタマイズする例が挙げられています。
  • Metaのプラットフォームは現在、年間1600億ドル(約18兆円)を広告から生み出しており、このAI導入によりその収益を大幅に増加させる可能性があります。
  1. 伝統的な広告業界への影響:
  • この動きは「伝統的なマーケティング業界に衝撃波を送った」と報じられています。
  • AIツールは、広告代理店が担ってきた伝統的な広告作成、計画、購入の役割を「中間排除」する可能性があります。
  • ニュースを受け、世界の主要なマーケティングサービス会社の株価は下落しました(WPPは3%減、Publicis Groupeは3.9%減、Havasは3%減)。
  • Metaの最高マーケティング責任者兼分析担当副社長であるアレックス・シュルツ氏は、「私たちは代理店の未来を信じている」と述べつつも、AIツールが「中小企業の競争条件を平準化する」と強調しています。
  1. 中小企業(SMBs)へのメリットと課題:
  • 新しいAIツールは、特に「小規模から中規模の企業(SMBs)にとって恩恵となる可能性」があります。これらの企業は「多くの場合、広範な広告作成活動のためのリソースを欠いている」ためです。
  • AIが「クリエイティブやターゲティングについて考える時間がない、または経済的規模が小さい中小企業」を支援し、「競争の場を平準化する」と期待されています。
  • 一方で、一部の「大手小売ブランド」は、AI生成コンテンツが「人間の手によるキャンペーンの品質や特定の美的感覚を常に達成できるわけではない」ことや、「歪んだビジュアル」を生み出す可能性について懸念を表明しています。
  1. Metaの戦略的投資とAI分野での競争:
  • Metaは2025年に640億ドルから720億ドルを資本支出に投資する計画を更新しており、これには「AIインフラストラクチャの構築費用」が含まれています。
  • AI部門の再編成が行われ、チームがAI製品と基盤となるAI技術の2つのグループに分割されました。これは「業務を合理化し、責任を明確にする」ことを目的としています。
  • AIを活用したコンテンツ作成は競争が激しく、Googleも動画生成ツールのVeoなどをリリースしています。多くのブランドは、Metaのプラットフォームを含むデジタルプラットフォーム全体で広告コンテンツを作成するために、MidjourneyやOpenAIのDALL-Eのようなサードパーティツールを使用しており、Metaはこれらの「サードパーティの機能を自社プラットフォームに統合する方法を模索している」と報じられています。
  • Metaは「トップのAI人材」を引き付けるのに苦労しており、Mistralなどの競合他社に研究者を失っているという課題にも直面しています。

MetaのAI広告作成は、広告業界にどのような影響と機会をもたらすのか?

MetaのAI広告作成ツールは、広告業界に大きな影響と機会をもたらすとされています。

広告業界への影響(脅威)

  • 伝統的な広告代理店への脅威: FacebookとInstagramの親会社であるMetaは、ブランドのマーケティング予算を直接ターゲットにすることを目指しており、これはクライアントのキャンペーンや予算を扱う広告およびメディア代理店にとって脅威となります。AIツールは、従来の広告作成、プランニング、および購入の役割を担う代理店の介在を不要にする(disintermediate)可能性があります。
  • 株価への影響: MetaのAI導入計画のニュースが報じられた際、世界最大のマーケティングサービス会社の株価はすぐに下落しました。例えば、WPPの株価は3%、フランスのPublicis GroupeとHavasはそれぞれ3.9%と3%下落しました。これは、伝統的なメディア業界に大きな衝撃を与えたと報じられています。
  • AI生成コンテンツの品質懸念: 大規模な小売ブランドの中には、AI生成コンテンツが人間が作成したキャンペーンの品質や特定の美的感覚を一貫して達成できない可能性を懸念し、Metaにより多くのコントロールを譲ることに慎重な姿勢を示しているところもあります。AIツールは、修正が必要な歪んだビジュアルを生成することもあります。

広告業界への機会(メリット)

  • 中小企業(SMBs)への恩恵: Metaの新しいAIツールは、広告主の大部分を占める中小企業にとって潜在的に有益です。これらの企業は、大規模な広告作成に多くのリソースを割くことができないことが多いからです。Metaの最高マーケティング責任者兼分析担当副社長であるAlex Schultz氏は、AIツールが時間や財政的規模の制約により代理店と契約できない中小企業にとって「競争の場を平準化する」のに役立つと述べています。
  • 広告作成の自動化と効率化: Metaが開発しているAIツールは、ブランドが製品画像と計画されたマーケティング予算を提供することで、広告全体(画像、動画、テキストを含む)を作成し、さらにクライアントの予算に合わせてユーザーにターゲティングすることを可能にします。これにより、広告主は目標を設定し、予算を割り当てるだけでプラットフォームが処理するワンストップサービスが構築されることを目指しています。
  • パーソナライゼーションの強化: AIを活用したパーソナライゼーションにより、ユーザーの興味関心に基づき、同じ広告の異なるバージョンをリアルタイムで表示できるようになります。例えば、旅行会社の広告が、ユーザーの興味があると思われる目的地に特化した取引を提供するように調整されることが可能になります。
  • 代理店の役割の変化と進化: Metaは、AI機能の強化が伝統的な代理店を排除する動きではないと明言しています。MetaのAlex Schultz氏は、「私たちは代理店の未来を信じている」と述べ、AIが代理店や広告主が貴重な時間とリソースを「重要な創造性」に集中させることを可能にすると考えています。代理店の役割は、プラットフォームを横断したプランニング、実行、測定能力を通じて、これまで以上に重要になると予測されています。

MetaはAI広告に大規模な投資を行っており、2025年にはAIインフラ構築の費用を含め、640億ドルから720億ドルを投資する計画を更新しています。これは、AIを活用した広告を推進するというMetaのMark Zuckerberg CEOの強い焦点を示しています。彼は、これらの新しいツールの開発を「広告のカテゴリの再定義」と呼んでいます。Metaは、2026年末までにAIによる広告作成とターゲティングを全面的に可能にすることを目指しています。

中小企業は、MetaのAI広告ツールをどのように活用して成長できるのか?

中小企業(SMBs)は、MetaのAI広告作成ツールを以下のように活用して成長することができます。

  • 競争の場の平準化: Metaの新しいAIツールは、広告主の大部分を占める中小企業にとって特に有益です。これらの企業は、大規模な広告作成に多くのリソースを割くことができないことが多いためです。Metaの最高マーケティング責任者兼分析担当副社長であるAlex Schultz氏は、AIツールが時間や財政的な規模の制約により広告代理店と契約できない中小企業にとって「競争の場を平準化する」のに役立つと述べています。
  • 広告作成の自動化と効率化:
    • AIツールは、ブランドが製品画像と計画されたマーケティング予算を提供するだけで、広告全体(画像、動画、テキストを含む)を自動的に作成することを可能にします。これにより、中小企業はこれまで大規模なリソースを必要としていた広告コンテンツ制作の負担を大幅に軽減できます。
    • 広告主が目標を設定し、予算を割り当てれば、プラットフォームが広告プロセス全体を処理する「ワンストップサービス」の構築を目指しています。
  • 効率的なターゲット設定:
    • AIは、クライアントの予算に合わせてユーザーに広告を自動的にターゲティングします。
    • 例えば、ジオロケーション(位置情報)などのターゲティングにより、旅行会社の広告が、ユーザーの興味があると思われる特定の目的地に特化した取引を提供するように調整されることが可能になります。これにより、中小企業はターゲット顧客に効果的にリーチできるようになります。
  • パーソナライゼーションの強化: AIを活用したパーソナライゼーションにより、ユーザーの興味関心やその他の要因(例えば、ジオロケーション)に基づいて、同じ広告の異なるバージョンをリアルタイムで表示できるようになります。これにより、個々のユーザーにとってより関連性の高い広告体験を提供し、エンゲージメントを高めることができます。
  • 時間とリソースの節約: 中小企業は、広告のクリエイティブやターゲティングについて考える時間がないことが多いため、AIツールがこのギャップを埋めるのに役立ちます。AIによる自動化は、中小企業が「重要な創造性」に集中するための貴重な時間とリソースを確保することにもつながります。

Metaは、2026年末までにAIによる広告作成とターゲティングを全面的に可能にすることを目指しており、これらのツールは中小企業がMetaプラットフォーム上で効率的かつ効果的に広告を運用し、ビジネスを成長させる大きな機会をもたらすと考えられています。

広告を見る人たちにとってどのような影響をもたらすか?

MetaのAI広告作成ツールは、広告を見る人たち(ユーザー)に対して、主に以下のような影響をもたらすとされています。

  • 広告のパーソナライゼーションと関連性の向上:
    • AIを活用したパーソナライゼーションにより、ユーザーは自身の興味関心や位置情報(ジオロケーション)などの要因に基づいて、同じ広告の異なるバージョンをリアルタイムで見ることができるようになります。
    • 例えば、旅行会社の広告が、ユーザーが興味を持つ可能性のある目的地に特化した情報や取引を提供するように調整されることが可能になります。
    • これにより、広告は個々のユーザーにとってより関連性の高い、パーソナライズされた体験となり、エンゲージメントを高めることが期待されます。広告主はAIを活用して、広告をそれぞれの個人に合わせられるようにする計画を立てています。
  • 広告コンテンツの品質に関する懸念:
    • 一方で、一部の大規模な小売ブランドは、Metaにさらなるコントロールを委ねることに対して懸念を示しています。これは、AIが生成するコンテンツが、人間が作成したキャンペーンの品質や特定の美的感覚を常に達成できない可能性があるためです。
    • AIツールが歪んだビジュアルを生成し、修正が必要になる場合もあると指摘されています。したがって、ユーザーはAIによって生成された広告の一部で、品質のばらつきや不自然な画像を目にする可能性も考えられます。

まとめ

メタ社による広告完全自動化は、伝統的な広告代理店にとっての脅威となる一方で、効率化という新たなメリットをもたらす可能性があります。一方、中小企業が広告代理店を介さずに広告を打ち出せるという時間的コスト的メリットもあります。

一方で、広告を見る立場からすると、パーソナライゼーションが進むというメリットはあるものの、低品質な広告があふれるという問題もあります。少なくとも、ユーザーにとって時間をかけて見る価値のある面白い広告を生み出せるレベルにないことは現在の生成AI技術からも明らかなため、これがどのような結果を生み出すのかは注目していきたいところです。

参考文献

dentsu JapanとOpenAIがマーケティング領域での研究開発をスタートしたと発表

画像の出典:dentsu Japanのプレスリリースより

電通グループの国内事業を統括・支援する dentsu Japanは、OpenAI社の最新の生成AI技術を活用したマーケティング領域における先進的なAIエージェントの研究開発を開始しました。OpenAI社は2024年4月に日本法人を設立し、日本市場での生成AIの普及・展開を牽引しています。

この取り組みは、急速に進化する生成AI技術、特に人と対話したり作業を自律的にこなしたりするAIエージェントが世界的に注目されている中で行われています。AIエージェントは、単純な質問応答だけでなく、業務効率化、マーケティングの高度化、新たなビジネス価値の創出など、多岐にわたる領域での活用が期待されています。

dentsu Japanは、この研究開発を通じて、独自のAI等級制度における「主席AIマスター」が率いる約150名のAIイノベーターを中心に活動しています。彼らは、OpenAI社が提供するデータセキュリティに配慮された「ChatGPT Enterprise」や最新の生成AI技術を活用し、先進的なAIエージェントの開発とその国内外におけるマーケティング領域での導入を推進しています。

顧客のマーケティング課題解決を支援する画期的なAIエージェントのプロトタイプは、2025年7月に開発が完了する予定です。

この研究開発は、dentsu Japanが掲げる独自のAI戦略「AI For Growth」を加速させるものです。「AI For Growth」は、「人間の知」と「AIの知」を掛け合わせることで、顧客や社会の成長に貢献していくことを目指しています。今回のAIエージェント開発により、全マーケティング工程におけるAI活用を通じたトランスフォーメーション(高度化・高速化・効率化・内製化)を加速し、「AIネイティブ化」の実現を推進していく考えです。dentsu Japanは、独自の視点と先進的なアプローチを強みに、「人間の知」と「AIの知」を掛け合わせることで、顧客の事業成長と社会の持続的な発展に貢献していくことを目指しています。

この協業の戦略的意義

電通グループの国内事業を統括・支援する dentsu Japan と OpenAI 社がマーケティング領域における AI エージェントの研究開発を開始したことは、双方にとって重要な戦略的意義を持っています。

dentsu Japanにとっての戦略的意義

  • 最新の生成AI技術の活用とAIエージェントの開発推進: dentsu Japan は、OpenAI 社の最新の生成 AI 技術、特にデータセキュリティーに配慮された「ChatGPT Enterprise」を活用することで、マーケティング領域における先進的な AI エージェントの開発を進めています。これは、急速に進化する生成 AI 技術、特に自律的に作業をこなす AI エージェントが世界的に注目されている状況に対応するものです。
  • 独自のAI戦略「AI For Growth」の加速: この研究開発は、dentsu Japan が掲げる「AI For Growth」戦略を加速させる中核となります。この戦略は、「人間の知」と「AI の知」を掛け合わせることで、顧客や社会の成長に貢献することを目指しています。
  • マーケティング全工程の「AIネイティブ化」実現: AI エージェントの開発・導入を通じて、全マーケティング工程におけるトランスフォーメーション(高度化・高速化・効率化・内製化)を加速し、「AIネイティブ化」の実現を推進していく考えです。AIエージェントがマーケティングの全工程をサポートするイメージが示されています。
  • 顧客課題解決への貢献と新たなビジネス価値創出: 顧客のマーケティング課題の解決を支援する画期的な AI エージェントのプロトタイプ開発を2025年7月に完了する予定であり、これは顧客事業成長への貢献を目指すものです。AIエージェントは、業務効率化やマーケティングの高度化に加え、新たなビジネス価値の創出も期待されています。
  • 社内AI人材の活用と育成: 独自の AI 等級制度における「主席 AI マスター」が率いる約 150 名の AI イノベーターがこの取り組みの中心となっています。これは、社内の専門人材とAI技術を融合させる「AIモデル」の深化にもつながります。

OpenAIにとっての戦略的意義

  • 日本市場におけるプレゼンス強化: OpenAI 社は2024年4月に日本法人を設立しており、日本市場での生成 AI の普及・展開を牽引しています。dentsu Japan のような日本の大手企業との連携は、日本市場での事業基盤を強化し、影響力を拡大する上で重要です。
  • エンタープライズ領域での技術適用と検証: dentsu Japan はデータセキュリティーに配慮された「ChatGPT Enterprise」や最新技術を活用して開発を進めており、これは OpenAI のエンタープライズ向けソリューションが実際のビジネス環境、特に複雑なマーケティング領域でどのように活用され、どのような成果をもたらすかを検証する機会となります。
  • AIエージェント技術の応用事例創出: AI エージェントは世界的に注目されており、業務効率化や新たなビジネス価値創出が期待される領域です。dentsu Japan との共同開発 は、OpenAI の基盤技術がマーケティングという特定のドメインでどのように高度な AI エージェントとして応用可能かを示す具体的な事例となります。
  • 有力パートナーとの協業による知見獲得: dentsu Japan の約 150 名の AI イノベーター が OpenAI の技術を活用することで、マーケティングの専門知識と AI 技術を組み合わせた新たな知見が生まれ、OpenAI の技術開発や企業向けソリューションの改善にフィードバックされる可能性があります。

総じて、この研究開発は、dentsu Japan にとっては先端技術を取り込み、自社のマーケティングサービスと組織を根底から変革し、顧客成長への貢献を加速させるための戦略的な一歩であり、OpenAI にとっては日本の重要市場において、先進的な企業パートナーと共に自社技術のエンタープライズ領域での適用を深め、AIエージェントを含む技術の可能性を探る機会となります。

マーケティング領域にAIを活用した事例

これまでに研究・実現されているマーケティング分野におけるAIの活用は多岐にわたり、その効率性と効果の高さから注目されています。AIを活用することで、マーケターにとって負担となっていた大量のデータ収集・分析を自動化し迅速化することが可能になります。また、顧客のニーズや購買行動を深く理解し、よりパーソナライズされたアプローチを実現する能力も持っています。

具体的なAIの活用事例としては、以下のようなものが挙げられます。

  1. データ分析の自動化・効率化:
    • 膨大な顧客データ(Webサイト閲覧履歴、SNS行動、メール開封率、購買履歴など)をリアルタイムで処理・分析し、傾向を読み取り、次のアクションを導く高度な意思決定支援を実現します。
    • これにより、従来時間と費用がかかっていたデータ分析作業が効率化され、マーケターの負担を軽減します。
    • 例えば、ホテルレビューの分析による競合差別化やユーザー特性の把握、ビッグデータ分析によるトレンド把握と新商品・サービス開発アイデアへの活用 が行われています。
    • SNS運用においても、リアルタイムデータ分析によりトレンドの変化や異常な行動を素早く捉え、即座に対応することが可能です。
  2. ターゲット層・顧客ニーズの深掘りとセグメンテーション:
    • AIは顧客の過去の購買履歴やオンラインでの行動データをリアルタイムに解析し、それに基づいた消費者インサイトを提供します。
    • 多様なデータをマルチアングルで処理し、顧客セグメンテーションをさらに精密化することが可能です。
    • これにより、ターゲット層ごとに適したマーケティング施策が実現し、より高い成果が得られます。
    • 企業は、ビッグデータ分析により顧客のニーズやライフスタイル、行動特性を詳細に把握し、販売促進や集客などのマーケティング施策の効率化に繋げています。
  3. パーソナライゼーション:
    • AIはデータ分析に基づき、リアルタイムで顧客の行動や傾向を把握し、個別のニーズに合ったマーケティングアプローチを実現します。
    • 顧客ごとの購買履歴や行動パターンに基づいたパーソナライズされた商品提案が可能になり、顧客満足度やブランドへのロイヤルティ向上に貢献します。
    • ECサイトでのレコメンドエンジン や、顧客の肌質・好みに基づくパーソナライズ化粧品提案(資生堂の事例) などがあります。
    • ユーザーの行動変化を察知し、リアルタイムで施策を最適化することで、「学習し続けるマーケティング」を実現します。
  4. コンテンツ生成とクリエイティブ制作:
    • 生成AIを活用することで、広告コピーや記事の自動生成、クリエイティブな提案を効率的に実現できます。
    • ターゲット顧客層に特化した広告文やデザインを作成することが可能になります。
    • これにより、作業効率の向上やコスト削減が可能になり、効果的かつ魅力的なマーケティングコンテンツを素早く投入できます。AIを活用することで、大量の高品質なコンテンツを迅速に作成することも可能です。
    • DAM(Digital Asset Management)システムにAIを搭載し、コンテンツの自動整理・分類(自動タグ付け、類似素材提案、使用傾向学習など)を行い、マーケティングチームのコンテンツ活用を効率化する事例もあります。
  5. 広告効果の最適化:
    • AIは広告のパフォーマンスデータを分析し、より高い反応率を得るための改善点を提案します。
    • ターゲットの購買履歴や行動データに基づき、関連性の高い商品・サービスを推奨したり、デモグラフィック情報や関心事に合わせた最適なメッセージやクリエイティブを表示したりすることで、広告のクリック率やコンバージョン率の向上が期待できます。
    • LINE株式会社では、AIによるパーソナライズ広告により、広告のクリック率とエンゲージメントを向上させています。
    • ニトリでは、AIを用いたマーケティングキャンペーンの最適化により、最適なタイミングとチャネルでの実施、効果測定と費用対効果の向上を実現しています。
  6. チャットボットとカスタマーサポート:
    • AIチャットボットは、顧客からの問い合わせに迅速かつ適切に対応し、満足度を高めます。
    • よくある質問に24時間365日対応することができ、顧客サポートの効率を大幅に改善し、コスト削減にも繋がります。
    • ECサイトでの問い合わせ対応効率化(もつ鍍専門店「肉の寺師」の事例) や、トヨタ自動車、パナソニック での導入事例があります。
    • ユーザーからの質問の意味をかみ砕いて回答できる点がAIチャットボットの特徴です。
    • チャットボットにパターン化されたやり取りを代行させることで、担当者はAIでは対応が難しいより複雑な案件に集中できます。
  7. マーケティングオートメーション:
    • AIエージェントが企業のマーケティング活動を効率化し、成果を最大化するための重要な手段となります。
    • 顧客の行動データや購買履歴を分析し、個別のニーズに応じたパーソナライズされた顧客体験を提供したり、AIが顧客データを分析し最適なタイミングで広告やメールを配信したりします。
    • 見込み顧客へのナーチャリング(商品やサービスの認知から購入に至るまでのプロセス最適化)にAIが活用されています。
  8. 需要予測と在庫管理:
    • AI技術を用いて商品の需要を正確に予測し、在庫管理を最適化することで、過剰在庫や品切れのリスクを軽減し、在庫コスト削減や顧客満足度向上、リピーター獲得に繋がります。
    • ユニクロでは、過去の販売データや市場トレンドなどを分析し、AIを活用して需要予測と在庫管理の最適化を行っています。
    • ホームセンター事業を営む企業では、AIを活用した需要予測システム導入により、ムダな在庫削減と売上増加を実現しました。
  9. その他の活用事例
    • サブスクリプション型サービスの解約リスク軽減のため、解約可能性の高いユーザーを事前に予測し、適切なタイミングでフォローアップを行う仕組み。
    • 見込み顧客の購入意向をAIが読み取り、効果が見込める顧客にのみインセンティブを付与することで購入者数をアップさせた事例。
    • 顧客データを分析し、最適な金融商品を提案することで顧客満足度向上とクロスセル促進を実現した楽天銀行の事例。
    • AIが商品購入ページ内に関連商品ページへ遷移するためのキーワード集を用意し、偶然的な出会いを担保したピーチ・ジョンの事例。
    • 日本航空(JAL)では、AIによる顧客データ分析で、ターゲットに最適なマーケティング戦略を策定し、顧客ロイヤルティとリピート率の向上を実現しています。

これらの個別のAI活用に加え、近年注目されているのが、環境を観察し目標達成のために自律的に行動するAIエージェントの台頭です。AIエージェントは、マーケティング業務全体の自動化を可能にする可能性を秘めています。

まとめ

全プロセスでないにせよ、マーケティングとAIは親和性は高く、業務の一部をAIエージェントに置き換えたり、AIによってプロセスの一部を自動化することが期待されます。直接の対話において、AIに任せられる領域は少なからずあると考えられます。

Nvidia規制で加速する中国のAI半導体自前化戦略

経緯

2018年以降、米中間の貿易摩擦が激化する中、米国は中国に対して先端半導体技術の輸出規制を段階的に強化してきました 。特に、AI用途で世界市場をリードするNvidiaのGPU(Graphics Processing Unit)への輸出を制限する措置が注目されます。  

2022年9月、米国政府はNvidia製の「A100」や「H100」などハイエンドGPUを対象に、中国企業や研究機関向けの輸出許可を厳格化すると発表し、これは同年10月に施行されました 。これにより、AI学習や推論のために高性能GPUを必要とする中国のクラウド事業者や研究機関は、従来どおりの供給ルートから調達できなくなりました。  

2022年10月には、米国商務省がさらに踏み込み、Nvidiaの「A100」や「H100」などを含むAI向け先端チップを対象とした輸出規制を施行しました 。これにより、Nvidiaの正規ルートでの対中国輸出は大幅に制限されることとなりました。  

2022年初頭、トランプ政権下で打ち出された一連の規制は、バイデン政権でも解除されることなく引き継がれました 。特に「米国製ソフトウェア(CUDAを含む)とライセンスを組み合わせたGPUボード」も対象に含まれたため、中国企業はNvidia製GPUを活用することが困難となりました。  

こうした環境下で、中国の主要テック企業は「既存のGPUプラットフォームに依存し続けることのリスク」を強く認識するに至りました。

2023年、Alibaba(阿里巴巴)、Tencent(騰訊)、Baidu(百度)などは、それまでNvidiaのGPUを用いて自社データセンターでAI研究やクラウドサービスを提供してきましたが、在庫が逼迫し始めたことで「国内メーカー製チップへの切り替え計画」を正式に策定しました 。  

同年末から2024年にかけて、Huawei(華為技術)が開発する「Ascend」シリーズをはじめ、Cambricon(寒武紀)、T-Head(兆芯)など複数の国産AIチップメーカーが、データセンター向けのサーバーデザインおよび大量製造のパートナーシップ構築を表明しました 。  

2024年春、NvidiaのBlackwell(次世代アーキテクチャ)搭載サーバーが米国国内で先行投入されたものの、対中国向けには「高帯域メモリ(HBM)を除外したセーフティバージョン」のみが許可される見込みと報じられました 。これに伴い、中国テック企業は「学習用途には残存分の旧世代Nvidia GPUを、推論用途には国産チップを併用」というハイブリッド戦略を取らざるを得ない状況となりました。  

2024年末から2025年初頭にかけて、Alibaba傘下のAI研究機関「DAMO Academy」はAI関連チップ(RISC-V CPUやFPGAなど)の開発を進め、その成果の一部(例:サーバーグレードCPU C930の2025年3月納入開始予定など)を公表しました 。これに続き、Tencent傘下のクラウド部門も国産チップを搭載したAIサーバーを試験導入しました。さらに、Baiduは「AI推論専用クリスタルボード」の量産に向けたラインを立ち上げ、中国政府系VCから数十億円規模の出資を取り付けました。  

同時に、北京、上海、深圳などには「AIチップ開発特区」が設置され、税制優遇や補助金支給を通じてスタートアップや既存大手企業の競争を促進しています 。2024年までに、多数の国内企業が「7nm以下のプロセス技術を用いたAIチップ」の製造を目指すプロジェクトを公表し、2025年には一部製品のサンプル出荷を目指しています 。代表例は、Iluvatar CoreX(天罡100シリーズ)、MetaX(GPGPU製品)、Biren Technology(BR100)、Black Sesame Technologies(ADAS・自動運転向けAIチップ)などです 。

背景

中国政府は2015年に「中国製造2025」を正式発表し 、その中で「半導体自給率向上」を国家戦略の重要課題の一つと位置づけました。以降、国家資金や地方政府の補助金を投入しつつ、国内企業の研究開発投資を強化してきました。  

一方、2022年以降の米国による輸出規制強化は、中国にとって「外部からの技術流入を遮断しようとする動き」として受け止められました。特に2022年10月のNvidia製先端GPUに対する輸出規制強化は、中国企業のAI開発ロードマップに大きな影響を及ぼしました 。  

中国には豊富な電力インフラが整備されています。2023年にハイテク産業向け電力消費は前年比11.2%増(一部資料では11.3% )となり 、再エネ・火力を合わせた発電能力が急速に拡大していることから、「演算性能あたりの消費電力がやや高い国産チップを複数並列稼働させても電力面で吸収可能」との見方が広がっています。  

また、マイニング用途でかつて大量に投入されたGPUが電力逼迫や環境面の課題を引き起こした一方、現在はAI用途向けにより効率的な専用チップを開発するほうが有益と判断されています 。こうした経緯もあり、「マイニング規制で獲得したデータセンター運用ノウハウをAIチップ開発に転用しやすい」というアドバンテージも存在すると言われています 。  

さらに、中国国内の大規模ユーザー(インターネット企業、金融機関、製造業など)が急速にAI需要を拡大していることから、国内市場だけで十分な需要が見込める点も、企業各社の自前化を後押ししています。「中国製造2025」では、2025年までに半導体自給率を70%に引き上げるという目標が掲げられていました 。政府は引き続き半導体の国内生産能力向上を目指しており、この目標達成に向けた官民連携が加速しています。  

今後の影響予測

技術的自立の進展と国際競争

国産AIチップがある程度の性能を有し、Nvidia製GPUとのギャップを埋められれば、グローバルにおける選択肢が拡大し、中国製チップが他国のデータセンターやAIプロバイダーにも採用される可能性があります 。特に、価格競争力のあるチップが登場した場合、北米・欧州との間で技術競争が激化し、NvidiaやAMD、Intelといった従来のプレイヤーはさらなる研究開発投資を迫られるでしょう 。  

サプライチェーンの再構築

2025年以降、中国は国産素材と製造装置の内製化を加速し、製造装置メーカー(EUVリソグラフィ装置など)への投資を強化する動きが予測されます 。将来的には、「製造から設計までの垂直統合型エコシステム」を構築し、外部リスク(米国の追加規制など)に耐えうる自律的な供給網を確立する可能性が高いです 。また、日本やオランダなどの先端装置メーカーも、対中ビジネスの在り方を見直し、「協業か取引制限か」の選択を迫られることになるでしょう 。  

国内AIエコシステムへの影響

中国国内のAIプラットフォームは、国産チップの普及によってコスト構造が変化し、AIサービスの価格低下と導入企業の拡大が進むと考えられます 。これにより、医療画像診断や自動運転、スマートシティなどの分野でAI導入が加速し、「産業全体のデジタルトランスフォーメーション」が一気に進展する可能性があります 。加えて、AI関連スタートアップも国産ハードウェアを活用しやすくなることで、開発のハードルが下がり、イノベーションの創出速度が向上するでしょう 。  

地政学的リスクと世界経済への波及

中国製チップが世界市場で一定のシェアを獲得すれば、米中両国間の技術覇権争いはさらなる激化を迎えます 。米国は追加の制裁や輸出規制を打ち出す一方、中国は対抗策として関税引き下げや輸出奨励を行う可能性が高いです 。この結果、「技術ブロック化」(Tech Bloc)の傾向が強まり、世界のサプライチェーンはさらに分断されるリスクがあります 。特に半導体素材や製造装置の二極化が進むと、日本や韓国、欧州諸国は両陣営の間で揺れる立場を余儀なくされるでしょう 。  

国内雇用と産業育成

国産AIチップの量産化が進めば、中国国内では「設計エンジニア」「プロセス開発技術者」「データセンター運用エンジニア」などの需要が急増し、人材育成ニーズが拡大します 。これに呼応して、大学や研究機関は半導体設計・製造分野のカリキュラムを強化し、国内の技術者供給を担保する動きが活発化するでしょう 。その結果、ハイテク産業の雇用創出効果が高まり、中国経済の高度化をさらに加速させる要因となります

まとめ

米国のエヌビディアGPU輸出規制に端を発した中国のAI半導体自前化戦略は、「国家安全保障上の必要性」と「膨大な国内市場の存在」という二つの要因に後押しされています。Nvidia規制前は高性能GPUを輸入に依存していた中国企業が、2023年以降は自社・国内メーカー製のAIチップにシフトし、既存のデータセンターアーキテクチャを改変して対応することを余儀なくされました 。政府の補助金や税制優遇措置、設計・製造拠点の集約化などを通じて、国内ベンダーは短期間で「7nmプロセスAIチップ」のプロトタイプ開発を達成しました 。2025年には一部企業が量産体制の構築を目指し、中国製AIチップの実運用が現実味を帯び始めています。  

今後、中国製チップの国際競争力が高まれば、世界のAIハードウェア市場は二極化傾向を強める可能性があります。技術ブロック化の懸念が高まる中、日本や欧州などのサプライチェーンは新たな調整を迫られるでしょう。国内ではAIサービスの普及と産業のデジタル化が加速し、ハイテク人材需要の高まりを背景に経済成長への寄与が期待できます。一方、米中間での技術覇権争いが激化すれば、半導体素材・製造装置の流通が一層限定され、各国は自国の供給網を強化せざるを得ない状況に陥るでしょう。

以上のように、「エヌビディア規制で加速する中国のAI半導体自前化戦略」は、単なる技術的トレンドにとどまらず、地政学的・経済的に重大なインパクトを伴う大きな潮流と言えます。

参考リンク

PostgreSQLでLIMIT句を使ったサーバーサイドページネーションは実現できるか

きっかけ

REST API でサーバーサイドページネーションを実現したいと考えたのですが、指定したページのデータをデータベースから効率よく検索できないのであれば、一回ですべてを取得した方が結果的に効率的になります。

クライアントのスペックをそれなりに見込むことができれば、クライアントサイドページネーションの方が効率的ですが、ヒットする件数が膨大だったり、1レコードのデータ量が多い場合はそれも難しくなるため、何らかの形でサーバーサイドページネーションを検討する必要がでてきます。

ChatGPT に REST API でのサーバーサイドページネーションの実現方法について訊いたところ、以下の3つの方式を提案されました。

オフセットベースページネーション

GET /items?offset=20&limit=10

特徴

  • 利点:実装が簡単。UI側でも扱いやすい。
  • 欠点:大量のデータでページ数が大きいと、パフォーマンスが低下(インデックスが効かなくなる可能性)。

もっともよく見かけるパターンだと思います。どこから取得するか(offset)と最大何件取得するか(limit)で指定する方法になります。そもそも一度に取得する件数に200件とかの上限があって、201件目以降を取得したい場合はoffiset付きで取得してください、といった使われ方をするのが多いのではないでしょうか。

単純増加かつ昇順で検索する場合はデータの重複や抜けが起きにくいですが、単純増加かつ降順の場合や途中にデータが差し込まれる場合は前回取得した位置がズレるので、データの抜けや重複が発生する場合があります。

ページベースページネーション

GET /items?page=3&size=10

特徴

  • 利点:ユーザー視点ではページ単位が直感的。
  • 欠点:内部的にはoffset/limitと同じ課題(大きなページ数で遅くなる)。

オフセットベースと基本的に同じ発想ですが、指定方法が具体的な件数ではなくページという単位にすることで指定しやすくした方式でです。多くのサービスでは1ページあたりのサイズ(size)は指定せず、ページのみでアクセスさせるのではないかと思います。サービス側で設定しているページサイズをもとにデータを区切って何ページ目を取得するか、という形で指定することになります。

指定方法が異なるだけで、基本的な性質はオフセットベースと同じです。

カーソルベースページネーション

GET /items?after=eyJpZCI6MTIzfQ==&limit=10

特徴

  • 利点:安定して高速(インデックスが効く)。データが更新されても影響を受けにくい。
  • 欠点:実装がやや複雑。前のページに戻るのが難しい。

前述のオフセットベースとページベースでは、単純増加のキーで保存されているデータを降順で取得するとデータの抜けの心配があります。多少前後で同じデータが表示されたり、抜けがあってもそれほど問題にならない場合は、オフセットベースやページベースが簡単だと思いますが、特に抜けを許容できない場合はカーソルベースページネーションが有効な手立てとなります。

条件として検索キーが単純増加かつ途中に差し込まれることがないテーブルに対して指定した値(after)よりも前や後のデータをヒットさせるようにすることで重複や抜けがないようにデータを取得することができます。

いずれのパターンにおいても、テーブル設計やインデックス設計が重要となることに加え、取得されたデータの重複や抜けをどこまで対策するか許容するかの要件によって選択肢が変わってきます。

後述の検証では、カーソルベースページネーションをPostgreSQLのLIMIT句を使って実現できるかを検証してきます。

PostgreSQLのLIMIT句の挙動について

PostgreSQLのLIMIT句を使ってカーソルベースページネーションが有効に働くかを訊いたところ、以下のように回答がありました。

質問

以下のようなSQLを発行したときに、インデックスを使って条件に合致する10件のみをフェッチできますか?

SELECT * FROM histories
WHERE create_user_id = ? AND id < ?
ORDER BY id DESC
LIMIT 10;

前提条件

  • id:PK(= 自動で昇順インデックスがある)+ id DESC の降順インデックスも明示的に付与されている
  • create_user_id:昇順インデックスあり(例:CREATE INDEX ON histories (create_user_id))

回答


PostgreSQLは 複合インデックス がある場合に、以下のような最適化を実現できます:

CREATE INDEX idx_histories_userid_id_desc
ON histories (create_user_id, id DESC);

どうやら、個別のインデックスではダメで、WHERE句とLIMIT句の両方を満たす1つのインデックスがあれば、インデックスを効率的に使用して条件に合致する10件のみをフェッチできるようです。

ChatGPT からは PostgreSQL をデータベースとして使用している場合に、 LIMIT句を使った方法が可能であると回答をもらいました。ただし、生成AIは必ずしも正しい回答をするわけではないので、実際に試して検証することにします。

カーソルベースページネーションの検証

Docker composeでPostgreSQLを構築する

手早くPostgreSQLの環境を構築するために、Docker composeで作成しました。

services:
  db:
    image: postgres:17
    container_name: postgres17
    restart: unless-stopped
    environment:
      POSTGRES_USER: postgres
      POSTGRES_PASSWORD: postgres
      POSTGRES_DB: postgres
    ports:
      - "5432:5432"
    volumes:
      - ./initdb:/docker-entrypoint-initdb.d:ro

すでに同じcontainer_nameを起動している場合は他の名前を指定してください。とりあえず起動確認だけしておきます。

$ docker compose up -d
[+] Running 2/2
 ✔ Network pagination-demo_default  Created
 ✔ Container postgres17             Started
$ psql -h localhost -U postgres -d postgres
Password for user postgres:
psql (17.4, server 17.2 (Debian 17.2-1.pgdg120+1))
Type "help" for help.

postgres=# \dt
Did not find any relations.
postgres=#
postgres-# \q

とりあえず問題なさそうです。

検証用のテーブルを作成する

今回は以下の要件を満たす、download_historiesテーブルを作成します。

  • PKはレコードの登録順でインクリメントされ、必ず時系列順になる(途中で割り込まれることがない)
  • ユーザーIDをもち、ユーザーIDで対象レコードを絞り込むことができる

以下のようなテーブルにしましたが、今回検証で使用するのはid列とuser_id列です。

CREATE TABLE download_histories (
  id BIGINT GENERATED ALWAYS AS IDENTITY PRIMARY KEY,
  user_id INTEGER        NOT NULL,
  created_at TIMESTAMP WITH TIME ZONE NOT NULL DEFAULT NOW()
);

こちらも念のため動作確認しておきます。

$ docker compose down -v
[+] Running 2/2
 ✔ Network pagination-demo_default  Created
 ✔ Container postgres17             Started
$ psql -h localhost -U postgres -d postgres
Password for user postgres:
psql (17.4, server 17.2 (Debian 17.2-1.pgdg120+1))
Type "help" for help.

postgres=# \dt
               List of relations
 Schema |        Name        | Type  |  Owner
--------+--------------------+-------+----------
 public | download_histories | table | postgres
(1 row)

postgres=# \d download_histories
                              Table "public.download_histories"
   Column   |           Type           | Collation | Nullable |           Default
------------+--------------------------+-----------+----------+------------------------------
 id         | bigint                   |           | not null | generated always as identity
 user_id    | integer                  |           | not null |
 created_at | timestamp with time zone |           | not null | now()
Indexes:
    "download_histories_pkey" PRIMARY KEY, btree (id)

postgres=# \q

問題なくテーブルが作成されていることを確認できました。

ページネーションに必要なインデックスを設定する

ページネーションを実現するための要件は以下のとおりです。

  • データはid列の降順(=created_at列の降順)で取得する
  • 指定したuser_idと一致すレコードを取得する

id列は単純増加のため、降順でid=100まで取得していれば次のデータは必ず100未満になることが保証されています。(取得するデータは最新のデータから過去の向けって取得する)

動作を検証するために以下の2種類のインデックスを試します。

  • PKに加え、id列の降順インデックスとuser_id列の昇順インデックスをそれぞれ追加する
  • user_id列の昇順+id列の降順の複合インデックスを追加する
-- 1. id の降順インデックス
CREATE INDEX idx_download_histories_id_desc
  ON download_histories (id DESC);

-- 2. user_id の昇順インデックス
CREATE INDEX idx_download_histories_user_id_asc
  ON download_histories (user_id ASC);

-- 3. user_id 昇順 + id 降順 の複合インデックス
CREATE INDEX idx_download_histories_user_id_id_desc
  ON download_histories (user_id ASC, id DESC);

これは必要になったタイミングで設定するようにします。

テストデータを用意するSQLを作成する

インデックスが十分に効いているかを検証したいので、それなりにデータ量が必要となります。

今回は以下の条件を満たすレコードを生成することにしました。

  • user_id1から100までの100名とする
  • 1つのuser_idに対して100,000件のレコードを登録する

登録するレコード数は10,000,000件になるため、1行ずつ登録するのは非効率なため、以下のSQLでまとめて登録するようにしています。

INSERT INTO download_histories (user_id)
SELECT gs_users.user_id
FROM generate_series(1, 100)   AS gs_users(user_id)
CROSS JOIN generate_series(1, 100000) AS gs_seq(seq);

これをinitdb配下に配置した初期データ投入用のSQLファイルに以下のように定義してコンテナを再起動します。

CREATE TABLE download_histories (
  id BIGINT GENERATED ALWAYS AS IDENTITY PRIMARY KEY,
  user_id INTEGER        NOT NULL,
  created_at TIMESTAMP WITH TIME ZONE NOT NULL DEFAULT NOW()
);

INSERT INTO download_histories (user_id)
SELECT gs_users.user_id
FROM generate_series(1, 100)   AS gs_users(user_id)
CROSS JOIN generate_series(1, 100000) AS gs_seq(seq);

ページネーションで発行する想定のSQLをexplain付きで実行すると、以下のようになりました。

postgres=# explain select * from download_histories where user_id = 56 and id < 12345 order by id desc limit 10;
                                                        QUERY PLAN
---------------------------------------------------------------------------------------------------------------------------
 Limit  (cost=0.43..201.87 rows=10 width=20)
   ->  Index Scan Backward using download_histories_pkey on download_histories  (cost=0.43..363532.10 rows=18047 width=20)
         Index Cond: (id < 12345)
         Filter: (user_id = 56)
(4 rows)

体感では非常に高速でしたが、実行計画を見るとcostが高いことがわかります。少ない件数で試すとコストが下がっているので、唯一存在するPKによるインデックススキャンは使用しつつも登録されているデータ件数に依存したコストがかかっていることがわかります。

これでひととおりの準備が整いました。次に前述のインデックスを当てた時に上記のSQLのコストがどう変わるのかを確認していきたいと思います。

検証1:user_id列とid列に個別のインデックスを設定する

ChatGPT の回答では十分な効果が得られないと言われていた個別のインデックスを設定する方法を試してみます。具体的には、以下のINDEXを追加して前述のSELECT文の実行計画を確認します。

-- 1. id の降順インデックス
CREATE INDEX idx_download_histories_id_desc
  ON download_histories (id DESC);

-- 2. user_id の昇順インデックス
CREATE INDEX idx_download_histories_user_id_asc
  ON download_histories (user_id ASC);

使用する初期データ投入用のSQLファイルの全体は、以下になります。

CREATE TABLE download_histories (
  id BIGINT GENERATED ALWAYS AS IDENTITY PRIMARY KEY,
  user_id INTEGER        NOT NULL,
  created_at TIMESTAMP WITH TIME ZONE NOT NULL DEFAULT NOW()
);

CREATE INDEX idx_download_histories_id_desc
  ON download_histories (id DESC);

CREATE INDEX idx_download_histories_user_id_asc
  ON download_histories (user_id ASC);

INSERT INTO download_histories (user_id)
SELECT gs_users.user_id
FROM generate_series(1, 100)   AS gs_users(user_id)
CROSS JOIN generate_series(1, 100000) AS gs_seq(seq);

同じクエリを実行したところ以下のようになり、追加したインデックスは使用していないことがわかります。

postgres=# explain select * from download_histories where user_id = 56 and id < 12345 order by id desc limit 10;
                                                        QUERY PLAN
---------------------------------------------------------------------------------------------------------------------------
 Limit  (cost=0.43..201.87 rows=10 width=20)
   ->  Index Scan Backward using download_histories_pkey on download_histories  (cost=0.43..363532.10 rows=18047 width=20)
         Index Cond: (id < 12345)
         Filter: (user_id = 56)
(4 rows)

データの件数が少なくてPKのインデックスを逆順で使えば十分と判断された可能性もありますが、とりあえずそのまま検証を続けていきます。

検証2:user_id列とid列の複合インデックスを設定する

続いて、user_id列とid列の複合インデックスを使って同じクエリを試してみます。使用する初期データ投入用のSQLファイルの全体は以下のようになります。

CREATE TABLE download_histories (
  id BIGINT GENERATED ALWAYS AS IDENTITY PRIMARY KEY,
  user_id INTEGER        NOT NULL,
  created_at TIMESTAMP WITH TIME ZONE NOT NULL DEFAULT NOW()
);

CREATE INDEX idx_download_histories_user_id_id_desc
  ON download_histories (user_id ASC, id DESC);

INSERT INTO download_histories (user_id)
SELECT gs_users.user_id
FROM generate_series(1, 100)   AS gs_users(user_id)
CROSS JOIN generate_series(1, 100000) AS gs_seq(seq);

同じクエリを実行したところ以下のようになり、追加した複合インデックスが使われていることがわかります。

postgres=# explain select * from download_histories where user_id = 56 and id < 12345 order by id desc limit 10;
                                                         QUERY PLAN
----------------------------------------------------------------------------------------------------------------------------
 Limit  (cost=0.56..18.87 rows=10 width=20)
   ->  Index Scan using idx_download_histories_user_id_id_desc on download_histories  (cost=0.56..189.12 rows=103 width=20)
         Index Cond: ((user_id = 56) AND (id < 12345))
(3 rows)

コストが格段に下がっており、インデックスを使用したときのフェッチ件数も18047から103に下がっていることがわかります。

追加検証:データのバランスを変更したどうなるか?

検証1で追加したインデックスが使われなかった点についてもう少しだけ検証してみます。データ量を少し増やしみて、それでも追加したインデックスは使われないのかを検証します。

以下のようにデータ量を増やして再度検証してみます。

  • ユーザー数:100 → 1,000
  • 1ユーザーあたりのデータ件数:100,000 → 10, 000

ダウンロード履歴テーブルなので、1ユーザーのダウンロード回数を抑えつつ、利用者数を増やす形にしています。

INSERT INTO download_histories (user_id)
SELECT gs_users.user_id
FROM generate_series(1, 1000)   AS gs_users(user_id)
CROSS JOIN generate_series(1, 10000) AS gs_seq(seq);

実行するクエリはデータのバランスが変更されたことに合わせて、以下のようにしました。

explain select * from download_histories where user_id = 1234 and id < 12345 order by id desc limit 100;

上記の条件で、各パターンで実行計画を取得すると以下のようになりました。

追加インデックスなし

postgres=# explain select * from download_histories where user_id = 1234 and id < 12345 order by id desc limit 100;
                                                     QUERY PLAN
---------------------------------------------------------------------------------------------------------------------
 Limit  (cost=0.43..492.30 rows=13 width=20)
   ->  Index Scan Backward using download_histories_pkey on download_histories  (cost=0.43..492.30 rows=13 width=20)
         Index Cond: (id < 12345)
         Filter: (user_id = 1234)
(4 rows)

個別インデックスあり

postgres=# explain select * from download_histories where user_id = 1234 and id < 12345 order by id desc limit 100;
                                                        QUERY PLAN
---------------------------------------------------------------------------------------------------------------------------
 Limit  (cost=0.43..2014.80 rows=100 width=20)
   ->  Index Scan Backward using download_histories_pkey on download_histories  (cost=0.43..363532.10 rows=18047 width=20)
         Index Cond: (id < 12345)
         Filter: (user_id = 1234)
(4 rows)

複合インデックスあり

postgres=# explain select * from download_histories where user_id = 1234 and id < 12345 order by id desc limit 100;
                                                           QUERY PLAN
--------------------------------------------------------------------------------------------------------------------------------
 Limit  (cost=0.56..355.46 rows=100 width=20)
   ->  Index Scan using idx_download_histories_user_id_id_desc on download_histories  (cost=0.56..64049.50 rows=18047 width=20)
         Index Cond: ((user_id = 1234) AND (id < 12345))
(3 rows)

サーバーサイドページネーションは必ずしも必要ないかもしれない

2回目の検証でも1ユーザーあたり10,000回のダウンロード履歴を想定しています。何をダウンロードするかにもよりますが、営業日に平均1日1回ダウンロードするとしても年間240回、10,000回ダウンロードするには40年以上かかる計算になります。

となると、サーバーサイドページネーションが必要となるかどうかは、データの増加量とレスポンスサイズによると考えられます。

適当な状況を想定して計算してみましょう。

システムによって異なりますが、一般的にはレスポンスボディのサイズが10MB以下に設定するとします。ヘッダーの計算はちょっと面倒なので、2MBバイトだとしてレスポンスボディのサイズは8MB以下になるようにするとしましょう。

1件のデータが仮に1KBだとすると、8,192行のデータがレスポンスとして返せる計算になります。通常の利用範囲でシステムの耐用年数使い続けてもこの行数を超えないのであれば、そもそもサーバーサイドページネーションは不要ということになります。毎日平均10行増えるとしても1年間3,650行増えるので、2年ちょっとの間はこのサーバーサイドページネーションが必要ないと言えます。

ダウンロードを行った履歴となるとダウンロードしたファイル名やダウンロード日時などを含むだけなので、多めに見積もって512バイトだとして、月多くても10回ほどしかダウンロードしないとすると、年間120行増えるだけなので、レスポンスボディの上限に到達するには136年もかかることになるため、コストをかけてまでサーバーサイドページネーションを実装する必要はない、という結論になります。

このことから、かなりのペースでデータが増加したり、ヒットするデータ量が膨大になるなどの前提がある場合はサーバーサイドページネーションを検討する価値がありますが、ユーザー自身の操作でデータが増えるだけだとサーバーサイドページネーションがなくてもシステム的には問題ないという場合もある点は重要な学びです。

まとめ

最初はChatGPTの回答を検証することが目的でしたが、最終的にはサーバーサイドページネーションが必要かどうかはデータ量の見積もりによって決まるという話になりました。

最初の疑問に立ち返ると、ChatGPTの回答どおりにWHERE句とLIMIT句の条件を組み合わせた複合インデックスを追加することで、性能が向上することは確認できました。ただし、圧倒的に優れているかと言われるとデータのバランス次第という感じだったので、実際に検索するテーブルに想定されるバランスのテストデータを登録して実際に実行されるクエリを使って検証することが重要だと思います。

モバイルバージョンを終了