Meta、Scale AIに約2兆円を出資──CEOワン氏をスーパインテリジェンス開発へ招へい

Meta(旧Facebook)が、AIインフラを支える米国スタートアップ「Scale AI」に対して約14.3〜14.8億ドル(約2兆円)という巨額の出資を行い、AI業界に衝撃を与えました。さらに、Scale AIの創業者でCEOのアレクサンドル・ワン氏がMetaの“スーパインテリジェンス開発チーム”のトップに就任するという人事も発表され、今後の生成AI開発レースにおいて大きな転換点となりそうです。

Scale AIとは?

Scale AIは、2016年にアレクサンドル・ワン(Alexandr Wang)氏とルーシー・グオ(Lucy Guo)氏によって設立された米国サンフランシスコのスタートアップです。

主な事業は、AIモデルの学習に不可欠な「データのアノテーション(ラベリング)」と「モデルの評価サービス」の提供。高精度な学習データを効率よく大量に用意する能力が求められる現代のAI開発において、Scale AIの提供するサービスは、OpenAI、Meta、Google、Microsoftといったトッププレイヤーにとって不可欠な存在となっています。

特に、「人間とAIの協調によるラベリング(Human-in-the-Loop)」を軸としたラベル付けの品質管理技術は、同社の大きな強みです。ギグワーカーによるラベリングを世界規模で効率化しながら、精度を担保するためのプラットフォームとして「Remotasks」などを展開しています。

また、軍事や公共機関向けのプロジェクトにも関与しており、米国国防総省などとも契約を結ぶなど、その守備範囲は民間にとどまりません。

Metaの出資とCEO人事の背景

Metaは今回、非議決権株として49%の株式を取得するという形でScale AIに出資を行いました。この出資により、MetaはScale AIの経営には直接関与しない立場を取りながらも、データ供給とAI評価における独占的なアクセス権を得る可能性があります。

出資と同時に発表されたのが、Scale AIのCEOであるアレクサンドル・ワン氏がMetaに移籍し、同社の“Superintelligence Lab(スーパインテリジェンスラボ)”の責任者に就任するというニュースです。ワン氏はScale AIの創業以来、データ品質の重要性を業界に根付かせた立役者の一人。今回の人事は、MetaがAGI(汎用人工知能)開発に本格参入する象徴的な動きと見られています。

なお、ワン氏は引き続きScale AIの取締役として関与するものの、日常的な経営からは退く形となります。

業界へのインパクト

今回の出資と人事は、AI業界にとって無視できない影響を与えています。

GoogleやMicrosoft、OpenAIなどScale AIの顧客だった企業の中には、「Metaの傘下となった同社と今後もデータ契約を継続するべきか」について見直しを検討している企業も出てきています。競合と直接つながることに対して懸念があるためです。

一方で、Metaにとっては、LLaMAシリーズなどの大規模言語モデル開発で出遅れを取り戻すチャンスでもあります。AIの性能はモデルそのものだけでなく、「どれだけ高品質で信頼できる学習データを確保できるか」にかかっており、今回の出資はまさにその基盤を強化する狙いがあるといえるでしょう。

今後の展望

MetaのAI戦略は、OpenAIやAnthropic、xAIなどが凌ぎを削る次世代AI開発競争のなかで存在感を高めるための布石です。特に、AGI(Artificial General Intelligence)を見据えた「スーパインテリジェンス開発」という言葉が初めて正式に使われた点は象徴的です。

また、Scale AIはMetaに依存する形になったことで、業界での中立性を失う可能性があります。これは今後の顧客離れや再編にもつながるかもしれません。

まとめ

MetaによるScale AIへの出資とCEO人事は、表面的には“出資と転職”という単純な話に見えるかもしれません。しかし、その背後には次世代のAI開発に向けた熾烈な戦略競争があり、学習データというAIの「燃料」を誰が押さえるのかという本質的な争いが垣間見えます。

今後、MetaがScale AIの技術をどう取り込んでLLaMAシリーズやAGI開発を進めていくのか。競合各社がどのように対応するのか。業界全体の行方を左右する重要なトピックとなるでしょう。

参考文献

Midjourneyを提訴──ディズニーとユニバーサルが問う著作権の限界

はじめに

2025年6月、米ディズニーとユニバーサル・スタジオは、画像生成AIサービス「Midjourney」に対して著作権侵害および商標権侵害などを理由に提訴しました。

これは、生成AIが作り出すコンテンツが既存の著作物にどこまで接近できるのか、また著作権がAI時代にどのように適用されるかを問う重要な訴訟です。

本記事では、この訴訟の概要を紹介するとともに、LoRAやStable Diffusionなど他の生成AIツールにも関係する著作権の原則を整理します。

訴訟の概要

▶ 原告:

  • The Walt Disney Company
  • Universal Pictures

▶ 被告:

  • Midjourney Inc.(画像生成AIサービス)

▶ 主張の内容:

  1. 著作権侵害  Midjourneyが、ディズニーおよびユニバーサルのキャラクター画像などを無断で学習データに使用し、生成画像として提供している。
  2. 商標権侵害  キャラクター名・外観・象徴的な要素などを模倣し、消費者が混同するおそれがある。
  3. 不当競争  ライセンスを得ていない画像を提供することで、正規商品の市場価値を損なっている。

AI生成物と著作権の関係

AIによって生成された画像そのものに著作権があるかどうかは、各国で判断が分かれている分野ですが、生成のもとになった学習素材が著作物である場合には、問題が生じる可能性があります。

よくあるケースの整理:

ケース著作権的リスク
著作物の画像を学習素材として使用高い(無断使用は著作権侵害に該当する可能性)
学習に使っていないが、見た目が酷似内容次第(特定性・類似性が高い場合は侵害)
キャラを直接再現(LoRAやPromptで)高い(意匠の再現とみなされる可能性)
作風や画風の模倣通常は著作権の対象外(ただし境界は曖昧)

ファンアートや非営利創作も違法なのか?

結論から言えば、原作キャラクターの二次創作は原則として著作権侵害にあたります

  • 著作権法は、営利・非営利を問わず、原作の「表現の本質的特徴」を利用した場合、著作権者の許諾が必要としています。
  • よって、SNS上でのファンアート、同人誌の発行、LoRAモデルの配布なども、すべて「権利者の黙認」によって成り立っている行為です。

よくある誤解と整理

誤解実際
「非営利ならセーフ」❌ 著作権侵害は営利・非営利を問わない
「少し変えれば大丈夫」❌ 表現の本質的特徴が再現されていればNG
「第三者が通報すれば違法になる」❌ 著作権侵害の申し立ては権利者本人に限られる

今後の論点と注目点

  • LoRA・生成モデルにおける責任の所在  モデル作成者か?使用者か?それともサービス提供者か?
  • 訴訟によってAI学習に対する明確な指針が出る可能性  米国では「フェアユース」の適用範囲も議論対象になるとみられています。

まとめ

  • Midjourneyに対する著作権・商標権侵害訴訟は、AI生成物と著作権の関係を問う象徴的な事件です。
  • ファンアートやLoRAによる画像生成も、法的には著作権侵害に該当する可能性がある点に留意が必要です。
  • 著作権は営利・非営利を問わず適用されるため、「商売していなければ大丈夫」という認識は正しくありません。

AIを活用した創作活動を行う際には、法的リスクを理解し、可能であれば各コンテンツ提供者のガイドラインを確認することが望ましいと言えるでしょう。

AIで進化するBarbieとHot Wheels──Mattel×OpenAI提携の狙いと課題とは?

2025年6月、世界的玩具メーカーであるMattelが、生成AIを提供するOpenAIとの戦略的提携を発表しました。BarbieやHot WheelsといったアイコニックなブランドをAIで進化させ、遊びを通じて新しい体験価値を提供することを目指します。

このニュースは玩具業界だけでなく、AIの社会実装や子供向け技術への関心が高まる中で、さまざまな反響を呼んでいます。しかしその一方で、過去の失敗例や子供の心理的影響に関する懸念も浮上しています。

提携の背景──業績低迷とAIへの期待

Mattelは近年、玩具需要の減速に直面しており、今後の収益回復に向けて新たな手段を模索していました。今回の提携は、生成AIの先端企業であるOpenAIと手を組み、製品のスマート化と企業内部の生産性向上の両方を図るものです。

OpenAIのBrad Lightcap COOは、「Mattelが象徴的ブランドに思慮深いAI体験を導入するだけでなく、従業員にもChatGPTの恩恵を届けることを支援できる」と述べ、企業の全面的なAI活用を示唆しました。

対象ブランドと製品の可能性

対象となるのは、Barbie、Hot Wheels、Fisher-Price、UNOなどの幅広いブランド。具体的な製品は未発表ですが、物理的な人形にChatGPTが搭載される、あるいはスマートデバイスと連携する形式が想定されています。

また、OpenAI広報によると、今後のAI玩具は「13歳以上」を対象にするとのこと。これは、米国のCOPPA(児童オンラインプライバシー保護法)などの法規制を回避し、データ管理リスクを抑制する意図があると考えられます。

Hello Barbieの教訓──プライバシーと恐怖の記憶

2015年、MattelはToyTalkと提携し、「Hello Barbie」という会話型人形を発売しました。Wi-Fi経由で音声をクラウドに送信し、返答を生成して子供と対話するという先進的な製品でしたが、プライバシーとセキュリティへの懸念が噴出。録音内容がどう扱われているか不透明であり、研究者からは脆弱性も指摘されました。

これにより、Hello Barbieは市場から静かに姿を消しました。今回の提携でも、「収集されるデータは何か」「どこに保存され、誰がアクセスするのか」といった根本的な疑問に、MattelとOpenAIはいまだ明確な回答をしていません。

子供への心理的影響──“AI人形”が与える可能性

AI人形が子供に及ぼす影響については、技術的な精度とは別に心理的な配慮が極めて重要です。

現実と空想の境界が曖昧な年齢

幼少期の子供は、現実と空想の区別がつきにくく、話す人形が本当に「生きている」と信じてしまうことがあります。そんな中で以下のような挙動は、恐怖やトラウマの原因になることがあります

  • 人形が突然子供の方を振り向く
  • 夜中に予告なしで話し始める
  • 質問に対して脈絡のない応答を返す

これらは技術的な誤作動や意図しない出力によっても十分に起こり得ます。

音声起動の誤作動──AIスピーカーと同じ問題

さらに重要なのは、「音声で起動するAI人形」の誤作動リスクです。

テレビの音声や家族の会話中に出た類似した単語で誤って起動したり、子供の発音が不明瞭であることから、本来意図しないタイミングで反応してしまう可能性があります。これは、突然の発話や動作として現れ、子供の不安を引き起こします。

対応すべき設計課題

  • 明確で誤認識しにくいウェイクワードの設計(例:「バービー、話そう」など)
  • 発話の直前に光やサウンドで予兆を示す「予告性のあるインタラクション」
  • 夜間・就寝モードの導入
  • 保護者が制御できる「手動モード」や「会話履歴の確認機能」

信頼される製品となるために──今後の課題と注目点

MattelとOpenAIがAI人形を社会に広めるにあたって、技術的革新だけでなく、倫理的・心理的な信頼性の確保が欠かせません。

今後の注目ポイント

  • ✔ 製品がどのようなインタラクションを提供するのか
  • ✔ 音声・データの取り扱いと透明性
  • ✔ 保護者の不安に対する事前の説明と制御手段
  • ✔ 夜間や誤作動に対する対策の有無

まとめ

AI技術が子供の遊びをより豊かに、そして創造的にすることは期待される一方で、子供にとっての安全性・心理的安定・保護者の安心感は、それと同じかそれ以上に重要な要素です。

AIが語りかけるBarbieが、子供たちに夢を与える存在になるのか。それとも、思いがけない恐怖を植え付けてしまう存在になるのか──その未来は、今まさに開発される製品の設計と姿勢にかかっています。

参考文献

Oracle Database@Google Cloud、ついに日本上陸──クラウド移行とAI活用を加速するマルチクラウドの要石

2025年6月13日、オラクルとGoogle Cloudは日本市場に向けて「Oracle Database@Google Cloud」の提供を正式に開始しました。これは、Google Cloudの東京リージョン(アジア北東1)において、オラクルのフル機能データベースサービスが、クラウドネイティブな形で利用可能となる歴史的な一歩です。

従来、Oracle Databaseは自社クラウド(OCI)やオンプレミス、もしくはライセンス持ち込み型のクラウドでの利用が一般的でしたが、今回の発表は、Oracleが自らのデータベースを第三者クラウド上で提供・運用する初の試みです。このことにより、日本国内のクラウド移行、データ主権の確保、AI活用が一層加速されることが期待されます。

クラウドでも“フル機能のOracle”を

この新サービスでは、以下の先進的なOracleデータベースがGoogle Cloud上で利用可能です:

  • Oracle Exadata Database Service on Dedicated Infrastructure
    最新のX11Mアーキテクチャを採用し、AI・分析・OLTP(オンライントランザクション処理)における高性能を実現。Real Application Clusters(RAC)にも対応。
  • Oracle Database 23ai
    JSONとリレーショナルを統合した「JSON Relational Duality Views」や、「Oracle AI Vector Search」など、AI時代を見据えた機能を300以上搭載。
  • Oracle Autonomous Database
    フルマネージド型のクラウドデータベースで、Google CloudのAPI・UIに完全統合。パフォーマンス、可用性、セキュリティのすべてにおいて高水準を提供。
  • Oracle Base Database Service(近日提供)
    軽量な仮想マシンベースのデータベース。19cや23aiなどを従量課金で利用可能。ローコード開発もサポート。

AIとクラウドネイティブ開発の融合

Oracle Database@Google Cloudは、GoogleのGeminiやVertex AIなどのAI基盤と統合可能であり、開発者にとってはクラウドネイティブなAIアプリケーション開発の出発点となります。

また、JSON×RDB統合、非構造データの検索、AI推論基盤との連携など、データ活用の可能性が大きく広がります。

パートナーエコシステムの再構築へ

OracleとGoogle Cloudは、再販プログラムの創設により、日本国内のSIerやクラウド事業者と連携し、企業のマルチクラウド導入を強力に支援します。Google Cloud Marketplace経由での提供が可能になり、導入・運用の敷居が大きく下がる点も魅力です。

株式会社システムサポートをはじめとする主要パートナーは、この環境を活かして、より柔軟なクラウド構成とデータソリューションの提供を目指しています。

今後の展開:グローバル対応へ

今回提供開始となったのは東京リージョンですが、今後12カ月以内に大阪(アジア北東2)、ムンバイ(アジア南1)など、複数リージョンでの展開が予定されています。これは、Oracleの「分散クラウド戦略」の一環であり、パブリック、プライベート、マルチクラウドを柔軟に組み合わせるポートフォリオ戦略が基盤となっています。

おわりに

「Oracle Database@Google Cloud」の登場により、日本の企業は“クラウドネイティブでありながら、Oracleの完全な機能性を享受できる”という新たな選択肢を手にしました。特に、AI活用、データレジデンシー、既存DB資産の活用に悩む企業にとっては、待望のソリューションとなるでしょう。

これからの日本におけるクラウド移行、AI統合の中核を担う存在として、この発表は今後の市場を左右する大きな転換点といえます。

参考文献

【Java】List.of()にnullを渡すとどうなる?安全なリストの構築方法

Java 9から追加されたList.of()は、簡潔に不変リスト(immutable list)を作成できる便利なAPIです。しかし、使い方を間違えるとNullPointerExceptionを引き起こす落とし穴があります

本記事では、List.of()nullを渡した場合の挙動と、安全にリストを構築する方法について解説します。

List.of()にnullを渡すとどうなるか

以下のようにnullを含む値をList.of()に渡すと、実行時に例外が発生します。

String a = "hello";
String b = null;

List<String> list = List.of(a, b); // ← ここで例外が発生

実行結果:

Exception in thread "main" java.lang.NullPointerException
    at java.base/java.util.ImmutableCollections.listFromTrustedArray(...)

List.of()は「null非許容」です。これは公式ドキュメントにも明記されています。

List (Java SE 9 & JDK 9 )から引用

安全な方法1:Stream.of() + filter(Object::nonNull)

nullを除外してリストを構築したい場合は、Stream APIを使って次のように書けます:

import java.util.List;
import java.util.Objects;
import java.util.stream.Collectors;
import java.util.stream.Stream;

String a = "hello";
String b = null;

List<String> list = Stream.of(a, b)
    .filter(Objects::nonNull)
    .collect(Collectors.toList()); // → ["hello"]

この方法ではnullを安全に取り除いたリストを作成できます。List.of()と異なり変更可能なリストになりますが、多くの場合は問題ありません。

安全な方法2:手動でnullチェックして追加

もっと素朴な方法として、以下のようにif文で追加するのも実用的です:

import java.util.ArrayList;
import java.util.List;

String a = "hello";
String b = null;

List<String> list = new ArrayList<>();
if (a != null) list.add(a);
if (b != null) list.add(b); // → ["hello"]

処理の過程でnullを記録・無視・ログ出力したい場合など、柔軟性があります。

nullを含める必要がある場合は?

どうしてもnullを含む必要がある場合は、List.of()を使うのではなく、通常のArrayListArrays.asList()を使いましょう。

List<String> list = Arrays.asList("hello", null); // OK

ただし、Arrays.asList()は固定サイズリストを返すため、要素の追加・削除はできない点に注意してください。

✅ まとめ

方法null許容リスト型備考
List.of(a, b)不変リストnullを含むと例外
Stream.of(a, b).filter(…).collect()可変リストnullを除外して簡潔に書ける
手動で if != null で追加可変リスト柔軟な制御が可能
Arrays.asList(…)固定サイズ要素の追加削除不可

Javaでnullを扱う場面はまだ多くあります。List.of()は便利ですが、nullは許容されない」という仕様を正しく理解した上で使い分けることが大切です

損保ジャパンの情報漏えい──それ、他人ごとではないかもしれません

2025年6月11日、損保ジャパンが最大1,748万件の情報漏えいの可能性があると発表しました。きっかけは、同社のWebシステムが外部からの不正アクセスを受けたこと。これは決して珍しい事件ではありませんが、今回のケースには、私自身も他人ごとではないと感じさせられる点がいくつもありました。

発覚したのは社内向けシステムの「外部公開」

事件の概要はこうです。

2025年4月17日から21日にかけて、損保ジャパンのWebサブシステムに第三者による不正アクセスがありました。このシステムは本来、社内向けに運用されていたものでしたが、外部からもアクセスできる状態にあったようです。4月21日に不正アクセスを検知したのち、直ちにネットワークから遮断。以降、警察に通報し、外部専門機関と連携しながら調査が行われました。

漏えいの可能性があるのは以下の情報です:

  • 顧客関連情報:約726万件(氏名・連絡先・証券番号など)
  • 代理店関連情報:約178万件
  • 匿名化されたデータ:約844万件

これらを合わせると、最大で約1,748万件の情報が対象になります。

幸いなことに、マイナンバーやクレジットカードなどのセンシティブな情報は含まれていなかったとされています。現時点では、実際に情報が外部に流出した、あるいは悪用された事実も確認されていません。

それ、実はあなたのチームにも起こりうる

今回の件は「大企業で起きた話」で済ませてしまいがちです。しかし、私はこのニュースを読んで、ふと自分の環境を思い返しました。

  • 開発中のダッシュボード
  • 本番とは別の検証環境
  • 社内用の管理画面

それらのシステムが、本当に社外からアクセスできないようになっていると、すぐに言い切れるでしょうか?

とくに、検証のために一時的にポートを開けて放置していたり、環境変数でベーシック認証が外れていたり――ちょっとした油断で「外部に公開されている状態」は簡単に作られてしまいます。

「社内向けだからセキュリティは最低限でいい」

そう思っていたら、いつの間にか外からアクセスできる状態になっていた――それは誰の身にも起こりうることです。

今こそ、点検と対策を

この事件から学べる最大の教訓は、「リスクは常に自分の足元にある」ということです。

対策として、今すぐ以下の点を見直してみる価値があります。

✅ アクセス管理の再確認

  • 開発中/社内専用のサイトやAPIが外部に公開されていないか確認。
  • 意図しないルーティングやセキュリティグループの設定を見直す。

✅ 監視体制の強化

  • 怪しい挙動があった際に即時に検知できる監視ツールを導入。
  • WAF(Web Application Firewall)やIDS/IPSなどの導入も有効。

✅ 脆弱性診断の定期実施

  • 本番環境だけでなく、ステージング・開発環境も含めて診断対象に。
  • オープンソースライブラリの脆弱性情報にも注意。

✅ チーム内教育と運用ルールの整備

  • 「社内だから」「一時的だから」で済ませない文化を作る。
  • 新しい環境を立てる際にはチェックリストを運用する。

情報漏えいは、決して他人ごとではない

損保ジャパンのような大企業でさえ、不正アクセスのリスクを完全にゼロにすることはできていません。私たちが日々開発・運用しているサービスにも、同じような危うさは潜んでいます。

この機会に、もう一度環境を見直してみませんか?

「開発中だから」「社内向けだから」では済まされない時代が、すでにやってきています。

参考文献

WWDC25で明らかになったAppleプラットフォームの進化

WWDC25のプラットフォーム向け発表では、Apple製品のソフトウェア全体が一大アップデートを迎えました。特に「Liquid Glass」という新デザイン言語の導入は最大規模の刷新と言えますが、これ以外にもApple Intelligence(AI機能)の拡張、開発ツールやプログラミング言語の進化、visionOSの強化、ゲーム関連技術の充実、SwiftUIの新機能追加など、多岐にわたる発表が行われました。本記事ではそれらのポイントを整理し、わかりやすく解説します。

Liquid Glassデザインの刷新

Appleは新しいソフトウェアデザインとして「Liquid Glass」を発表しました。これはガラスのような光学特性と流動性を兼ね備えたソフトウェア素材で、アプリのUI要素に新たな深みと透明感をもたらします 。たとえば、ボタンやスイッチ、スライダーといった小さなコントロールから、ナビゲーション用のタブバーやサイドバーなど大きな要素まで、液体状のガラス素材が画面上で浮かび上がるように表示されます。Liquid Glassは周囲の光を反射・屈折し、背景のコンテンツを透かして「新たなレベルの活力」を演出しつつ、コンテンツへの注目を高めるデザインとなっています 。また、ダーク/ライトモード環境に応じて色調がインテリジェントに変化し、必要に応じて要素が拡大・縮小するなど動的に振る舞うことで、ユーザーの操作に合わせて柔軟に表示が変化します。

  • 新素材の特徴: 「Liquid Glass」はガラスの光学特性と流体的な感覚を組み合わせたデザインマテリアルで、従来のフラットなUIに透明感と奥行きを追加します 。
  • 幅広い適用範囲: ボタンやスライダーなどの小さなコントロールから、タブバーやサイドバーなどの大きなナビゲーション要素まで一貫してLiquid Glassが適用され、統一感のある外観になります 。
  • アイコン・ウィジェット: ホーム画面やロック画面のアイコン・ウィジェットも新しいクリアなデザインに更新されます。iPadでは「ロック画面やコントロールセンターで体験全体に活力がもたらされる」と説明されています 。さらに専用の「Icon Composer」アプリが提供され、レイヤーやハイライトを組み合わせたLiquid Glassスタイルのアイコンを簡単に作成できるようになります 。
  • 開発者への影響: SwiftUIなどのネイティブUIフレームワークはLiquid Glassデザインをサポートし、既存アプリでもコードをほとんど変更せずに新デザインを取り入れられます 。たとえば、タブバーが自動的に浮いたスタイルになるなど、多くの要素がOSレベルでアップデートされ、再コンパイルするだけで新しい外観を得られます 。

Apple Intelligenceの統合

AppleはAI機能(Apple Intelligence)も大幅に強化しました。まず開発者向けには、デバイス上で動作する大規模言語モデルへのアクセスを提供する「基盤モデルフレームワーク」を発表しました 。このフレームワークを使うことで、アプリ内でオフライン・プライバシー保護されたAI推論機能を無料で利用できるようになります 。Swiftにネイティブ対応しており、わずか3行のコードでApple Intelligenceのモデルにアクセス可能、生成的な文章作成やツール呼び出しなどの機能も組み込まれているため、既存アプリに高度なAI機能を簡単に追加できます 。実例として、日記アプリ「Day One」ではこのフレームワークを利用し、ユーザーのプライバシーを尊重しながらインテリジェントな支援機能を実現しています 。

  • 基盤モデルフレームワーク: 「Apple Intelligenceをベースに、無料のAI推論を利用して、インテリジェントでオフラインでも利用できる新たな体験を提供する」フレームワークが追加されました 。これにより、メモやメールなどのアプリでユーザーの入力をAIで拡張したり、自動要約や文脈理解機能などを組み込んだりすることが可能になります。
  • XcodeとAI: Xcode 26ではChatGPTなどの大規模言語モデルが統合されており、開発者はコード生成やテスト生成、デザインの反復、バグ修正などのタスクでAIを活用できます 。APIキーを使って別のモデルを利用したり、Appleシリコン上でローカルモデルを動かすこともでき、ChatGPTはアカウントなしですぐに利用可能です 。
  • その他のAI機能: ショートカット(Automation)からApple Intelligenceを直接呼び出す機能が追加され、翻訳や画像解析などのAI機能がより身近になります 。また、Apple製品全体では翻訳やビジュアル検索、絵文字生成(Genmoji)などエンドユーザー向け機能も強化されています 。

Xcode 26とSwift 6.2

開発環境も大きく進化しています。Xcode 26では前述の大規模言語モデル統合に加え、開発効率を高めるさまざまな機能が加わりました。たとえばCoding Toolsという機能では、コードのどこからでもプレビューやテスト生成、問題解決などの提案をインラインで受けられ、コーディングの流れを中断せずに作業できます 。また、音声コントロールが強化され、音声でSwiftコードを入力したり、Xcode操作を行ったりできるようになりました 。

  • LLM対応: XcodeにChatGPTなどのLLMがビルトインされ、外部APIやローカルモデルも利用可能に 。AIによるコード生成・ドキュメント作成・バグ修正支援がIDE内部でシームレスに利用できます。
  • ユーザーインタフェース: Xcode 26ではナビゲーションUIの再設計やローカリゼーションカタログの改善など、開発者の作業効率を高める細かな改良も行われています 。
  • Swift 6.2: プログラミング言語Swiftも6.2に更新され、パフォーマンスと並行処理機能が強化されました 。特に、C++やJavaとの相互運用性が向上し、オープンソースの協力でWebAssembly対応も実現しています。また、従来Swift 6で厳格になった並行処理の指定も簡素化され、モジュールやファイル単位でmain actor実行をデフォルト設定できるようになりました 。
  • 新ツール: ContainerizationフレームワークによりMac上でLinuxコンテナが直接動作可能になり、Windows環境からリモートのMacでMac向けゲーム開発を行えるMac Remote Developer Toolsなども提供されます 。加えてGame Porting Toolkit 3Metal 4など、ゲーム開発向けのツール・ライブラリも刷新され、より高度なグラフィックと機械学習のサポートで次世代ゲーム開発を支援します 。

visionOS 26とゲーム関連技術

Apple Vision Pro向けのOS「visionOS」も26にアップデートされ、空間体験やゲーム機能が強化されました。ウィジェットを空間内に固定表示できるようになり、物理空間に溶け込むインタラクションが可能になります。さらに生成AIを使って写真にリアルな奥行きを加えた「空間シーン」や、ユーザーのアバター「Persona」の表現強化などでより没入感が高まっています 。同じ部屋にいる他のVision Proユーザーと空間体験を共有し、3D映画を一緒に観たり、共同作業したりできる機能も追加されました 。

  • 空間体験の拡張: ウィジェットが空間に固定されるようになり、環境に合わせた自然な表示が可能です 。また、360度カメラや広角カメラからの映像に対応するほか、企業向けAPIによりカスタムの空間体験をアプリに組み込めます 。
  • 共有機能: Vision Pro同士でコンテンツを共有し、3Dムービー視聴や空間ゲームプレイ、遠隔地の参加者を交えたFaceTimeなどが楽しめます 。
  • ゲームサポート: PlayStation VR2のSenseコントローラに対応し、より没入感の高い新ジャンルのゲーム体験が実現します 。同時に、Game Porting ToolkitMetal 4の強化も進められ、MacでもPC/コンソール向けゲームの移植・開発が容易になっています 。

SwiftUIの新機能

UIフレームワークSwiftUIにも多くのアップデートがあります。前述のLiquid GlassデザインはSwiftUIコンポーネントにも組み込まれ、ツールバーやタブバー、検索フィールドなどにガラス状のエフェクトが適用できます 。検索フィールドはiPhoneでは画面下部に表示されるなど、操作性の向上が図られました 。さらに、Webコンテンツ埋め込みやリッチテキスト編集、3D空間でのビュー配置など、高度な表現機能が追加されました 。フレームワーク自体のパフォーマンスも改善され、新しいインストルメント(計測ツール)により効率的に最適化できるようになっています 。

  • Liquid Glass対応: 多くのツールバー項目やタブバーがLiquid Glassスタイルになり、遷移時には形状が滑らかに変化します 。ツールバーアイテムには色付け(Tint)が可能になり、コンテンツスクロール時にはツールバーにブラー効果が自動適用されるようになりました 。
  • レイアウト・検索: searchable モディファイアの変更なしで、iPhoneでは検索フィールドが下部に表示されるデザインに切り替わります 。タブアプリでは検索タブが分離され、検索タブがフィールドにモーフィングする新しい挙動になりました 。
  • 新機能: WebViewを使わずにWebコンテンツを表示できる組み込みビューや、リッチテキスト編集機能が追加されました 。加えてSwiftUIで3D空間上にビューを配置する機能も導入され、空間アプリ開発がサポートされます 。

今後の展望

WWDC25で示された新機能群は、Appleプラットフォーム全体の一体化と進化を強く印象づけるものです。Liquid GlassがOSの隅々に浸透することで、ユーザー体験はより直感的で美しいものになります。同時に、Apple Intelligenceの統合やXcodeのAI強化、visionOSやゲーム技術の充実により、開発者はこれまで以上に先進的なアプリを生み出す機会を得ました。各プラットフォーム間で共通化されたデザインや新たなAPIを活用すれば、質の高い体験を短時間で実現できるでしょう。今後のOS更新とツールの公開が待ち遠しい限りです。

AI調理家電が拓くスマートキッチンの未来

シャープ新製品:AI搭載ウォーターオーブン「ヘルシオ」

SHARPニュースリリースサイトより引用

シャープは2025年6月、ウォーターオーブン「ヘルシオ」の新モデル2機種を発表しました。それに合わせて業界初となる生成AI技術を使った音声対話サービス「クックトーク」を開始 。ヘルシオは2016年にWi-Fiを搭載して以降、クラウド経由でレシピ提案や自動調理メニューの追加など“進化”し続けてきました 。今回の「クックトーク」ではスマホからキャラクター相手に話しかけるだけで、献立の悩み相談や調理方法の質問に対してAIが自然な対話で答えてくれるのが特徴です 。たとえば「冷蔵庫に○○があるけど何作れる?」と聞けば、おすすめレシピを提案してくれるので、毎日の献立決めがグッとラクになります。

ヘルシオ本体の機能面でも便利さが向上しています。1~2人分を手軽にグリル調理できる専用「ヘルシオトレー」が付属し、少量調理メニューが拡充。さらにできたてのように温め直す「ヘルシオあたため(おいしさ復元)」機能にも新たに対応し、冷めた料理を美味しくリメイクできます 。また自動調理機能の「らくチン1品」も進化し、冷凍した食材や市販の冷凍野菜にも対応しました 。シャープは「電子レンジ累計1億5千万台突破」という実績もあり 、AIで培ったノウハウを活かして今後も日々の食生活を豊かにする商品開発を続けるとしています。

国内メーカーのAI調理家電いろいろ

シャープ以外の国内主要メーカーも、AIを活用した様々な調理家電やサービスを展開しています。まずパナソニックは、高機能オーブンレンジ「ビストロ」シリーズ向けにAI料理パートナー「Bistroアシスタント」というサービスを開始しました 。これはLINEの公式アカウント上で利用できる月額サービスで、チャットで質問すると生成AIがユーザーの好みやライフスタイルに合わせた最適なレシピ提案や、調理中の疑問への回答をリアルタイムで返してくれるというものです 。まるでプロのシェフが隣についてサポートしてくれる感覚で、料理が完成するまでの様々な悩みに寄り添ってくれます 。ビストロ購入者向けには月額330円で利用でき、非購入者でも最新ビストロをレンタル(本体込み月額3,980円)でサービスを使えるプランが用意されています 。レンジとAIアシスタントを組み合わせた新提案として注目されています。

次に象印では、自動調理鍋「STAN.(スタン)」シリーズでユニークな取り組みがあります。専用レシピを活用した献立自動作成アプリ「me:new(ミーニュー)」と提携し、AIが最長1週間分の献立を自動生成してくれるサービスを試験提供しました 。材料を入れてボタンを押すだけの電気調理鍋と、AI献立アプリを組み合わせることで、「もう献立選びに迷わない」とうたっています 。これは毎日の献立決めという主婦(主夫)層の悩みを解決する好例でしょう。また象印の高級炊飯器では、「AI」搭載をうたって過去の炊飯データを学習し火加減を調整するモデルもあります 。炊飯器が使うほどユーザーの好みに炊き加減を最適化していくという、まさに熟練の職人の勘を模したようなAI活用です。

日立の調理家電も負けていません。過熱水蒸気オーブンレンジ「ヘルシーシェフ」シリーズでは専用の**「ヘルシーシェフ」アプリを提供しており、本体にない新しいレシピを次々クラウド配信してレパートリーを増やせます 。アプリはクックパッド等の人気レシピとも連携し、スマホでメニュー検索や提案が可能です。さらにユーザーの嗜好に応じたおすすめレシピを毎日アプリ上で提案**してくれる機能もあり 、「いつでもあなたに合ったレシピが表示されます」とアピールしています 。AIという言葉こそ前面には出していませんが、好みの傾向を学習してパーソナライズしたメニュー提案を行う点で、広義のAI活用と言えそうです。

そして三菱電機では、調理“家電”とは少し異なりますが最新冷蔵庫にAI技術を導入しています。同社の「切れちゃう瞬冷凍A.I.」機能搭載の冷蔵庫では、扉の開閉タイミングや回数をAIが学習し、自動で最適なタイミングで瞬冷凍モードを作動します 。これにより食材を素早く部分冷凍して、使いたい分だけサクッと切り出し、残りは再冷凍といった効率的な下ごしらえが可能になります 。各家庭の生活パターンに合わせて冷凍・冷蔵の運転を賢く制御し、食品ロスや調理時間の削減に寄与する取り組みです。

CESで見えたフードテック最前線とAI調理家電の方向性

世界最大の家電見本市CESでは2024年・2025年と続けて、スマートキッチンやAI調理家電の最先端技術が多数紹介されました。そこから見えてきた今後の方向性として、パーソナライズ、健康志向、持続可能性、そしてデバイス連携といったキーワードが浮かび上がります。

まずパーソナライズの例としては、パナソニックがCES2024で発表したスマートオーブンのAIクッキングアシスタントが挙げられます。スマートキッチンプラットフォーム企業Fresco社と組んだこのAIは、ユーザーの食の好みや栄養ニーズに合わせてレシピをカスタマイズしたり、手持ちの食材に応じて代替材料を提案してくれるといいます 。複数機能搭載の「ホームシェフ」オーブンで調理する際、例えば「レシピの4人分を2人分に減らしたい」「牛乳がないけど豆乳で代用できる?」といった要望にAIが即座に対応し、温度・時間設定まで自動調整。まさに一人ひとりに最適化された料理体験を実現しようとしています 。

健康志向の面では、Samsung(サムスン)が披露した最新スマート冷蔵庫が象徴的です。CES2024で発表された「Bespoke 4-Door Flex 冷蔵庫 with AI Family Hub+」は内蔵カメラAI Vision Insideで最大33種類の食材を認識し 、ユーザーが冷蔵庫内の在庫や賞味期限を一目で把握できるようにしています。さらにSamsung Healthアプリと連動し、ユーザーの健康データに基づいたレシピ提案まで行ってくれるとのこと 。例えばカロリーや塩分を控えたい人にはそれに見合ったメニューをおすすめしてくれるわけです。冷蔵庫の大型スクリーンでYouTubeの料理動画を見たり、スマホ画面をミラーリングしてレシピを表示するといったIoT連携も充実 。キッチンが健康管理や情報発信のハブになりつつあることが伺えます。

また、CESには大小さまざまなフードテック・スタートアップも集結しており、彼らのアイデアからは持続可能性や省力化のヒントが見えます。例えばあるスマートBBQグリルはカメラで食材を認識し、クラウド経由で写真からレシピを自動生成してくれるそうです 。さらに内蔵する生成AI「Vera」に質問すれば「もっとスパイシーにするにはどの調味料を足せばいい?」といった相談にも答えてくれ、レシピが決まったら後はグリルが自動で調理してくれるとのこと 。経験や勘に頼らずともAIがプロ並みの焼き加減を実現してくれるので、バーベキュー初心者でも失敗なく美味しく焼けるといいます 。他にも、食材に応じて温度・時間を自律調整するワンタッチ調理のAIフライヤー や、自動でフラットブレッドを捏ねて焼く調理ロボット 、スパイスを最適配分してくれるスマートディスペンサー等、キッチンの自動化・省力化につながる製品が多数登場しました。

これらCESでのトレンドは、AI調理家電がよりユーザー個々のニーズに寄り添い、健康や環境に配慮し、そしてキッチン全体がシームレスに繋がる方向に進んでいることを示しています。AIがレシピをパーソナライズし、在庫や栄養を管理し、必要なら自動で調理までしてくれる世界——それは忙しい現代人にとって理想的な「スマートキッチン」の姿かもしれません。

AIに料理を任せて大丈夫?懸念と安全対策

便利なAI調理家電ですが、一方で「本当に任せて平気?」「AIが暴走したりしない?」といった不安の声もあるでしょう。典型的な懸念としては、例えば「AIが調理を拒否するような事態はないのか?」とか「間違った調理指示を出して失敗や事故につながらないか?」といった点が挙げられます。

まず「調理を拒否する」ケースについてですが、現時点で一般的な調理家電のAI機能はあくまでユーザーの指示や利便性向上のために働くものです。メーカーも「外部からの指令で勝手に動作を制限するような設計はしていない」と明言しています。 実際、スマートオーブンのAI機能は火加減の自動調整や省エネ運転などが中心で、ユーザーが使おうとしたときに勝手にロックがかかるようなものではありません 。例えば「電力会社や政府の意向で夕飯時にレンジが動かなくなるのでは?」という噂もありますが、そうした外部からの制御は現在の家電AIには組み込まれていないのが実情です 。基本的に賢い助手ではあっても主人(ユーザー)の許可なくキッチンを仕切ることはないので、その点は過度に心配しなくて良いでしょう。

次に「AIの誤作動でおかしな調理が行われる」リスクについて。こちらは十分注意が必要なポイントで、特に生成AIを使ったレシピ提案では過去にヒヤリとする事例も報告されています。海外ではスーパーの実験的なレシピBOTがChatGPTを使った際、ユーザーが入力した有毒な組み合わせの材料(漂白剤+アンモニアなど)に対し、致死性の有毒ガスを発生させる“殺人レシピ”を生成してしまったケースがありました 。もちろん通常の料理ではあり得ない材料ですが、AIは与えられた指示に従順なため、入力次第では危険な結果も起こり得るという教訓です。この件を受けて、そのスーパーではAIに自由な材料入力をさせずあらかじめ定義された安全な食材リスト内で組み合わせる方式に変更する対策を講じています 。同様に、各社のAIクッキングサービスでも不適切な回答や誤った手順を出さないようフィルタリングを強化していると考えられます。例えばSharpやPanasonicの対話型AIも、ベースとなるレシピデータは自社や提携先の蓄積した信頼できる料理データに限定し、暴走しないようチューニングされているでしょう。

またハード面の安全対策も進んでいます。AIカメラで調理の様子を見守り、焦げそうになると通知してくれるオーブンが登場しており、サムスンのBespoke AIオーブンは100種類以上の料理を認識して**「焦げる前」に警告してくれるそうです 。これはユーザーの「うっかり」をカバーし、キッチン火災などを未然に防ぐ心強い機能です。さらに調理ロボットにも異常検知や自動停止の仕組みが組み込まれており、たとえばCESに出展したあるロボット調理機はセンサーで異常を感知すると**「オートストップ」して安全を確保**する設計でした 。このように、AI+センサー技術で人間には難しい微妙な加減をコントロールしたり、逆に人間のミスをカバーしたりと、安全性はむしろ高まっている面もあります。

とはいえ、最終的に料理の責任を負うのは利用者自身です。AIの提案に疑問があれば無理に従う必要はありませんし、調理中は適宜人間の目で確認するのが大事です。幸い現在のAI調理家電は「人の良きアシスタント」に徹するよう設計されていますので、上手に活用しつつも過信しすぎないバランス感覚が肝要でしょう。便利さと安全性を両立させながら、AIとの新しい料理体験を楽しみたいですね。

参考文献

間もなく開幕、WWDC 2025──Appleが目指す次のエコシステム

Appleの年次開発者イベント「WWDC 2025(Worldwide Developers Conference)」は、**現地時間2025年6月9日(月)午前10時(日本時間6月10日(火)午前2時)**に開幕予定です。例年通りオンラインでのストリーミング配信が行われ、初日の基調講演では各OSの最新情報や新機能が発表される見込みです。

はじめに

Appleが毎年開催する開発者会議「WWDC 2025」が間もなく開幕します。例年、iPhone向けのiOSやMac向けのmacOSをはじめ、iPad、Apple Watch、Apple TV、さらにはVision Pro用のvisionOSまで各OSの大型アップデートが発表されており、今年も同様の発表が見込まれています。WWDC直前のBloomberg報道では、今年のOSは従来の「iOS 19」ではなくリリース年に合わせた番号になるとの情報が伝えられており、今回のイベントでiPhone用OSが**「iOS 26」と命名される可能性が高いです。その他のiPadOSやwatchOS、tvOS、visionOSも同様に「26」**に統一されると見られ、2025〜2026年に提供される世代であることが一目で分かるようになります。

もう一つの注目点は、2013年以来となる大胆なUIデザインの刷新で、「iOS 26はiOS 7以来の大改訂になる」と予想されています。加えて、昨年WWDC 2024で明かされたAppleのオンデバイスAI戦略「Apple Intelligence」を踏まえ、Siriを中心としたAI機能の強化も今年の主要テーマとなる可能性が高いです。

それでは、WWDC 2025にて発表が見込まれているOSや新機能について、現時点での情報を元に予測として整理します。

iOS 26:iPhone向けOSの大幅刷新が予想されます

iOS 26」では、UIデザインの一新が最大の注目点となっています。社内コードネーム「Solarium」と呼ばれるこのプロジェクトでは、ガラスのような半透明デザインが採用されると報じられており、2013年のiOS 7以来の大規模なビジュアルアップデートになると期待されています。

新しいインターフェースでは、通知や検索バー、メニューなどが浮かぶように表示され、影や照明効果が立体感を演出するスタイルになると予測されています。

  • 「Games」アプリ: Game Centerに代わるゲーム専用ハブアプリ「Games」が搭載されるとの噂があり、Apple Arcadeなどのゲームを統合的に管理できるようになる可能性があります。
  • 「プレビュー」アプリ: macOSに搭載されているPDF/画像編集アプリ「Preview」がiPhoneやiPadにも搭載されると報じられています。
  • 電話アプリの強化: お気に入り・履歴・留守電などを1画面に表示する新UIや、リアルタイム翻訳機能の搭載が予測されています。
  • メッセージ機能の追加: グループ内投票機能や背景画像の個別設定など、チャット体験の向上が期待されています。

iPadOS 26:Macライクな機能の追加が見込まれます

iPadOS 26」もiOSと同様のガラス調UIを採用しつつ、Magic Keyboard接続時にメニューバーが表示されるなど、Macに近い操作体系が導入されるとされています。これにより、生産性を高めるための改善が進む見込みです。

また、Apple Pencilではカリグラフィー用途の「リードペン先」の新オプションが追加されるとの情報もあり、手書き機能の拡充が期待されます。

macOS 26 “Tahoe”:Mac向けの新名称と共に発表される見込みです

次期Mac用OSは「macOS 26」で、コードネームは「Tahoe」である可能性が高いと報じられています。UIの刷新に加え、ショートカットアプリの改善や、Appleシリコンに最適化された機能強化が行われる見込みです。

旧Intel Macの一部モデルは今回のアップデート対象外になる可能性があるとされており、Appleシリコン以降の機種が中心となると考えられています。

watchOS 26:UIの調整と新しい操作性の導入が予想されます

watchOSでも新しいUIが導入され、より浮き出たような立体感のあるインターフェースが採用される可能性があります。また、コントロールセンターのカスタマイズ機能拡張により、サードパーティアプリへのアクセス性が向上するとみられています。

睡眠検知とAirPodsの連携により、寝落ち時に自動で再生を停止する機能の追加も噂されています。

tvOS 26とhomeOS:ホーム戦略の拡大に向けた兆しがあります

tvOS 26に関しては大きな刷新はないと見られていますが、内部番号の統一や安定性向上が行われると予測されています。一方、Appleは「homeOS」と呼ばれるホーム向け新OSの準備を進めているとの報道もあり、スマートディスプレイ型HomePod向けに何らかの発表があるか注目されています。

visionOS 26:Vision Pro向けの改良と新しい入力操作が期待されます

visionOSの次期バージョン「visionOS 26」では、視線によるスクロール操作や他社製VRコントローラーへの対応が追加される可能性があります。これにより、手を使わずに直感的な操作が可能になると期待されています。

Apple IntelligenceとAI統合の拡大が見込まれます

WWDC 2025では、Appleが掲げる「Apple Intelligence」戦略に沿ったAI機能の強化が進むとみられています。特に、電話でのリアルタイム翻訳や、iMessageにおける絵文字生成機能「Genmoji」など、生成AIの活用が予測されています。

また、Googleの大型言語モデル「Gemini」をSiriに統合するという報道もあり、Siriの強化に外部AIが活用される可能性も注目されています。

まとめ

WWDC 2025では、Appleの各プラットフォームにおけるUIの刷新AIの活用が主要テーマになると予想されています。イベントの開催により、これらの予測がどこまで実現されるかに注目が集まります。例年通りであれば、基調講演後すぐに開発者向けベータ版が公開され、夏にはパブリックベータ、秋には正式リリースが行われる見通しです。

参考文献


生成AIはなぜ事実と違うことを言うのか?ハルシネーションの原因とその影響

はじめに

近年、ChatGPTをはじめとする生成AI(Generative AI)が大きな注目を集めています。その一方で、ハルシネーションと呼ばれる現象によってAIが事実と異なる回答を返す問題も広く認識されるようになりました。ハルシネーションとは一体何なのでしょうか?この現象の背景や原因を正しく理解し、対策を知ることは非常に重要です。

本記事では、生成AIにおけるハルシネーションの技術的背景と発生要因を解説し、それによって引き起こされる問題点や各分野への影響、実際に起きた事例を紹介します。さらに、現在講じられている主な対策と今後の展望・課題について、できるだけ分かりやすく説明していきます。

ハルシネーションの技術的背景と発生要因

ハルシネーションとは、AIが事実ではない誤った情報や回答をあたかも事実であるかのように生成してしまう現象のことです。人工知能がまるで幻覚(hallucination)を見ているかのように感じられることから、この名前が付けられました。

では、なぜ生成AIはそのような誤回答を自信満々に作り出してしまうのでしょうか。その技術的背景には、大規模言語モデル(LLM)の動作原理が深く関係しています。多くのLLMでは、人間の会話や文章を学習データとして「次に最もあり得る単語」を予測しながら文章を生成する自己回帰型生成という手法が使われています。つまり、モデルは真実かどうかよりも「もっともらしい文章」を作るよう設計されているのです。そのため、十分な知識や文脈が無い質問に対しても、それらしく辻褄の合った回答を作り出そうとする傾向があります。

ハルシネーションが発生する具体的な原因としては、次のような要素が指摘されています:

  • 質問や指示が不明瞭であること:質問文が曖昧だったり情報が不足していたりすると、モデルは不確かなまま「もっともらしい単語」を並べて回答してしまいます。本来であれば「その質問内容では情報が足りません」といった返答が望ましい場面でも、特に性能が限定されたモデルでは誤った回答を生成しがちです。プロンプト(指示文)を明確にすることが重要だとされる所以です。
  • 学習データの偏りや不足:AIが学習したデータにバイアス(偏り)があったり情報量が不十分だったりすると、対応できる知識の範囲が狭まります。その結果、学習データに存在しない事柄について問われると誤った情報で埋め合わせてしまうことがあります。例えば、トレーニングデータが古い場合には最新の事象に関する質問に答えられず、ありもしない回答を作ってしまうといったケースです。
  • モデルの構造上の限界:モデル自体の設計や学習プロセスにも原因があり得ます。たとえば極端に複雑なモデル構造や不適切な学習によって、データにないパターンや特徴を生成してしまうことがあります。過学習を十分に防げていない場合や、学習データ自体に誤りが含まれる場合にも、間違った関連性を「学習」してしまい結果的に誤情報を吐き出す要因となります。モデルの巨大さゆえに内部で何が起きているか解釈が難しいことも、誤った出力を検知・抑制しづらい理由の一つです。

以上のように、生成AIのハルシネーションは**「もっともらしさ」を優先する言語モデルの性質データや入力の問題によって引き起こされます。モデルが大きく高性能になるほど正確性は向上する傾向にありますが、それでもハルシネーションを完全になくすことは難しい**とされています。要するに、現在の生成AIは優秀ではあるものの、根本的に「嘘をつく可能性」を内包したままなのです。

ハルシネーションがもたらす問題点

生成AIのハルシネーションは、単に回答が外れる程度の些細な問題から、深刻な誤りまでさまざまな影響を及ぼします。場合によっては人間が見れば笑い話のような明らかな間違い(例えば「ピザの具材をくっつけるために接着剤を使うべき」といった荒唐無稽な回答)で済むこともあります。しかし最悪のケースでは、医療や法務の分野で重大な誤情報を与えたり、差別的・危険な判断を引き起こしたりする可能性があります。つまり、精度が求められる場面でハルシネーションが起これば、現実社会に直接的なリスクをもたらしかねないのです。

また、ハルシネーションによる期待外れの回答が続くと、ユーザーの信頼を損ねるという問題も見逃せません。Deloitteの技術倫理責任者であるBeena Ammanath氏も「ハルシネーションは信頼を損ない、ひいてはAI技術の普及を妨げる可能性がある」と指摘しています。実際、生成AIが誤情報をもっともらしく発信してしまう現状では、ユーザーは**「AIの言うことだから正しい」と鵜呑みにできない**状態にあります。出力された回答をいちいち検証しなければならないとすれば、せっかくのAIの利便性も半減してしまいます。

さらに深刻なのは、ハルシネーションが社会的・法的なトラブルを引き起こすケースです。ハルシネーションによる誤情報で人や企業の名誉が傷つけられたり、権利が侵害されたりすれば、訴訟問題に発展する可能性もあります。実際に、あるオーストラリアの地方自治体の市長はChatGPTが虚偽の汚職疑惑情報を回答したことに対して抗議し、訂正がなされない場合はOpenAI社を提訴すると表明しました。このように、ハルシネーションが原因で裁判沙汰になるほどの重大なトラブルも現実に起き始めているのです。

エンジニアにとっても、生成AIの誤回答は無視できない問題です。たとえば社内でAIを活用している場合、ハルシネーションにより誤った分析結果や設計ミスが発生すれば業務効率の低下や経済的損失につながる恐れがあります。要するに、ハルシネーションは放置すれば信頼性・生産性の低下を招き、場合によっては深刻なリスクに直結するAIの弱点と言えるでしょう。

医療・教育・法務・ジャーナリズムへの影響

ハルシネーションの問題は幅広い分野で懸念されています。特に医療、教育、法務、ジャーナリズムといった領域では、誤情報の影響が大きいため慎重な扱いが求められています。それぞれの分野でどのような影響やリスクが指摘されているのか見てみましょう。

  • 医療分野: 医療現場で生成AIが誤った指示や診断を出すと、患者の生命に関わる重大な結果を招きかねません。例えば、医療用のAIチャットボットがありもしない治療法を「有効だ」と答えてしまったり、医師の音声記録を文字起こしするAIが患者に対する指示を捏造して付け加えてしまったケースも報告されています。米AP通信の調査によれば、医療で使われる音声認識AIが幻覚的な誤訳を起こし、人種差別的なコメントや暴力的発言、さらには架空の治療法まで出力してしまった例があったとのことです。このような誤情報は医療の信頼を損ない、誤治療や取り返しのつかない事故につながる恐れがあります。
  • 教育分野: 教育現場でもハルシネーションの影響が懸念されています。学生がレポート作成や調べ学習にAIを利用する場合、歴史的事実や科学的データの誤りがそのまま学習内容に反映されてしまう危険があります。例えば、AIが存在しない参考文献や間違った年代・統計をもっともらしく示した場合、気付かずにそれを引用してしまうと誤った知識が広まってしまいます。教師や教育機関側も、AIが作成した文章をチェックしないとカンニングや誤情報の提出を許してしまう可能性があります。こうした理由から、教育分野ではAI活用においてファクトチェックや指導者による確認が不可欠だと指摘されています。誤ったAI回答に頼りすぎると、本来身に付くはずの調査力や批判的思考力が損なわれる懸念もあります。
  • 法務分野: 法律の世界でもAIのハルシネーションによる混乱が現実に起きています。典型的なのは架空の判例や法律をAIがでっち上げてしまうケースです。2023年には、アメリカ・ニューヨークの弁護士がChatGPTを利用して作成した法廷ブリーフに、実在しない判例の引用が含まれていたため裁判官から制裁を科せられる事件が発生しました。このケースでは、ChatGPTがそれらしい判例名や判決文をでっち上げ、弁護士もそれを鵜呑みにしてしまったのです。幸い判事の指摘で発覚しましたが、もし見逃されていたら誤った法的判断につながりかねず非常に危険でした。法務分野ではこのようにAIの回答をうのみにできない状況であり、信頼性確保のため厳格な検証プロセスやガイドラインが求められています。
  • ジャーナリズム分野: ニュース記事の要約や執筆へのAI活用も進みつつありますが、報道における誤情報は社会に大きな影響を与えるため慎重さが必要です。イギリスBBCが主要なAIチャットボットのニュース回答精度を調査したところ、91%の回答に何らかの問題があり、そのうち約19%には事実誤認(日時や統計の誤り)が含まれ、13%には記事中の引用が改変または捏造されていたと報告されています。これはジャーナリズムの分野でAIが情報を歪曲する深刻なリスクを示しています。実際、米メディア大手のCNETでは試験的にAIに書かせた金融記事で半数以上に誤りが見つかり、後日人間が訂正する事態となりました。ニュース機関にとって信頼性は命であり、AIによる誤報が続けば読者からの信用を失いかねません。そのため各社とも、AIが作成したコンテンツには厳重なファクトチェックと編集者の確認を義務付けるなど対策を講じ始めています。

実際に起きたハルシネーション事例

ここでは、ハルシネーションに関連する具体的な事例をいくつか紹介します。企業やプロジェクトで実際に発生したケースから、問題の深刻さを実感してみましょう。

  • Google Bardの誤回答事件: 2023年2月、Googleが発表した対話型AIサービス「Bard」が宣伝動画の中で事実と異なる回答をしてしまい、大きなニュースになりました。Bardは天文学に関する質問に対し、あたかも正しいかのように誤った説明を返答。そのミスにより投資家の不安を招き、Google親会社Alphabetの株価は約1000億ドル(13兆円)もの時価総額を失う事態となりました。この例は、生成AIの一つの誤答が企業に甚大な経済的影響を与えた典型と言えます。
  • ChatGPTによる架空判例引用事件: 前述の法務分野のケースです。2023年、ニューヨークの弁護士がChatGPTを用いて作成した訴状に、ChatGPTがでっち上げた存在しない判例の引用が含まれていました。裁判所はこの弁護士とその同僚に対し制裁金を科す判断を下しています。当事者の弁護士は「テクノロジーがありもしない判例を作り出すとは思わなかった」と釈明しましたが、AIの回答を十分に検証せず利用したリスクが表面化した事件でした。
  • 医療音声記録でのAI捏造事件: OpenAI社の提供する音声認識AI「Whisper」を病院での診療記録の文字起こしに使用したところ、録音にないはずの発言をAIが勝手に付け加えてしまった事例があります。調査によれば、その捏造されたテキストの中には患者に関する不適切なコメントや架空の治療指示まで含まれていました。この問題により、本来存在しない指示に従ってしまう危険や、カルテ記録の信頼性が損なわれるリスクが指摘されています。医療現場でのAI導入において、人間による内容チェックの重要性を痛感させる出来事でした。
  • CNETのAI記事大量誤り事件: 米国のIT系メディアCNETは試験的にAIを使って金融記事を自動生成し公開していましたが、外部からの指摘により多数の記事で誤りが発覚しました。編集部が全77本のAI生成記事を精査したところ、その半数以上にあたる41本で修正が必要な誤りが見つかったと報告されています。この件でCNETはAI記者の運用を一時停止し、人間の手によるレビュー体制を強化する対応を取りました。専門家は「AIの記事生成は魅力的だが、現状では人間のチェックなしでは誤情報が紛れ込むリスクが高い」とコメントしており、メディア業界に大きな教訓を残した事例です。

ハルシネーションへの主な対策

深刻な問題を引き起こしかねないハルシネーションに対し、現在さまざまなレベルで対策が講じられています。ここでは主な対策をいくつか紹介します。

  • 出力の検証とファクトチェック: 最も基本的な対策は、AIの出力を人間や別の仕組みで検証することです。専門家も「生成AIの台頭に伴い、出力内容の検証(バリデーション)の重要性がこれまで以上に高まっている」と強調しています。具体的には、AIが回答した内容について信頼できる情報源と照合する、あるいはAI自身にもう一度問い直して自己検証させる(同じ質問を複数回聞いて一貫性を確認する、自信度を出力させる等)方法があります。企業によっては、AIの回答を評価・採点する別AIを組み合わせて誤情報を検出する取り組みも進んでいます。いずれにせよ、人間の目によるファクトチェック体制を組み込むことが現在のところ不可欠と言えるでしょう。
  • 外部知識の活用(RAG): Retrieve Augmented Generation(RAG)と呼ばれる手法も有効とされています。RAGではモデル単体に任せるのではなく、外部のデータベースや検索エンジンから関連情報を取得し、それをもとに回答を生成させるアプローチを取ります。モデルが自前の「記憶」だけで答えを作るのではなく、常に最新で信頼できる情報源にあたって裏付けを取るイメージです。実際、研究者らはこの方法でモデルの回答の正確性が向上しハルシネーションが減ることを確認しています。現在Bingなどの一部の検索エンジン統合型チャットAIや企業向けのAIソリューションで、このRAGの考え方が取り入れられています。
  • フィルタリングとガードレールの設定: モデルから出力されるテキストをフィルタリング(検閲)したり、あらかじめガードレール(安全策)を設けておくことも重要です。具体的には、明らかに事実誤認の疑いが高い回答を自動的にブロック・修正するルールを組み込んだり、機密情報や差別的内容が出力されないよう出力内容に制限をかけたりすることが挙げられます。また、ユーザーからのプロンプトを解析し「この質問はハルシネーションが起きやすいかもしれない」と判断した場合に警告を出す仕組みも考案されています。さらに、生成AIの開発企業は人間によるフィードバック(RLHF: 人間のフィードバックによる強化学習)を通じてモデルが危険な誤情報を出しにくくなるよう調整しています。これらの出力制御と人間の介入によって、ハルシネーションの影響を最小限に留める工夫がなされています。
  • モデルの改良と訓練データの改善: 根本的な対策としては、モデル自体の改良も不可欠です。現在、多くの企業や研究機関がハルシネーションを減らすためのモデルの工夫に取り組んでいます。例えば学習データセットを精査して質を高める、最新情報を継続的に学習させて知識ギャップを埋める、モデルが**「分からないときは分からないと答える」よう訓練する**、出力に不確実性の指標を持たせる、といったアプローチが試みられています。最近の研究では、モデルの出力における意味的な不確実性を統計的に検知する新手法も開発されており、法律や医療の高リスクな応答において精度向上が期待されています。モデルのサイズをただ大きくするだけでなく、こうしたアルゴリズム面での改良によってハルシネーションを技術的に抑制しようという取り組みが進んでいます。

今後の展望と技術的課題

生成AIのハルシネーション問題に対する取り組みは日進月歩で進んでおり、最新のモデルでは以前よりも誤情報が出にくくなるなど着実に進歩は見られます。例えばGPT-4など最新のLLMは、旧世代モデルに比べ明らかに事実誤認の頻度が減少しています。それでもハルシネーションが完全になくなったとは言えないのが現状です。実運用の中では依然として注意深い対策と人間の目によるチェックが欠かせません。企業各社が対策を講じているとはいえ、「ハルシネーションを完全に抑制できた」と胸を張って言えるモデルはまだ存在しないのです。

技術的な課題として大きいのは、創造性と正確性のトレードオフです。生成AIの魅力は人間には思いつかないような独創的アイデアや文章を生み出せる点ですが、事実に厳密に沿わせすぎるとそのクリエイティビティが損なわれてしまう恐れがあります。逆に自由に生成させると誤りが増えるというジレンマに、研究者たちは頭を悩ませています。「有用で正確な結果を出しつつ、ブレインストーミングのような創造的提案もできるモデル」を目指し、どこまで制御しどこまで自由にさせるかのバランス調整が今後も課題となるでしょう。

また、モデルが大規模化・ブラックボックス化する中で、なぜ誤った出力が生じたのかを説明可能にする技術(Explainability)も重要課題です。出力に至るプロセスが解明できれば、ハルシネーションの発生ポイントを特定して対策を打てる可能性があります。現在のところ、一部の研究ではモデル内部の確信度を推定して「この回答はあやしい」と検知する試みが成功を収めつつあります。こうした説明可能なAIの研究も、ハルシネーション問題解決の鍵を握るでしょう。

最後に、エンジニアやユーザー側の姿勢も重要です。どれほどAIが進歩しようとも、人間が完全にチェックを怠って良いという段階には達していないことを認識する必要があります。現実には、最終的な責任を持つのはAIではなくそれを使う人間です。ある専門家は「究極的には、我々人間がテクノロジーを制御し、責任を持って使うことが求められる」と述べています。生成AIを上手に活用するためにも、「鵜呑みにせず必ず検証する」「重要な判断は人間が関与する」という基本を忘れないようにしたいものです。

今後の展望としては、ハルシネーションの問題は完全になくすことは難しくとも、徐々にその発生率を下げ安全に利用できる範囲を広げていく方向で技術は発展していくでしょう。実際、新たな手法やモデル改善によって医療や法務など慎重さが求められる分野でも生成AIを活用できる道が開けつつあるとの報告もあります。エンジニアにとっては、最新の研究動向を追いつつ適切なガードレールを設計・実装することが求められます。ハルシネーションと上手に付き合いながら、生成AIの恩恵を最大限引き出す——それがこれからのチャレンジであり、未来への展望と言えるでしょう。

iPhoneがマイナンバーカードに:6月24日からスマホで行政手続きが可能に

iPhoneでマイナンバーカードが利用可能に

デジタル庁は、2025年6月24日より、iPhoneにマイナンバーカード機能を搭載するサービスを開始します。

これにより、iPhoneのApple Walletにマイナンバーカードを追加し、以下のような行政サービスをスマートフォンだけで利用できるようになります:

  • マイナポータルへのログインや電子署名
  • 住民票や印鑑登録証明書などのコンビニ交付サービス
  • 医療費や年金記録の確認、引越し手続きなど

これらの機能は、iPhoneの生体認証(Face IDやTouch ID)を活用して、パスワード入力なしで安全に利用できます。

7月から対面での本人確認も可能に

2025年7月中には、「マイナンバーカード対面確認アプリ」のiOS版が提供され、iPhoneを使った対面での本人確認が可能になります。

これにより、携帯電話の契約や銀行口座の開設など、これまで物理的なマイナンバーカードが必要だった場面でも、iPhoneだけで本人確認が完了するようになります。

今後の展開:マイナ保険証やマイナ免許証への対応

デジタル庁は、2025年9月頃を目処に、iPhoneを健康保険証として利用できる「マイナ保険証」機能の導入を予定しています。

また、運転免許証との一体化を図る「マイナ免許証」についても、警察庁と連携して早期実現に向けた検討が進められています。

MetaとConstellationによる原子力エネルギー契約の意義

AI時代の電力需要急増とMetaの戦略的転換

近年、AI技術の飛躍的な進展により、データセンターを運営するハイパースケーラー企業の電力需要が著しく増大しています。特にMeta(旧Facebook)は、AI推論や学習に「膨大な電力を必要としており、再生可能エネルギーだけでは賄いきれない状況に直面」していました。このような背景のもと、2025年に発表されたMetaと米国大手電力会社Constellation Energy(以下、Constellation)との20年間にわたる核エネルギー供給契約は、AIインフラ維持における重要な転換点として注目されています。

過去最大級のバーチャルPPA

  • 契約規模: MetaはConstellationから「1,121メガワット(MW)の核エネルギーを、20年間にわたって購入する契約」を締結しました。これは、過去にMicrosoftとConstellationが締結した契約を「約35%上回る規模」であり、「この取引は、Microsoftとの契約よりも35%大きい規模です」とBloombergのアナリストが指摘しています。
  • 対象施設: この電力は、Constellationがイリノイ州に保有するクリントン原子力発電所(Clinton Clean Energy Center)の「全出力を引き取る」形となります。契約は2027年6月から開始されます。
  • 「バーチャル」契約の意義: この契約は、Metaが原発隣接地にデータセンターを設置するのではなく、電力網を介して供給を受ける「バーチャル取引」です。「データセンターを原子力発電所のそばに建設しなくても、必要な電力はバーチャルで調達できます。」この方式は、インフラ整備の手間を省きつつ、大容量かつ安定した電力を長期にわたり確保できるという大きなメリットがあります。
  • 既存発電所の延命と拡張: このPPAは、州が出資するゼロエミッションクレジット(ZEC)プログラムの終了後、「20年間にわたり同施設の再ライセンシングと運営をサポート」します。さらに、「アップレートにより、発電所の出力をさらに30MW拡大」し、合計で1.121GWに増加させる予定です。ConstellationのCEOであるJoe Dominguezは、「既存発電所の再ライセンシングと拡張を支援することは、新しいエネルギー源を見つけることと同じくらいインパクトがあります。前進する上で最も重要なことは、後退することをやめることです」と述べています。

AIインフラにおける電力需要と環境目標への影響

  • AI推論による電力負荷: これまでAIの電力需要は訓練段階に焦点が当てられがちでしたが、実際には「訓練よりも推論が、はるかに多くの電力を必要としています」とマンディープ・シン氏が指摘するように、継続的な推論処理こそが膨大な電力を消費します。Metaは月間30億人以上のユーザーを抱え、生成AIサービスの導入を進めており、その「CPUやGPUの稼働率を100%に維持するには、安定した電力供給が不可欠」と認識しています。
  • 環境目標と原子力発電: 多くのテック企業が「2030年までにネットゼロ(実質カーボンゼロ)」を目指していますが、AIの電力需要急増により「昨年、AIの急増で電力需要が跳ね上がり、ガスや石炭に依存せざるを得ない状況が生まれました。これは彼らのカーボンフリー目標に真っ向から反する」という問題が生じていました。原子力発電は稼働時にCO₂をほとんど排出しないため、Metaのように「クリーンエネルギー目標を達成しつつ、大量の電力を安定的に確保したい」企業にとって理想的な選択肢となります。また、核燃料コストを長期固定契約することで、発電コストの安定化も図れます。

Constellationの役割と原子力発電の再興

  • 既存ライセンスの活用: Constellationはイリノイ州に複数の原子力発電所を運営しており、今回の契約対象プラントは既に追加反応炉ユニットの許認可を取得済みです。これにより、「新規原発を一から建設するよりも、拡張や運営継続によるコストやリスクを抑えられ」ます。
  • 新規建設への期待: 米国では、過去のジョージア州の事例のように「最後に大規模原発が建設されたのはジョージア州ですが、完成には7年遅延し、予算も数十億ドル上振れしました。この経験が、多くの企業を二の足を踏ませてきたのです」という課題がありました。しかし、MetaやMicrosoftといった「アンカー」となるハイパースケーラー企業が大量の電力を長期契約する意向を示すことで、Constellation側には「大口顧客を確保できれば、新規反応炉ユニット建設への自信につながる」という期待が生まれています。これにより、資金調達の見通しが立ち、ライセンス取得済みサイトの活用、そして市場への信頼醸成へと繋がります。
  • Constellation株価の高騰: Metaの契約発表後、Constellationの株価は5%以上急騰し、5ヶ月ぶりの高値となる1株あたり340ドルを記録、時価総額は1,000億ドルを超えました。ConstellationはOpenAIのChatGPTリリース以降、S&P 500の期間中51%のリターンを大きく上回る230%以上のリターンを投資家にもたらしており、「AIが企業アメリカを再構築したことで、ウォール街で最大の勝者の1つ」となっています。
  • 政治的後押し: ドナルド・トランプ大統領は5月23日に、2050年までに米国の原子力エネルギー容量を4倍にするという大統領令に署名しており、この動きは原子力発電の再興をさらに後押しする可能性があります。「原子力エネルギーは、かつて見捨てられた存在でしたが、AIの飽くなきエネルギー需要と、太陽光や風力発電の間欠性を補うために追加のエネルギー源が必要であるという認識の高まりによって、復活を遂げています」とYardeni Researchの創設者Ed Yardeniは述べています。

エネルギーインフラのボトルネックとソリューション

  • 送電網の制約: 原子力発電所からの電力供給契約が結ばれても、データセンターへの電力輸送には送電網の容量とリードタイムが大きな課題です。「送電線は、2~3年のバックログがあるため、設備の建設は進んでも、最後に送電線がつながらず完成できないケースが散見されます。」
  • スタートアップによる革新: この課題に対応するため、エネルギー領域では以下のスタートアップが注目されています。
  • Heron(旧Tesla幹部創業): シリコンバレー発のgrid-scale用ソリッドステートトランスフォーマーを開発し、送電網の小型化・効率化を目指しています。
  • NIRA Energy: AIを活用したソフトウェアで、ガス、風力、太陽光など複数の発電リソースを統合管理し、グリッドオペレーターに最適な送電指示を提供します。「送電インフラは、巨大なルービックキューブのように複雑に絡み合っており、それを解くためには効率的なデータ管理と先進的な電力機器が必要です。」 これらの企業は、AIデータセンター向けの電力需要を見据えたマイクログリッド構築や高度な制御技術で、エネルギーインフラの課題解決を試みています。

長期的な展望と社会への波及効果

  • 小規模ビジネスへの影響: Metaが確保する安定した大量電力は、同社が提供するAI関連サービスを通じて、小規模ビジネスのマーケティングや業務効率化に好影響をもたらす可能性があります。「小規模ビジネスは、わずかなコストでAIを使ってビデオ広告やキャンペーン素材を生成できる時代が来るでしょう。」
  • 産業・社会への影響: Metaの20年にわたる核エネルギー固定価格契約は、以下の長期的なインパクトをもたらします。
  • データセンター運営コストの安定化: 電力価格の長期固定により、コスト変動リスクを抑え、収益見通しが明確化されます。
  • 原子力発電再興への機運醸成: 大手テック企業の契約は、「原子力発電はリスクが高い」という負のイメージを払拭し、新規建設や既存炉のライフ延長投資を活性化させる可能性があります。
  • クリーンエネルギーへの道筋: 他のハイパースケーラーや大企業も同様の長期契約に動くことで、「総発電量に占める脱炭素電源の比率が一気に高まる」可能性があります。 「私たちはまだAI普及の入り口に立っているに過ぎません。今後の数十年で、産業・社会全体がこのAI・エネルギーの交差点で変革を遂げるでしょう。」
  • 「エネルギー戦略がビジネス戦略と直結する時代」: Metaの契約は、単なる電力調達に留まらず、AI時代におけるエネルギー戦略のモデルケースとなり得るものです。今後10年、20年というスパンで見たとき、AIの推論負荷は増大し続けると予想され、企業が「エネルギー供給を誰と、どのように確保するか」は、AI競争の鍵を握る要素となるでしょう。私たちは現在、その大きな「転換点」を目撃していると言えます。

まとめ

AI技術の急速な発展により、特に推論処理を中心に電力消費が大幅に増加しています。これに伴い、再生可能エネルギーだけでは賄いきれない場面も多くなり、化石燃料への依存が再び強まる懸念があります。そのため、AIの持続的な発展には、原子力などの低炭素エネルギーの活用を含めた電力源の見直しと、環境負荷を抑える戦略的なエネルギー選択が不可欠です。

モバイルバージョンを終了