日本政府、OpenAI「Sora」に著作権懸念 ― マンガ・アニメ文化保護への要請

日本政府は2025年10月、米OpenAIが開発する動画生成AI「Sora」に対し、日本のマンガやアニメなどの文化的作品を無断で模倣しないよう正式に要請しました。これは、AIが生成する映像が既存作品の構図や画風を極めて高精度に再現できるようになったことを受け、著作権や文化保護の観点から懸念が高まっていることを背景としています。

日本のマンガ・アニメ産業は、国内外で高い評価を受ける知的財産の集積領域であり、その創作様式は世界的にも独自の文化的価値を持ちます。近年、生成AIによってこれらのスタイルが容易に再現されるようになった結果、創作者の権利侵害や偽装・詐欺的利用の可能性が問題視されています。

本記事では、今回の政府要請の背景と目的、生成AIが直面する著作権・倫理上の課題、そして今後求められる制度的・技術的対策について整理し、日本が直面する「文化保護と技術革新の両立」という課題を考察します。

OpenAI「Sora」とは

OpenAI「Sora」は、テキストから動画を生成するAIモデルであり、ユーザーが入力した文章やプロンプトをもとに、数秒から数十秒の映像を自動的に作り出す技術です。文章の内容やスタイル指定に応じて、カメラワークや質感、照明効果までを高い精度で再現できる点が特徴です。これにより、専門的な撮影機材やアニメーション制作の知識を持たない一般ユーザーでも、短時間でリアルな映像を生成することが可能となりました。

特に注目を集めているのは、Soraが生成する「アニメ風」や「ジブリ風」といった日本的な映像表現です。実際、SNS上では、ユーザーが投稿した動画の中に、日本のアニメ作品を連想させる構図・色使い・キャラクターデザインが含まれるケースが多く見られます。これらは明示的に既存作品を再利用していなくても、学習過程で得られた膨大な画像・動画データから作風を再現していると考えられています。

こうした生成能力の高さは、創作活動の支援や映像制作の民主化に寄与する一方で、著作権や文化的アイデンティティの保護という観点から新たな課題を生み出しています。Soraは単なる動画生成技術ではなく、創作と模倣の境界を再定義する存在として、国際的にも法制度や倫理の議論を促す契機となっています。

日本政府の要請内容

日本政府は2025年10月、米国のOpenAI社に対し、動画生成AI「Sora」による日本のマンガやアニメの無断利用を抑制するよう正式に要請しました。報道によると、この要請は内閣府の知的財産戦略本部を中心に行われたもので、日本のアニメーションやマンガを「代替不可能な文化的資産」と位置づけ、生成AIによる模倣や無断利用から保護することを目的としています。

政府関係者は、AIが生成した映像の中に日本の人気作品やキャラクターを想起させる表現が多数見られる点を問題視しています。特に「スタジオジブリ風」「少年漫画風」など、既存の作風を強く反映した動画がSNS上で拡散しており、著作権侵害の可能性だけでなく、文化的ブランドの毀損にもつながる懸念が指摘されました。

この要請は、法的拘束力を持つ命令ではなく、文化保護と企業倫理の観点から行われた行政的な要請(リクエスト)に位置づけられます。しかし、政府として公式に生成AIの著作権問題を取り上げた点は、国内政策上の大きな転換といえます。

また、政府はOpenAIに対し、今後のAIモデル開発において学習データの透明性を確保し、著作権者の権利を尊重する仕組みを強化するよう求めています。

この対応は、生成AIがもたらす経済的・創造的価値を否定するものではなく、あくまで知的財産を保護しながら技術革新を健全に進めるためのバランスを取る試みとされています。日本政府の動きは、今後他国におけるAI著作権政策にも影響を与える可能性があります。

生成AIが抱える著作権・倫理上の問題

生成AIが直面している最大の課題の一つは、著作権と倫理の境界が曖昧であることです。AIモデルは、学習の過程で大量の画像や映像データを取り込みます。その中に著作権で保護された作品が含まれている場合、AIが生成する出力が原作の構図や画風を再現してしまう可能性があります。結果として、AIが作り出すコンテンツが、創作ではなく「無断複製」に近い形になることがあり、これは著作権法上の翻案権や複製権の侵害に該当するおそれがあります。

特に動画生成AIでは、アニメ作品のように明確なキャラクターデザインや演出手法を持つジャンルで問題が顕在化しています。ユーザーが「特定のアニメ風にしてほしい」と指定した場合、AIが学習データ中の特徴をそのまま再現することがあり、意図せず既存作品を模倣する結果を生むことがあります。こうした状況では、誰が責任を負うのかという法的・倫理的な線引きが非常に困難です。

さらに深刻なのは、生成AIによる“偽装”や“悪用”のリスクです。生成AIが生み出す画像や動画は、肉眼では本物と区別できないほど高精細であるため、詐欺的な宣伝やコピー商品の宣伝、さらには著作者本人を装った虚偽情報の拡散に利用される危険性があります。このような行為は単なる著作権侵害にとどまらず、商標権・意匠権・消費者保護の問題にも波及します。

加えて、AI生成物の出所を特定することが困難である点も、倫理的な課題を複雑化させています。学習データが非公開である以上、どの作品がどの程度生成結果に影響しているかを検証することができません。そのため、著作者は自らの作品がどのように利用されているのかを把握できず、AI企業の説明責任も問われています。

このように、生成AIは創作の可能性を拡張する一方で、創作物の信頼性や文化的価値を損なう危険を内包しています。著作権の保護と技術の発展を両立させるためには、透明性の確保と倫理的枠組みの整備が急務です。

求められる技術的・制度的対策

生成AIの発展に伴い、著作権や倫理面での課題を解決するためには、技術的対策と制度的枠組みの両面からの対応が求められます。これらは単に権利を保護するための措置にとどまらず、AI技術を健全に発展させるための基盤整備でもあります。

まず、技術的対策として注目されているのが、AI生成物の真偽や出所を確認できる仕組みの導入です。代表的な例として「Content Credentials(コンテンツ認証情報)」があり、生成された画像や動画に、生成日時・使用モデル・作成者情報などをメタデータとして埋め込むことで、出自の透明性を確保する方法です。このような技術は、偽装や盗用を防止するだけでなく、ユーザーが安心してAI生成物を利用できる環境を整えるうえでも重要です。

次に、学習データの透明性と権利者の関与が不可欠です。AIモデルの訓練過程でどのデータが使用されたのかを明示し、著作権者が自らの作品を学習データから除外できる「オプトアウト制度」を制度的に保障することが求められます。これにより、権利者は自身の創作物の利用範囲をコントロールでき、AI企業も合法的なデータ利用を証明しやすくなります。

また、制度面の整備も欠かせません。日本では現行の著作権法がAI生成物の扱いを明確に規定しておらず、創作性の有無や責任主体の判断が難しい状況にあります。今後は、EUの「AI Act」や米国でのAI透明性法案のように、AI開発者・利用者の責任範囲や説明義務を明示する法的枠組みが必要となります。これにより、企業が遵守すべきガイドラインが明確化され、権利侵害の抑止につながります。

さらに、プラットフォーム事業者にも、AI生成物の流通管理や利用者への明示義務を課すことが有効です。生成コンテンツに「AI生成」と表示することを義務化すれば、消費者は人間の創作との区別を明確に認識でき、不正利用の抑制に寄与します。

これらの対策は、単にAIの制限を目的とするものではなく、創作の信頼性と文化的多様性を守るための基盤です。日本が世界有数のコンテンツ大国として、文化と技術の両立を実現するためには、国・企業・開発者・権利者が連携し、持続的な制度設計を進めていくことが重要です。

おわりに

今回の日本政府によるOpenAIへの要請は、単に一企業の生成AI技術に対する懸念を示したものではなく、AI時代における文化保護のあり方を問う重要な一歩といえます。日本のマンガやアニメは、長年にわたり独自の表現様式と創造力で世界中に影響を与えてきました。その文化的価値が、AIによる模倣や無断利用によって損なわれることは、創作者の権利だけでなく、日本の文化基盤そのものを脅かすことにつながります。

一方で、生成AIは新しい創作の可能性を開く技術でもあります。適切なガイドラインと透明な運用体制を整えることで、創作活動を支援し、文化をより多様に発展させる道も開かれています。したがって、AIを排除するのではなく、文化的倫理と技術革新を両立させる枠組みを構築することが求められます。

今後は、政府・企業・クリエイターが協力し、技術的透明性・著作権保護・倫理的利用の三点を柱とする新たな社会的合意を形成していく必要があります。AIが創作の一部となる時代において、人間の創意と文化的多様性を守るための責任は、技術の開発者だけでなく、それを使うすべての人に共有されるべきものです。

参考文献

robots.txtの限界と次の一歩 ― IETFが描くAI時代のウェブルール

生成AIの普及は、インターネット上の情報の扱われ方を根本から変えつつあります。従来、ウェブ上のコンテンツは主に検索エンジンによって収集され、ユーザーが検索結果をクリックすることで発信元サイトにアクセスし、広告収入や購読といった形で運営者に利益が還元される仕組みが成立していました。ところが、ChatGPTをはじめとする大規模言語モデルや要約型のAIサービスは、ウェブから得た情報を学習・推論に利用し、ユーザーに直接答えを提示します。そのため、ユーザーは必ずしも元のサイトを訪問する必要がなくなり、コンテンツ提供者にとっては流入減少や収益の損失につながる懸念が高まっています。

この状況を受け、世界のウェブ標準化機関やクラウド事業者、コンテンツプラットフォーム企業は、「AI Botによるアクセスをどのように制御するか」という新たな課題に直面しています。現行のrobots.txtは検索エンジン向けに設計された仕組みにすぎず、AIクローラーの学習利用や推論利用に対応するには不十分です。また、AI事業者とサイト運営者の間で利益の分配や利用許諾の仕組みが整っていないことも、摩擦を大きくしています。

本記事では、現在進行している国際的な標準化の議論や、クラウド事業者による実装の取り組みを概観しつつ、AI Bot制御をめぐる論点と今後の展望を整理していきます。

背景

インターネット上で情報を公開する際、ウェブサイト運営者は検索エンジンを前提とした仕組みを利用してきました。その代表例が robots.txt です。これは、特定のクローラーに対して「このディレクトリはクロールしてよい/してはいけない」といった指示を与えるための仕組みであり、GoogleやBingなど大手検索エンジンが事実上の標準として尊重してきました。検索エンジンはコンテンツをインデックス化し、検索結果に反映させることでユーザーを元サイトに誘導します。このモデルは、ユーザーの利便性とサイト運営者の利益が両立する形で機能してきたといえます。

しかし、近年の生成AIの台頭はこの前提を揺るがしました。ChatGPTやGemini、Claudeといった対話型AIは、ウェブ上の情報を大量に収集し、それを学習データや推論時の情報源として活用しています。AIが直接ユーザーに答えを返すため、利用者は元のサイトにアクセスしなくても目的を達成できるケースが増えました。これにより、従来は検索経由で得られていたトラフィックや広告収入が減少するという新たな問題が顕在化しています。出版社、ニュースメディア、ブログ運営者など、多くのコンテンツ提供者が「コンテンツのただ乗り」や「正当な利益還元の欠如」に対して強い懸念を示すようになっています。

さらに、AI Botと従来の検索クローラーを技術的に区別することが難しいという課題も存在します。AI Botが検索エンジンのクローラーを装って情報収集を行えば、現行の仕組みでは検出や制御が困難です。また、現時点では法的に明確な強制力があるわけではなく、クローラー側が慣行を守るかどうかは自主性に依存しているのが実情です。

こうした状況を受け、IETFをはじめとする国際標準化団体やCloudflareなどの大手クラウド事業者が、AIクローラーのアクセスを識別し、利用目的ごとに制御できる仕組みの標準化を模索しています。背景には、コンテンツ提供者の権利保護とAIの健全な発展を両立させる必要性があり、そのバランスをどのように取るかが大きな焦点となっています。

標準化の動き

AI Botのアクセス制御に関する標準化は、いくつかの異なるアプローチで進められています。中心となっているのは、IETF(Internet Engineering Task Force)における議論と、クラウド事業者やプラットフォーム企業が実装ベースで進める対策です。これらは必ずしも競合するものではなく、標準仕様としての統一を目指す流れと、実務的に即時対応を行う流れが並行しています。

IETF AIPREFワーキンググループ

IETFでは「AIPREF(AI Preferences)」と呼ばれるワーキンググループが立ち上がり、AIクローラーに対するアクセス制御方法の標準化を進めています。ここで検討されているのは、従来のrobots.txtを拡張し、単に「アクセスを許可/拒否する」というレベルを超えて、利用目的別の制御を可能にする仕組みです。

たとえば以下のような指定が想定されています:

  • 学習用データ収集を禁止するが、検索インデックス用クロールは許可する
  • 推論時の要約利用のみを制限する
  • 特定のパスに対してはすべてのAI利用を拒否する

こうした粒度の細かい制御を標準化することで、サイト運営者がAIとの関わり方を選べるようにする狙いがあります。また、クローラーに対して「ユーザーエージェントの明示」「アクセス元IPレンジの公開」といった透明性要件を課すことも検討されており、識別可能性を高める取り組みが進められています。

Cloudflareの実装的アプローチ

標準化の議論と並行して、CDN大手のCloudflareはAIクローラー対策を実際のサービスに組み込み始めています。ウェブサイト運営者が管理画面から「AI Botのアクセスを遮断する」「学習利用のみを拒否する」といった設定を可能にする機能を提供し、すでに多くのサイトで導入が始まっています。さらに、クローラーアクセスに対して料金を課すモデル(pay per crawl)も模索されており、コンテンツ利用の経済的対価を明示的に回収できる仕組みが検討されています。

Really Simple Licensing (RSL)

また、Reddit、Yahoo、Mediumといったコンテンツプラットフォーム企業は、Really Simple Licensing (RSL) という新たなライセンススキームを支持しています。これは、AI企業がウェブコンテンツを利用する際に「どの条件で利用できるか」を明文化するもので、robots.txtにライセンス情報を記述する方式も提案されています。これにより、コンテンツ利用の範囲や料金体系を機械可読な形で提示できるようになり、契約交渉を自動化・効率化する可能性があります。

標準化と実装の交錯

現状ではIETFによる提案はまだドラフト段階にあり、正式なRFCとして採択されるまでには時間がかかると見込まれます。その一方で、Cloudflareや大手プラットフォームの動きは実用的で即効性があり、多くのサイト管理者が先行して利用する流れが出ています。標準化と実装のどちらが主導権を握るかは不透明ですが、両者の取り組みが相互補完的に作用し、最終的に「国際的に通用する仕組み」として融合していく可能性もあります。

論点と課題

AI Botによるウェブコンテンツ利用をめぐる議論は、単純に「アクセスを許すか拒否するか」という問題にとどまらず、技術的・経済的・法的に複雑な論点を含んでいます。ここでは主要な課題を整理します。

1. 検索エンジンとAI回答サービスの違い

従来の検索エンジンは、クロールしたコンテンツをインデックス化し、ユーザーを元サイトへ誘導する仕組みを前提にしていました。そのため、サイト運営者は検索結果からの流入を期待でき、広告収入やコンバージョンに繋がるメリットがありました。

一方、AI回答サービスはウェブから取得した情報を自らの回答に直接利用するため、ユーザーは必ずしも元サイトを訪問しません。この違いは「価値の還元」の有無という点で大きく、出版社やメディアがAIに対して強い懸念を抱く根拠になっています。

2. 法的強制力の欠如

現在のrobots.txtや新たな標準化の提案は、基本的に「遵守を期待する慣行」であり、違反した場合に法的責任を問える仕組みは整っていません。悪意あるクローラーや、標準を無視するAI企業が存在した場合、サイト運営者がそれを法的に止めることは困難です。各国の著作権法や利用規約の解釈に依存するため、国際的な整合性も課題となります。

3. クローラーの識別可能性

AI Botと検索クローラーを区別するためには、User-AgentやIPレンジの公開などが必要ですが、偽装を防ぐことは容易ではありません。特に「AI BotがGooglebotを名乗ってクロールする」ようなケースでは検出が困難です。正当なクローラーと不正なクローラーを見分ける仕組みは標準化だけでなく、セキュリティ的な強化も不可欠です。

4. コンテンツ収益モデルへの影響

多くのウェブサイトは広告やサブスクリプションを収益源としています。AI Botがコンテンツを収集し要約するだけで完結する場合、元サイトへの流入が減少し、収益構造が崩れる可能性があります。これに対しては「AI利用へのライセンス料徴収」や「アクセス課金モデル」が提案されていますが、実際に普及するには契約の自動化や価格設定の透明性といった課題をクリアする必要があります。

5. 技術的・運用的コスト

細かいアクセス制御やライセンス管理を導入するには、サイト運営者側にもコストが発生します。小規模なブログや個人サイトが複雑な制御ルールを維持するのは難しく、大規模事業者との格差が拡大する可能性もあります。逆にAI企業側も、すべてのサイトのポリシーに従ってクロール制御を行うには負荷が大きく、現実的な運用方法を模索する必要があります。

6. 国際的調整の必要性

AI Botの活動は国境を越えて行われるため、ある国の規制や標準だけでは不十分です。欧州では著作権法やデータ利用規制が厳格に適用される一方、米国ではフェアユースの概念が広く認められており、両者の立場に大きな差があります。結果として、グローバル企業がどのルールに従えばよいのか不明確な状態が続いています。


このように「論点と課題」は、技術・法制度・経済の3つの側面で複雑に絡み合っており、いずれか一つの対応では解決できません。標準化が進む中で、法的枠組みやビジネスモデルとの接続をどのように図るかが、今後の最大の焦点になると考えられます。

今後の展望

AI Botによるウェブコンテンツ利用をめぐる議論は始まったばかりであり、今後数年の間に大きな変化が訪れると見込まれます。標準化、技術的対策、法制度、ビジネスモデルの各側面から整理すると、以下の展望が浮かび上がります。

1. 標準化の進展と実装への反映

IETFで検討されているAIPREFなどの標準仕様がRFCとして正式化すれば、AIクローラー制御の国際的な共通基盤が確立されます。ただし、標準化プロセスは時間を要するため、当面はCloudflareのようなCDNやプラットフォーム事業者が提供する実装ベースの対策が先行するでしょう。最終的には、標準仕様と実装が融合し、より洗練されたアクセス制御手段として普及することが期待されます。

2. 法的枠組みの整備

現在のrobots.txtやその拡張仕様には法的拘束力がありません。今後は、各国の著作権法やデータ利用規制と連動する形で、AI Botによるコンテンツ収集を規制・許諾する法制度が整備される可能性があります。欧州連合(EU)ではすでにデータ利用に関する厳格なルールを持ち、米国やアジア諸国も同様の議論を始めています。標準化と法制度が連携することで、遵守しないクローラーに対する法的措置が現実的なものとなるでしょう。

3. コンテンツ収益モデルの再構築

「AIによるただ乗り」という不満を解消するため、コンテンツ提供者とAI事業者の間でライセンス契約や利用料徴収の仕組みが広がると考えられます。Really Simple Licensing (RSL) のような取り組みはその先駆けであり、将来的には「AIトレーニング用データ市場」や「コンテンツ利用料の自動決済プラットフォーム」といった新しい経済圏が形成される可能性もあります。これにより、コンテンツ提供者が持続的に利益を得ながらAIの発展を支える仕組みが実現するかもしれません。

4. 技術的防御と検知の強化

AI Botが検索クローラーを装ってアクセスするリスクを防ぐため、セキュリティレベルでの対策も進むでしょう。たとえば、クローラー認証の仕組み、アクセス元の暗号署名付き証明、AI Bot専用のアクセスログ監査などが導入される可能性があります。これにより「誰が、どの目的で、どのコンテンツを取得しているか」を透明化し、不正利用を抑止できるようになります。

5. 利用者への影響

一般ユーザーにとっても、AI Bot制御の標準化は見過ごせない影響をもたらします。もしAI回答サービスがアクセス制限のため十分な情報を利用できなくなれば、生成される回答の網羅性や正確性が低下するかもしれません。その一方で、正規のライセンス契約を通じて取得された情報がAIに組み込まれることで、信頼性の高い情報がAIを通じて提供される可能性もあります。つまり、利用者は「自由にアクセスできるAI」から「制約のあるが品質の高いAI」へと移行する局面を経験することになるでしょう。


このように、今後の展望は技術的課題と経済的課題、法的課題が複雑に絡み合うものです。AIとウェブの関係は、単なるアクセス制御の問題にとどまらず、「情報の価値をどのように分配するか」という根本的なテーマに直結しています。標準化と法制度、そして新しい収益モデルの確立が、このバランスをどのように変えていくかが注目されます。

おわりに

AI Botによるウェブコンテンツ利用は、検索エンジン時代から続く「情報の自由な流通」と「発信者への正当な還元」という二つの価値の間で、新たな摩擦を生み出しています。従来のrobots.txtは検索インデックスを前提としたシンプルな仕組みでしたが、AIによる学習・推論利用には対応しきれず、国際標準化や実装ベースでの取り組みが必要となっています。

現時点ではIETFのAIPREFワーキンググループによる標準化や、CloudflareやRSLのような実務的対応が並行して進んでいます。しかし、これらはまだ過渡期の試みであり、法的拘束力や国際的な一貫性を欠いているのが実情です。今後は、各国の法制度、特に著作権やデータ利用規制と結びつくことで、初めて実効性のあるルールが成立するでしょう。

また、AI企業とコンテンツ提供者の間で「データ利用に対する正当な対価」をどう設計するかが大きな焦点となります。単にAIの発展を妨げるのではなく、利用を正当に収益化する仕組みが広がれば、発信者とAI事業者が共存できる新しい情報経済圏が築かれる可能性があります。その一方で、小規模サイトや個人運営者にとって複雑な制御や契約を維持するコストは大きな負担となり、格差の拡大につながる懸念も残されています。

最終的に求められるのは、「AIに自由を与えすぎないこと」と「情報の流通を過度に制限しないこと」のバランスです。ユーザーが信頼できる情報を得られ、同時に発信者が適切に報われる仕組みを確立できるかどうかが、この議論の核心にあります。AIとウェブが新しい関係性を築くためには、標準化、法制度、技術、ビジネスのすべてが連動し、透明性と公正性を兼ね備えたルール作りが不可欠となるでしょう。

参考文献

AIと著作権を巡る攻防 ― Apple訴訟とAnthropic和解、そして広がる国際的潮流

近年、生成AIは文章生成や画像生成などの分野で目覚ましい進化を遂げ、日常生活からビジネス、教育、研究に至るまで幅広く活用されるようになってきました。その一方で、AIの性能を支える基盤である「学習データ」をどのように収集し、利用するのかという問題が世界的な議論を呼んでいます。特に、著作権で保護された書籍や記事、画像などを権利者の許可なく利用することは、創作者の権利侵害につながるとして、深刻な社会問題となりつつあります。

この数年、AI企業はモデルの性能向上のために膨大なデータを必要としてきました。しかし、正規に出版されている紙の書籍や電子書籍は、DRM(デジタル著作権管理)やフォーマットの制限があるため、そのままでは大量処理に適さないケースが多く見られます。その結果、海賊版データや「シャドウライブラリ」と呼ばれる違法コピー集が、AI訓練のために利用されてきた疑いが強く指摘されてきました。これは利便性とコストの面から選ばれやすい一方で、著作者に対する正当な補償を欠き、著作権侵害として訴訟につながっています。

2025年9月には、この問題を象徴する二つの大きな出来事が立て続けに報じられました。一つは、Appleが自社AIモデル「OpenELM」の訓練に書籍を無断使用したとして作家から訴えられた件。もう一つは、Anthropicが著者集団との間で1.5億ドル規模の和解に合意した件です。前者は新たな訴訟の端緒となり、後者はAI企業による著作権関連で史上最大級の和解とされています。

これらの事例は、単に一企業や一分野の問題にとどまりません。AI技術が社会に定着していく中で、創作者の権利をどのように守りつつ、AI産業の健全な発展を両立させるのかという、普遍的かつ国際的な課題を突きつけています。本記事では、AppleとAnthropicを中心とした最新動向を紹介するとともに、他企業の事例、権利者とAI企業双方の主張、そして今後の展望について整理し、AI時代の著作権問題を多角的に考察していきます。

Appleに対する訴訟

2025年9月5日、作家のGrady Hendrix氏(ホラー小説家として知られる)とJennifer Roberson氏(ファンタジー作品の著者)は、Appleを相手取りカリフォルニア州で訴訟を起こしました。訴状によれば、Appleが発表した独自の大規模言語モデル「OpenELM」の学習過程において、著者の書籍が無断でコピーされ、権利者に対する許可や補償が一切ないまま使用されたと主張されています。

問題の焦点は、Appleが利用したとされる学習用データの出所にあります。原告側は、著作権で保護された書籍が海賊版サイトや「シャドウライブラリ」と呼ばれる違法コピー集を通じて収集された可能性を指摘しており、これは権利者に対する重大な侵害であるとしています。これにより、Appleが本来であれば市場で正規購入し、ライセンスを結んだ上で利用すべき作品を、無断で自社AIの訓練に転用したと訴えています。

この訴訟は、Appleにとって初めての本格的なAI関連の著作権侵害訴訟であり、業界にとっても象徴的な意味を持ちます。これまでの類似訴訟は主にスタートアップやAI専業企業(Anthropic、Stability AIなど)が対象でしたが、Appleのような大手テクノロジー企業が名指しされたことは、AI訓練を巡る著作権問題がもはや一部企業だけのリスクではないことを示しています。

現時点でApple側は公式なコメントを控えており、原告側代理人も具体的な補償額や和解条件については明言していません。ただし、提訴を主導した著者らは「AIモデルの開発に作品を使うこと自体を全面的に否定しているわけではなく、正当なライセンスと補償が必要だ」との立場を示しています。この点は、他の訴訟で見られる著者団体(Authors Guildなど)の主張とも一致しています。

このApple訴訟は、今後の法廷闘争により、AI企業がどのように学習データを調達すべきかについて新たな基準を生み出す可能性があります。特に、正規の電子書籍や紙媒体がAI学習に適さない形式で流通している現状において、出版社や著者がAI向けにどのような形でデータを提供していくのか、業界全体に課題を突きつける事例といえるでしょう。

Anthropicによる和解

2025年9月5日、AIスタートアップのAnthropicは、著者らによる集団訴訟に対して総額15億ドル(約2,200億円)を支払うことで和解に合意したと報じられました。対象となったのは約50万冊に及ぶ書籍で、計算上は1冊あたりおよそ3,000ドルが著者へ分配される見込みです。この規模は、AI企業に対する著作権訴訟として過去最大級であり、「AI時代における著作権回収」の象徴とされています。

訴訟の発端は、作家のAndrea Bartz氏、Charles Graeber氏、Kirk Wallace Johnson氏らが中心となり、Anthropicの大規模言語モデル「Claude」が無断コピーされた書籍を用いて訓練されたと主張したことにあります。裁判では、Anthropicが海賊版サイト経由で収集された数百万冊にのぼる書籍データを中央リポジトリに保存していたと指摘されました。裁判官のWilliam Alsup氏は2025年6月の審理で「AI訓練に著作物を使用する行為はフェアユースに該当する場合もある」としながらも、海賊版由来のデータを意図的に保存・利用した点は不正利用(著作権侵害)にあたると判断しています。

和解の条件には、金銭的補償に加えて、問題となったコピー書籍のデータ破棄が含まれています。これにより、訓練データとしての利用が継続されることを防ぎ、著者側にとっては侵害の再発防止措置となりました。一方、Anthropicは和解に応じたものの、著作権侵害を公式に認める立場は取っていません。今回の合意は、12月に予定されていた損害賠償審理を回避する狙いがあると見られています。

この和解は、AI企業が著作権リスクを回避するために積極的に妥協を選ぶ姿勢を示した点で注目されます。従来、AI企業の多くはフェアユースを盾に争う構えを見せていましたが、Anthropicは法廷闘争を続けるよりも、巨額の和解金を支払い早期決着を図る道を選びました。これは他のAI企業にとっても前例となり、今後の対応方針に影響を与える可能性があります。

また、この和解は権利者側にとっても大きな意味を持ちます。単なる補償金の獲得にとどまらず、AI企業に対して「正規のライセンスを通じてのみ学習利用を行うべき」という強いメッセージを発信する結果となったからです。訴訟を担当した弁護士Justin Nelson氏も「これはAI時代における著作権を守るための歴史的な一歩だ」と述べており、出版業界やクリエイター団体からも歓迎の声が上がっています。

Apple・Anthropic以外の類似事例


AppleやAnthropicの事例は大きな注目を集めましたが、著作権を巡る問題はそれらに限られません。生成AIの分野では、他の主要企業やスタートアップも同様に訴訟や和解に直面しており、対象となる著作物も書籍だけでなく記事、法律文書、画像、映像作品へと広がっています。以下では、代表的な企業ごとの事例を整理します。

Meta

Metaは大規模言語モデル「LLaMA」を公開したことで注目を集めましたが、その訓練データに無断で書籍が利用されたとする訴訟に直面しました。原告は、Metaが「LibGen」や「Anna’s Archive」といったいわゆる“シャドウライブラリ”から違法コピーされた書籍を利用したと主張しています。2025年6月、米国連邦裁判所の裁判官は、AI訓練への著作物利用について一部フェアユースを認めましたが、「状況によっては著作権侵害となる可能性が高い」と明言しました。この判断は、AI訓練に関するフェアユースの適用範囲に一定の指針を与えたものの、グレーゾーンの広さを改めて浮き彫りにしています。

OpenAI / Microsoft と新聞社

OpenAIとMicrosoftは、ChatGPTやCopilotの開発・運営を通じて新聞社や出版社から複数の訴訟を受けています。特に注目されたのは、米国の有力紙「New York Times」が2023年末に提訴したケースです。Timesは、自社の記事が許可なく学習データとして利用されただけでなく、ChatGPTの出力が元の記事に酷似していることを問題視しました。その後、Tribune Publishingや他の報道機関も同様の訴訟を提起し、2025年春にはニューヨーク南部地区連邦裁判所で訴訟が統合されました。現在も審理が続いており、報道コンテンツの利用を巡る基準づくりに大きな影響を与えると見られています。

Ross Intelligence と Thomson Reuters

法律系AIスタートアップのRoss Intelligenceは、法情報サービス大手のThomson Reutersから著作権侵害で提訴されました。問題となったのは、同社が「Westlaw」に掲載された判例要約を無断で利用した点です。Ross側は「要約はアイデアや事実にすぎず、著作権保護の対象外」と反論しましたが、2025年2月に連邦裁判所は「要約は独自の表現であり、著作権保護に値する」との判断を下しました。この判決は、AI訓練に利用される素材がどこまで保護対象となるかを示す先例として、法務分野だけでなく広範な業界に波及効果を持つと考えられています。

Stability AI / Midjourney / Getty Images

画像生成AIを巡っても、著作権侵害を理由とした複数の訴訟が進行しています。Stability AIとMidjourneyは、アーティストらから「作品を無断で収集・利用し、AIモデルの学習に用いた」として訴えられています。原告は、AIが生成する画像が既存作品のスタイルや構図を模倣している点を指摘し、権利者の市場価値を損なうと主張しています。さらに、Getty Imagesは2023年にStability AIを相手取り提訴し、自社の画像が許可なく学習データに組み込まれたとしています。特に問題視されたのは、Stable Diffusionの出力にGettyの透かしが残っていた事例であり、違法利用の証拠とされました。これらの訴訟は現在も審理中で、ビジュアルアート分野におけるAIと著作権の境界を定める重要な試金石と位置づけられています。

Midjourney と大手メディア企業

2025年6月には、DisneyやNBCUniversalといった大手エンターテインメント企業がMidjourneyを提訴しました。訴状では、自社が保有する映画やテレビ作品のビジュアル素材が無断で収集され、学習データとして使用された疑いがあるとされています。メディア大手が直接AI企業を訴えたケースとして注目され、判決次第では映像コンテンツの利用に関する厳格なルールが確立される可能性があります。


こうした事例は、AI企業が学習データをどのように調達すべきか、またどの範囲でフェアユースが適用されるのかを巡る法的・倫理的課題を鮮明にしています。AppleやAnthropicの事例とあわせて見ることで、AIと著作権を巡る問題が業界全体に広がっていることが理解できます。

権利者側の主張

権利者側の立場は一貫しています。彼らが問題視しているのは、AIによる利用そのものではなく、無断利用とそれに伴う補償の欠如です。多くの著者や出版社は、「AIが作品を学習に用いること自体は全面的に否定しないが、事前の許諾と正当な対価が必要だ」と主張しています。

Anthropicの訴訟においても、原告のAndrea Bartz氏やCharles Graeber氏らは「著者の作品は市場で公正な価格で購入できるにもかかわらず、海賊版経由で無断利用された」と強く批判しました。弁護士のJustin Nelson氏は、和解後に「これはAI時代における著作権を守るための史上最大級の回収だ」とコメントし、単なる金銭補償にとどまらず、業界全体に向けた抑止力を意識していることを示しました。

また、米国の著者団体 Authors Guild も繰り返し声明を発表し、「AI企業は著作権者を尊重し、利用の透明性を確保したうえでライセンス契約を結ぶべきだ」と訴えています。特に、出版契約の中にAI利用権が含まれるのか否かは曖昧であり、著者と出版社の間でトラブルの種になる可能性があるため、独立した権利として明示すべきだと強調しています。

こうした声は欧米に限られません。フランスの新聞社 Le Monde では、AI企業との契約で得た収益の25%を記者に直接分配する仕組みを導入しました。これは、単に企業や出版社が利益を得るだけでなく、実際にコンテンツを創作した人々へ補償を行き渡らせるべきだという考え方の表れです。英国では、著作権管理団体CLAがAI訓練用の集団ライセンス制度を準備しており、権利者全体に正当な収益を還元する仕組みづくりが進められています。

さらに、権利者たちは「違法コピーの破棄」も強く求めています。Anthropicの和解に盛り込まれたコピー書籍データの削除は、その象徴的な措置です。権利者にとって、補償を受けることと同じくらい重要なのは、自分の著作物が今後も無断で利用され続けることを防ぐ点だからです。

総じて、権利者側が求めているのは次の三点に整理できます。

  1. 公正な補償 ― AI利用に際して正当なライセンス料を支払うこと。
  2. 透明性 ― どの作品がどのように利用されたのかを明らかにすること。
  3. 抑止力 ― 無断利用が繰り返されないよう、違法コピーを破棄し、制度面でも規制を整備すること。

これらの主張は、単なる対立ではなく、創作者の権利を守りつつAI産業の発展を持続可能にするための条件として提示されています。

AI企業側の立場

AI企業の多くは、著作権侵害の主張に対して「フェアユース(公正利用)」を強調し、防衛の柱としています。特に米国では、著作物の一部利用が「教育的・研究的・非営利的な目的」に該当すればフェアユースが認められることがあり、AI訓練データがその範囲に含まれるかどうかが激しく争われています。

Metaの対応

Metaは、大規模言語モデル「LLaMA」に関して著者から訴えられた際、訓練データとしての利用は「新たな技術的用途」であり、市場を直接侵害しないと主張しました。2025年6月、米連邦裁判所の裁判官は「AI訓練自体が直ちに著作権侵害に当たるわけではない」と述べ、Meta側に有利な部分的判断を下しました。ただし同時に、「利用の態様によっては侵害にあたる」とも指摘しており、全面的な勝訴とは言い切れない内容でした。Metaにとっては、AI業界にとって一定の防波堤を築いた一方で、今後のリスクを完全には払拭できなかった判決でした。

Anthropicの対応

AnthropicはMetaと対照的に、長期化する裁判闘争を避け、著者集団との和解を選びました。和解総額は15億ドルと巨額でしたが、無断利用を認める表現は回避しつつ、補償金とデータ破棄で早期決着を図りました。これは、投資家や顧客にとって法的リスクを抱え続けるよりも、巨額の和解を支払う方が企業価値の維持につながるとの判断が背景にあると考えられます。AI市場において信頼を維持する戦略的選択だったともいえるでしょう。

OpenAIとMicrosoftの対応

OpenAIとパートナーのMicrosoftは、新聞社や出版社からの訴訟に直面していますが、「フェアユースに該当する」との立場を堅持しています。加えて両社は、法廷闘争だけでなく、政策ロビー活動も積極的に展開しており、AI訓練データの利用を広範にフェアユースとして認める方向で米国議会や規制当局に働きかけています。さらに一部の出版社とは直接ライセンス契約を結ぶなど、対立と協調を並行して進める「二正面作戦」を採用しています。

業界全体の動向

AI企業全般に共通するのは、

  1. フェアユース論の強調 ― 法的防衛の基盤として主張。
  2. 和解や契約によるリスク回避 ― 裁判長期化を避けるための戦略。
  3. 透明性向上の試み ― 出力へのウォーターマーク付与やデータ利用の説明責任強化。
  4. 政策提言 ― 各国の政府や規制当局に働きかけ、法整備を有利に進めようとする動き。

といった複合的なアプローチです。

AI企業は著作権リスクを無視できない状況に追い込まれていますが、全面的に譲歩する姿勢も見せていません。今後の戦略は、「どこまでフェアユースで戦い、どこからライセンス契約で妥協するか」の線引きを探ることに集中していくと考えられます。

技術的背景 ― なぜ海賊版が選ばれたのか

AI企業が学習用データとして海賊版を利用した背景には、技術的・経済的な複数の要因があります。

1. 紙の書籍のデジタル化の困難さ

市場に流通する書籍の多くは紙媒体です。これをAIの学習用に利用するには、スキャンし、OCR(光学式文字認識)でテキスト化し、さらにノイズ除去や構造化といった前処理を施す必要があります。特に数百万冊単位の規模になると、こうした作業は膨大なコストと時間を要し、現実的ではありません。

2. 電子書籍のDRMとフォーマット制限

Kindleなどの商用電子書籍は、通常 DRM(デジタル著作権管理) によって保護されています。これにより、コピーや解析、機械学習への直接利用は制限されます。さらに、電子書籍のファイル形式(EPUB、MOBIなど)はそのままではAIの学習に適しておらず、テキスト抽出や正規化の工程が必要です。結果として、正規ルートでの電子書籍利用は技術的にも法的にも大きな障壁が存在します。

3. データ規模の要求

大規模言語モデルの訓練には、数千億から数兆トークン規模のテキストデータが必要です。こうしたデータを短期間に確保しようとすると、オープンアクセスの学術資料や公的文書だけでは不足します。出版社や著者と逐一契約して正規データを集めるのは非効率であり、AI企業はより「手っ取り早い」データ源を探すことになりました。

4. シャドウライブラリの利便性

LibGen、Z-Library、Anna’s Archiveなどの“シャドウライブラリ”は、何百万冊もの書籍を機械可読なPDFやEPUB形式で提供しており、AI企業にとっては極めて魅力的なデータ供給源でした。これらは検索可能で一括ダウンロードもしやすく、大規模データセットの構築に最適だったと指摘されています。実際、Anthropicの訴訟では、700万冊以上の書籍データが中央リポジトリに保存されていたことが裁判で明らかになりました。

5. 法的リスクの軽視

当初、AI業界では「学習に用いることはフェアユースにあたるのではないか」との期待があり、リスクが過小評価されていました。新興企業は特に、先行して大規模モデルを構築することを優先し、著作権問題を後回しにする傾向が見られました。しかし、実際には著者や出版社からの訴訟が相次ぎ、現在のように大規模な和解や損害賠償につながっています。

まとめ

つまり、AI企業が海賊版を利用した理由は「技術的に扱いやすく、コストがかからず、大規模データを即座に確保できる」という利便性にありました。ただし裁判所は「利便性は侵害を正当化しない」と明確に指摘しており、今後は正規ルートでのデータ供給体制の整備が不可欠とされています。出版社がAI学習に適した形式でのライセンス提供を進めているのも、この問題に対処するための動きの一つです。

出版社・報道機関の対応

AI企業による無断利用が大きな問題となる中、出版社や報道機関も独自の対応を進めています。その狙いは二つあります。ひとつは、自らの知的財産を守り、正当な対価を確保すること。もうひとつは、AI時代における持続可能なビジネスモデルを構築することです。

米国の動向

米国では、複数の大手メディアがすでにAI企業とのライセンス契約を結んでいます。

  • New York Times は、Amazonと年間2,000万〜2,500万ドル規模の契約を締結し、記事をAlexaなどに活用できるよう提供しています。これにより、AI企業が正規ルートで高品質なデータを利用できる仕組みが整いました。
  • Thomson Reuters も、AI企業に記事や法律関連コンテンツを提供する方向性を打ち出しており、「ライセンス契約は良質なジャーナリズムを守ると同時に、収益化の新たな柱になる」と明言しています。
  • Financial TimesWashington Post もOpenAIなどと交渉を進めており、報道コンテンツが生成AIの重要な訓練材料となることを見据えています。

欧州の動向

欧州でもライセンスの枠組みづくりが進められています。

  • 英国のCLA(Copyright Licensing Agency) は、AI訓練専用の「集団ライセンス制度」を創設する計画を進めています。これにより、個々の著者や出版社が直接交渉しなくても、包括的に利用許諾と補償を受けられる仕組みが導入される見通しです。
  • フランスのLe Monde は、AI企業との契約で得た収益の25%を記者に直接分配する制度を導入しました。コンテンツを生み出した個々の記者に利益を還元する仕組みは、透明性の高い取り組みとして注目されています。
  • ドイツや北欧 でも、出版団体が共同でAI利用に関する方針を策定しようとする動きが出ており、欧州全体での協調が模索されています。

国際的な取り組み

グローバル市場では、出版社とAI企業をつなぐ新たな仲介ビジネスも生まれています。

  • ProRata.ai をはじめとするスタートアップは、出版社や著者が自らのコンテンツをAI企業にライセンス提供できる仕組みを提供し、市場形成を加速させています。2025年時点で、この分野は100億ドル規模の市場に成長し、2030年には600億ドル超に達すると予測されています。
  • Harvard大学 は、MicrosoftやOpenAIの支援を受けて、著作権切れの書籍約100万冊をAI訓練用データとして公開するプロジェクトを進めており、公共性の高いデータ供給の事例となっています。

出版社の戦略転換

こうした動きを背景に、出版社や報道機関は従来の「読者に販売するモデル」から、「AI企業にデータを提供することで収益を得るモデル」へとビジネスの幅を広げつつあります。同時に、創作者への利益分配や透明性の確保も重視されており、無断利用の時代から「正規ライセンスの時代」へ移行する兆しが見え始めています。

今後の展望

Apple訴訟やAnthropicの巨額和解を経て、AIと著作権を巡る議論は新たな局面に入っています。今後は、法廷闘争に加えて制度整備や業界全体でのルールづくりが進むと予想されます。

1. 権利者側の展望

著者や出版社は引き続き、包括的なライセンス制度と透明性の確保を求めると考えられます。個別の訴訟だけでは限界があるため、米国ではAuthors Guildを中心に、集団的な権利行使の枠組みを整備しようとする動きが強まっています。欧州でも、英国のCLAやフランスの報道機関のように、団体レベルでの交渉や収益分配の仕組みが広がる見通しです。権利者の声は「AIを排除するのではなく、正当な対価を得る」という方向性に収斂しており、協調的な解決策を模索する傾向が鮮明です。

2. AI企業側の展望

AI企業は、これまでのように「フェアユース」を全面に押し出して法廷で争う戦略を維持しつつも、今後は契約と和解によるリスク回避を重視するようになると見られます。Anthropicの早期和解は、その先例として業界に影響を与えています。また、OpenAIやGoogleは政策ロビー活動を通じて、フェアユースの適用範囲を広げる法整備を推進していますが、完全に法的リスクを排除することは難しく、出版社との直接契約が主流になっていく可能性が高いでしょう。

3. 国際的な制度整備

AIと著作権を巡る法的ルールは国や地域によって異なります。米国はフェアユースを基盤とする判例法中心のアプローチを取っていますが、EUはAI法など包括的な規制を進め、利用データの開示義務やAI生成物のラベリングを導入しようとしています。日本や中国もすでにAI学習利用に関する法解釈やガイドラインを整備しており、国際的な規制調和が大きな課題となるでしょう。将来的には、国際的な著作権ライセンス市場が整備され、クロスボーダーでのデータ利用が透明化する可能性もあります。

4. 新しいビジネスモデルの台頭

出版社や報道機関にとっては、AI企業とのライセンス契約が新たな収益源となり得ます。ProRata.aiのような仲介プラットフォームや、新聞社とAI企業の直接契約モデルはその典型です。さらに、著作権切れの古典作品や公共ドメインの資料を体系的に整備し、AI向けに提供する事業も拡大するでしょう。こうした市場が成熟すれば、「正規のデータ流通」が主流となり、海賊版の利用は抑制されていく可能性があります。

5. 利用者・社会への影響

最終的に、この動きはAIの利用者や社会全体にも影響します。ライセンス料の負担はAI企業のコスト構造に反映され、製品やサービス価格に転嫁される可能性があります。一方で、著作権者が適切に補償されることで、健全な創作活動が維持され、AIと人間の双方に利益をもたらすエコシステムが構築されることが期待されます。

まとめ

単なる対立から「共存のためのルール作り」へとシフトしていくと考えられます。権利者が安心して作品を提供し、AI企業が合法的に学習データを確保できる仕組みを整えることが、AI時代における創作と技術革新の両立に不可欠です。Apple訴訟とAnthropic和解は、その転換点を示す出来事だったといえるでしょう。

おわりに

生成AIがもたらす技術的進歩は私たちの利便性や生産性を高め続けています。しかし、その裏側には、以下のような見過ごせない犠牲が存在しています:

  • 海賊版の利用 AI訓練の効率を優先し、海賊版が大規模に使用され、権利者に正当な報酬が支払われていない。
  • 不当労働の構造 ケニアや南アフリカなどで、低賃金(例:1ドル台/時)でデータラベリングやコンテンツモデレーションに従事させられ、精神的負荷を抱えた労働者の訴えがあります。Mental health issues including PTSD among moderators have been documented  。
  • 精神的損傷のリスク 暴力的、性的虐待などの不適切な画像や映像を長期間見続けたことによるPTSDや精神疾患の報告もあります  。
  • 電力需要と料金の上昇 AIモデルの増大に伴いデータセンターの電力需要が急増し、電気料金の高騰と地域の電力供給への圧迫が問題になっています  。
  • 環境負荷の増大 AI訓練には大量の電力と冷却用の水が使われ、CO₂排出や水資源への影響が深刻化しています。一例として、イギリスで計画されている大規模AIデータセンターは年間約85万トンのCO₂排出が見込まれています    。

私たちは今、「AIのない時代」に戻ることはできません。だからこそ、この先を支える技術が、誰かの犠牲の上になり立つものであってはならないと考えます。以下の5点が必要です:

  • 権利者への公正な補償を伴う合法的なデータ利用の推進 海賊版に頼るのではなく、ライセンスによる正規の利用を徹底する。
  • 労働環境の改善と精神的ケアの保障 ラベラーやモデレーターなど、その役割に従事する人々への適正な賃金とメンタルヘルス保護の整備。
  • エネルギー効率の高いAIインフラの構築 データセンターの電力消費とCO₂排出を抑制する技術導入と、再生エネルギーへの転換。
  • 環境負荷を考慮した政策と企業の責任 AI開発に伴う気候・資源負荷を正確に評価し、持続可能な成長を支える仕組み整備。
  • 透明性を伴ったデータ提供・利用の文化の構築 利用データや訓練内容の開示、使用目的の明示といった透明な運用を社会的に求める動き。

こうした課題に一つずつ真摯に取り組むことが、技術を未来へつなぐ鍵です。AIは進み、後戻りできないとすれば、私たちは「誰かの犠牲の上に成り立つ技術」ではなく、「誰もが安心できる技術」を目指さなければなりません。

参考文献

本件に直接関係する参考文献

関連で追加調査した参考文献

AIによる著作物の学習とフェアユース──Anthropic訴訟が示した重要な判断

はじめに

2025年6月、米国カリフォルニア北部地区連邦地裁は、AI企業Anthropicが大規模言語モデル(LLM)のトレーニングに使用した著作物について、著作権法上の「公正利用(フェアユース)」に該当するかどうかを判断しました。この判決は、AIによる著作物の学習に関する初の本格的な司法判断の一つとして、国内外のクリエイター、AI開発者、政策関係者に大きな影響を与えています。

この記事では、この判決の要点と、フェアユースの判断基準、そして日本への影響について解説します。


裁判の背景と争点

原告は、作家や出版社などの著作権者であり、被告Anthropicが以下の行為によって著作権を侵害したと主張しました:

  • 正規に購入した書籍をスキャンし、デジタル化してLLMの訓練に使用
  • インターネット上の海賊版サイトから書籍をダウンロードして使用

裁判所は、これらの行為が「フェアユース」に該当するかどうかを、公正利用の4要素に基づいて判断しました。


フェアユース判断の4要素と評価

1. 利用の目的と性質

  • トレーニング目的での使用は「本質的に変革的(quintessentially transformative)」であり、フェアユースに該当する。
  • しかし、海賊版サイトからの書籍収集は、「中央図書館を構築する」目的が明確であり、変革性は認められず、公正利用に当たらない。

2. 著作物の性質

  • どのケースでも、原告の著作物は「創造性の高い表現的著作物」であり、この要素はフェアユースに不利に働く。

3. 使用された部分の量と実質性

  • トレーニング目的での全体コピーは、変革的利用のために「合理的に必要」とされた。
  • だが、海賊版書籍の大量取得は、目的に照らして「過剰」であり、フェアユースに反するとされた。

4. 市場への影響

  • 正規入手した書籍をトレーニングに使った場合、著作物の市場への影響はほぼなし。
  • 一方、海賊版書籍は「1冊ごとに需要を奪い」、出版市場全体を破壊する恐れがあると明言された。

判決の結論

裁判所は、Anthropicの著作物利用を次のように分類しました:

種類フェアユース判断
正規に購入・スキャンした書籍の利用✅ フェアユース該当
トレーニングのために取得した正当なコピー✅ フェアユース該当
海賊版サイトから取得した書籍❌ フェアユース非該当

この結果、海賊版書籍に関しては今後、損害賠償額を巡る本格的な審理が行われる予定です。


日本への影響

この判決は米国のものですが、日本においても以下のような実務的影響が予想されます。

1. 正当な学習と出力の分離

  • 日本の著作権法第30条の4により、情報解析目的の学習は例外的に認められていますが、 出力が特定作家の文体や構成を模倣した場合は別問題になります。

2. 海賊版使用は国際的にNG

  • 米国の裁判所が「違法入手データの学習にはフェアユースが成立しない」と明言したことで、日本でも企業・研究機関はデータ取得元の確認を厳格化する動きが強まると予想されます。

3. 翻訳版も対象となり得る

  • 日本の作家による書籍が英訳され、米国で販売・流通していれば、その著作物も今回の判決の射程に入ります。
  • 米国はベルヌ条約により、日本の著作物も自国民と同等に保護しています。

生成AIと著作権の今後

この判決は「AIは模倣ではなく創造に使うべき」という方向性を支持するものであり、

以下の点が実務や政策に影響を与えるでしょう:

  • トレーニングに使用するデータは正当な手段で取得することが必要
  • 出力が著作物に似ていないかを監視・制御するフィルターの強化
  • ライセンス制度の整備(特に作家・出版社側の権利保護)

今後、日本でもAI開発と著作権保護を両立する法整備・ガイドライン策定が求められます。


まとめ

今回のAnthropic判決は、AIによる著作物の学習に関して明確な判断基準を提示した点で画期的でした。日本の著作物であっても、米国で流通・使用されていれば本判決の適用範囲に入り得ます。AIが創造的ツールとして成長するためには、正当な学習と出力管理が必要であり、この判決はその基本的な枠組みを形作るものです。

参考文献

Midjourneyを提訴──ディズニーとユニバーサルが問う著作権の限界

はじめに

2025年6月、米ディズニーとユニバーサル・スタジオは、画像生成AIサービス「Midjourney」に対して著作権侵害および商標権侵害などを理由に提訴しました。

これは、生成AIが作り出すコンテンツが既存の著作物にどこまで接近できるのか、また著作権がAI時代にどのように適用されるかを問う重要な訴訟です。

本記事では、この訴訟の概要を紹介するとともに、LoRAやStable Diffusionなど他の生成AIツールにも関係する著作権の原則を整理します。

訴訟の概要

▶ 原告:

  • The Walt Disney Company
  • Universal Pictures

▶ 被告:

  • Midjourney Inc.(画像生成AIサービス)

▶ 主張の内容:

  1. 著作権侵害  Midjourneyが、ディズニーおよびユニバーサルのキャラクター画像などを無断で学習データに使用し、生成画像として提供している。
  2. 商標権侵害  キャラクター名・外観・象徴的な要素などを模倣し、消費者が混同するおそれがある。
  3. 不当競争  ライセンスを得ていない画像を提供することで、正規商品の市場価値を損なっている。

AI生成物と著作権の関係

AIによって生成された画像そのものに著作権があるかどうかは、各国で判断が分かれている分野ですが、生成のもとになった学習素材が著作物である場合には、問題が生じる可能性があります。

よくあるケースの整理:

ケース著作権的リスク
著作物の画像を学習素材として使用高い(無断使用は著作権侵害に該当する可能性)
学習に使っていないが、見た目が酷似内容次第(特定性・類似性が高い場合は侵害)
キャラを直接再現(LoRAやPromptで)高い(意匠の再現とみなされる可能性)
作風や画風の模倣通常は著作権の対象外(ただし境界は曖昧)

ファンアートや非営利創作も違法なのか?

結論から言えば、原作キャラクターの二次創作は原則として著作権侵害にあたります

  • 著作権法は、営利・非営利を問わず、原作の「表現の本質的特徴」を利用した場合、著作権者の許諾が必要としています。
  • よって、SNS上でのファンアート、同人誌の発行、LoRAモデルの配布なども、すべて「権利者の黙認」によって成り立っている行為です。

よくある誤解と整理

誤解実際
「非営利ならセーフ」❌ 著作権侵害は営利・非営利を問わない
「少し変えれば大丈夫」❌ 表現の本質的特徴が再現されていればNG
「第三者が通報すれば違法になる」❌ 著作権侵害の申し立ては権利者本人に限られる

今後の論点と注目点

  • LoRA・生成モデルにおける責任の所在  モデル作成者か?使用者か?それともサービス提供者か?
  • 訴訟によってAI学習に対する明確な指針が出る可能性  米国では「フェアユース」の適用範囲も議論対象になるとみられています。

まとめ

  • Midjourneyに対する著作権・商標権侵害訴訟は、AI生成物と著作権の関係を問う象徴的な事件です。
  • ファンアートやLoRAによる画像生成も、法的には著作権侵害に該当する可能性がある点に留意が必要です。
  • 著作権は営利・非営利を問わず適用されるため、「商売していなければ大丈夫」という認識は正しくありません。

AIを活用した創作活動を行う際には、法的リスクを理解し、可能であれば各コンテンツ提供者のガイドラインを確認することが望ましいと言えるでしょう。

モバイルバージョンを終了