Stable Diffusionで作った画像をSNSに投稿したり、イラスト作品として発表したりしたとき、「著作権的にこれは大丈夫なのか」と気になったことはないでしょうか。
結論から言えば、条件によっては著作権侵害になりえます。 ただし、すべての使い方が危険というわけではありません。「どんな使い方が」「なぜ」リスクになるのかを知っていれば、Stable Diffusionは十分に安全に活用できるツールです。
この記事では、Stability AIの利用規約・文化庁の公式見解・実際の訴訟事例をもとに、著作権リスクが生まれる条件と具体的な回避策を解説します。
Stable Diffusionで生成した画像に著作権は「原則として発生しない」
Stable Diffusionで生成した画像には、原則として著作権が発生しません。
これは自分の生成画像を他者に無断使用されても、著作権に基づいて主張できないことを意味します。
その根拠は2つあります。
ひとつは、Stability AI自身が生成物の権利を主張しないという点です。Hugging Face上で公開されている公式ライセンス(CreativeML OpenRAIL++)には、以下のとおり記されています。
“The authors claim no rights on the outputs you generate, you are free to use them and are accountable for their use which must not go against the provisions set in this license.”
(著者は生成されたアウトプットに対していかなる権利も主張しません。あなたはそれらを自由に使用できますが、このライセンスの規定に反しない使用について責任を負います)
参考:Stability AI / Stable Diffusion — Hugging Face
もうひとつは、日本の著作権法の定義に照らして、AI生成物は著作物として認められないケースがほとんどという点です。著作権法では著作物を「思想または感情を創作的に表現したもの」と定義しており、「創作」の主体は人間とされています。文化庁が公表した「AIと著作権に関する考え方について」(2024年3月)でも、以下のとおり整理されています。
AIは法的な人格を有しないことから、AI生成物が著作物に該当する場合もその著作者となるのはAI自身ではなく、当該AIを利用して「著作物を創作した」人
つまり、プロンプトを入力してAIがほぼ自動的に生成したものは、人間の創作的表現とは見なされにくく、著作物に該当しないというのが現時点の公式な見解です。
「創作的寄与」があれば著作権が認められる可能性がある
ただし、AIをあくまで「道具」として使い、人間が創作に深く関与した場合は、著作権が発生する余地があります。
文化庁の2024年の見解では、AI生成物の著作物性は「個別具体的な事例に応じて判断される」とされており、創作的寄与の有無を判断する際の要素として以下が挙げられています。
- プロンプトの分量・内容:詳細かつ創作的表現を含む指示は、創作的寄与があると評価される可能性を高める
- 試行・選択の繰り返し:単なる試行回数や選択だけでは判断に影響しない
- 人間による修正・加工:生成後に大幅な手を加えた場合、その加工部分に著作権が生じやすい
「著作権がない」という原則だけが一人歩きしがちですが、プロンプトの設計に創作性があるか、生成後に独自の表現を加えているかによって、著作権の発生有無は変わります。
参考:Innoventier「AIと著作権に関する考え方について」解説
著作物を使用した「学習行為」自体は日本では合法
AIの学習のために著作物を使うこと自体は、日本の著作権法上は原則として合法とされています。
その根拠は、2019年施行の著作権法改正で整備された第30条の4です。同条は以下のとおり規定しています。
(著作物に表現された思想又は感情の享受を目的としない利用)
著作物は、次に掲げる場合その他の当該著作物に表現された思想又は感情を自ら享受し又は他人に享受させることを目的としない場合には、その必要と認められる限度において、いずれの方法によるかを問わず、利用することができる。ただし、当該著作物の種類及び用途並びに当該利用の態様に照らし著作権者の利益を不当に害することとなる場合は、この限りでない。
二 情報解析の用に供する場合
参考:著作権法第30条の4
この「情報解析」とは、大量の著作物から言語・音・映像などの要素に係る情報を抽出し、比較・分類・解析を行うことを指します。機械学習はこれに該当するため、著作権のある画像をAIの学習データとして使用すること自体は、日本では著作権侵害になりません。
ただし、条文の末尾にある「著作権者の利益を不当に害することとなる場合は、この限りでない」という但し書きには注意が必要です。学習行為であっても、著作権者の市場に対して不当な損害を与えると判断されれば、この例外規定が適用されなくなる可能性があります。
そして最も重要な点として、「学習は合法」という事実は、「生成した画像を使うことが安全」とはまったく別の問題です。 学習段階の合法性と、生成物の利用段階におけるリスクは切り離して考える必要があります。
Stable Diffusionで著作権侵害が成立する2つの条件
学習が合法であっても、生成した画像が他者の著作物と「類似」しており、かつその著作物に「依拠」して生成されたと認められる場合、著作権侵害が成立します。
著作権侵害の成立には、「類似性」と「依拠性」の2つを同時に満たす必要があります。どちらか一方だけでは侵害は成立しません。
類似性
類似性とは、生成した画像が既存の著作物と同一または類似しているかどうかを指します。判断の対象は創作的な表現の部分のみであり、アイデアや誰でも知っている事実、ありふれた表現の一致は類似性の根拠にはなりません。
たとえばStable Diffusionで「耳が丸く、白い手袋をした二足歩行のネズミ」を生成した場合、誰が見てもミッキーマウスとわかるほどの類似があれば、類似性が認められます。一方で「歌って踊るネズミ」という表現だけでは、アイデアの一致にとどまり類似性は認められません。
依拠性
依拠性とは、生成の際に既存の著作物を参照・参考にしていたかどうかを指します。偶然に一致しただけで、独自に制作した場合は依拠性がないと判断されます。
文化庁の2024年の見解では、依拠性の判断は以下の3つに分類されています。
- AI利用者が既存著作物を認識していた場合:依拠性が認められる可能性が高い
- 学習データに含まれており、その表現が生成物に現れた場合:状況によって依拠性が認められる可能性がある
- 技術的に創作的表現が再現されないよう担保されている場合:依拠性がないと判断される可能性がある
特定のアーティスト名をプロンプトに含めて画像を生成した場合、「その著作物を認識していた」という状況にあたり、依拠性が認められやすくなります。
Stable Diffusionでの著作権侵害リスクが高い「3つの使い方」
前述の類似性・依拠性の2要件を踏まえると、以下のような使い方が、Stable Diffusionにおいて特に注意が必要なケースです。
①img2imgで著作権のある画像を参照した場合
img2imgとは、既存画像を入力として新たな画像を生成する手法です。この機能で著作権のある画像を参照元に使うと、「その著作物を認識していた」という事実が明確になり、依拠性の要件を満たすことになります。 生成結果が参照元と似ていれば類似性の要件も満たし、著作権侵害が成立します。
img2imgの参照元として使う画像は、パブリックドメインの作品・自分で撮影したもの・使用許可を得たものに限定してください。著作権が不明な画像を参照することは避けるべきです。
②著作権キャラクターを学習したLoRAを使った場合
LoRAとは、特定のキャラクターや画風を追加学習した拡張ファイルです。アニメ・ゲームのキャラクターや特定の漫画家の画風を再現するLoRAが多数配布されていますが、その学習元は著作権を持つ第三者の作品です。
このようなLoRAを使って生成した画像は、原作キャラクターと類似する可能性が高く、かつLoRA自体がその著作物に「依拠」して作られているため、類似性と依拠性の両方を満たしやすい構造になっています。
使用するLoRAが著作権キャラクターを学習したものでないか、CivitAI等で事前に確認してください。
③特定のアーティスト名をプロンプトに含めた場合
「〇〇(アーティスト名)風」というプロンプトを使うと、そのアーティストの画風を強く再現した画像が生成されます。文化庁の見解では、「AI利用者が既存著作物を認識していた場合は依拠性が認められる可能性が高い」とされており、アーティスト名を明示的にプロンプトに含めることは、依拠性の証拠として扱われかねません。
生成結果がそのアーティストの作品と類似していれば、著作権侵害の主張を受けるリスクがあります。特に公開・発表を前提とした画像では、特定アーティスト名のプロンプトは避けることが無難です。
Stable Diffusionの著作権侵害事例3選
著作権リスクは理論上の話ではなく、すでに現実の訴訟として表面化しています。
事例①:Getty Imagesが起こしたStability AIへの訴訟
大手写真素材サービスのGetty Imagesが、Stability AIに対し、約1,200万点の写真を無許可でStable Diffusionの学習データに使用したとして訴訟を提起しました。この訴訟で特に注目されたのは、Stable Diffusionで生成した画像の一部に、Getty Imagesのウォーターマークが滲み出るケースが確認されたことです。学習データに含まれた画像の情報が生成物に漏れ出している現象であり、無断学習の証拠として議論されました。
今回の事例のような「透かし」や特定企業を示すロゴ・マーク等が含まれている場合、それは学習データ由来の著作物が混入している可能性があります。その画像をそのまま公開・使用することは著作権侵害のリスクが高いと言えます。
参考:CNET Japan
事例②:中国でのAI生成画像による著作権侵害
中国の広州インターネット法院が、AIが生成した「ウルトラマンに類似した画像」の著作権侵害を認定し、AIサービス提供者に損害賠償を命じた判決です。AIが生成した画像であっても、既存の著作物との類似性・依拠性が認められれば著作権侵害が成立することが、正式に認定された先例として重要な判決です。
この事例で使用された画像生成AIはStable Diffusionではありませんが、Stable Diffusionを使って著作権キャラクターに類似した画像を生成するケースにも、同じ論理が適用される可能性があるため、十分に注意しましょう。
参考:日本経済新聞
事例③:Stability AI・Midjourneyへのアーティスト集団訴訟
複数のイラストレーター・アーティストがStability AI・Midjourneyなどに対し、自身の作品を無断で学習データに使用されたとして集団訴訟を提起しました。2024年、米国の裁判所は「著作権で保護された作品が無断利用されている場合、AI企業に法的責任を問える可能性がある」という予備的判断を示しています。
特定アーティスト名のプロンプトによって画像を生成し、それを公開・販売することが「無断学習の積極的な活用」とアーティスト側から見なされるリスクがあります。
今後の法的解釈の動向によっては、利用者個人にも影響が及ぶ可能性があります。
Stable Diffusionで著作権リスクを下げるための確認事項
ここまでの内容を踏まえると、著作権リスクは「依拠性を発生させない使い方」を意識することが重要です。使用場面ごとに以下を確認してください。
img2imgを使うとき
生成の起点となる参照画像の著作権を確認することが必須です。基本的にはCC0やパブリックドメインの画像、自分で撮影した写真のみを使用し、著作物を使用する際には、事前の許可を得るようにしましょう。また、生成結果に特定団体を示すマークやロゴが混入していないか目視で確認することも習慣にしてください。
LoRAを使うとき
そのLoRAが何を学習しているかを確認することが重要です。アニメキャラクターや特定の作家の画風を学習したLoRAは、依拠性と類似性の両方を満たしやすい構造です。CivitAI等でLoRAの学習元とライセンスを確認したうえで使用してください。
プロンプトを組むとき
特定のアーティスト名や著作権キャラクター名をプロンプトに含めることは、依拠性の証拠を自ら作ることになります。スタイルを指定したい場合は「watercolor style」「realistic portrait」のように、特定の人物・作品を指さない一般的な語彙を使うことをおすすめします。
まとめ
Stable Diffusionと著作権の関係は、3つの論点で整理できます。
① 生成画像の著作権:原則として著作権は発生しない。ただし、詳細なプロンプト設計や生成後の加工に創作的寄与があれば、著作権が認められる余地がある。
② 学習データの著作権:著作権法第30条の4により、学習行為自体は合法。ただし「著作権者の利益を不当に害する場合」という但し書きがあり、学習が合法であることと生成物の使用リスクは別問題。
③ 著作権侵害のリスク:「類似性」と「依拠性」の2要件を同時に満たすと侵害が成立する。img2imgでの著作権画像参照・著作権キャラのLoRA・アーティスト名プロンプトの3つが特にリスクが高い。
Getty Imagesの訴訟や中国でのウルトラマン裁判が示すように、リスクはすでに現実のものとなっています。「依拠性を発生させない使い方」を意識することが、著作権トラブルを回避するための根本的な対策です。