デザイン領域では、生成AIの活用が加速し、Adobe Fireflyなど商用利用可能なAdobeのAI機能に関する情報発信が増えています。一方で、Fireflyの学習データには不正学習が疑われるAI生成コンテンツが混在するとの指摘もあり、Adobeの方針に疑義を呈するクリエイターも少なくありません。


そこで本記事では、信頼の岐路に立つAdobe Fireflyが、本当にクリーンな画像生成AIを目指す崇高なポリシーを維持できているのかを検証いたします。

目次

Adobe Firefly「クリーン」の定義

検証:Adobe Fireflyは本当に「クリーンなAI」なのか? - 揺らぐクリエイターの信頼 -
Adobe Fireflyはじめに、Adobeが掲げている商用可能なクリーンな生成AIの定義と方針を再確認した上で、Adobeの生成AIは本当に「クリーン」なのかを報道などを基に検証してみましょう。

Adobeの生成AIの倫理的アプローチ
AdobeはFireflyを「クリエイターのために開発された生成AI」と位置づけ、その倫理的な開発姿勢を明確にしています。特に学習データについては、オンラインの公開制作物やユーザーデザインファイルは学習せず、著作権のない一般コンテンツや、使用許諾を得たAdobe Stockアセットのみを使用していると主張しています。

加えて、Fireflyが生成したコンテンツの所有権は制作者に帰属するという方針を掲げ、学習に使用されたAdobe Stockアセットの提供者には収益の一部をボーナスとして支払うことで、クリエイターへの公正な還元を強調しています。また、企業顧客に対しては、著作権侵害で訴えられた際の法的補償(IP indemnification)も提供しています。

「コンテンツ認証イニシアチブ(CAI)」との連携
Adobe Fireflyなどが連携するコンテンツ認証イニシアチブ(CAI)は、コンテンツにデジタル署名付きメタデータ(コンテンツクレデンシャル)を付与し、作成・編集の来歴を記録する仕組みです。この仕組みは、生成者の自主的な付与に依存するため、悪意ある利用を完全に防ぐものではないという限界も指摘されていますが、ユーザーはコンテンツの信頼性を確認可能になり、偽情報対策やクリエイターの権利保護に役立つとされています。また、Adobeは、クレデンシャル付与を支援し、AI学習を拒否する意思表示も可能にする無料のアプリ「Adobe Content Authenticity」を公開しています。
※参照資料:Adobe公式プレスリリース
※参照資料:アドビ、クリエイターのコンテンツ保護と認証を支援する webアプリケーションAdobe Content Authenticityを発表(PR TIMES)

これらAdobe Fireflyの倫理面の取り組みについては以下のような公式動画も公開されていますので、確認してみてください。

※参照動画:クリエイターの権利と生成 AI?4分で分かる Adobe Firefly の倫理面への取り組み | アドビ公式

Adobe Creative Cloudのプラン変更

検証:Adobe Fireflyは本当に「クリーンなAI」なのか? - 揺らぐクリエイターの信頼 -
Adobe Creative Cloudのプラン変更(上の画像はStandardプランへの変更)また、Adobeは先日、Creative Cloudのプラン変更を発表し、これまで通り生成AI機能を無制限で使える「Pro」プランと、生成AI機能に制限がある「Standard」プランの提供を開始しました。このプラン変更によるユーザーの動向は、今後のAdobeの生成AIにおける方針にも影響を与えると考えられており注目されています。
※参照記事:Creative Cloud 個人版および学生・教職員版のプラン変更(Adobe公式サイト)

Adobe Firefly「クリーン神話」の揺らぎ

Adobe Stock内における「不正学習の疑い」問題

検証:Adobe Fireflyは本当に「クリーンなAI」なのか? - 揺らぐクリエイターの信頼 -
Adobe Stock内におけるAI生成画像数の変化 画像引用元:Robert Kneschke / Alltag eines Fotoproduzentenここまでは、Adobe側の主張を説明してきましたが、複数の報道機関から、Adobe Stock自体にAI生成画像がアップロードされ、Fireflyの学習データに不正学習が疑われるAI画像が含まれているとの指摘も相次いでいます。オーストリアの独立系エンタメニュースサイト「CineD」の報道によれば、画像ポートフォリオの47.85%が生成AIによるものだといった衝撃的なデータも伝えられています。
これは、Adobe Fireflyがクリーンな生成AIである根拠を大きく揺るがすものです。不正学習によるAIコンテンツを「クリーン」に見せかける「合成物ロンダリング」である、AIがAI生成物を再学習することで品質や多様性が損なわれるAIの「近親交配」であるといった批判も噴出しています。

さらに、こうした問題により、イラストレーターや漫画家といったクリエイターはAdobe Fireflyを不正学習に汚染されたAIとして忌み嫌う傾向が強まり、Blueskyで開設されたAdobeアカウントが炎上するといった現象にまで及んでいます。前述の倫理面での取り組みを紹介する動画は、こうした懸念に対応するために公開されたものと思われます。
※参照記事:Adobe StockにAIが氾濫: 全画像の半分近くがAIによって生成(Cine D)
※参照記事:Adobe、Blueskyでの投稿に批判殺到で削除 – AI時代のクリエイターコミュニティとの断絶が浮き彫りに(innovaTopia)

他の生成AIとの連携模索
Adobe Fireflyは、OpenAIやGoogle Cloudといった他社生成AIモデルとの連携をすでに開始しています。これは、当初示していた「安心して使えるクリーンなAI」というポリシーから、生成AIビジネスでの成功のために、その境界線を広げている象徴的な路線変更と言えるかもしれません。

さらに、Ideogram、Luma、Pika、Runway、fal.aiなどの複数のパートナーAIモデルとの追加統合も公式に発表され、実装が進んでいます。これにより、ユーザーはFireflyアプリ内から様々なサードパーティAIモデルを選択して画像や動画生成が可能となる一方で、Adobeが目指すクリーンなAIというビジョンが揺らぎ、クリエイターの不信感を完全に払拭するには至っていない、という見方も増えています。
※参照記事:アドビ、Fireflyが大幅強化 共同編集ボードや”他社”モデル対応(Impress Watch)
※参照記事:アドビ、包括的なクリエイティブAIプラットフォームであるFireflyに新たなパートナーシップと新しいFireflyモデルを導入(Adobe公式サイト)

拡散モデルに残る著作権リスクとスタイル模倣の懸念

検証:Adobe Fireflyは本当に「クリーンなAI」なのか? - 揺らぐクリエイターの信頼 -
ディフュージョン・モデルの仕組み(Claudeで作成)Adobe Fireflyの基盤であるディフュージョン・モデル(拡散モデル)は、学習データの模倣と再構築で画像を生成します。そのため、意図せず特定の作風を再現するリスクが常に伴うのです。このモデルの特性上、著作権者が事前に許可した「オプトイン」データで学習しても、コピーに近い生成物が出る可能性があり、著作権侵害リスクはゼロではないと指摘されています。

 

クリーンな生成AIは実現可能なのか

Adobeの生成AIの現状が分かったところで、本当にクリーンな生成AIが実現できるのかという点も検証しておきましょう。

クリーン神話が揺らぐ背景にあるAdobeの経営的課題
クローン技術や原子力のように、科学技術には「できるけどやらない」という倫理的制限が存在します。
生成AI研究も同様の倫理を伴うはずでしたが、それを軽視し利潤追求を優先した結果、現在の急激な社会変化を招きました。

その象徴的な出来事がOpenAIのサム・アルトマン氏解任騒動です。この時、同社を去ったスタッフの多くは倫理面を担う「スーパーアライメントチーム」のエンジニアたちです。倫理的リミッターが外れたOpenAIは、その後「ジブリ化」を流行らせ、それまで一部ユーザーに限られていた不正学習が疑われる画像生成AIの利用を一般ユーザーにまで普及させました。開発企業各社が生成AIの倫理面をいかにコントロールするかを苦慮している中で、倫理的な制約が外れたChatGPTによる画像生成AIの品質向上が加速し、市場を席巻するのは必然だったのです。一方、Googleも豊富なリソースで倫理問題を表面化させずに画像生成AI機能を着実に強化しています。

こうした状況に対し、対抗策を見失ったAdobeは、当初掲げた「クリーンな画像生成AI」というポリシーの方向転換を余儀なくされていると推察されます。このようなビジネス的な背景についいては、ユーザーも一定の理解を示さなければいけないかもしれません。
※参照記事:OpenAIの「スーパーアライメントチーム」が解散、超人間的なAIの制御を目指す取り組みはどうなる?(WIRED Japan)

ようやく進みつつある法的な整備
生成AIを巡る法的な動きが活発化しています。たとえば、EU(欧州連合)では包括的なAI法が成立し、先日は国連通信機関がAI規制が急務であると表明するなど世界的に規制の枠組みが強化されつつあります。また並行して、生成AIによる著作権侵害を巡る訴訟が相次いでいます。代表的な事例は、ウォルト・ディズニー社とユニバーサル社など6社がMidjourneyを提訴したという法廷闘争です。
こうした法規制の強化への取り組みは、クリーンな生成AI開発への道筋も強化するでしょう。
※参照記事:EU、AI包括規制法が成立 世界の基準に(Reuters)
※参照記事:AI規制 「世界的な取り組み方」が急務、国連通信機関(AFPBB News)
※参照記事:ディズニーやマーベルなど6社がMidjourneyを著作権侵害で提訴。生成AIは「盗作の底なし沼」(ARTnews JAPAN)

クリーンで安全な生成AIを実現しようとする勢力
覇権闘争を前に、ダークサイド(闇落ち)する生成AI開発企業がある一方で、Adobeの他にもクリーンで安全な生成AIを実現しようとする勢力も存在します。その代表格がAppleです。AdobeのAI開発は倫理観ゆえに慎重だった可能性が高く、Appleもまた同様に安全性の高い生成AIを追求する姿勢が、開発ペースの課題に繋がっていた一面があると考えられます。

検証:Adobe Fireflyは本当に「クリーンなAI」なのか? - 揺らぐクリエイターの信頼 -
Adobeの生成ユーザーガイドラインまた、画像生成AI領域ではありませんが、倫理を重視したAIモデル「Claude」を開発するAnthropicには、元OpenAIスーパーアライメントチームの共同リーダーであったヤン・ライケ氏も参画しており、業界における「倫理的リーダー」的な立場を掲げています。しかしこのAnthropicも、現在、著作権団体やRedditなどからデータ無断使用をめぐる訴訟が提起されており、著作権的な透明性やクリーンさについて疑問が指摘される状況になっています。
※参照記事:生成AIの学習に書籍を無断使用、米連邦地裁が合法判決…「公正利用に該当」(読売新聞)
※参照記事:Reddit、「Claude」を手掛けるAnthropicを提訴 データの無断使用で(ITmedia)

検証:Adobe Fireflyは本当に「クリーンなAI」なのか? - 揺らぐクリエイターの信頼 -
オプトイン画像生成AI「Mitsua Likes」一方、国内では株式会社アブストラクトエンジンの提供する、既存の基盤モデル等を一切使用せず、権利的にクリアなデータのみを学習したオプトイン画像生成AI「Mitsua Likes」というツールがあります。「Mitsua Likes」も、そのクリーンさに対する見解は分かれることもありますが、同社のポリシーはクリーンな生成AIの実現です。

こうした倫理面を重視する生成AI開発企業もダークサイドに堕ちた側の生成AIの興隆に直面して大きな岐路に立たされています。そのため「悪貨は良貨を駆逐する」とならないように、生成AIの不正学習を問題とするクリエイターは、これらの企業を支持していくことも重要な意思表明になるでしょう。

Adobe信頼回復への道

検証:Adobe Fireflyは本当に「クリーンなAI」なのか? - 揺らぐクリエイターの信頼 -
現在も著作権侵害の恐れがある生成画像は通常出力はされないFireflyここで、Adobeが信頼回復のために必要な施策についても考えておきましょう。

現状でできる限りの出口での対策強化を
Adobe Stockへの不正なデータの混入を「入口」の段階で完全に排除するのは技術的に困難であることは想像に難くないですが、不正学習データを極力排除していくことは最重要課題です。
人間の創作活動も他者の作品を模倣から始まるように、インプット段階で「不正」を完全に排除しているわけではありません。人間が剽窃やコピペを行わないのは、倫理観によって出力段階で「やってはいけない」と判断しているからです。人間の脳のシステムを模倣した人工知能も同様に、プロンプト段階でのリスク検知を強化するなど、生成されたコンテンツが著作権を侵害していないかを「出口」で検知・検証する技術をより強固にする対策も重要になるでしょう。また、現在も著作権侵害の恐れがある生成画像は通常出力されないよう、Adobeは十分な対策を講じていますが、この不正なデータの混入については、より明確で詳細な検証と説明が必要だと思われます。

「クリーンなAI」を目指す姿勢を貫き通すこと
クリエイティブツール市場のリーダーであるAdobeが、現実に困難があろうとも、長年クリエイターに支えられてきた企業の使命として、一貫して「クリーンなAI」という理念を堅持し、その実現に向けた具体的な努力を続けていることは、今後の生成AI業界の動向にとっても極めて重要です。

また、Adobeが多様な生成AIモデルとの連携を進めるのであれば、その連携先に関する明確なポリシーを提示する必要もあります。曖昧な方針はクリエイターの不信感をさらに増幅させるため、パートナーもクリーンな生成AIを目指す開発企業を選定していくことが期待されます。

 

クリエイターはどうすればいいのか

最後に生成AIを巡る問題に対して、今後クリエイターは、どのようなスタンスを取れば良いのかといったヒントについてもお伝えいたします。

デザイナーと協業者のクリエイターを分断させない配慮
画像生成AIに対し、イラストレーター、漫画家、写真家などが拒否感を示す一方、デザイナーはAdobe Fireflyなどの活用を推進する傾向にあります。SNSのエコーチェンバー現象に加え、Adobeのステークホルダー(利害関係者)であるエバンジェリストをはじめとしたトップデザイナーの存在が、協業者であるクリエイターの悲痛な声を届きにくくしているのかもしれません。 そのため、Adobe Fireflyの「クリーンな生成AI神話」を鵜呑みにするのは大きなリスクを伴います。

デザイナーが生成AI推進派と見なされれば、作家性の強いクリエイターからの協業拒否される可能性もあります。また、Firefly活用制作物のSNS炎上リスクも生じます。
Photoshopの生成AI塗りつぶし機能や先日アップデートされた生成アップスケール機能など創作支援ツールの活用は否定されるものではないと思いますが、イラスト・動画などのコンテンツ自体を生成する際には、より慎重な姿勢が必要です。加えて、今後、デザイナーと協業クリエイターの分断を防ぐためにも、各種関連団体が共同で倫理ガイドラインを作成するといった対応も必要かもしれません。
参照記事:アドビ、PhotoshopなどのAI強化 保存高速化や「調和」(Impress Watch)

生成AIの問題を二項対立で考えない重要性
生成AIの問題は、現実的にはライトサイドとダークサイドに分けられるほど単純ではありません。SNSでは「生成AI推進派」と「反対派」に二分されがちですが、実際には推進でも反対でもない人が大半です。業務でAIを利用する企業や個人の多くは、必要に迫られて使っているのであって、クリエイターの権利を搾取したりしようとしているわけではありません。批判の対象は、不正学習を行う開発企業やエンジニアであって、ユーザーではないのです。この点を見誤ると、著作権問題におけるクリエイターの主張は社会の支持を失うでしょう。二項対立的な思考に陥り、AIユーザー全体を「敵」と見なすことは、推進と反対の間にいる中間層の理解者まで遠ざけてしまいます。

また、不買運動といったキャンセルカルチャーは、必ずしも万能ではありません。売上や社会的評価を下げる効果は一部あるものの、その影響を受けにくい市場も存在します。例えば、積極的な生成AI利用を掲げるゲーム会社「レベルファイブ」には批判が寄せられる一方、『ファンタジーライフi グルグルの竜と時をぬすむ少女』は累計120万本を超える大ヒットとなりました。これは、同作品がゲームライトユーザーである女性に人気の高い作品であり、生成AIの著作権問題への関心が低い層に広く支持された結果と考えるのが妥当でしょう。

※参考資料:AI時代の知的財産権検討会で提出されたレベルファイブの資料

同じ問題意識を持つ人たちと協力関係を築く重要性
生成AIの問題解決には、クリエイターだけの声では限界があります。そこで最適な協力者は、女性や子どもの人権を守る活動家や人権派の法曹家になるでしょう。一部クリエイターには抵抗があるかもしれませんが、「不当に傷つけられたくない」という思いは、まさに人権保護の領域と重なります。

ある論点で意見が合わないとしても、共通の目標があれば協力関係は築けます。意見が合わない部分は、また別問題として争えば良いのです。例えば、映画『ミルク』では、性的マイノリティの権利拡大を目指す運動家ハーベイ・ミルクが、一見保守的なトラック運転手組合とタッグを組み、共通の目標を見出し、互いに支持し合うことで、双方にとって大きな政治的成功を収めたシーンが描かれています。この立場は違えど、具体的な利害と目標に基づいて行動する協力戦略は、生成AIを巡る問題においても大きなヒントになるはずです。

特に日本は、少子高齢化による労働者不足をAIで解消したいという政財界の意見が強く反映されがちです。そのため、生成AI規制は、政治家や子育て世代、女性も関心の高いディープフェイクの問題から攻めるのが、広範な社会的支持を得る上で戦略的に有効でしょう。ロビー活動も、特定の政党・政治家に依存せず、超党派で訴えかけることが重要です。

生成AIをクリエイティブ活動に導入する意義とは

検証:Adobe Fireflyは本当に「クリーンなAI」なのか? - 揺らぐクリエイターの信頼 -
LLMの出力段階でのファインチューニングのイメージ図(Claudeで作成)生成AIには、視覚や聴覚を司る「知覚のAI」(画像・動画・音声生成など)と、人間の思考を司る「思考のAI」(大規模言語モデル、LLM)があります。不正なデータセットの問題は両者に共通するため、「画像生成AIは否定するがLLMは活用する」といった線引きをするクリエイターに対し、批判的な見解を示す声も少なくありません。

それでも思考のAIであるLLMを活用する意義はあります。一つは、LLMは出力段階でのファインチューニングにより、画像生成AIより著作権侵害リスクが低いこと、もう一つは最終成果物を作るだけでなく、自身のアイデアを増幅し、可能性を広げるツールとしても有用な側面を持つことがその理由です。さらに、知覚AIの利用は避けられても、思考のAIであるLLMは今後、デジタル端末や家電に標準搭載される可能性が高く、その利用を避けるのが極めて困難になる現実にも向き合う必要があるでしょう。

まとめ

生成AIは、まさに諸刃の剣のような技術で、非常に便利である一方で、利用する側にも予期せぬダメージを与える可能性があります。これは、ファンタジー作品における「魔力」のように、その強大な力ゆえに魅了され「世界征服」を目指すようなダークサイドに陥る存在を生み出すリスクもはらんでいます。もし、この魔力に取り憑かれたラスボスの「敵」を倒さなければいけないのであれば、主人公が装備すべきは「聖なる魔法の力を備えた武器や防具」でしょう。

現実世界で生成AIを悪用する者やテクノ・リバタリアニズム的な思想を持つIT企業を対抗するには、倫理と安全性を最優先した「聖なる力」を持つクリーンな生成AIが必要です。これを最も高い可能性で実現できるのは、長い間クリエイターとの信頼関係を構築してきたAdobeではないでしょうか。様々な困難があることは承知していますが、当初掲げた崇高な理念を実現するために、Adobe Fireflyがよりライトサイドへ近づく軌道修正をし、その道を邁進してくれることを強く期待したいと思います。本記事が、その現状を伝え、問題意識共有のきっかけとなれば幸いです。

検証:Adobe Fireflyは本当に「クリーンなAI」なのか? - 揺らぐクリエイターの信頼 -
編集部おすすめ