
画像やテキスト、動画など多岐にわたるデータを生み出せる「生成AI」。企業での利用が急速に進んでいるが、トラブルも多発しており、本格的なビジネス運用にはまだまだ時期尚早という印象も強い。
著作権侵害に情報漏洩…生成AIのトラブル
2022年、画像生成AI「Midjourney」、チャットボット「ChatGPT」などの生成AIサービスがスタートしてから今日に至るまで多くのユーザーが利用してきた。精度が高く、膨大な量のデータを生み出すだけではなく、法律やコンプライアンスなどのチェックができる優秀なツールもあり、これからの働き方を変える可能性を秘めている。
だが、その手軽さゆえに名誉毀損や著作権侵害、情報漏洩などを引き起こすリスクも高く、大きな騒動になったトラブルも見受けられる。
たとえば今年1月24日、Xでアメリカのシンガーソングライターであるテイラー・スウィフトの写真をAIツールで性的な加工を施した画像が拡散。すでにオリジナルの画像は削除済みだが、閲覧数は2700万回を超え、Xのセーフティーチームは監視を強化、似たような画像を積極的に削除するとコメントを出す事態になった。
2023年には、韓国の大手メーカー「サムスン」でChatGPTによる情報漏洩が発生し、同年5月に生成AIの利用を原則禁止にする方針を策定している。
また、日本でも、4月1日には、海上保安庁のパンフレットが生成AIによって作成されたものだとしてSNS上で著作権侵害を訴える声が殺到し、配布中止に追い込まれる事態に発展した。
生成AIには、差別発言や不適切な情報を出力してしまう「ハルシネーション」というトラブルも考えられ、こうした不正確なデータが生まれてしまうとサービスの利用停止につながる可能性もある。
トラブルが世界的規模で増えつつある生成AIだが、効果的な対策や制度設計が不十分な印象も受ける。現在は、生成AIによるトラブルが徐々に問題視されてきているフェーズだと前野氏は語る。
「現状、生成AI関連のトラブルについて、法的な判決が下された事例はほとんどなく、水面下での交渉や炎上によりAI生成物の発表をストップさせるケースが大半です。たとえば、あるイラストレーターの作品をAIに学習させて生成されたとみられる創作物に対し、水面下で取り下げを要求する例は、すでに見受けられます。
生成AIの専用保険が誕生? その効果は?
そんななか2024年6月、あいおいニッセイ同和損保とArchaicの共同開発の下、国内初となる「生成AI専用保険」の提供が開始される。企業広告における表現やコンプライアンスをチェックするAIなどを開発しているArchaicのAIサービスに取り込む形で提供され、生成AIトラブル発生時の調査や法律相談、記者会見などの費用を補償する内容となっている。
前例がないサービス開始となるが、生成AIの安心・安全な導入活用に向けた新たな取り組みの先駆者として期待が高まる。
あいおいニッセイ同和損保の担当者は「生成AI専用保険」について次のように説明する。
「生成AIの導入は急速に進むものの、対顧客サービスにおいては、不安やリスクが先行してしまい足踏みする企業も多くありません。著作権侵害や情報漏洩が発生してしまうと、顧客からの信頼低下はもちろん、経済的な負担も大きい。
当社ではリスクを低減して生成AIの活用を促進させるためにも、保険制度が有効だと考えました。どんなケースが保険適用になるかは、具体的に設定していまして、①著作権侵害は権利者から訴訟を起こされた場合(国内の訴訟に限定)、②情報漏洩、ハルシネーションは新聞やテレビ等で報道された場合に、保険金の支払を判断させていただきます」
名誉毀損で訴えられると数百万円クラスの賠償金に?
国内初となる保険制度が整備されたものの、生成AIのトラブル防止に向けた制度やシステムづくりは道半ばだ。著作権侵害と情報漏洩といったトラブルが発生しやすい原因は、AIがデータを分析する学習過程にあるといえる。
文化審議会著作権分科会法制度小委員会の「AIと著作権に関する考え方について」によれば、現行の著作権法だと、著作物をAIに学習させることは、情報解析のためであれば認められている。
しかし、享受目的が併存する場合や「著作権者の利益を不当に害する場合」には、無断学習を認めない方針を示した。その一例として、特定のクリエイターの作品の表現の一部を出力させる目的で学習させる場合は、権利侵害の可能性があるとしている。
なかでも、生成AI画像のトラブルは、生成物の性質によって問われる罪や賠償額が異なってくるという。
「特定のイラストレーターの作品を学習に用いたAIで、既存作品に類似するポスターを作成した場合を考えてみます。
対して、テイラー・スウィフト氏の事例のように勝手にヌード画像を生成された場合は、名誉毀損やパブリシティ権侵害等にあたる可能性があります。あくまで日本の事例として考えますと、数十万円から数百万円クラスの賠償額になる可能性が高く、動画や違法写真集など使用態様によって、更に賠償額が上がる可能性もあります」
一方で情報漏洩に関しては、学習段階で個人情報や顧客データなどの機密情報を入力したり、クラウド上にデータを保管したりすることで第三者に情報が漏れる可能性を孕んでいる。生成AIツールによっては、データ保護方針やセキュリティ体制が異なるため、何かの拍子で流出してしまうというワケだ。
前野氏は、「生成AIの学習過程はブラックボックス化している」と指摘する。
「生成AIトラブルでは、学習過程で何を学習したかが、法的な争点として重要になる可能性があります。ですが、学習過程における蓄積データは事業者にとってノウハウの塊ですし、簡単に開示するワケにもいかない。今後は事業者側の学習過程の開示制度が徐々に整備されていくでしょうが、まだまだ整っていないのが現状です」
保険制度の活用で積極的なAI利用を促進せよ!
とはいえ、生成AIのビジネス利用が始まって間もない現在において、保険制度の開始はトラブル防止だけではなく、積極的な生成AI利用につながるかもしれない。
「文化審議会の議論を踏まえますと、生成AIの基本的な考え方は定まってきているので保険制度の拡大が進むことは十分考えられます。保険制度を整備するなら、生成AI画像、動画、テキストなどといったすべて包括する制度構築は難しいため、各生成AIサービスが独自整備していく流れになっていく可能性が高いかもしれません。
ただし、生成AIによるトラブルは、規模が大きくなりやすく、損害賠償の範囲や賠償金額の設定上限を見誤ってしまうと上手く運用されない可能性も考えられます」
保険制度が整備される一方で、AIコンテンツそのものの扱い方も事業者に問われるようになる。
「個人的には、特に生成AI画像については、クリエイターへのリスペクトが重要になると考えています。
取材・文/文月/A4studio 写真/shutterstock