atwiki-logo
  • 新規作成
    • 新規ページ作成
    • 新規ページ作成(その他)
      • このページをコピーして新規ページ作成
      • このウィキ内の別ページをコピーして新規ページ作成
      • このページの子ページを作成
    • 新規ウィキ作成
  • 編集
    • ページ編集
    • ページ編集(簡易版)
    • ページ名変更
    • メニュー非表示でページ編集
    • ページの閲覧/編集権限変更
    • ページの編集モード変更
    • このページにファイルをアップロード
    • メニューを編集
    • 右メニューを編集
  • バージョン管理
    • 最新版変更点(差分)
    • 編集履歴(バックアップ)
    • アップロードファイル履歴
    • ページ操作履歴
  • ページ一覧
    • ページ一覧
    • このウィキのタグ一覧
    • このウィキのタグ(更新順)
    • このページの全コメント一覧
    • このウィキの全コメント一覧
    • おまかせページ移動
  • RSS
    • このウィキの更新情報RSS
    • このウィキ新着ページRSS
  • ヘルプ
    • ご利用ガイド
    • Wiki初心者向けガイド(基本操作)
    • このウィキの管理者に連絡
    • 運営会社に連絡(不具合、障害など)
ページ検索 メニュー
AI画像生成・生成系AI 問題まとめwiki
  • ウィキ募集バナー
  • 目安箱バナー
  • 操作ガイド
  • 新規作成
  • 編集する
  • 全ページ一覧
  • 登録/ログイン
ページ一覧
AI画像生成・生成系AI 問題まとめwiki
  • ウィキ募集バナー
  • 目安箱バナー
  • 操作ガイド
  • 新規作成
  • 編集する
  • 全ページ一覧
  • 登録/ログイン
ページ一覧
AI画像生成・生成系AI 問題まとめwiki
ページ検索 メニュー
  • 新規作成
  • 編集する
  • 登録/ログイン
  • 管理メニュー
管理メニュー
  • 新規作成
    • 新規ページ作成
    • 新規ページ作成(その他)
      • このページをコピーして新規ページ作成
      • このウィキ内の別ページをコピーして新規ページ作成
      • このページの子ページを作成
    • 新規ウィキ作成
  • 編集
    • ページ編集
    • ページ編集(簡易版)
    • ページ名変更
    • メニュー非表示でページ編集
    • ページの閲覧/編集権限変更
    • ページの編集モード変更
    • このページにファイルをアップロード
    • メニューを編集
    • 右メニューを編集
  • バージョン管理
    • 最新版変更点(差分)
    • 編集履歴(バックアップ)
    • アップロードファイル履歴
    • ページ操作履歴
  • ページ一覧
    • このウィキの全ページ一覧
    • このウィキのタグ一覧
    • このウィキのタグ一覧(更新順)
    • このページの全コメント一覧
    • このウィキの全コメント一覧
    • おまかせページ移動
  • RSS
    • このwikiの更新情報RSS
    • このwikiの新着ページRSS
  • ヘルプ
    • ご利用ガイド
    • Wiki初心者向けガイド(基本操作)
    • このウィキの管理者に連絡
    • 運営会社に連絡する(不具合、障害など)
  • atwiki
  • AI画像生成・生成系AI 問題まとめwiki
  • クリエイター関連で提唱されている生成AI規制案

AI画像生成・生成系AI 問題まとめwiki

クリエイター関連で提唱されている生成AI規制案

最終更新:2024年11月03日 20:12

sankakuyama

- view
メンバー限定 登録/ログイン
この項目ではクリエイターと生成AIに関して、どんな規制が提唱されているかについて大まかにまとめています。
現在、アート、文学、音楽、俳優など、様々な分野に関わる人々や団体が現状の生成AIのあり方に対し異議を唱えています。クリエイター団体からネット上の意見まで、実現可能性や現実性の有無にかかわらず、(各業界によって微妙に要望は異なりますが)あくまでどのような規制が求められているかの意見を出来るだけ多くまとめるページです。以下すべての意見をクリエイターが支持あるいは否定しているわけではなく、各個人によってスタンスは異なる事をご理解ください。

  • クリエイター団体等の生成AIへの反応・対応は「生成AIに対するクリエイター団体・企業の反応・対応」
  • 生成AIの総合的な問題点は「生成系AIが抱える問題まとめ【社会やクリエイティブへの悪影響】」
  • 画像生成AIの問題点は「画像生成AIは何が問題なのか?」

【目次】
  • よく主張される規制案
    • 1.生成AIの学習データを得る際は許可制(オプトイン※)に
    • 2.学習データの公開義務化を
    • 3.AI生成物表示義務
  • その他の主張・意見
    • 容姿・声に対する保護
    • 学習データとなった作品の作者に対価を
      • 基盤モデルへの対価
      • LoRAなど特化モデルへの対価
    • オプトアウトに関する意見
    • 強制オプトインの問題
    • 表現規制を防止するために生成AIを規制すべきだ
    • 対生成AI限定での作風保護
    • AI生成コンテンツ公開の制限
    • AI生成物を生成AI開発へ利用する事について
    • 生成AIは免許制にすべきではないか
    • 生成AIに関する権利侵害については法的な手続きを簡略化する事などが必要ではないか
    • 生成AIが健全化したとしても結局クリエイティブにとっては害
  • 関連項目

よく主張される規制案

1.生成AIの学習データを得る際は許可制(オプトイン※)に

2024年現在、生成AI開発のために必要なデータを得たい場合は、インターネットから機械的に大量のデータを収集する事が主流となっている。当然、作品データを収集・利用する際に各データの作者に対しては許諾を得ていない。他のAIとは異なり生成AIは「作品そのものを最終的結果として得る」という特性上、データとして無断で利用された作者の活動する市場と衝突し、経済的・精神的な不利益をもたらす。この構造について、生成AI開発企業・ユーザーからクリエイターに対する一方的な搾取構造が発生しているのではないかとの指摘が多くなされている。そのため作品データの無断利用は行わず、各作品の作者から許可を取ったデータのみを生成AIに使うべきとの主張がある(オプトイン)。このオプトインを前提とした生成AIの構築は個々のクリエイターの主張の中で頻繁に取り上げられるのみならず、権利者団体等によるクリエイター向けのアンケートでも過半数から支持されている場合が多く、生成AIの規制を求めるクリエイターの多くから賛同されている主張であると言える。

現状、クリエイティブを取り巻く生成AIの問題は「作品や声、容姿に関するデータを利用する際、その許諾を作者や権利者から得ず無断で利用していること(いわゆる無断学習)」がそもそもの原因となっている場合が多い。そのため、データの無断利用を規制すればかなり被害は軽減されるものとして期待されている。

一方で、「(生成AIは利用するデータが非常に多い為)一人一人の権利者に許諾を求めることは現実的ではない」、「いちいち許可を取っていては(生成)AIの発展に支障が出る」との意見もある。


2.学習データの公開義務化を

2024年現在、ほとんどの生成AIサービスは学習データにどのような作品データを使ったのか公表していない。権利者側は自分の作品がどの程度利用されたのか全く分からない状態であり、「自分の作品が使われたのでは?」と感じるような出力物があったとしてもそれを確認しようがない。さらには生成AIに関連する知的財産権の裁判などにおいても、非公開が前提であるがゆえに侵害の証明などの点でクリエイター側は不利な立場に置かれる可能性が指摘されており、学習データ公開の義務化が求められている。現状、2026年に施行予定の欧州連合(EU)のAI法においては学習データの開示が義務化されるほか、日本でも同様の動きが存在する。

3.AI生成物表示義務

生成AIで作られたコンテンツに対し、「AI生成物であることの表示(ラベル付け)を義務化すべきではないか」との主張。
これについては主に社会に混乱をもたらしたり、個人の名誉を傷つけかねないフェイクコンテンツ規制の観点から必要性が訴えられるが、クリエイティブ方面からも「AI表記なしの生成物が溢れることによって、人間の作品を見たい人にとって不利益が生じる」「見分けることが難しいAI作品が溢れることによって、人間のクリエイターが露出する機会を失ったり、あるいは創作物そのものの価値が落ちかねない」といった事態への憂慮から主張されている。
ラベル付けに関しては実際に技術・法律の面などから対応が進んでいる。すでに作品投稿サイトといったプラットフォーマーの一部は投稿時にAI作品かどうかのチェックを付けるよう義務づけたり、生成AI開発企業などはウォーターマークやメタデータなどの方法でAI生成物であることが分かるようなラベリングを行っている。法律面からもEUやアメリカの一部の州を中心にAI生成物表記を義務化する法律の制定が行われている。
しかしながら、技術的対策の中には「簡単に外せてしまうのではないか」と指摘されるものもあり、対策の実効性に疑問を持つ声もある。また、「フェイク等を判定する際の人々の判断基準について、ラベル付けがあるかどうかが重要視されるようになり、もしフェイクコンテンツであったとしてもラベルがなければ安易に「本物」と信じられるようになるなど、下手な規制がさらなる混乱を生むのではないか」といった主張もある。

▲ページトップへ


その他の主張・意見

容姿・声に対する保護

主に俳優、声優、歌手などの業界から出ている意見。すでにネットは俳優など有名人の顔を勝手に使ったディープフェイク詐欺動画が溢れ、特定の声優などの声を無断で利用したAIモデルが配布されている状況だ。特に声そのものについては何の権利も存在していない状態であり、声優団体の中には「声の権利」新設を主張する団体も存在している。


学習データとなった作品の作者に対価を

生成AIは学習データとしてクリエイターの制作した作品データを大量に利用し、なおかつクリエイターの活動する市場と競合する。さらに、生成物のクオリティはクリエイターが制作した作品のクオリティに依存するという構造があるにも関わらず、クリエイターは無許諾かつ対価なく作品データを利用され、経済的・精神的苦境に追い込まれるが生成AI開発企業だけは得をする。それは問題だろうという指摘がある。そのため、生成AIに作品を利用した場合、AI開発企業は対価を支払うべきではないかというものである。

基盤モデルへの対価

まず、生成AIモデルの根幹である基盤モデルで利用されたデータに対する還元はどうだろうか。

生成AIの開発には、AI学習用に複数のデータからなる「データセット」を作成する過程があり、データセット構築の際に利用するデータはインターネットから集められていることが多い。ではデータセットにはどれぐらいのデータが使われているだろうか。

例えば、有名な画像生成AI「Stable Diffusion」などの開発に利用されたデータセット「LAION-5B」はなんと58億もの画像データとテキストのペアから構成されている(*1)。また、インスタグラムやフェイスブックなどといったSNSを運営している米企業Metaが開発している大規模言語モデル(LLM)「LLaMA」などで利用されており、米AI非営利団体EleutherAIが作成した書籍データセット「Books3」には19万1000冊以上もの電子書籍が含まれている(*2)など、現在主流の生成AIで利用されているデータセットの中には非常に多くのデータが入っていることが分かる。

もちろん、生成AIの開発過程で除外されたデータ、データセット内で同じコンテンツが重複していた場合、パブリックドメインや元々AI開発に利用しても問題ないコンテンツなどを除いてもその量は膨大だ。

データセットとして利用されたコンテンツの作成者に還元を行う場合、どのような額になるのだろうか。

例えば、LAION-5B構築の際に画像データを利用された作成者全員に対して一枚の画像データに付き2万円を支払うと仮定した場合、単純計算で58億枚×2万円=116兆円(5,800,000,000x20,000=116,000,000,000,000)となる。ちなみにこれは2023年度の日本の国家予算の一般会計と近い数値(114兆3812億円(*3))であり、膨大な額になることが分かる。(そしてこれは2万円を支払って画像データを買い切り、AI企業が使い続けることを前提とした場合の額であり支払いの形態が変われば計算はまた変化する。)
当然、全てのデータセットが58億ものデータを収集した上で作成されているわけではなく、もっと少ない場合もあるがそれでもかなりの額に達するのではないか考えられている。

還元を行う主体として真っ先に想像されるのが画像生成AIといった生成AIを開発しユーザーから利益を得ているAI企業だが、常識的に考えて一つの企業がこの金額を支払うのは不可能である。

利用したデータが膨大過ぎて還元が難しいのなら開発に利用するデータを減らせばいいとも思える。しかし、生成AIが質の高いコンテンツを生成できるかは開発時に使用したデータの量と質への依存度が高いとも言われており、高品質な生成AIコンテンツを出力できる状態を維持しつつ利用データ数の削減を同時に並行して行うのは難しいと考えられている。

全員に支払うのではなく、生成AIでコンテンツを出力する際、その出力物がどの作品データへの依存度が高かったかを解析しその順に支払うといった方式など別の方法も提案されるが、どれだけ還元できるのかは現状不明である。

そしてクリエイター側からすれば、生成AIの構造として「開発時に作者の許諾を取らず無断で作品データを利用されている」「自身が活動する市場と直接的に競合する」「人間の手では無しえない大量生産」「AIが生成したコンテンツのクオリティはデータとして利用された作品の量・質・表現内容に依存する」というものがある以上、それなりの額を貰えなければ心情的には納得できないだろう。

とはいえ、肝心の生成AI開発企業は還元について「技術開発が出来なくなる」などとして積極的ではない(*4)。

ただし、ChatGPTなどで知られるAI企業OpenAIは、2023年より欧米諸国の各メディアと記事をAI学習などに利用し、その対価を支払う契約を次々に結んでいる。この動きを「AI企業と権利者間で正当な契約を結んでデータを利用する慣行を構築する第一歩になる」として評価する意見もあるが、一方で「結局は生成AIのデータ利用について何らかの法的制限などがなければ、AI企業はメディアのような社会的権威を持つ主体に対しては利用契約を結ぶが、個人のクリエイターなどの弱い立場の人々については、今まで通り製作物を生成AI開発に無断利用されるという不平等な環境が成立してしまうのではないか」との懸念も聞かれる。


LoRAなど特化モデルへの対価

また、上記のような基盤モデルにではなく、クリエイターの作風や声などを模倣したLoRAなどの特化モデルに対して金銭的な還元をしようという意見もある。

特化モデル販売にメリットがあるとする意見としてはこういったものがある。
◇1.正規版を出すことにより、現在流通している無断作成の特化モデルを駆逐できる(Winny等に対するiTunes等の登場が根拠として挙げられる。)
◇2.不正競争防止法などで無断作成モデルを法的に罰す事が出来るのではないか。
◇3.今まで特化モデルが作られ放題で何の還元も無かったクリエイターらに対し、はじめて金銭的な還元が出来るようになる。

反対にデメリットがあるとする意見にはこういったものがある。
◆1.無断作成されていてかつ無料で使えるモデルが溢れている状況では、正規版を出したとしても生成AIユーザー側からすれば使うメリットが薄いのではないか。
◆2.(特化モデルがどのような形で利用されるかにもよるが)クリエイター本人とその特化モデルが市場競合しかねないのではないか。※
◆3.(LoRAは基盤モデルに追加する形で利用されるので)基盤モデルがクリエイターの作品をはじめとして写真などの個人データ、暴力やポルノなどといった不適切なコンテンツを含みかつ無断収集されたデータ群で成り立つものであった場合、その搾取的とも言われる構造に加担する事になってしまうのではないか。
◆4.公式に特化モデルを出したとしても、それに関する法規制も並行して行わなければ期待される効果は得られないのではないか。
◆5.クリエイターはその個性を生み出すために長い時間をかけてきた。人によっては人生の一部であり、特化モデルの利用形態などによっては生活にも悪影響を及ぼすことも考えられる。そのため、特化モデルとてそれなりの額の対価が必要となるのではないか。

※正式な契約の上で声優の声をAI音声として利用したが、声優業に影響を与えない様利用範囲が限定されたケースもある(*5)。

基盤モデル、特化モデルを問わず、還元を行うとしても買い切りなのか、数年ごとにAI企業などと契約を結ぶのか、サブスクのような形態なのか、プロンプトに特定の作家名が入力された頻度等で支払うのかなどといった契約の違いでもクリエイター、AI企業、AIユーザーの得られる利益や負担は変わってくるものと考えられる。

また、前述の「基盤モデル」と呼ばれる物でも、特定のクリエイターの作風などを真似た生成物を出力可能な場合もあるため、(対価や規制の話において)「基盤モデル」と「特化モデル(追加学習/LoRA)」を分ける意味は実質的に無いのではないかとする指摘もある。(*6)(*7)


オプトアウトに関する意見

生成AI開発に無断でインターネット上の作品データなどが利用されている問題に対し、クリエイター・権利者側が利用を拒否する方法としてオプトアウト方式を採れば良いのではないかとの意見もある。
一般的にオプトアウト(Opt-out)とは、「原則自由にしておき、問題がある場合にだけ禁止・規制するという概念」を指すとされる。(出典:コトバンク「オプトアウト(日本大百科全書(ニッポニカ) )」)

生成AIデータ問題におけるオプトアウトとは、大まかには「生成AI開発のためインターネット上やSNSなどといったAI開発企業のサービス内にアップロードされたデータを無断で利用するが、権利者側が利用を拒否したデータについては利用しない」という形態のことである。これを言い換えると「権利者が利用拒否の意思を示していないデータは無断で使ってよい」ということである。

反対の概念として「オプトイン」がある。「オプトイン」とは、生成AI関連では「各作者から作品の利用許可を取った作品データのみを生成AIへ利用でき、拒否の意思が示されたデータや意思がはっきりとしないデータは利用できない」という事を意味する。

オプトアウトといっても現状様々な方法があり、現在確認されているのは以下の4つ。
  • ①:欧州連合(EU)のAI規制に基づくオプトアウト。
  • ②:生成AI開発企業などがインターネット上から学習用データを権利者の許可なく取得し、そのあと企業側が削除用プラットフォームを用意、権利者が申請すれば特定のデータが学習データから削除される形でのオプトアウト。(*8)
  • ③:SNS運営と生成AI開発を同時に行っている企業が、自社SNS内に投稿された文章や写真などといったコンテンツを生成AI開発に利用する場合に、SNSユーザー側が投稿を開発へ利用しない様意思を伝える事が出来るフォームを設ける形でのオプトアウト。(*9)(詳細は当ページの「強制オプトイン」の項目を参照。)
  • ④:生成AIサービス内において、入力した情報などをAI開発に利用できないよう設定する形でのオプトアウト。

オプトアウトは一見権利者側に配慮したもののように見えるが、以下のような問題が指摘されている。

◆1. (特に②について)権利者側が削除用プラットフォームを一々確認しに行かなければならないため負担が大きい事(仮に、統一された削除用プラットフォームではなく、生成AI開発企業各社がそれぞれプラットフォームを用意する形になった場合、作者・権利者側の負担が非常に大きくなる)。
◆2. 企業ではない個人の生成AIユーザーが自分で作った作品か他人が作った作品かに限らずデータを無許可で利用できる環境が既に整っている事
◆3. そもそもオプトアウト以前に、EUなど一部の国や地域を除いてどの国も企業側に学習データの開示義務を課しておらず、開示しているごく一部のAI企業などを除き、自分の制作したデータが生成AIの開発に利用されたかを確認することが極めて困難であること。
◆4.オプトアウトを行えるようにするかは、EU以外の地域では義務付けられていないため各生成AI企業のさじ加減に左右されているのが現状で、特にそういった動きを行っていない企業も多く存在すること。
◆5. (特に②・③について)予告も無い状態で生成AIにデータを使われているまたは将来使われる可能性があるため、そもそも把握できていない権利者もいる事。生成AI企業がオプトアウト制の存在を周知したとしても多くの権利者に伝わるかどうかに限界がある事。
◆6.一度オプトアウトしたデータも再び収集されデータセット内に混入する事が考えられる事。
◆7.(特に②・③について)AI企業が用意するオプトアウト用フォームが発見しづらかったり使いづらかったりするケースもあること(わざとフォームを複雑にしているのではないか?と疑う声もある。関連記事)
◆8.オプトアウトしたとしてもあくまで将来作られるAIモデルへのものであり、現在の学習済みモデルに対するオプトアウトを反映したり、一度モデルを破棄するかなどの対応はAI企業次第の場合もあること。(そもそも学習済みモデルから特定のデータを取り除くのは技術的に難しいとする見解もある)
◆9.(④について)生成AIサービスのユーザーが、サービス内で入力した情報の中に他者が作成した制作物などが含まれていた場合かつ生成AI開発への利用を拒否する設定にしていなかった場合、その作成者の意思に関係なく生成AI開発へ制作物が利用されてしまう可能性。

上記の理由からオプトアウトの有効性には疑問が呈されている。ただ、オプトアウトがどのような形になるかにもよって権利者側の負担は変わってくるものと考えられる。


強制オプトインの問題

生成AI開発者であると同時にSNSなどの運営者である企業のサービスで起きている問題。生成AIを開発するには一般的に大量のデータが必要であるとされており、これはインターネット上にあるデータをスクレイピングして集められていることで知られる。一方、XやMetaといったSNS運営企業では同時に関連会社などで生成AIを開発しており、これらの企業でデータとして利用されているのはSNS利用者の投稿であるとされている。

SNSの利用規約には「投稿したコンテンツをAI開発に利用する」との内容が追加され、ユーザーがそれを承認しなければいけない。つまり、強制的なオプトインである。

これによる主な問題点としては以下のようなものが挙げられる。

◆1.SNS運営側が生成AI開発を開始する前にユーザー登録しており、かつ生成AI開発のためのコンテンツ無断利用に反対する立場である場合「後出しじゃんけん」感を強く感じる事。(特に商業目的で利用している場合SNS利用を中止する事などで離れるのも困難)
◆2.SNSではよくイラストや漫画、写真、動画などの無断転載があったり、漫画のひとコマなどのいわゆるネタ画像がよくスタンプ感覚で使われているが、これら無断でSNS上でアップロードされたコンテンツが元々の作者の意思を無視して生成AI開発に利用される可能性。
◆3.別サイトの記事内にある文章の一部などを引用したSNS投稿の扱い。
◆4.オプトアウト機能の問題。一部SNSでは自身の投稿したコンテンツを生成AI開発に利用できないようにするオプトアウトを選択可能だが、SNSによってはこの手続きが複雑にされていたり、SNS運営側は利用規約の急な変更によりいくらでもオプトアウトの適用範囲やそもそもオプトアウトを廃止するも自由であること。

表現規制を防止するために生成AIを規制すべきだ

主に性的表現の規制防止という観点から生成AIを規制すべきとの意見がある。現状、生成AIで作られた成人向けのAIコンテンツがインターネットに溢れており、中には「①(特に児童などを)性的に表現した実写風生成物(一応は実在しない人物とされる)」「②実在する特定個人の顔立ちを精巧に真似た既存の画像の加工ではない性的な生成物」「③実在する人物が写った写真の一部を性的に加工した生成物(いわゆる剥ぎコラ、アイコラに近いもの)」が存在し問題視されている(フェイクポルノ問題)。このようなAI生成物が跋扈し多くの被害者を生み出して社会問題化した結果、少なくとも現在主流の画像生成AIについてはイラストも実写の不適切画像も開発時に利用されておりイラスト風AI画像も実写風AI画像も同じ生成AI製品から出力されているケースもあることから、下手をすれば生成AIではない既存技術で作られた成人向け作品をも巻き込んだ表現規制をもたらし得るのではないかとの懸念が指摘されている。

これに対しては、特に①に関して「出力される結果は実在しない人物であり問題はない」、「AIの(性的な)出力も「表現」であり「表現の自由」として守るべきものではないか」「生成AIの規制をしようとすれば、表現規制を望む人々のよい口実にされてしまう」といった反論がある。

反対に「性的コンテンツのうち生成AIではない既存技術で作られた二次元作品などは、主に『作品内に描かれた人物は実在していないので問題ない』という論理で長年守られて来たが、生成AIは実在する人物の写真などを素材として無断かつ直接的に利用しているためその論理を使うことが難しくなり、それが表現規制を進めたい人々にとっての突破口になりかねないのではないか」、「表現面ではなく、技術面での規制を訴えていく形にすれば生成AIの規制と表現の自由を両立できる(例えば生成AI開発に利用できるデータの種類を制限するなど)」、「どのみち海外ではフェイクポルノ方面などからも規制が進むのだから、これに関連した外圧などが来て規制の主導権を失う前に表現の自由を守りつつ生成AIの悪用を防ぐ、バランスの取れた規制を考えておくことが重要ではないか」「悪用が相次ぐ現状では、現状の生成AIを規制せず放置=表現の自由が担保され続ける、という訳では必ずしもないだろう」といった意見がみられる。


対生成AI限定での作風保護

「対生成AI限定で個々のクリエイターが持つ作風の保護が必要だ」という意見もある。生成AIはクリエイターの作風を簡単に模倣できるため、折角長い時間をかけて築き上げたブランドともいえる作風を模倣・大量生産されてその価値を急激に落とされたり、無許諾で作風を模倣したAI生成物が作成され意図しない形で使われることで元作品の作者に何らかの風評被害が生じるのではないかとの懸念からだ。

これに対し「人間も模倣し内容によっては元作者に被害を与える」という意見もあるが、人間と生成AIの決定的に違う点は「誰でも簡単に使え、簡単に作風を再現できる」というものではないかと言われる。人間が既存の手法を用い他者の作風を精巧に真似ようとすれば、まず時間をかけて基礎的訓練を行う必要があり、それは誰でも簡単に出来るものではないし訓練を経て作風模倣が行われたとしても生産出来る数も限られているため、模倣元クリエイターへの悪影響は相対的に少ない(ただしそれぞれのクリエイターによって模倣への心理的許容ラインは異なり、人間対人間でもトラブルになった事例は余多ある)。対して生成AIは誰にでも使える上、特定のクリエイターの作品データがいくつかあればすぐに作風模倣が可能で大量生産も容易だ。これらの特性によって権利の侵害が簡単となり常茶飯事的に起こるようになれば収拾がつかなくなるかもしれないため対生成AI限定での作風保護が必要ではないかというものだ。

この意見に対しては「作風保護をすれば人間の創作も不自由になる」といった反論がある。また、明らかに特定のクリエイターの作風などをコピーしているがクリエイターの名前が表示されていないものや、絶妙に似ていないギリギリを攻めるようなAIモデルについてはどのような扱いになるのかという懸念がある。


AI生成コンテンツ公開の制限

編集中


AI生成物を生成AI開発へ利用する事について

現行生成AIに使用される学習用データのうち、人間が制作した作品ではなくAI生成物を生成AI開発の際に利用する事もしばしばある。
AI生成物に対しアメリカ著作権局など一部の関連機関は原則的に著作権が付与されないとの見方を示しているため、これを根拠としてAI生成物を生成AI開発に利用するのは問題がないとする意見もある。

これに対し、権利的に問題が無かったとしてもAI生成物は結局誰かの創作物を学習データとして利用した上で生成されたのであって(作品データ収集段階においてデータ制作者の意志が無視された上で開発された生成AIである場合)、権利のある作品データを生成AIに取り込んでそのAIから元作品データと同質の生成物を出力し他の生成AIの開発に利用するという一連の行為は、結局のところ権利を「洗浄」・ロンダリングしているに過ぎず、これについても何らかの規制を設けるべきではないかという意見がある。


生成AIは免許制にすべきではないか

現行生成AIは、偽情報の作成によって社会を混乱させたり、偽ポルノなどで個人の尊厳を犯したり、クリエイターへの嫌がらせといった悪用行為が簡単に出来ることから、誰にでも使わせるべきではなく、免許制など制度の整備を行うことで利用に制限をかけるべきでないかという意見。


生成AIに関する権利侵害については法的な手続きを簡略化する事などが必要ではないか

生成AIは権利侵害やそれに該当し得る行為が容易にできてしまうが故に、トラブルの数も膨大になるのではないか。そのため、対生成AIに関しては法的措置を行う際の手順を簡略化するなどの対策が必要ではないか、とする主張。


生成AIが健全化したとしても結局クリエイティブにとっては害

現行の生成AIについてよく取り上げられる「クリエイターの創作物データや個人に関するデータなどを生成AI開発の際に無断で利用する行為」、「偽情報や偽ポルノといった悪用」といった問題点が解決したとしても、結局はクリエイティブ産業に大きな悪影響を与えるのではないかとの意見もある。
生成AIは人間の生産量を大幅に上回る大量生産が可能だが、この特徴は権利面や悪用面から規制が進んだとしても残るため、クリエイターの活動市場が大量のAI生成物で埋め尽くされクリエイターとしての広報活動が困難になる問題、同様に大量生産によって創作物全体の価値が低下する問題や、クリエイターへのダンピング問題といったリスクも残り続けるのではないかとするものだ。現状の問題を克服してしまえば社会で本格的に使われ始める可能性もある上に、今後の技術的進化なども考慮して数十年スパンで見た場合、結局は生成AIの存在そのものが人間のクリエイティブの未来に悪影響を与えるのではないか、というものだ。

この問題に対しては、「現在行われようとしている規制以外でのアプローチが必要」「人間の創作物とAI生成物の徹底的すみわけ」といった対策が提案されており、さらには「人間らしさの一つである文化芸術をAIが主体となって行うのは人間性の喪失であり社会の損失も大きいのではないか」「オプトインかつ悪用防止対策を行った生成AIが既存の人間のクリエイターに置き換わるのは、歴史の中で何度も行われてきた機械化であり問題などはない」といったような意見もみられる。


関連項目

  • 生成系AIが抱える問題まとめ【社会やクリエイティブへの悪影響】⇒生成AIの総合的な問題点。
  • 画像生成AIは何が問題なのか?⇒画像生成AIの問題点。
  • 生成AIに対するクリエイター団体・企業などの反応・対応
「クリエイター関連で提唱されている生成AI規制案」をウィキ内検索
LINE
シェア
Tweet
AI画像生成・生成系AI 問題まとめwiki
記事メニュー

メニュー

  • トップページ
  • 用語集
  • AI画像生成・生成系AI問題年表
+ 2021年以前~2025年
    • 2025年
    • 2024年
    • 2023年
    • 2022年
    • 2021年以前
  • 生成系AIに関する記事・資料集
  • ★ 編集に興味がある方はこちらへ ★

基礎知識

  • 生成AIは何が問題なのか?
  • 画像生成AIは何が問題なのか?
    • img2imgによる新手のトレパク被害
    • LoRAによる個人や作品の無断学習問題
  • 画像生成AI 関連人物
  • AIと人間の学習の違いについて
  • AIイラストの見分け方
  • 主要なAI画像生成サービス
  • 画像生成AI・生成系AIに対する各種プラットフォーム等の反応・対応まとめ
  • 生成AIに対するクリエイター団体・企業などの反応・対応
    • アート・イラスト関連団体の反応・対応
    • 音楽関連団体の反応・対応
  • 生成AIに関する訴訟・法的対応一覧

主な出来事・事例

  • 画像生成AI 炎上・論争・被害事例まとめ
  • よー清水さんによる画像生成AIに関するアンケート調査結果
  • 画像生成AIに対する法整備を求める記者会見がNHKニュースで放送
  • 日本テレビ系NEWSZEROで生成AI問題を取り上げるも、放送内容に物議を醸す
  • AIイラストレーターゆーます氏i2i疑惑
  • AIグラドル「さつきあい」
  • pixivウマエロアカウント停止騒動
  • AIイラスト支援サービス「petapi」
  • 自動着彩ツール「CoPainter」
  • 自動線画合成ツール「CoPainter」
  • 国際著作権シンポジウム  赤松健参議院議員の講演 英語翻訳版

法律・政治・規制・調査

  • 生成AIに関する日本政府・官公庁・議員の動向
    • 著作権法第三十条の四
  • 各国の生成系AIへの対応・規制まとめ
  • クリエイター関連で提唱されている生成AI規制案
  • 生成AIに関する調査・アンケートの一覧

被害対策

  • 自作品を守るためにできること
    • AI学習防止ツール「Glaze」について【利用方法・意義】
  • 権利侵害の通報・相談窓口

現状を変えるために

  • 政府・議員・団体に対する問い合わせ
  • 署名・募金
  • クリエイター支援団体

関連リンク

日本語

  • ai-illust @ ウィキ
  • AIイラスト利用まとめWiki
  • Wikipedia「生成的人工知能」
  • Wikipedia「人工知能アート」
  • 生成AIに関する問題・リスク・規制などの情報まとめ

英語

  • createdontscrape
⇒現行の生成AIの問題点や悪用事例などについてまとめたサイト。
  • LUDDITE PRO(ラッダイト・プロ)
⇒現行の生成AIの問題点や悪用事例などについてまとめたサイト。
  • Chat GPT Is Eating the World
⇒生成AIに関する規制や訴訟などの最新の動向をまとめたサイト。

その他言語

  • 그림 인공지능/논란 및 사건 사고(イラスト人工知能/議論と事件事故)
⇒現状の画像生成AIに関して発生した問題や悪用事例などをまとめた韓国語のwikiサイト。




ここを編集
記事メニュー2

更新履歴

取得中です。


ここを編集
人気記事ランキング
  1. 自作品を守るためにできること
  2. 画像生成AI・生成系AIに対する各種プラットフォーム等の反応・対応まとめ
  3. 画像生成AI 炎上・論争・被害事例まとめ
  4. 主要なAI画像生成サービス
  5. AI学習防止ツール「Glaze」について【利用方法・意義】
  6. AIイラストの見分け方
  7. 各国の生成系AIへの対応・規制まとめ
  8. LoRAによる個人や作品の無断学習問題
  9. 生成AIに関する訴訟・法的対応一覧
  10. 852話
もっと見る
最近更新されたページ
  • 11日前

    生成AIは何が問題なのか?
  • 11日前

    画像生成AI・生成系AIに対する各種プラットフォーム等の反応・対応まとめ
  • 11日前

    AI画像生成・生成系AI問題年表/2025年(AI画像生成・生成系AI問題年表)
  • 19日前

    生成AIに関する訴訟・法的対応一覧
  • 19日前

    主要なAI画像生成サービス
  • 28日前

    生成AIに対するクリエイター団体・企業などの反応・対応
  • 34日前

    AI画像生成・生成系AI問題年表/2024年(AI画像生成・生成系AI問題年表)
  • 39日前

    各国の生成系AIへの対応・規制まとめ
  • 44日前

    生成AIに関する日本政府・官公庁・議員の動向
  • 59日前

    AI学習防止ツール「Glaze」について【利用方法・意義】
もっと見る
人気記事ランキング
  1. 自作品を守るためにできること
  2. 画像生成AI・生成系AIに対する各種プラットフォーム等の反応・対応まとめ
  3. 画像生成AI 炎上・論争・被害事例まとめ
  4. 主要なAI画像生成サービス
  5. AI学習防止ツール「Glaze」について【利用方法・意義】
  6. AIイラストの見分け方
  7. 各国の生成系AIへの対応・規制まとめ
  8. LoRAによる個人や作品の無断学習問題
  9. 生成AIに関する訴訟・法的対応一覧
  10. 852話
もっと見る
最近更新されたページ
  • 11日前

    生成AIは何が問題なのか?
  • 11日前

    画像生成AI・生成系AIに対する各種プラットフォーム等の反応・対応まとめ
  • 11日前

    AI画像生成・生成系AI問題年表/2025年(AI画像生成・生成系AI問題年表)
  • 19日前

    生成AIに関する訴訟・法的対応一覧
  • 19日前

    主要なAI画像生成サービス
  • 28日前

    生成AIに対するクリエイター団体・企業などの反応・対応
  • 34日前

    AI画像生成・生成系AI問題年表/2024年(AI画像生成・生成系AI問題年表)
  • 39日前

    各国の生成系AIへの対応・規制まとめ
  • 44日前

    生成AIに関する日本政府・官公庁・議員の動向
  • 59日前

    AI学習防止ツール「Glaze」について【利用方法・意義】
もっと見る
ウィキ募集バナー
新規Wikiランキング

最近作成されたWikiのアクセスランキングです。見るだけでなく加筆してみよう!

  1. R.E.P.O. 日本語解説Wiki
  2. VCR GTA3まとめウィキ
  3. ドタバタ王子くん攻略サイト
  4. ありふれた職業で世界最強 リベリオンソウル @ ウィキ
  5. 機動戦士ガンダム EXTREME VS.2 INFINITEBOOST wiki
  6. STAR WARS ジェダイ:サバイバー攻略 @ ウィキ
  7. アサシンクリードシャドウズ@ ウィキ
  8. パズル&コンクエスト(Puzzles&Conquest)攻略Wiki
  9. SYNDUALITY Echo of Ada 攻略 ウィキ
  10. ドラゴンボール Sparking! ZERO 攻略Wiki
もっと見る
人気Wikiランキング

atwikiでよく見られているWikiのランキングです。新しい情報を発見してみよう!

  1. アニヲタWiki(仮)
  2. ストグラ まとめ @ウィキ
  3. ゲームカタログ@Wiki ~名作からクソゲーまで~
  4. oblivion xbox360 Wiki
  5. 初音ミク Wiki
  6. Grand Theft Auto V(グランドセフトオート5)GTA5 & GTAオンライン 情報・攻略wiki
  7. 検索してはいけない言葉 @ ウィキ
  8. 機動戦士ガンダム バトルオペレーション2攻略Wiki 3rd Season
  9. SDガンダム ジージェネレーションクロスレイズ 攻略Wiki
  10. ときめきメモリアル大辞典
もっと見る
全体ページランキング

最近アクセスの多かったページランキングです。話題のページを見に行こう!

  1. 参加者一覧 - ストグラ まとめ @ウィキ
  2. フェルシー・ロロ - アニヲタWiki(仮)
  3. 揚げバター - アニヲタWiki(仮)
  4. anbrella(餡ブレラ) - ストグラ まとめ @ウィキ
  5. ロスサントス警察 - ストグラ まとめ @ウィキ
  6. RqteL - ストグラ まとめ @ウィキ
  7. ヴィルシーナ(ウマ娘 プリティーダービー) - アニヲタWiki(仮)
  8. 鬼レンチャン(レベル順) - 鬼レンチャンWiki
  9. BJローン - ストグラ まとめ @ウィキ
  10. NO LIMIT - ストグラ まとめ @ウィキ
もっと見る
注釈

*1 画像生成AI「Stable Diffusion」などの開発に大きな貢献を果たした超巨大データセット「LAION-5B」とは?(2022年12月14日-GIGAZINE)

*2 MetaのAIのトレーニングに使われた書籍データセット「Books3」には村上春樹やスティーブン・キングの著作も含まれている(2023年9月29日-GIGAZINE)

*3 NHKによる令和5年度予算に関する報道。

*4 メタ、グーグル、マイクロソフトら、生成AIの訓練に著作権使用料の支払い義務生じれば「技術開発が不可能」と反発(2023年9月8日-ビジネスインサイダー)

*5 “AI野沢雅子”や“AI銀河万丈”を提供へ 声優事務所・青二プロが音声AIベンチャーと提携)(2024年10月7日-ITmedia)

*6 「AIに埋め尽くされる」画像生成AIブームの影で苦悩するアーティスト(2022年9月28日-MIT Technology Review)

*7 NovelAI Diffusion V3の画像まとめ(2023年11月)

*8 例:有名な画像生成AI「Stable Diffusion」などの開発に利用されたデータセットLAION-5Bの中身を見ることの出来るサイト「Have I been trained?」など。同サイトでは申請すれば特定のデータが学習データから削除されるようになっている。(オプトアウト)

*9 実際に行っているのは、X/旧Twitter(※関連企業であるxAI社がチャットAIGrokを開発)、インスタグラム、フェイスブック、スレッズを運営するMeta(※大規模言語モデルLLaMAなどを開発)。

  • このWikiのTOPへ
  • 全ページ一覧
  • アットウィキTOP
  • 利用規約
  • プライバシーポリシー

2019 AtWiki, Inc.