atwiki-logo
  • 新規作成
    • 新規ページ作成
    • 新規ページ作成(その他)
      • このページをコピーして新規ページ作成
      • このウィキ内の別ページをコピーして新規ページ作成
      • このページの子ページを作成
    • 新規ウィキ作成
  • 編集
    • ページ編集
    • ページ編集(簡易版)
    • ページ名変更
    • メニュー非表示でページ編集
    • ページの閲覧/編集権限変更
    • ページの編集モード変更
    • このページにファイルをアップロード
    • メニューを編集
    • 右メニューを編集
  • バージョン管理
    • 最新版変更点(差分)
    • 編集履歴(バックアップ)
    • アップロードファイル履歴
    • ページ操作履歴
  • ページ一覧
    • ページ一覧
    • このウィキのタグ一覧
    • このウィキのタグ(更新順)
    • このページの全コメント一覧
    • このウィキの全コメント一覧
    • おまかせページ移動
  • RSS
    • このウィキの更新情報RSS
    • このウィキ新着ページRSS
  • ヘルプ
    • ご利用ガイド
    • Wiki初心者向けガイド(基本操作)
    • このウィキの管理者に連絡
    • 運営会社に連絡(不具合、障害など)
ページ検索 メニュー
AI画像生成・生成系AI 問題まとめwiki
  • ウィキ募集バナー
  • 目安箱バナー
  • 操作ガイド
  • 新規作成
  • 編集する
  • 全ページ一覧
  • 登録/ログイン
ページ一覧
AI画像生成・生成系AI 問題まとめwiki
  • ウィキ募集バナー
  • 目安箱バナー
  • 操作ガイド
  • 新規作成
  • 編集する
  • 全ページ一覧
  • 登録/ログイン
ページ一覧
AI画像生成・生成系AI 問題まとめwiki
ページ検索 メニュー
  • 新規作成
  • 編集する
  • 登録/ログイン
  • 管理メニュー
管理メニュー
  • 新規作成
    • 新規ページ作成
    • 新規ページ作成(その他)
      • このページをコピーして新規ページ作成
      • このウィキ内の別ページをコピーして新規ページ作成
      • このページの子ページを作成
    • 新規ウィキ作成
  • 編集
    • ページ編集
    • ページ編集(簡易版)
    • ページ名変更
    • メニュー非表示でページ編集
    • ページの閲覧/編集権限変更
    • ページの編集モード変更
    • このページにファイルをアップロード
    • メニューを編集
    • 右メニューを編集
  • バージョン管理
    • 最新版変更点(差分)
    • 編集履歴(バックアップ)
    • アップロードファイル履歴
    • ページ操作履歴
  • ページ一覧
    • このウィキの全ページ一覧
    • このウィキのタグ一覧
    • このウィキのタグ一覧(更新順)
    • このページの全コメント一覧
    • このウィキの全コメント一覧
    • おまかせページ移動
  • RSS
    • このwikiの更新情報RSS
    • このwikiの新着ページRSS
  • ヘルプ
    • ご利用ガイド
    • Wiki初心者向けガイド(基本操作)
    • このウィキの管理者に連絡
    • 運営会社に連絡する(不具合、障害など)
  • atwiki
  • AI画像生成・生成系AI 問題まとめwiki
  • 生成AIは何が問題なのか?

AI画像生成・生成系AI 問題まとめwiki

生成AIは何が問題なのか?

最終更新:2025年05月29日 18:41

burger

- view
メンバー限定 登録/ログイン
現状の生成AIが抱える問題点を総合的・包括的にまとめています。

+ 編集者の方へ
  • 生成AIに関する総合的な問題点についてまとめたページです。
  • 生成AIの問題点を出来るだけ多く、詳細に書くというコンセプトなので文字数などは気にしなくてもいいです。
  • 自由に加筆して頂いて構いません。新しい項目なども自由に作ってください。
  • 下の画像はSNS等にこのwikiのURLを貼り付けた際表示されるサムネイルとなることを想定して作った画像です。仮の画像ですので自由に差し替えて頂いて構いません。



【目次】
  • 【0. はじめに】
    • 0-1. AIとは、生成AIとは
    • 0-2. 生成AIの主な問題点
  • 【1. 生成AI開発時のデータ収集に関する問題】
    • 1-1.データ収集過程における諸問題
      • ①個人に関するデータの無断利用
      • ②ポルノコンテンツなど不適切データの利用
      • ③クリエイター・権利者が権利を有するデータの無断利用
      • 法的な扱い
    • 1-2.現状に対する解決案
      • 案1:データを利用したら対価を支払う?
      • 案2:データ収集を許諾制に&データ利用拒否制度・機能を設置する?
      • 案3:robots.txtなどのツールを利用してサイトへのクローラーのアクセスをブロックする?
      • その他
  • 【2. 偽情報・コンテンツの作成・拡散】
    • 2-1. 画像生成AIのフェイク
    • 2-2. 音声生成AIのフェイク
    • 2-3. パブリックコメントなど政策議論の場における少人数での大量投稿
  • 【3. AI製ポルノ・AI製児童ポルノ】
    • 3-1. AI製ポルノ問題
    • 3-2. AI製児童ポルノ問題
  • 【4. デジタルデータの信頼性が低下する可能性】
    • 4-1. 詐欺への使用
    • 4-2. 司法の場などにおけるデータ証拠信頼性低下の可能性
  • 【5. インターネットの汚染】
    • 5-1. 汚染の事例
    • 5-2. 汚染問題への対策
  • 【6. ハルシネーション(幻覚)問題】
    • 6-1. ハルシネーションによって引き起こされる主な問題
    • 6-2. ハルシネーションの原因
  • 【7. クリエイティブ関係における生成AIの問題点】
    • 7-1. クリエイティブ業界において生成AIが引き起こす共通の問題点
      • 1. 生成AI開発時の作品無断利用問題
      • 2. 著作権などの諸権利が死文化する可能性
      • 3. AI特有の大量生産による弊害
      • 4. コンテンツ制作においてAIが「主」人間が「従」になる事の問題点
      • 5.作風など個性を模倣したAIモデルの存在
    • 7-2. アート・イラストレーションに関する問題
    • 7-3. 写真家・写真業界に関する問題
    • 7-4. 文芸に関する問題
    • 7-5. 音楽に関する問題
    • 7-6. 俳優・声優に関する問題
    • 7-7. プログラムに関する問題
    • 7-8. 報道機関に関する問題
    • 7-9 AI生成コンテンツの著作権問題
      • 1.アメリカでの動き
      • 2.中国での動き
      • 3.日本での動き
    • 7-10 既存のコンテンツとAI生成コンテンツの見分けが難しい事に関する問題
      • 1.実際に起きている問題、今後懸念される問題
      • 2.著作権法上の課題
      • 3.ネット上におけるAI利用指摘問題(いわゆる魔女狩り問題)(編集中)
    • 7-11 クリエイター関連で提唱されている生成AI規制案
  • 【8. 学術・研究に関する問題】
    • 8-1. AI生成された偽の研究結果
    • 8-2. ハゲタカジャーナル問題の深刻化
  • 【9. 教育に関する問題】
  • 【10. 失業・働き方に関する問題】
  • 【11. 電力・環境に関する問題】
  • 【12. 脱獄・犯罪利用】
  • 【13. その他の問題点】
    • 機械学習への悪影響
  • 【14. 生成AIに関する論点】
  • 【関連ページ】

【0. はじめに】

いま世間は生成系AIの話題で持ちきりとなっています。この技術が私たちを変えてくれるのだ、人類の労働を効率化し果ては労働から解放される、より大きな繁栄へ導くのだとの言説が盛んに叫ばれています。しかしながらその陰で、まさに今現在生成AIによって精神的に追い込まれている人々もいます。

このページでは生成AIが現在引き起こしている・将来引き起こしうる問題について解説しています。

クリエイティブ関連について触れているのは、画像・テキスト・音楽・音声生成AI等においてクリエイター達が創り上げた作品たちが無断で利用されているという背景があるためです。つまりクリエイター達が創った作品を生成系AIを開発する企業や一部生成系AIユーザーが許可や対価なしに生成系AIに取り込んで利用し、人間では到底成し得ないようなスピードで量産する事でコンテンツの価値を下げ、果てはクリエイターを経済的・精神的苦境に追い込む構造が世界的に批判されているためです。

さらに、生成系AIは私たちが生きる社会の中でも大きな問題を起こしている・将来起こし得るとの批判があります。代表的なものは「偽情報の作成が簡単になった」という部分です。例えば画像生成AIでは、政治家が逮捕されている様子を表現した精巧な偽画像が作成されたり、災害時にデマを流す用途として使用されるケースが発生しています。音声生成AIでは特定人物の声を抽出した上で精巧なボイスチェンジャーとして用いられ、身内に対する詐欺用途として悪用されるといった問題が発生しています。

このような問題は昔からあったものですが、生成系AIの普及に伴ってかなり簡単に偽の情報を作成したり他人を騙す事が出来るようになったという事が決定的な違いです。偽情報によって社会を混乱させたり個人を中傷することがより簡単になってしまいました。

人類の歴史上、画期的な技術が生まれた事による文明の進歩や生活の向上は何度もありましたが、同じぐらい新技術によるリスクにも曝されてきました。技術に囲まれて暮らす私達だからこそ、技術がもたらす良い面と悪い面どちらも考えて議論していくことが大切だと考えています。


0-1. AIとは、生成AIとは

AI(Artificial Intelligence、人工知能)とは、一般的には「人の脳の働きをコンピューターなどで人工的に作り出した技術(*1)」を指す。「AI」と名乗る技術は、自動運転、画像認識、明日の天気の予想、ゲームの敵キャラクターの動きなど様々な場面で使われており、社会においてすでに広く普及している。一方で「AI」という名で社会に実装、あるいは宣伝されている技術や製品の範囲はあまりにも広いため、何が本当のAI技術であってそうでないのか、曖昧であり、明確な線引きは難しいともされる。

また、AI技術は画像認識や音声認識、自然言語処理、機械の制御など用途ごとに様々な種類のものがあるが、その中でも文章や画像、音楽などのコンテンツを出力するAI技術や製品を「生成AI(Generative AI)」と言う。

生成AIと密接に関与する技術として「コンピューターに大量のデータを読み込ませてその中にある規則性や法則性等を見つけ出す手法・技術(*2)」である、「機械学習(Machine Learning)」がある。
機械学習はAI分野の中の一分野であり、さらにはその機械学習分野をより発展させた分野として「深層学習(Deep Learning)」が存在し、現状の生成AIでは主に「機械学習」と「深層学習」の技術・手法が使われている。

▼生成AIの開発からコンテンツの生成に至るまでの大まかな流れ。

引用:文化庁[PDF]令和6年度著作権セミナー「AIと著作権Ⅱ」・第1部 生成AIと著作権・P9より
※ただし本図は、生成AIの技術的な仕組みというよりも、法律上の取り扱いについて解説するのが主である点に注意。

生成AIを出力するコンテンツ毎に分類すると、文章生成AI、画像生成AI、音楽生成AI、動画生成AI、音声生成(合成)AIなどがある。

生成AIの具体的な活用法として、文章要約、文章生成、翻訳、それに伴う企業の業務の効率化、画像・音楽・映像作品などの制作、またはその効率化などがあり、これらにおいて効果を発揮すると期待されている。

本ページは、この生成AI技術・製品のみに存在する特性、あるいは開発のあり方を原因として引き起こされる問題をまとめることを目的としている。そのため、生成AIに該当しないと考えられる他のAI技術については必要が認められた時以外に触れることはない。


0-2. 生成AIの主な問題点

生成AIの問題点といえば何があるだろうか。
特定人物の写真にAIを用いて性的な加工を行う「ディープフェイクポルノ」、AIフェイクが溢れることで写真や映像などの信ぴょう性が大きく損なわれる事、クリエイター関連の問題など様々なものがある。

つまり、問題の範囲が非常に広く、さらにはそれぞれの問題が関係しあう事も多いため問題点を簡潔に説明する事が難しい。しかし、何が問題なのか、少々強引だがそれぞれの問題をいくつかの傾向に分けることが出来る。

生成AIの問題点はおおむね以下の3つの傾向に分類可能である。
  • ①:無断利用である事による問題。(主に開発時の問題)
  • ②:誰でも簡単にある程度のクオリティを持つコンテンツが作れ、なおかつ大量生産できる事による問題。(主に利用時の問題)
  • ③:その他の問題。


まずは①の「無断利用であることによる問題」から見てみよう。この問題は主に生成AIの開発段階で発生する。

生成AIは大量のデータを収集し、集めたデータの中にある規則性を発見する過程が必要だ。
また、生成AIが生成できるコンテンツの品質やその範囲は、良くも悪くも収集したデータの量や、データの内容がどれだけ多種多様かに左右される。

このデータ収集段階において、どこからコンテンツが集められるのか。それは主にインターネットである。ネットから画像、テキスト、音楽、声、映像といったあらゆるデータが集められている。(あまりにも多くのデータが集められているため、近く2026年にはデータが枯渇するとの懸念もある。(*3)(*4))

これらのデータ収集は一部の例外を除き、基本的にコンテンツ制作者や権利所有者の許諾を取らずに行われている。

この無許諾でのデータ収集で起こる問題は、さらに「不適切なコンテンツの収集・素材化に伴う不適切なAIコンテンツの拡散」や、「作品や記事などのコンテンツを一方的に無許諾で使われた上に、競合コンテンツを大量生成されるという形でクリエイターをはじめとするコンテンツ制作者が不利益を被る構造」の二つに分けることが出来る。

例えば、画像生成AI開発のために集めたデータにポルノコンテンツが入っていれば、それに基づいてAIポルノが生成できる。反対にいえば、ポルノが無ければ生成できない。
イラストや音楽、小説など創造的なコンテンツを生成可能な生成AIでも、プロアマや実力を問わず様々なクリエイターが制作した作品データが大量に集められた上で構築されていることが多い。
出来事や知識を教えてくれるAIでも、その「元ネタ」は報道機関の記事やブログ、Wikiなどである。

また、開発時のデータ収集過程における問題は、「集めたデータの内容や量に出力できるコンテンツの種類や質も左右される」という生成AIの特性上、コンテンツの生成過程(利用段階)で起こる問題とも強く関係している。


次に、②の「誰でも簡単にある程度のクオリティを持つコンテンツが作れ、なおかつ大量生産できる事による問題」を見てみよう。この問題は主に生成AIの利用段階で発生する。

生成AIが引き起こす問題の一つとして、「ディープフェイク」がある。ディープフェイクとは、AI技術の一つであるディープラーニングを用いて作られる偽物の画像や動画、音声などを指す。ディープフェイク技術を用いて作られたコンテンツは、すでに本物か偽物か見分けが付かなくなりつつある。

以前から同様の技術は存在していたものの、生成AIが本格的に登場して誰でも簡単に使えるようになった事で、ディープフェイクに関する事件や問題も急増している。
ディープフェイクの代表例として、特定の人物の不評や誤解に繋がるようなデマ、災害や戦争でのデマ、偽ポルノの作成などがある。

ディープフェイク技術は特定の人物の顔立ちや声に似せたフェイクの作成が可能であり、作成の対象には、政治家や俳優といった有名人から一般人まで立場を問わず誰でもなり得る。
これによって、知らない所で勝手に自分の信頼を傷つけるようなフェイクや、あるいは社会を大規模に混乱させるようなフェイクが広まる事態がすでに起きている。

また、「フェイク」といえど、現行生成AIが出力できるコンテンツの範囲は広いため、様々な利用(悪用)のされ方をしている。AIで作られた偽の実験結果による科学的成果の偽装、就職活動におけるAI製の偽プロフィール、家族など親しい人の声や容姿を模したAIで行われる詐欺、政策に関する意見を国や自治体が募集するパブリックコメント制度での偽コメントの氾濫、写真や声を用いる認証システムの無効化、ネット上に低品質な偽情報が大量に拡散することによって情報を得る場所としてのインターネットが破壊されること、有名クリエイターのスタイルを再現したAIコンテンツを用いたなりすましや政治利用、AIフェイクが溢れることによるデジタルデータそのものの信頼性低下、それに伴う裁判など重要な場における混乱の可能性など、問題点の枚挙に暇がない。

このような問題点を指摘する意見に対し「以前も出来た」とする反論がある。確かに一部の問題はそうだ。しかしながら、「スキルを持った個人がある程度時間をかけなければ出来ない」のと、「誰でも簡単に出来る」のは及ぼす影響が全く異なると言っても良い。

AIフェイクを見分けられるようにすれば問題が解決すると思えるが、これも難しい。世界的に法制度の整備や判別ツールの開発も進んでいるが、これらは確実な対策とは言えない。すでに人間の目や耳などの五感でも見分けられなくなりつつある。

この他にも、人間が意図を持って作るAIフェイクではなく、生成AIの技術的仕様などを原因としてAIが嘘情報を回答してしまう「ハルシネーション」や、AI企業のセーフティーを突破して爆弾の作り方や不正なプログラムなど不適切な情報を出力させる行為「脱獄」も問題視されている。

次の項目より、それぞれの問題点を詳細に解説する。

▼生成AIの主な問題点。


+ ※2025年4月7日以前の記載
※2025年4月7日以前の記載内容。

生成AIによって引き起こされる主な問題は以下の二つに区分できます。
  • ①:生成AIの開発時に起こる問題
  • ②:生成AIの利用時に起こる問題

②の問題は、さらに以下の三つに分けることができます。
  • ③:誰でも簡単にある程度のクオリティを持つコンテンツが作り出せることによる問題
  • ④:個人が手軽に大量生産できることによる問題
  • ⑤:生成AIコンテンツとその他のコンテンツの見分けがつかないことによる問題

生成AIの様々な問題をこの①から⑤のタイプに当てはめてみましょう。

よく言われがちな「他者が作成した創作物・記事などを無断で生成AIの開発に利用している問題(いわゆる無断学習問題)」は①に、「フェイクポルノ問題」は②にあたるでしょう。また、フェイクポルノ問題の中でも「知識のない未成年の学生が同級生(主に女子)の性的コラを簡単に作成できる」ことは③に、「特定の人物の容姿を再現した画像生成AIモデルがネット上へ大量に出回っている」ことは④に該当すると考えられます。

「生成AIが自信たっぷりに間違った情報を回答する」現象、ハルシネーションについては、人間側が出力される情報を過信し裏取りが不十分であった結果起こるものなので②に該当しますが、技術の仕組みが一因として起こる現象なので同時に①であるとも言えます。
⑤の問題として、政治的、あるいは特定の人物や団体などを貶める意図で作られたAIフェイク(画像など)と思わしきコンテンツの拡散に伴う社会の混乱、芸術作品の制作・発表の場におけるクリエイターの生成AI利用疑惑(クリエイターに擬態する生成AIユーザーも含む)とそれに伴うネット炎上などが挙げられます。

インターネットにAI製のハルシネーションを含む文章や不正確な形状の画像など、粗悪なコンテンツが大量投稿されることで、検索時に正しい情報が得にくくなる問題については、②③④⑤が当てはまります。

このように生成AIの問題は単純なものではなく、あらゆる原因・結果・要素が絡み合った複雑な構成となっています。

生成AIはまた、「生成AI登場前にも存在していた問題ではあるが、作成に手間がかかったり、作成の前にスキル習得が必須であったり、全体的に生産量が少なかったため対処可能だった問題」を、「手軽に扱えること、大量生産が容易であること、本物と見分けが付きにくいコンテンツが作成できるといった生成AIの特性によって、問題への対処が難しくなるか最悪不可能となる」といった要素も持っています。

次の項目より、生成AIの問題点について詳細に解説します。

【1. 生成AI開発時のデータ収集に関する問題】

生成AIを開発する際には、テキスト、画像といったデータが大量に必要となる。
大量のデータを集める際に利用される方法として、インターネット上のウェブサイトをウェブクローラーで巡回し、データや情報を取得(複製)する方式(スクレイピング)を用いられる事が多い。そして、収集したデータを元に機械学習のための処理を行った「データセット(Dataset)」を作成し生成AI開発に利用する。また、(機械学習への利用や権利者の意思とは関係なく)あらかじめ収集され、ウェブサイト上に公開されたデータ群をデータセットとして利用することもある。

収集されるのは、報道機関の記事やブログといった「情報」、論文といった「学術・研究」、イラスト、写真家の撮影した写真、音楽、小説、声優の声、3Dモデル、映像作品・動画といった「創作物」、メールアドレスや個人の顔写真といった「個人データ」など非常に広範囲である。
大げさかもしれないが「デジタルデータ化できるあらゆるコンテンツ」が収集されている、あるいは収集されうると考えるぐらいがちょうどいいのかもしれない。

このデータ無断利用の問題は主に、「①顔写真、医療記録など個人に関するデータの無断利用」、「②ポルノコンテンツなど不適切データの利用」、「③クリエイター・権利者が権利を有するデータの無断利用」に分けられる。

また、このデータの無断収集・利用行為は、俗に「無断学習」という名称で呼ばれることもある。

1-1.データ収集過程における諸問題

①個人に関するデータの無断利用

データ収集過程において、個人がアップロードした写真などといった個人データが生成AI開発に利用されている。
これらのデータはインターネットから無差別に収集する事が一般的だが、一方でSNSにおいてSNS運営とAI開発を同時に行っている企業が自社SNSに投稿された自撮りなどの写真や文章といったデータを利用しているケースもある。(X/旧Twitter(*5)やInstagram、Facebook(*6)など。当Wiki「強制オプトイン」の項目も参照)

SNSに自身の顔などをはじめとする写真や文章といった個人にまつわる情報を投稿している人は当然、生成AIの開発に使われることをあらかじめ想定し承認していた訳ではなく、中には無断で素材にされることへの不快感を持つ人もいるだろう。

ChatGPT(米AI企業OpenAIが開発)をはじめとする、テキスト系の生成AIにおいて学習データとして利用した個人情報を抜き出せたとの報告が上がっている。2023年12月には、ChatGPTのセキュリティを破り、学習データとして使われた氏名、電話番号、住所などの個人情報を抽出する事に成功したと研究者が発表。(*7)また、ChatGPTに少し手を加える事で通常の操作では手に入れることが出来ない個人のメールアドレス(※公開されているもの)を取得できたとの報告もある。(*8)

画像生成AIにおいても、データセット内に個人の医療記録が見つかったとする指摘がある。(*9)

この個人データを生成AI開発に無断で利用している事(またはその疑惑に対し)、各国機関による指導や個人による訴訟も起きている。

2023年3月、イタリアの個人データ保護当局(GPDP)が、OpenAIに対し学習データにオンラインで共有されている個人情報が含まれていると指摘、EUの個人情報の取扱いに関する規制「一般データ保護規則(GDPR)」に違反したとして同国内でのサービス提供を一時中止するよう命じた。(*10)これを受けOpenAIは個人情報削除プラットフォームを設けるなどの対策を実施し4月末にサービス提供を再開。しかし、GDPR違反の疑惑に基づく捜査は継続しており、2024年1月にイタリアはGDPR違反を通知した。(*11)また、イタリアは2025年1月に中国のAIモデルDeepseekに対しても、個人データ収集の目的やAI学習データの内容が不透明な事などを理由としてデータ処理を制限し調査を開始すると明らかにした。(*12)

ヨーロッパ諸国は、SNSを運営する企業であるMetaやX(旧Twitter)に対しても指導を行っている。先述したように、生成AI開発を行っている企業の中には同時にSNSの運営も行っている場合もあり、SNSに投稿されたコンテンツを生成AIの学習データとして用いるとの規約改定を行う企業も存在する。これが問題視されることとなった。

Metaは2024年5月にプライバシーポリシーを更新し、Metaが運営するSNS(フェイスブック、インスタグラム、スレッズ等)に投稿されたデータをAIの学習データに利用すると発表。この発表に対し、アイルランドやイギリスのデータ保護機関などがユーザーのコンテンツを利用する事について一時停止するよう求めた。Metaは「ヨーロッパでのイノベーションやAI開発競争、人々へAIの恩恵をもたらすことの更なる遅れにつながる」と批判しつつも、ヨーロッパにおける計画を中止した。 (*13)

X(旧Twitter)でも同様に問題が指摘された。Xは、現オーナーであるイーロン・マスク氏が所有するAI開発企業xAIが開発した生成AIチャット「Grok」を搭載しているが、これと関連して2023年8月にユーザーが投稿したデータを生成AIの学習に使うと明確化する規約改定を行っていた。これらの動きに対しアイルランドデータ保護委員会は、アプリ内で学習データとしての拒否設定をデフォルトでオンにしていたことや拒否設定の提供が迅速でなかったことなどを挙げ、ユーザーデータの無許諾利用はGDPR違反であると指摘した。これに対しXは「X社がデータの透明性について努力しているのに対し、多くの企業はプライバシーを考慮せず公開情報を使っている。委員会が求めた命令は不当だ。」と抗議しながらも、2024年8月にEU内における個人データを利用するAIのトレーニング停止に合意した。(*14)(*15)

ヨーロッパ圏以外でも生成AIトレーニングにおける個人データの無断利用は問題視されている。ブラジルでは、先述したMetaが運営するSNSのユーザー投稿データをAIのトレーニングに利用するという2024年6月の発表に対し、同国のデータ保護機関ANPDが利用の停止を求めた(*16)。オーストラリアでも、2024年9月に行われた議会の公聴会で、2007年以降にMeta運営のSNSへ投稿されたユーザーデータを利用していることが同社の担当者への質問で判明している。(ただしオーストラリアにはEUのような強力な個人情報保護の法律がないため対応が難しいとされている)(*17)

生成AIトレーニングへ個人データを利用する事は、国家機関のみならず個人レベルでも問題視されており、関連する訴訟がいくつか起きている。
アメリカでは、2023年6月に個人情報を同意なく取得しておりプライバシー法に違反しているとして、OpenAIが匿名の個人複数人から提訴された(*18)(*19)。2025年1月には、米ビジネス向けSNS「LinkedIn」の運営を被告として、同社が無断でプライベートな電子メールの一部を複数の第三者に開示したのは違法であるとして、LinkedInのユーザーが訴訟を提起した。これに対しLinkedInは、「根拠のない主張だ」と争う姿勢を見せている。(*20)

生成AIのトレーニングにユーザーデータを無断で利用する事に対しての批判がある中で、AI開発促進などを意図してむしろ個人情報を利用しやすくしようとの動きもある。

日本では、2025年2月頃から個人情報保護委員会によってAI開発を含む統計作成の用途においてのみ「要配慮個人情報」と規定されている人種・信条などの情報の利用を原則本人同意を求めなくても良い方向で法改正を進めている。この背景にはAI開発用途に取得した膨大なデータの中から個人情報を探し出し削除するのは現実的ではないとの声が事業者から上がっているためだという。違反した場合には課徴金を科す予定。(*21)(*22)


▼有名な画像生成AI「Stable Diffusion」などで利用されたデータセット「LAION-5B」内のデータを見ることの出来るサイトである「Have I been trained?」で「family Selfie(家族 自撮り)」と検索した結果。フリー素材と思わしきものもあるが、明らかに個人が撮影したように見える写真も多い。顔へのモザイクは当Wiki編集者が追加。


②ポルノコンテンツなど不適切データの利用

そして、特に画像生成AI開発用などに用いられるデータセットに関してポルノ画像、児童の画像(*23)や遺体画像といった不適切なデータが収集されたケースもあり、これも問題視されている。何が問題か、それは不適切なデータを開発に利用する過程を経てリリースされた生成AIは、不適切な要素を持つAI生成コンテンツを出力可能であることだ。例えば、開発時にポルノコンテンツを利用した場合は、AI製のポルノコンテンツが出力可能となる。さらに、特定人物やキャラクターの出力を目的としたLoRA技術などを用いれば実在人物に容姿を寄せたAIポルノ画像、実際の写真の一部を性的に加工したいわゆる剥ぎコラなどいったコンテンツが比較的簡単に作成可能なことが確認されており、生成AIを悪用した被害に拍車がかかっている。

具体的なケースとして、有名な画像生成AI「Stable Diffusion」などの開発に利用されたデータセットである「LAION-5B(独AI非営利団体LAIONが構築)(*24)(*25)」では、Stable Diffusionのリリース後にスタンフォード大学の研究によってCSAM(児童性的虐待コンテンツ、いわゆる児童ポルノ)が発見され(*26)(*27)、それらCSAMなど不適切なデータを取り除いたデータセット「Re-LAION5B」が公開される(*28)こととなった事件などが挙げられる。

例として挙げたLAION-5Bの他にも様々なデータセットが存在しているものの、データセット構築の際利用したテキスト、画像などといったデータが公開されているケースは少なく、自身が作成したデータが利用されていたとしても外からの確認が困難な事が問題視されている。

もちろん、不適切なAIコンテンツの出力を防止すべくAI企業側も入力できるプロンプトの種類を制限するなどといった対策を行っているが、「脱獄」と言う企業側の対策の裏をつこうとする行為が絶えない。この現状に対し、そもそもAI企業側がデータセットから不適切なデータを出来るだけ取り除く努力をすべきではなかったのかという指摘もある。

③クリエイター・権利者が権利を有するデータの無断利用

さらには個人データだけではなく、クリエイターの作品を生成AI開発のために無断で収集していることも問題となっている。

クリエイター関連では記事、小説、イラスト、写真、音楽、声など、クリエイターが製作した作品のデータを無断収集する過程があった、またはあったとされる生成AI製品やその開発企業に対しての反発が高まっている。また、これらのデータ収集に海賊版サイトや無断転載サイトが利用されていることも批判されている。

海賊版や無断転載サイトの利用例として、先述のStable Diffusionをベースに美少女・アニメ系AIイラストの出力に特化させた画像生成AIモデル「NovelAI」が無断転載サイトである「danbooru」を利用していた(*29)こと、米Meta(旧Facebook)が開発した大規模言語モデル「LLaMA」において、海賊版書籍などを含むデータセット「LibGen」を利用していたことが作家らとの裁判で判明した(*30)ことなどが挙げられる。

この構造に対し、クリエイターサイドからは「AI企業は作品データを同意なく無断収集した上で生成AIを開発、そのAIから出力されたコンテンツが作品データを使われたクリエイターらと市場競合し、クリエイター側は経済的苦境に追い込まれる」という批判が大きく、「AI企業からクリエイターなどへの一方的な搾取構造だ」と指摘されることもある。

一方で、生成AIを開発するAI企業の中には「人々が楽しめる新しいコンテンツを大量提供しクリエイターにお金を払わなくてもよくなる」(*31)事を開発の目的であると示す企業もいるため、(クリエイターの作品等を生成AI開発に無断利用しているという構造を鑑みれば)目的の根本的部分からクリエイター側と対立することを避けるのは難しい構造である。

この構造を批判する意見や声明などが国内外を問わずクリエイター個人や業界団体などから多く出ており、海外ではAI企業との訴訟に発展したり、生成AIを利用したい雇用主と労働者の間でストライキが起こる事態にもなっている。

一例として、2023年にアメリカの脚本家団体である全米脚本家組合(WGA)と俳優・声優団体である全米映画俳優連合(SAG-AFTRA)がAI利用のルール整備や報酬などを巡り合同でストライキを起こしたり(*32)(*33)、米紙ニューヨーク・タイムズがChatGPTの開発会社であるOpenAIに対し生成AI開発への記事の無断利用を主張し訴訟を提起したケース(*34)やユニバーサル・ミュージックなど米国の音楽レーベルが音楽生成AI開発企業に対し同様に音楽の生成AI開発へ無断利用したのではないかと主張し同様に提訴したケース(*35)が挙げられる。

国内でも音楽著作権管理団体である日本音楽著作権協会(JASRAC)(*36)やメディア団体である日本新聞協会(*37)などといった様々な団体・企業などが生成AI開発の現状に懸念を示す声明を出している。

  • ⇒団体の声明などは「生成AIに対するクリエイター団体・企業などの反応・対応」へ。
  • ⇒権利者とAI企業の裁判は「生成AIに関する訴訟・法的対応一覧」へ。

法的な扱い

生成AIの開発時に著作物を無断利用することについて、法的にはどうなっているのだろうか。

日本国内においては、著作権法の2009年改正で新設された「著作権法旧47条の7」を置き換える形で2018年に改正された「著作権法30条の4」が「当該著作物に表現された思想又は感情を自ら享受し又は他人に享受させることを目的としない場合」に当てはまり、「当該著作物の種類及び用途並びに当該利用の態様に照らし著作権者の利益を不当に害することとなる場合」に当てはまらないのであれば「AI開発に著作物を無断利用してもよい」根拠とされている。
しかし、2022年ごろから生成AIの無秩序な開発・公開によってクリエイターや権利者が一方的に損害を受ける状況となったことで、「現状と合っていない」として同法の改正もしくは解釈変更をすべきとの主張が国内の権利者団体やクリエイターなどから為されている。(*38)

OpenAIやGoogleなど、世界的IT企業の拠点であり生成AI開発も盛んなアメリカでは、生成AI開発時の著作物の無断利用が、アメリカ著作権法に定められたルールであり一定の条件下であれば著作物の無断利用を可能とする「フェアユース(Fair Use)」にあたるのかが争点となっている。同国において多数提起されている権利者を原告としAI企業を被告とする著作権訴訟でもよく取り上げられている。

▲ページトップへ


1-2.現状に対する解決案

これらデータ収集段階に関する問題の解決方法として「データ利用料の支払い」「データ利用を許諾制にしたり拒否できる制度・機能の設置」などといった案が提唱されている。
しかし、これらの案も様々な問題があるため実現にはほど遠い。
⇒「クリエイター関連で提唱されている生成AI規制案」も参照。

案1:データを利用したら対価を支払う?

まず、「利用データに対して対価を支払う」という案だが、これには「基盤モデルへ利用したデータへの還元」と「特化モデルへ利用したデータへの還元」の二つが提唱されている。

基盤モデルとは大量のデータを集めた上で構築されたAIモデルの事を指し、特化モデルとはその基盤モデルへ特定の傾向を持ったデータ群を追加してその傾向に関するAI生成物を出力させることに特化したモデルの事を指す。特化モデルの一種とされるのがLoRAである。

しかし、これらに対して提案されている還元案には様々な問題が指摘されている。

  • 基盤モデルで利用したデータへの対価還元
一番の問題点として挙げられるのは、生成AI開発のために利用しなければならないデータがあまりに多すぎるという点だ。

有名な画像生成AI「Stable Diffusion」などで利用されているデータセット「LAION-5B」はなんと約58億もの画像とテキストのペアを含んでおり、Instagramの運営などで知られるIT企業Metaが開発した大規模言語モデル「LLaMA」でも利用されているデータセット「Books3」は約19万冊もの書籍から構成されている。(*39)(*40)

そのため、還元するとしても天文学的な額になると考えられており、現実性が高い案とは言いにくい。

なら生成AIに利用するデータの数を減らせばいいのではないかと思えるが、開発時に利用したデータの数や質、多様性に生成AIが出力したコンテンツの質も依存する度合いが高いとされているため、これも難しい。

さらに、還元をすると仮定した場合その主体として真っ先に想定されるAI開発企業も「技術開発が出来なくなる」などとして還元には積極的ではない。(*41)。しかしながら、ChatGPTの開発企業であるOpenAIが欧米諸国のメディアに記事利用料の支払いを行うなど、少ないながら還元の動きもある。(*42)
これとは違う方向性として、生成AI開発用コンテンツを作成する業務を高学歴ギグワーカーなどに委託する「ネットにあるデータを無断で使うのではなく、専門知識を持つ者などにデータ作成を依頼する」ケースも見られている。(*43)
一方で、生成AI開発企業から画像データの購入を提案されたが、1枚数十円程度と極端に安い額を提示されたとの事例も存在する。(*44)

  • 特化モデルに対する対価還元
生成AIモデルには上記のような大量のデータを集めた上で構築される「基盤モデル」のほかに、特定の傾向を持った少量のデータを基盤モデルに取り込んで追加でAI学習を行い、その特定のデータに関するコンテンツなどを出力させる「ファインチューニング(*45)」を行った「特化モデル(LoRAなど)」がある。この二つはゲームソフト本体とmodの関係などで例えられることがある。

特化モデルは、クリエイターと生成AIの文脈において、特定の人物やキャラクター、イラストレーターの画風といった個々のクリエイターが持つ個性を模倣し、出来るだけそれに近い要素を持ったAIコンテンツを出力させる際に利用される。クリエイター側からは特に後者である「特定のクリエイターの個性を模倣した特化モデル」が問題視されている。

この個性を模倣した特化モデルについてクリエイターへの還元を行おうとの提案があり、これは基盤モデルへの還元よりは現実性が高いとみられている。これを行うメリットとしては、「正規版を販売する事で現在流通している海賊版特化モデルを駆逐する事ができる」「不正競争防止法などで処罰できる可能性がある」などとされる。国内では漫画家で国会議員を務める赤松健氏が特化モデルに基づく還元を提唱したほか、声優においても自身の声をコピーしたAIモデルを販売する動きもある。

ただし、これにも問題が指摘されており「特化モデルとはいえ、クリエイター本人との市場競合の可能性なども考慮すれば、それなりに大きな額が必要になると考えられるため、AI企業側の支払い能力に疑問が残る」「関連する法整備なども同時に行わなければ海賊版の駆逐のような想定した効果が得られないのではないか」といった点だ。(提案されている規制案、学習データとなった作品の作者に対価を の項目も参照)

また、「基盤モデル」と呼ばれる物でも、特定のクリエイターの作風などを真似た生成物を出力可能な場合もあるため、「基盤モデル」と「特化モデル(追加学習/LoRA)」を分ける意味は実質的に無いのではないかとする指摘もある。(*46)(*47)

案2:データ収集を許諾制に&データ利用拒否制度・機能を設置する?

次に、「データ利用を許諾制にしたり、拒否制度・機能を設置する」案だが、生成AI関連では前者が「オプトイン」後者が「オプトアウト」と称されている。

「オプトイン」とは、「作成者・権利者から許諾を得たデータのみを生成AI開発に利用でき、利用を拒否しているデータや許諾について何らかの表明を行っていないデータは利用不可」という形態のことである。

これは権利者側にとって有利な方式であり、クリエイター団体が会員のクリエイターらに向けて行ったアンケートでも90%以上が支持している。(*48)(より正確に言えば「利用許諾を取ったデータのみで生成AI開発をすべきか」という質問への賛成数。)
一方で、AI開発側からすれば利用できるデータが減ったり、許諾を得る手間などがかかったり、利用可能なデータの減少によるAI生成コンテンツの質低下などのデメリットがある。

反対に「オプトアウト」とは「基本的に無許諾でインターネット上のデータを生成AI開発に利用可能だが、利用を拒否したデータのみは不可」という方式である。

これは拒否されたデータ以外は使用してもいいという方式なので、相対的にAI開発側が有利である。
そして「拒否意思を示せば利用されない」という特性上、権利者側にとっても利益があるようなシステムに一見見えるが「何をもってしてオプトアウトが成立したといえるのかの不確実さ」「オプトアウトシステムの存在が多くの人に対して伝わらないのではないか」「オプトアウトがどのような方式を取られるかによっては、権利者側の負担が大きくなるのではないか。特に個人クリエイターなどへの負担が重たくなるのではないか」などといった複数の問題が指摘されている。(提案されている規制案、オプトアウトの項目を参照)

EUなど一部の国と地域では、データ利用拒否の手段としてオプトアウトを選択しようとしているが、もし今後オプトアウトが世界的主流になるのであればどのような形式になるのかが権利者、AI企業双方にとって重要だろう。

案3:robots.txtなどのツールを利用してサイトへのクローラーのアクセスをブロックする?

より現実的なデータ利用拒否の方法として「robots.txt」の存在がある。

インターネット上のウェブサイトから自動的にテキストや画像などのデータを集めるボットとしてウェブクローラーがある。また、その技術のことや集めることをクローリングまたはスクレイピングと呼ぶ。この技術は検索エンジンにおいて欠かせない技術とされる一方、生成AI開発用のデータ集めにも使われている。
robots.txtは、そのウェブクローラーのアクセスをウェブサイト側がどの程度受け入れるか選択することができる技術である。

報道機関のサイトを中心に、robots.txtなどを用い生成AI開発用ウェブクローラーのアクセスを拒否する措置を行うサイトが多く見られており、生成AI登場後にデータアクセス制限を行うウェブサイトが急増したとの調査もある。(*49)

robots.txtなどクローラーのアクセスを拒否するツールの活用については、日本国内の政府有識者会議でも問題の解決手段として推奨される(*50)など、権利者とAI企業間の「紳士協定」に出来ないかと期待する声がある。
しかし、AI企業がサイト側によって設定されたrobots.txtを迂回しアクセス拒否されたクローラーとは別のクローラーを用いデータ取得を試みたことが報道されるなど、robots.txtを用いてクローラーをブロックするという手段は機能していると言い難いのが実情だ。

具体的な事例として、米Anthropicが別のクローラーを利用しておりデータ収集を回避出来ていないと指摘されたケース(*51)、米Perplexityがクローラーをブロックしているサイトのrobots.txtを無視しアクセスしていたケース(*52)などが挙げられる。

robots.txtと同様にクローラーのアクセスを抑止する事を目的としたツールとして、米インターネットセキュリティ企業Cloudflareが発表した「AI Labyrinth」が存在する。AI LabyrinthはAI生成された偽のページにクローラーを誘導し、時間とリソースを消費させるというものであり、robots.txtとは毛色が異なる技術である。(*53)(*54)また、個人のプログラマーが開発した同様のツールとして「Nepenthes」がある。(*55)

その他

上記の案の他にも、様々な解決案が出されている。

技術的な解決方法として、人間が作成したデータを利用するのではなくAIが生成した「合成データ」を利用する案(*56)、AIモデルの中から特定のデータを削除するマシン・アンラーニング技術(*57)(*58)などもあるが、いずれも確実なものとはなっていない。

作品の発表場所にネットを用いず、例えば紙の本のようなアナログな手段にすべきという意見もある。しかしながら、ネットでの広報活動の重要性からクリエイターが離れる決断をするのは現実的には難しい事や、アナログな手段を使い作品を発表したとしても第三者が勝手にデジタルデータ化してネットへアップロードし、それをAIクローラーが拾ってしまえば何の意味もない。

その他にもクリエイターとAI開発企業がどのような方法で決着するか、様々な案が出されているが、現状の生成AIの構造やAI開発側とクリエイターのそれぞれの考え方の違いや利益・負担などを原因として一向に進んでいないのが現状だ。

特に画像生成AIなどでは、クリエイターの作品だけではなく一般人がインターネットに上げた自撮り写真といった個人のデータも含まれるため、これについても還元をするのか?データを利用拒否できるようにするのか?そもそも無断で使っても問題ないのか?といった論点も残されている。
⇒クリエイター関連で提案されている規制案などについては「クリエイター関連で提唱されている生成AI規制案」へ。

▲ページトップへ


【2. 偽情報・コンテンツの作成・拡散】

生成AIは、デマ情報等の作成にも利用されている。デマ情報の作成において、既に何度か生成AI(特に画像生成AI)によって作られたデマが作成・拡散される事例が発生するなど事態は深刻化しつつある。また、パブリックコメントといった政策に対する意見の場において、特定の思想などに偏った意見が少人数によって大量に送られるなどの事態も起きており、議論の場が機能しなくなる可能性も指摘されている。

なお、本項目は「人間が意図的に悪意を持って生成AIを利用したケース」のみをまとめている。人間の悪意こそないが生成AIの技術的特性などを原因として起こる「ハルシネーション(生成AIが自信たっぷりに間違った回答をする問題)」とそれに関する問題は「6. ハルシネーション(幻覚)問題」へ。

2-1. 画像生成AIのフェイク

生成AIが本格的に普及する前は、誰かが撮影しインターネット上にアップロードした写真などを用い、(コラージュなどの工程も経て)元写真が撮られたときの実際の状況とは違うキャプションなどを付けネットに放流する、というのがデマ作成の方法として一般的なものであったと思われる。

しかしながら、画像生成AIは基本的には既存の画像とは見た目上異なる画像を出力するため、以前のようにブラウザの画像検索機能を用いたり人間の記憶を辿ったりする等で元画像のありかを探してデマであることを証明する、という行為が著しく困難になる。しかも、画像生成AIの精度は日進月歩で進化しているため、以前は画像生成AI製画像の大きな弱点として指摘されていた手や指の形状の不自然さも克服されるなど、だんだん人間の目ではAI製フェイク画像を見抜くことが難しくなっている。

画像生成AI普及以前において精巧なコラージュ画像を作るには高度な画像編集技術が必要であったが、画像生成AIは技術の無い人でもAIに作って欲しい画像についてプロンプト(リクエスト文)を打つだけで誰でも精巧なフェイク画像を作ることが出来る点にも留意しなければならない。さらに音声や動画生成系のAIも日々発達しており、音声や動画系の情報にも警戒する必要がある。

この状況に対しアメリカや欧州の政府は生成AIを提供する企業などに対し対策を求めるなど、政治レベルでの動きを活発化させているがまだまだ道半ばである。

【画像生成AIを用いたデマの代表例】
  • 2022年9月:静岡県などを襲った台風15号による災害が起きた際に作成・拡散された。あるツイッター(X)ユーザーが画像生成AIを用いて街全体が浸水している様子を空から取った画像を作成。これを「ドローンで撮影された静岡県の水害の様子」との内容のキャプションを付け投稿した。
    ・静岡県の水害巡りフェイク画像が拡散 画像生成AIを利用 投稿者はデマと認めるも「ざまあw」と開き直り(2022年9月26日-ITmedia)
  • 2023年3月:画像生成AIサービスMidjourneyのユーザーが作成した「アメリカの前大統領ドナルド・トランプ氏が警察官に連行されるフェイク画像」が投稿、Midjourney運営は当該ユーザーを利用禁止処分とした。
    ・画像生成AI「Midjourney V5」を利用して偽の「トランプ前大統領が逮捕された」画像を生成した人物が利用禁止処分を受ける(2023年3月23日-GIGAZINE)
  • 2023年5月:「ペンタゴン付近で爆発が起きた」との内容のフェイク画像が作成、拡散された。この画像は有名メディアの公式ツイッターを装った偽アカウントで投稿されるという巧妙さであった。幸いすぐにフェイク画像であると広まった為大きな被害はなかったものの、アメリカの株式市場において売り注文が殺到するという事態が発生した。
    ・AIが生成したペンタゴン爆破の偽画像で米株式市場が大荒れするまで(2023年5月26日-GIZMODO)

2-2. 音声生成AIのフェイク

【音声生成AIを用いたデマ・出来事の代表例】
  • 2023年1月:ElevenLabsがβ版として無料公開した音声生成AIにより、著名人らの偽音声の作成が相次いだ。
    ・新たなAI音声生成ツール、公開直後から著名人の声でヘイトスピーチや不適切発言させるディープフェイクボイスが横行(2023年2月1日-TechnoEdge)
  • 2023年2月:ニュースサイトのライター・ジョセフ・コックス氏が、無料で使える音声AI(ElevenLabs)を使って自分の銀行口座にアクセスできたことを報告。
    ・無料で使えるAIが生成した声で銀行口座への侵入に成功したとの報告(2023年2月24日-GIGAZINE)
  • 2023年5月:マカフィー株式会社、日本を含む世界7ヵ国を対象にしたオンライン音声詐欺に関する調査報告「The Artificial Imposter」を発表。
    ・AI(人工知能)を悪用した音声詐欺が世界で増加中(2023年5月17日-PR TIMES)
  • 2024年2月:生成AIにより作成されたとみられる「ジョー・バイデン大統領の声で予備選に投票しないよう呼びかける自動音声電話」が約5000~2万5000件発信され、発信元として特定された企業・プロバイダーに対し刑事捜査通告がなされた。
    ・AI製「偽バイデン」の電話、発信元はテキサス州企業 犯罪として捜査(2024年2月8日-Forbes)
▲ページトップへ

2-3. パブリックコメントなど政策議論の場における少人数での大量投稿

政府が行おうとしている政策や立法などについて、国民が意見を送付できる制度として「パブリックコメント(パブコメ)」がある。パブコメにおいて、テキストを生成するAI(ChatGPT等)を悪用し特定の方向に偏った意見を大量投稿するという事案が発生。この事によって、政策議論の場が機能不全となったり、職員の負担増などの問題が起きると考えられる。

【パブコメにおいて生成AIが悪用された事例】
  • 2025年2月:経済産業省が募集したエネルギー基本計画のパブリックコメントへ、生成AIを利用したとみられるコメントが投稿される。AIで作成されたコメントは全体の1割ほどとみられ、10件以上投稿した46人だけで計3940件の意見を送付していた。一人の最大投稿数は457件にものぼる。この基本計画は原発の活用を最大限進めるもので、AI作成のコメントは大半が反原発関連のものであった。
    ・AI利用で4千件投稿か エネルギー基本計画の意見公募 46人で全体の1割、反原発大半 (2025年2月20日:産経新聞)
    ・大半は反原発…生成AI使い46人が3940件の“パブリックコメント”を政府に大量投稿 原発“最大限活用”打ち出したエネルギー基本計画(2025年2月20日:FNNプライムオンライン)
  • 2025年3月:仙台市が募集した宿泊税に関するパブリックコメントにおいて、投稿された420件のうち2割にあたる約80件がAIで作成したものであると判明したケース。
    AI作成の大量投稿に苦慮(2025年3月11日:新潟日報)

▲ページトップへ


【3. AI製ポルノ・AI製児童ポルノ】

生成AIは、ポルノや児童ポルノの作成にも利用される。この項目では画像生成AIで作成されたポルノ、特に写真風のリアリスティックなAI製ポルノをメインに記述する。

3-1. AI製ポルノ問題

2023年現在、生成AI(特に画像生成AI)で作られたポルノが大量に作られ、インターネット上にアップロードされている。それらの中には有名人(特に女優・女性アイドルなど)の容姿を模したものも出回るなど(当然無許可)、状況は深刻化している。有名人か一般人か、ネットに自撮り写真をアップしているかしていないかにかかわらず、この問題に巻き込まれる可能性がある事に注意しなければならない。

まず、画像生成AIを用いたポルノは主に以下の3つの種類に分けられる。
  • 1.有名人・一般人を問わず特定人物の顔立ちへ意図的に寄せたもの
  • 2.既存の写真の一部を生成AIを用い性的に加工したもの
  • 3.特定人物の顔立ちなどには意図的に寄せていない、ただプロンプトなどを打ってポン出ししたもの
1は、ネット上に顔出し写真をアップしているだけでも他人が勝手に自分の顔立ちに寄せた偽ポルノを作ることが出来てしまい、そのクオリティによっては偽ポルノであると証明する事も困難になり、社会的・精神的なリスクが付きまとう。2についても同様で、1に比べれば元写真が存在する分まだ偽物である事の証明はしやすいものの、同様のリスクが残る。3については自分の顔が写った写真がデータセット(※画像などの大量のデータを一つにまとめたもの)内に入っていれば、偶然自分に近い顔立ちの人が描写されたAI生成物が出てくるかもしれない。

では、なぜこのような状況になったのか?その根本的な問題は一つの企業にある。2022年後半、Stability AIという英国の生成AI開発スタートアップ企業が「Stable Diffusion(ステーブル・ディフュージョン・以下SD)」という画像生成AIをリリースした。SDはドイツのAI関連非営利団体LAIONが作成した「LAION-5B」と呼ばれる約58億枚の画像データが入った画像データセットを用いて開発されたが、LAION-5Bはポルノや児童ポルノ、暴力的な画像、個人情報に関連する画像など倫理的に問題のあるデータを排除する取り組みが不十分なままであり、SDにもそれらが反映されることとなった。しかもSDはオープンソースでリリースされたため、SDをベースとした派生の画像生成AIサービスが世界中で多く存在している。

SDリリース時の倫理チェック体制の甘さのみならず、問題を深刻化している要素はもう一つある。ネット上のいち個人が作成したLoRAなどの追加学習モデルだ。これらはSDで動く。SDと追加学習モデルの関係性は例えるなら、テレビゲームにおけるゲームソフトとDLC(ダウンロードコンテンツ)やModの関係性に近い。つまり元々のモデルに特定の要素を追加し、より希望に近い画像を出力させるのである。特にLoRAは、有名人の写真を無断でAI学習させ、それらがインターネット上の共有サイトにおいて多数にダウンロードされるという事態が現在進行形で発生しており、問題視されている。

これらの問題は、Stability AIが偽ポルノ画像・フェイク画像天国となる可能性があったにも関わらず、不適切なデータの精査・除去なしにオープンソースでリリースしてしまったことに起因している。反対に、Photoshopを代表するクリエイティブツールの開発で知られるAdobe社が開発した画像生成AI「Firefly(ファイアフライ)」では、オープンソースにしてネットに放流するような事はせずあくまで既存のAdobe製ソフトに組み込む形でリリースされ、不適切なデータは開発段階である程度除去され、フェイク画像などが作れない様プロンプト(リクエスト文)には単語の制限をかけるなど、画像生成AIを不適切な形で使われない様一定の配慮が為されている。

なお、Stability AIは不適切なデータを排除した「Stable Diffusion 2.0(SD 2.0)」をリリースしているが、SDはWebサービス版だけではなく個人のPCで動かせるローカル環境版も存在するため、余り現状の回復には貢献していないのではないかという主張もある。

今までの文章を読んで「有名人だけでしょ?自分は関係ないよ」と思う方もいるかもしれないが、一般人の被害も実際に起きている。現にSNSに自らの制服姿の自撮り写真を上げた若い女性に対し水着を着せる加工や妊娠しているかのように見える加工が画像生成AIで行われた事例もある。⇒この問題についてのTogetterまとめ。【実際の画像も出てくるので閲覧注意!】

これに対して「SNSに顔出しするのはリスクがあるし仕方がない」という意見を持つ人もいるかもしれないが、何も自らの意思で撮った自撮り写真だけがAI加工の対象となるわけではなく、盗撮写真であったり、一見撮影者に悪意がないように見える状況で撮影された写真においても写真データさえあれば、特定個人の顔立ちに寄せた偽ポルノ画像であったり、既存の写真を違和感が少ない状態で性的な加工をする事が容易に出来るようになってしまった。

性的な目的だけではなく、嫌がらせ目的で偽ポルノを作る可能性も当然考えられる。それらが実際に社会においてどのように悪用されるのかはすぐに想像できる。

▲ページトップへ

3-2. AI製児童ポルノ問題

生成AI(画像生成AI)で実際の児童ポルノのようなフォトリアルな画像を作ることも出来る。画像生成AIで作ったフォトリアルな非実在児童の性的画像についてはいわゆる「児童ポルノ」に当たるかなど、法的解釈が定まっていない部分もあるが、このページでは分かりやすく「AI製児童ポルノ」と表記する。

AI製児童ポルノは「基本的に出力されるのは非実在児童だが、実在児童の写真データをAI学習元として使っている。」という極めてややこしい特性を持つ(これは児童に限らず成人でも同じだが)。「いくら学習データに実在児童を使っていたとしても出力されるのは顔立ちなどが違う別人なので問題ない」という主張もあるが、画像生成AIが偶然実在人物に酷似した顔の人物を出力した事もあるため、必ずしも全てに適用できるものではないだろう。

AI製児童ポルノを肯定する人の中には「AI製児童ポルノの登場によって小児性愛者がAI製で満足し実在児童の被害が減る」という主張をする人もいるが、効果があるのかは現状定かではない。

しかしながら、AI製児童ポルノがもたらす明確な問題も存在している。それは「AI製児童ポルノが大量にネット上に氾濫する事で、実在児童が被害者となっている本物の児童ポルノの捜索に悪影響を及ぼしている」というものである。これらの問題は既に捜査機関や児童ポルノ対策団体から指摘されている。画像生成AI「Stable Diffusion」を運営するStability AIはAI製児童ポルノの作成を止めるため、トレーニングデータから問題のあるものを削除し、作成能力を低下させるなど画像生成AI開発企業もある程度の対策を行っているが、これは確実なものではない。

関連記事1⇒「英国版FBIが警鐘、生成AIによって摘発が困難になる児童ポルノの深い闇」(2023年7月22日-JBpress)
関連記事2⇒「AI-generated child sex images spawn new nightmare for the web」(2023年7月19日-ワシントンポスト)
関連記事3⇒「生成AIの児童性虐待画像を売買 日本のソーシャルメディアなどで」(2023年6月28日-BBC日本語版)

▲ページトップへ

【4. デジタルデータの信頼性が低下する可能性】

生成AI製のコンテンツが溢れることによって、電子的なデータの信頼性が崩れることも憂慮されている。

主に詐欺での使用や司法の場における証拠データの信頼性低下の可能性、疑惑のある人物が明確な証拠物が出てきたとしても「これはAIで作られたものだ」と言ってしまえば疑惑から逃れられてしまう可能性、もしくは全く無実な人が偽のAI生成物によって罪をでっち上げられてしまう可能性が問題視されている。

4-1. 詐欺への使用

詐欺については音声生成AIを悪用したものがある。それらを利用した詐欺として、「知人を偽り困窮していると嘘をつく」「被害者の連絡先に電話をかける」といった行為がある。

セキュリティソフトで知られるマカフィーが実施した音声生成AIを悪用した詐欺の被害調査では、日本、米国、英国、ドイツ、フランス、オーストラリア、インド7か国の7054人を対象として実施し、「自身、もしくは知人がAIによる音声詐欺に遭遇した事があるか?」という設問に対し、「自身が遭遇」「知人が遭遇」を選択した人は世界平均でそれぞれ10%と15%となった。中でもインドは突出して多く20%と27%という結果であった。同調査においてはAIで作られた音声を識別できるかという設問に対し、「識別できるかどうか分からない」「識別できないと思う」との回答が35%ずつで合計70%となった。この調査においては日本のAI音声詐欺の遭遇率は低かったものの、マカフィーの担当者は「日本は音声データの共有率が低くその分詐欺に遭遇する事が少なかったが、今後遭遇する可能性が高いとも受け取れる。マカフィーの調査によればわずか3秒で85%の一致率を有する音声クローンが作成可能だ。現状を認識し音声の共有には慎重になり、音声詐欺の遭遇に備える必要がある」と述べた。
⇒マカフィーによる調査結果の詳細「AI(人工知能)を悪用した音声詐欺が世界で増加中」(2023年5月27日-PRtimes)

実際にアメリカでは、娘の声をAIで再現した上で母親に電話を掛けて偽の誘拐事件をでっち上げ身代金を要求するという事件が発生している。
⇒Traumatized Ariz. mom recalls sick AI kidnapping scam in gripping testimony to Congress(2023年6月14日-Newyork post)

4-2. 司法の場などにおけるデータ証拠信頼性低下の可能性

裁判の場において提出された証拠に対し、「これはディープフェイクだ」と主張するケースが見られている。本当にやった行為であってもそれそのものの存在がやった側に取って不利になるのならば当然「ディープフェイクで作られた偽の音声(あるいは画像・動画)だ!」と主張する。

2018年に起きたテスラ車の死亡事故において、「オートパイロット機能が誤作動した」と主張した遺族側に対しテスラ側は「ドライバー側の過失だ」と抗弁した。その中で、遺族側は同社のCEOイーロン・マスクが「テスラ車は人よりも安全に走行できる」と語った音声を証拠品として提出したが、テスラ側は「マスク氏はその有名さからディープフェイクの対象になりやすく、証拠映像の信ぴょう性に疑問がある」と主張する事態が発生した。

さらに今年4月には(裁判とは関係ないが)インド・タミル・ナードゥ州の政治家に対し「横領を行っている」と告発する内容の音声が流出。その政治家は「これは機械によって生成された」ととしたものの、実際の音声であると判明。

関連記事1⇒「裁判に提出された証拠映像に対して「これはディープフェイクだ」と反論する人々が登場することを専門家が懸念」(2023年5月9日-GIGAZINE)
関連記事2⇒「生成AIによるフェイクコンテンツとの戦いは、ウォーターマークが導入されても終わらない」(2023年8月7日-WIRED)

▲ページトップへ

【5. インターネットの汚染】

生成AIで作られた不正確なコンテンツによってインターネットの情報の正確性等が失われる可能性がある。既に画像検索においては、例えば動物の名前で検索した場合に、画像生成AIで作られた不正確な形状の動物の画像が出てくるとの報告が寄せられている。

5-1. 汚染の事例

実在する動植物の画像検索結果として、最優先(サジェスト)または上位を占める数、生成AI画像が表示された実例。
いくつかのサジェスト結果は修正されたものの、生成画像そのものが根絶された訳ではないため、いたちごっこなのが現状である。
  • 【虫画像注意】「トコジラミ マクロ」で画像検索したらAI生成写真ばかりになっていて草「これはヤバい」「紙の図鑑の価値があがる」(2023年12月5日:Togetter)
  • 「これの恐ろしい所は、自分の関心ある領域ならおかしい事に気付くけど、あまり関心の無い分野であれば容易に偽物をつかまされる危険性が高い事」(2024年9月17日:x.com)
  • AIによる画像生成、私たちの想像力の汚染(2024年12月:AOKIstudio)

5-2. 汚染問題への対策

インターネットやSNS上にAI生成コンテンツが大量に溢れ、収拾がつかなくなっている現状を改善すべく、テクノロジー企業が様々な技術を開発・実装しており、一部の国や地域では法律的にも対策が進みつつある。

技術的対策としては、AI生成コンテンツに電子透かし技術を施すことや、電子透かしなどの情報に基づきAI生成コンテンツであることをSNSなどサイトで表記するといったことが挙げられる。

ChatGPTで知られるアメリカのAI企業OpenAIは、画像生成AI「DALL-E3」に、データの来歴情報の標準化を策定する団体「C2PA」に基づく来歴情報データを埋め込むと発表。(*59)

Googleは前述の標準化団体C2PAに参加し、AI生成コンテンツにAI生成であると示すデータを付与する技術「SynthID」を発表、画像生成AI「Imagen」で生成した画像やチャットボット「Gemini」のテキストなど、Googleが開発したAI製品に順次適用される。(*60)

PhotoshopやIllustratorで知られるAdobeも自社の生成AIで生成したコンテンツに対し、C2PAと同様の標準化団体である「CAI」に基づいたAI生成と分かる来歴情報データを付与するとしている。(*61)

また、英国のAI企業StabilityAIも、2022年11月に発表された画像生成AI「Stable Diffusion 2.0」よりAI画像であると分かるデータを挿入できるようにしている。(*62)

とはいえ、これらの企業はフェイク対策技術を進める一方で、同時に生成AIサービスの開発・提供を行っている所も多い。マッチポンプ
昨今のAI生成コンテンツをめぐる混乱は、テクノロジー企業同士の苛烈な開発競争や悪用対策が不十分なまま開発だけは進んだこと、慎重に実装すべきである技術にも関わらず経済的利益などを目的に踏むべき過程を飛ばしてしまったのが原因とも批判される。

さらには、生成AIが持つ「一見本物かわからないコンテンツを簡単に作り出せる」「大量生産が可能」という特性自体が、情報空間の健全化と著しく相性が悪いのではないとの意見もある。

▲ページトップへ

【6. ハルシネーション(幻覚)問題】

生成AIにおける大きな問題として「ハルシネーション(hallucination、幻覚)」がある。一般的にハルシネーションとは、「生成AIが自信たっぷりな文面で間違った情報を回答してしまうこと」を指す。

ハルシネーションは、テキストの分類、情報抽出、そして特にテキストの生成で利用されるAI技術「言語モデル、Language Model・LM)」において問題となっている。
なお、この言語モデルのデータ量、計算量、パラメータ量を大幅に強化することで、より高度な言語理解を可能としたAIモデルを「大規模言語モデル(Large Language Model・LLM)」と呼ぶ。LLMが世界的に注目され活用が進んでいることから、本項目ではLLMの話をメインとする。現在注目されているLLMとしてOpenAIのChatGPTやxAIのGrokなどが挙げられる。

6-1. ハルシネーションによって引き起こされる主な問題

大規模言語モデル(LLM)のハルシネーションによって引き起こされる主な問題点は以下。
  • ①.間違いや事実誤認が致命的となる場面において、生成AIが出力する情報を過度に信頼してしまうか鵜呑みにした結果、重大な問題を引き起こしてしまう。
  • ②.生成AIが生成した間違いを含む情報が、生成AIに対して過度な信頼を有する人々によってSNS上などで拡散され、事実のように扱われてしまう。
  • ③.AI生成されたハルシネーションを含む不正確な情報がインターネット上に大量投稿され続けた結果、情報を得る場としてのインターネットが破壊される可能性。

特に①の生成AIがハルシネーションを起こすという事実を知らないまま、もしくは生成AIに過度な信頼を抱いた上で利用・運用し、重大な結果を招いたケースについてはその事例がすでに存在している。
以下にその一例を挙げる。
  • 2022年11月~:航空会社エア・カナダが利用客向けにチャットボットを導入したが、忌引き割引について誤った情報を生成し、その内容を信じた利用客がチケットを予約したものの割引申請を拒否されたケース。エア・カナダ側は利用客から訴訟を起こされ、最終的に敗訴した。(*63)
  • 2023年5月:アメリカの弁護士が裁判において、ChatGPTが誤って生成した実在しない判例を裁判資料として持ち込んでいたケース。弁護士は最終的に制裁金5000ドルを支払う事となった。(*64)
  • 2023年10月:大阪市がLINEを通じた高齢者向けの支援事業として「大ちゃん」というチャットボットを導入するも、大阪万博について「中止になったみたいやで」と回答するなど事実とは異なる回答を連発したケース。(*65)(*66)
  • 2024年11月:福岡県の魅力や特産品などを紹介するサイト「福岡つながり応援」に書かれていた情報が、存在しない祭りや他県の施設を紹介するなどAI製の不正確な情報が多いとネット上で指摘されたケース。同サイトは2024年11月1日にサービスを開始したものの、1か月後に閉鎖された。(*67)(*68)

▲ページトップへ

6-2. ハルシネーションの原因

そもそもなぜハルシネーションが起こるのか?これは大規模言語モデル(LLM)の仕組みに起因している。

LLMの基本的な仕組みはこうである。
言語モデルは、人間が話したり書いたりする「言葉」や「文章」をもとに、単語の出現確率をモデル化する技術です。具体的には、大量のテキストデータから学習し、ある単語の後に続く単語が、どのくらいの確率で出現するのかを予測します。たとえば、「私の職業は」という文章の後に続く単語として、「医者です」「SEです」「保育士です」は確率として高いと判断し、「黄色」「海」などは低いと判断していき、言語をモデル化していきます。こうして言語モデルは、単語の出現確率を統計的に分析することで、人間の言語を理解し、予測することができるようになります。
引用元:LLM(大規模言語モデル)とは?生成AIとの違いや仕組みを解説(2024年2月29日:NECソリューションイノベータ)

つまりLLMは「ある単語の次に来る確率の高い単語を予測する技術」である。悪い言い方をしてしまうと、それっぽく言葉を継ぎ合わせているに過ぎず、単語の意味を理解した上で文章を構築しているわけではないため、「文章としては一見狂いがなくまともに読めても、書かれている情報が正しくなかったり、斜め上の回答をしてしまう」という事態が起きる。さらには、品質の悪い学習データを利用した場合についても、ハルシネーションが発生しやすくなるとされる。

そのため、「正しい情報」を求める時にLLMを利用し質問をするのは、技術の特性上あまり向いていないとも言える。LLMを使うにしても出力される情報の信頼性について別の記事・資料などを見てフェイクでないか検証したり、LLMではなく通常のネット検索や書籍などを利用するのもひとつの手だろう。

【ハルシネーションに関する記事・資料】
  • ハルシネーション(野村総合研究所)
  • 解説:生成AIのハルシネーションはなぜ起きるのか(2024年6月24日:MIT Technology Review)

▲ページトップへ

【7. クリエイティブ関係における生成AIの問題点】

クリエイティブ関係において生成AIが引き起こしている・将来引き起こし得る分野を問わない共通の問題点についてまとめています。生成AI問題について少し聞いているけど内情は分からない、なぜクリエイター界で問題視されているのかが分からない方に向けた内容です。なぜ問題視されているのか、その内容を知らない事にはそもそも賛同も反対も難しいと思います。

クリエイターの皆さまも「生成AI問題には触れたくない、知りたくない」という心情もあるかもしれませんが、クリエイティブの未来に関わる問題なのでどうかこのwikiで問題点を少しでも知っていただけますと幸いです。

7-1. クリエイティブ業界において生成AIが引き起こす共通の問題点

クリエイティブ業界において生成AIが引き起こしている問題点を➀生成AI開発時の作品無断利用問題、②著作権などの諸権利が死文化する可能性、③AI特有の大量生産による弊害、④コンテンツ制作においてAIが「主」人間が「従」になる事の問題点、⑤作風など個性を模倣したAIモデルの存在の5つに分けています。

1. 生成AI開発時の作品無断利用問題

基本的に、生成AIが高クオリティの出力物を出すには大量のデータを利用しなければならない。しかしながらパブリックドメインなど権利面での問題が無いデータだけでは足りず、十分な結果を出すことが難しいという問題がある。そのため、インターネット上にアップロードされている著作物・創作物なども利用する必要が出てくる。故に現在の生成AIのほとんどはクリエイターが制作した作品を許可も対価も得ることなく無断で利用した上で成り立っている。

生成AIに限らずAI全般の開発時、他者のデータを無断で利用する場合もあるが、それらの大半は利用したデータとは異なる結果を最終的に得る。例えば「画像認識をするAI」を開発する際には、最終的に「画像内に描写された物体を識別できるようになったAI」等を得られるのであって、写真等を利用された権利者の利益と相反する訳ではないので無断利用であっても抗議されることはほとんどないと思われる。

しかしながら生成AIでは「クリエイターの作品を無断利用した上で"作品そのもの"を最終的結果として得る」という特性がある。つまり生成AIはクリエイターたちの作品を無断利用し、その利用元作品の質・量に出力結果のクオリティも依存し、なおかつ人間の生産力を超越する大量生産が可能なので、クリエイターたちの活動する市場に大幅な悪影響をもたらす・もたらし得る構造になっている。しかも研究用としてなど利用に制限が掛けられている訳でもなく、商用用途も可能と称してインターネットに放流され現在進行形でクリエイターたちは市場を荒らされている。

2. 著作権などの諸権利が死文化する可能性

現状、多くの生成AIは開発の際利用したデータを公表していない。そのため誰の作品がどれだけ利用されたのか、開発者以外は知りえない状態となっており、さらに大半の国・地域ではデータの公表義務は存在せず公表するもしないも生成AI開発者次第となっている(ただしEUのAI法ではデータ公表義務を課すこととなっている)。

これは、インターネット上に存在する画像、文章、音声といった作品のデータをいくら使おうとも作品を制作したクリエイターは使われたかどうかが確認できず、使われた疑惑があったとしてもクリエイター側は自作品が利用された事を証明する事が極めて難しくなる。さらに、現状の生成AIは作品を自分が制作したか他人が制作したかに関係なく、いちユーザーが作品データを追加で生成AIへ学習できるようになっている。

多大な努力によって表現を磨き上げてきたクリエイターの許可なしで、クリエイター本人たちも分からない状態で対価も払わないまま「AI学習」を盾に無断利用出来る事が常態化した場合、既存のクリエイティブにまつわる権利体系が実質的に機能しなくなってしまうのではないかという可能性が指摘されている。

3. AI特有の大量生産による弊害

人間がコンテンツを生産する速度に比べ生成AIは圧倒的にその速度が速い。イラストレーションで言えば、人間が1枚の絵を描くのに(制作スタイルや筆の速さにも左右されるが)最低でも数時間はかかるが、画像生成AIは1日で数十枚、数百枚出力する。音楽分野で言えば、あるAI開発企業は音楽共有サービスSpotifyにあるすべての楽曲を越える数の曲を短期間で生成出来たと話している。

一見生産性が上がり喜ばしい事のようにも見えるが、実は大きな弊害を抱えているという指摘がある。それは、「生成AIの大量生産に伴って需要と供給のうち供給側が極端に増え、需要は大して増えないので一つ一つの作品の価値が落ちる」というものである。さらに、これによってクリエイターの生活が困窮し(生成AI登場前でも対価が少ないという議論が様々な分野であったにもかかわらず)一部の成功した人々以外はますます苦境に追い詰められるだろうと言われる事がある。下手をすればクリエイティブ職の華々しいイメージは消え、果てはクリエイター志望者の数も減少、地道に新しいものを作ろうとする人が消え、文化の発展に大きな問題が発生し得るとの指摘もある。

新人クリエイターがクリエイティブで生計を立てようと思って、地道に作品作りに取り組んだとしても大量のAI生成物に阻まれそもそも見てもらえないのではないかという可能性も指摘される。それならAIに負けない個性を磨けばいいとも思えるが(少なくともイラストレーターの画風のような)データ上に表出する個性については生成AIは一瞬で模倣が可能なので、長きにわたる研鑽によって磨かれた個性の大量生産、陳腐化を常に恐れなければならない状況となっている。

ならば人間とAI、どちらが作ったものなのかを技術的・法的に見分けられるようにプラットフォーマーや技術者、政治家等が対応したらいいという主張もあるが、これも簡単ではない。例えば、イラスト・小説投稿サイトであるpixivは生成AIで作ったコンテンツに「AI生成」のタグを付けるようになっているが、これはあくまで投稿者の自己申告である。もしこれから人間の作ったものの価値がAI生成物のそれよりも高いという価値観が主流となった場合、生成AIユーザーの中には「人間が作ったもの」と偽ろうとする者が出てくると思われる。ならば技術的に見分ければ良いのではないか、という主張もあるがこちらも確実ではない。特に画像や文章において生成AI製コンテンツを識別しようという技術の開発が進んでいる。これらは既存クリエイターの価値を担保したりディープフェイク対策の観点から有効だが、どうしても識別ツールと悪用者のいたちごっこになりやすく、永続的な解決策とはなり得ない。欧米では政治的な部分からもフェイク対策を中心にAI製コンテンツを識別しようという動きがあるが、まだまだ始まったばかりである。

生成AI問題は主に「無許諾利用かつ市場衝突」する面が主な問題点とされるが、極端な大量生産による弊害はそれらの問題が無くなった後でも続く可能性があり、こちらも注視し、議論していかなければならない。

4. コンテンツ制作においてAIが「主」人間が「従」になる事の問題点

コンテンツ制作の根幹的な部分をAIが担い、人間はその間違いを修正したりする補助的な部分を行う事になった場合、ここでも問題が発生する。まず、当然のことながら人間に対するコストカットが行われることとなる。「あくまで補助的作業をしているので貢献度が低く、そのため対価を減らしても良い」というロジックが働いてしまうのだ。現にアメリカの脚本家からはそのような問題が指摘されている。

ほとんどの生成AIは、人間が多大な検討・努力の過程を経て創り出した作品をインターネットを通して無許諾・対価なしに吸い取り、さらには生成AIの出力物の結果の良し悪しは吸い取られた元クリエイター達の努力・研鑽に大きく依存しているにもかかわらず、そのクリエイター達を安くこき使うために生成AIが使われるというあまりにもグロテスクな光景が実現しつつあるのだ。結局これは産業革命などではなく寄生構造であり、格差の拡大につながるという指摘もある。

生成AI問題ではよく「仕事を奪う」という事が言われるが、「仕事の価値を下げる(そして雇用主側が得をする)」事も大きな問題点である。

5.作風など個性を模倣したAIモデルの存在

生成AIの中には、例えば「イラストレーターの絵柄」、「小説家の文体」、「声優、歌手の声」、「俳優の顔立ち」など特定のクリエイターの個性を再現したAI生成コンテンツが出力可能なものも存在する。

よく問題視されるのが、テキスト、画像など万から億単位にもなる大量のデータを集める(複製する)過程を経て構築される「基盤モデル」へ、特定のクリエイターに関する少量のデータを追加し特定のクリエイターの個性を模倣したAIコンテンツを出力させる「LoRA(ファインチューニングの一種)」である。

LoRAモデルの作成については、すでに個人の生成AIユーザーでも作ることが出来る環境となっており、データさえ取得できれば比較的気軽に作れ、AIモデルの共有サイトを通し全世界に共有できてしまう。

ただし、いわゆる「基盤モデル」に属すると考えられるAIモデルであっても、クリエイターの個性を模倣可能なものもあるためLoRAのみが作風模倣可能ではないという点に注意だ。

この個性を模倣したAIモデルの作成・拡散によってクリエイターが受ける、または受けることが考えられる損害として以下のようなものが挙げられる。
  • 【無断でのコピー、無秩序な拡散】クリエイターのアイデンティティが本人の許諾を取られることなく生成AIでコピーされ、ネットを通して無秩序に拡散される事に伴う精神的苦痛。
  • 【悪意のある利用による信用の毀損】自身の個性がなりすまし、特定の政治思想の宣伝、アダルト目的、言っていないことを言わされるなどクリエイター自身が意図しない、認知していない状態で利用され、本人の制作物であると第三者に勘違いされることなどによって、築いてきた評価・信頼が思わぬ形で毀損されてしまう。
  • 【市場の競合】自身の個性を無断で模倣した生成AIモデル、そのAIモデルより出力されたAI生成コンテンツがクリエイターの活動する市場と競合。クライアント側がAIを選択する事により、クリエイターが仕事の機会を失う。
  • 【AI使用の不当な疑い】無断で自身の個性を模倣したAIモデルを作られ、そのモデルから出力されたAI生成コンテンツがSNS・ネットなどに投稿され多くの人の目に触れることで、「AIがよく出力するスタイル(個性)」と誤認される。これにより、個性を創り上げた本人やその個性に近いスタイルの作品を作るクリエイターが、AI製コンテンツを人の制作物と偽装しているのではないかと疑われてしまう。

基本的には、個性を生成AIによってコピーされやすいのはすでに知名度があり魅力に溢れた作品を作るクリエイターであるとされるものの、他方でこの現状が新人クリエイターの育成環境に悪影響を及ぼすのではないかとの主張もある。

それは、現状の生成AIが存在し続ける以上、長い期間努力を重ね優れた作品を作れるようになったとしても、いい作品を作るクリエイターであるとしてほんの少しでも有名となった瞬間に、自身の個性をコピーしたAIモデルやそのモデルから出力されたAIコンテンツが大量に出回ることになり、せっかく磨いた個性も即座に陳腐化しかねず、クリエイター当人がその研鑽による名声・対価を得ないままになるといった状況が常態化してしまうというものだ。

極端な言い方をすれば「努力した者ほど馬鹿を見る」という状態が、現状の生成AIの無秩序な拡散によってかなり深刻化してしまうということである。

不断の努力を重ねたその先にあるものが、個性を模倣したAIモデルを無断作成・共有され、そのモデルが自身の特徴を反映したコンテンツを大量に出力する事で短期間で個性を陳腐化させられ、思わぬ形でモデルやそのAIコンテンツがクリエイター自身や他者の名誉や信頼を貶めるような悪用をされ、無償・安価で使え個性をいくらでもコピーできる存在と常に市場競合させられ、法的措置をしようにも経済力の低い個人クリエイターなどでは難しいといった環境に身を置かれ続けるのであれば、クリエイターの心は折れ、その人数が増えるほど文化の維持・発展にも支障が出ることは容易に想像できる。

また、生成AIの問題を憂うクリエイター等に対しよく言われる「AIに負けない作品を作れば良い」という主張も、優れた作品を作ったその瞬間からクリエイターが創り出す作品の魅力の一部を抜き出し容易に再現したAIモデルが流通してしまう可能性が常にある環境が続いている以上、現実に即したものとは言いづらいだろう。

1の無許諾利用問題も含め、現状はクリエイターが生成AIを育てるための肥やしに無理矢理させられている状態であるともいえる。

生成AIの登場後、ネット上では既存の手法で作られた作品が生成AI製でないかと疑われる事件がよく起きている。特にイラスト関連において起きることが多いので、本項目においてはイラストの話を主軸とするが、他の分野では無縁なのかといえば決してそうとは言い難いだろう。
特定のイラストに対し、AI利用を疑う側がその根拠として挙げるものの一つとして「AIっぽい絵柄」だからというものがある。

しかし、これは実態と異なる。

因果関係としては、「たまたま本人がAIっぽい絵柄に近いとみなされるスタイルで描いていたために疑われた(※)」のではなく「AI企業・ユーザーが、人気となった絵柄を模倣できる機能を持ったAIモデルを作成しその絵柄を反映したAI絵が大量生産・投稿された結果として、元の絵またはその絵に近い絵を描く人がAI製だと勘違いされてしまう」というものなので、実態としてはまったく逆である。

さらに言えば、「生成AI開発企業がクリエイターの個性を模倣できるような仕組みを何ら制限すること無く実装し、その結果ユーザーらによって個性を模倣したモデルがクリエイター本人の許可無く作成されたり、そのモデルから出力されたAIコンテンツがSNSなどインターネット上に大量投稿されて氾濫し、それらを多くの人々が見ることになった結果、『AIっぽい個性』と誤認されるようになった」というのが正しいだろう。

「AIっぽい絵柄」という概念そのものも、先述したように高い精度で様々なクリエイターの絵柄を破綻や不自然さも無く模倣できるようになっているため、それすらも無意味なものとなりつつある。

※クリエイター自らが意図的にAI絵を作品の参考にしていた場合は別。


▼生成AIとクリエイターに関する諸問題を図としてまとめたもの。
loading tweet...

— MAH (@MAH_konnyaku) September 22, 2024

▲ページトップへ



7-2. アート・イラストレーションに関する問題

⇒画像生成AIの問題点、特にイラストレーションなどに及ぼす影響についての詳細は当wikiの「画像生成AIは何が問題なのか?」をご覧ください。

2022年後半から本格的な画像生成AIがリリースされて以降、絵を描く人々に対し大きな悪影響を及ぼしている。絵描きと画像生成AIに関連した問題としてよく言われるのが「特定クリエイターの作風(絵柄)模倣問題」と「i2iなどを悪用した(いわゆる)トレパク問題」が挙げられる。

また、画像生成AIと絵描きに関してよくある勘違いとして「下手な絵は学習されない」というものがある。これは、画像生成AI開発企業・ユーザーによる作品の無断利用を警戒する絵描き達に対し、(特に技量的に未熟な人に向けて)嘲笑的・冷笑的なニュアンスで使用される事もある。

画像生成AIの学習(訓練、トレーニングとも称される)には主に2パターンあり、「基盤モデル構築時の学習」と「絵柄特化モデル(LoRAなど)作成時の学習」がある。LoRAは特定の要素を持つ生成物を出力するといった目的で、大量のデータで学習された基盤モデルを基に少量のデータを追加しAIモデルを調整するものである。

先述したように、基盤モデルの作成にはイラスト、写真など大量の画像データが必要となり、それらはインターネット上から集められるのが一般的だ。その大量のデータ内には技術的に未熟とされる絵も多く含まれているため、この点について「下手だから学習されない」は有り得ない。

画像生成AIとデータ収集に関して起きた出来事の一つとして、代表的な画像生成AI「Midjourney」の運営企業によって作成されたMidjourneyの学習に使用したアーティスト16000人のリストが流出したという事件がある。このリストにアンディ・ウォーホルや草間彌生など有名アーティストの名前が並ぶ中、募金活動の一環で絵を描いた6歳の男の子の名前が含まれていたことが話題となった。
⇒6歳児を含む1万6000人の作家リストが流出。AIの訓練に使用したとしてMidjourneyに非難が殺到(2024年1月5日:ARTnews Japan)

また、AI画像を生成する際には指示文(プロンプト)を打ち込む必要があるが、逆に生成して欲しくない画像については「ネガティブプロンプト」を使い出力内容をコントロールする。代表的なネガティブプロンプトは「low quality(低クオリティ)」「bad anatomy(変な人体構造)」「low resolution/low res(低解像度)」などである。
⇒代表的な画像生成AI「Stable Diffusion」を開発した、英StabilityAI日本支社Xアカウントによるネガティブプロンプトの解説。

では「絵柄特化モデル」はどうだろうか。civitaiなどといったAIモデル共有サイトでは有名イラストレーターなどを中心に、その作風(絵柄)などを真似た特化モデル(LoRA)などが画像生成AIユーザーによって作成され、共有されている。(ただ、基盤モデルと言われるものでも特定クリエイターの絵柄模倣が可能なものもある。)確かにわざわざ絵柄LoRAを作るのはその人の技術が優れていたり、魅力的な絵を描くからで、いわゆる「下手な絵」は一見学習されないように思える。とはいえ、数々の実績を持つプロ、ネット上に仕事半分趣味半分で投稿しているような素人・セミプロを問わず「少しでも魅力があると他者からみなされる絵を描くと絵柄LoRAモデルが作られてしまう」可能性は常にあるため、作品の実際のクオリティや作品への自己評価とは無関係にウォーターマークなどでの意思表示、GlazeなどといったAI利用阻害ツールなどを使うに越したことはないだろう。
⇒当Wiki「自作品を守るためにできること」も参照。

▲ページトップへ


7-3. 写真家・写真業界に関する問題

写真家からも生成AIに関する問題点が指摘されており、仕事への影響は当然のことながら人生をかけて作品を作っている写真家たちの作品が勝手にAI学習に用いられ、特定写真家の作風と似た生成物が出来てしまう事による心理的悪影響も指摘されている。さらに、ある写真素材の販売サイトに自らが撮った写真を提供している人からは、サイト側が撮影者側に明確な許諾なしに画像生成AIのAI学習に写真を使ったとして抗議しているケースもある。

一部の写真投稿・販売プラットフォームも生成AIの現状を問題視している。アメリカの大手写真素材販売企業Getty images(ゲッティ・イメージ)は、画像生成AIに自社が販売する画像データが無断で利用されることを問題視しており、画像生成AI開発企業Stability AIに対する訴訟やメディア・作家団体等と共に生成AIの濫用に対し規制を求める声明を発表する(ソース)など、動きを見せている。

⇒生成系AIに関連して発生した訴訟・法的対応の詳細は「生成系AIに関する訴訟・法的対応一覧」へ

▲ページトップへ

7-4. 文芸に関する問題

テキストを生成するAIに対しては主に小説家と脚本家の人々から現状を問題視する声が上がっている。

特に海外においては盛んに抗議活動が行われている。全米脚本家協会(WGA)は2023年4月より映画制作会社等に対し環境改善を求めるストライキを行っており、その動機の一つとして「生成AI」の問題点を挙げている。同年7月にはアメリカの作家団体「全米作家協会」は生成AI企業に対し、「著作物のAI利用の際の許諾」「AIに利用された作家に対する公正な補償」「AIによる出力が合法か違法かに関わらず作家へ補償する事」書簡を発表した。なお、この書簡には8500名もの作家が署名している。

生成AIと文学界の葛藤は、デモや声明のみならず司法の場に持ち込まれている。2023年6月末にはアメリカ人作家2名がAI開発企業であるOpenAIに対し訴訟を提起した。同年7月初めにも有名コメディアンなども含まれるアメリカ人作家3名がOpenAIとFacebook等で知られる企業Metaに対し訴訟を起こしている。

⇒生成系AIに関連して発生した訴訟・法的対応の詳細は当wiki「生成系AIに関する訴訟・法的対応一覧」へ

生成AIは小説家や脚本家のみならず、ライター業の世界でも問題が発生している。あるフリーライターによると、「ChatGPTである程度文章を作れるようになったので1文字当たりの報酬を2円から1円に減らして欲しい」という要望がクライアントからあったという。
記事⇒「AI使うから報酬安く」フリーライターに突然の要求、違法の恐れも(2023年8月10日-朝日新聞)

その他にもインターネットのショッピングサイトで生成AIによって作られた本を、特定作家の名前を勝手に使って販売するという事件も起きている。これに対し、作者はサイト側へ削除を要請したものの動きは鈍く、SNSで話題になってから初めて削除対応が行われたという。
記事⇒AIが書いた本が勝手に自分の名義で売られていたら…著者保護ルールが必要(2023年8月9日-GIZMODO)

▲ページトップへ

7-5. 音楽に関する問題

音楽業界においても生成AIの問題点は大規模に指摘されている。

日本国内における音楽関連の権利団体として有名な日本音楽著作権協会(JASRAC)は、2023年7月に生成AIに対する考え方を発表している。その内容は、「人間の創造性を尊重すべきだ」「フリーライドを容認すべきではない」「国際的に協調すべきだ」「クリエイターの声を聞くべきだ」というものである。(ソース)

他にも、JASRACの理事を務める作曲家が文化庁の会議の席で現状の生成AIを問題視する発言を行っている。主に生成AIへ著作物を許可なしで利用してもいいとする根拠法とされる著作権法30条の4の問題点を指摘するものであり、「営利・商業目的であっても他者の著作物を無断利用できるのはおかしい」「許可を取って初めてAIに他者の制作した楽曲を利用できるようになるのが筋だ」「AI技術の進化によって他者の制作した音源から特定の楽器の音などを完璧に抜き出す事が出来るようになり、それに伴う著作隣接権の無視も横行」といった指摘を行っている。

1961年に13の音楽団体が結集して設立された団体、日本音楽作家団体協議会も2023年6月、現状を問題視する声明を発表した。この声明では「生成AI開発の過程における著作物の無断利用によって著作者が不利益を被る恐れ」「著作権法30条の4は生成AI技術が進化している現状に合っておらず、社会の状況に即した見直しが必要」「クリエイターを議論の場に参加させるべきだ」と述べられている。(ソース(PDF))

⇒生成AIに関してクリエイティブに関連する団体などが発した声明などは当wiki「生成系AIに対するクリエイティブ団体・企業の反応・対応」を参照。

▲ページトップへ

7-6. 俳優・声優に関する問題

俳優・声優分野においても大きな問題が発生している。

アメリカのハリウッドにおいては、2023年7月より労働組合である「全米映画俳優連合(SAG-AFTRA)」主導で待遇の改善などを求めてストライキが行われているが、その理由の一つに生成AIが存在する。何が問題視されているのかというと「俳優の容姿や演技をスキャンし一日分だけのギャラを与え、そのスキャンされたデータの肖像権などは制作会社側が有し、生成AI技術によって無制限に利用する」という事態が起きようとしており、これがまかり通ってしまえば俳優側がキャリアを積むことも困難になる懸念があるためだ。

動きは日本国内でも存在する。1967年に設立され、理事長を俳優の西田敏行、副理事長を女優の水谷八重子と声優の野沢雅子が務める俳優団体「日本俳優連合」では2023年5月に外画・動画部会が主導となって「AI対策プロジェクト」を発足した。同年6月、同団体は生成AIについての声明を発表した。内容は「EUのAI法を参照したガイドラインの策定」「AI学習の素材は著作者が許可を与えた物のみとして著作権法30条の4の運用見直しを」「AI生成物である事の明示」「AIの表現分野への進出は一定のルールを設ける」「声の肖像権の確立」を求めるものである。(ソース)

声優に対しての被害も深刻だ。声優が自らの声を無断で抽出され、本人が思ってもいないような過激な事を言わされたり、ボイス生成AIを用いた声優への攻撃も行われている。

⇒生成AIに関してクリエイティブに関連する団体などが発した声明などは当wiki「生成系AIに対するクリエイティブ団体・企業の反応・対応」を参照。

▲ページトップへ

7-7. プログラムに関する問題

プログラミングの世界でも騒動があり、アメリカで「Github Copilot」というコードの続きを生成するAIが開発されたが、これについて同国で訴訟が発生している。

⇒生成系AIに関連して発生した訴訟・法的対応の詳細は当wiki「生成系AIに関する訴訟・法的対応一覧」へ

7-8. 報道機関に関する問題

マスメディアなどの報道機関でも生成AIの問題は深刻なものとして受け止められている。

問題としては主に以下のような点が挙げられている。
  • 生成AI開発企業がメディア側への許諾も対価もなく無断で記事を生成AIの開発に利用し、その記事を再構成したAI生成コンテンツがメディアの記事と市場競合する(メディアが公開した有料記事と文章や構成が似ている記事が生成AI検索エンジンによって生成されていたとのケースもある。(*69))
  • AI生成されたフェイクニュースが溢れることによって言論空間が混乱する
  • 質問や検索の内容に応じて回答となるテキストを生成し、その回答の参考にされた記事を出典表記している生成AIサービスにおいて、実際の記事内容とは異なる不正確な生成結果を出力(ハルシネーション)した状態で出典が表記された場合、メディア側に落ち度がないにも関わらず出典となったメディアの信頼性も疑われてしまう

ウェブ上の記事の要約を生成する機能を持つAI検索エンジンにおいては、要約を生成する際に報道機関などのサイトに書かれた情報を利用するものの、ユーザーがAI要約で満足し情報源のサイトへ行くことが無くなり、サイトへのクリックなどで得られたはずの収益が失われる可能性が指摘されている。実際に、AI企業とパブリッシャーのライセンス契約を仲介する企業TollBitが行った調査では、AI検索エンジンは従来の検索エンジンに比べ96%も減少させているとの結果が発表された。

また、生成AI開発においては、ウェブクローラーというボットを用いてインターネット上のデータをスクレイピングして集める(複製する)ことが主流となっているが、一方的なデータ収集を防ぐため、メディア側によるrobots.txtなどを用いたAI学習データ収集用クローラーのアクセス拒否の措置が進んでいる。ただし、クローラーに関してはAI企業が利用しているウェブクローラーを開示していない事や検索向けインデックスの作成と生成AI開発用クローラーが同じボットを利用しているケースも存在するなど、解決には程遠い。
さらには、クローラーがかなりの回数サイトへアクセスしてくるため、サイト側のサーバーコストを増加させるという問題も引き起している。(*70)

AI企業は、メディア側がジャーナリズムのため行った多額の投資によって作られた記事などのコンテンツをインターネット越しに無断利用し、メディアの記事とは内容がやや異なるAI要約を生成するサービスを運営する。AI検索サービスはメディアと直接的に競合し、AI検索サービスの利用者数が増えれば増えるほどメディア側のアクセス数も減少し収益もそれに従って減る。おまけに過剰なアクセスによってメディア側のサーバーコストも増える。

この現状に対し、世界各国のメディアやその関連団体から様々な動きが出ている。

海外においては、世界100ヵ国で76の各国新聞協会などが加盟する団体である世界新聞協会(WAN-IFRA)は、2023年9月6日に日本や米国、ヨーロッパなど世界26か国のメディア団体と共に生成AIの開発・利用について知的財産の保護や透明性を求める内容の声明を発表した。
⇒世界AI原則(Global Principles on Artificial Intelligence・仮訳)(2023年9月6日:日本新聞協会)
⇒生成AI開発や著作権に「世界原則」…知的財産保護や透明性確保要求、日本新聞協会も賛同(2023年9月6日:読売新聞)

国内でも日本新聞協会が2023年5月に言論空間の混乱や個人情報、著作権上の問題を指摘する声明を発表するなど、生成AIの問題を解決するための動きを進めている。
⇒[PDF]生成AIによる報道コンテンツ利用をめぐる見解(2023年5月17日:日本新聞協会)

また、いわゆる基盤モデルの構築時の記事無断利用のほかにも、RAG(検索拡張生成)における報道記事無断利用も問題視されている。
⇒生成AIにおける報道コンテンツの無断利用等に関する声明(2024年7月17日:日本新聞協会)

メディア側も声明を発表するのみならず、生成AI開発時における記事データの無断利用に関してAI企業を提訴している。
訴訟の一例として、ニューヨークタイムズが2023年12月末にChatGPTの開発などで知られるAI企業OpenAIとマイクロソフトを提訴したもの、米地方紙8社連合が2024年4月にOpenAI・マイクロソフトを提訴したもの、2024年11月にカナダメディア5社が合同でOpenAIを提訴したものなどが挙げられる。
⇒各訴訟についての詳細は当Wiki「生成AIに関する訴訟・法的対応一覧」へ。

一方、AI企業がメディア各社に記事利用料を支払う取り組みも進んでいる。OpenAIはニューズ・コープやフィナンシャルタイムズといった欧米メディアと利用契約を結んだ他、FacebookやインスタグラムなどのSNS運営で知られるMetaもロイターと提携を行った。生成AIを利用した検索システム事業を展開する企業perplexityも、対価還元プログラムを実施している。

▲ページトップへ

7-9 AI生成コンテンツの著作権問題

生成AI問題の一つの争点として、AI生成コンテンツに著作権が認められるかどうかというものがある。これを巡る関連機関の判断がすでにいくつかの国で出ているが、それぞれの国の法律やAI生成コンテンツの形態により対応が分かれている。
また、著作権と言う難しい話を扱うのでここに記載されたもの以外にも脚注に添付した記事や資料を読んだり、それぞれ個人で調べることを強く推奨する。

以下で各国における動きを記載する。

1.アメリカでの動き

アメリカでは、AI生成コンテンツに対し著作権局(U.S. Copyright Office,USCO)へ著作権登録を求める動きがいくつかあったが、却下されたり一部だけが認められる形になるなど、対応が分かれている。

なお著作権局は、2023年3月にAI生成コンテンツと著作権に関するガイダンス(Copyright Registration Guidance: Works Containing Material Generated by Artificial Intelligence)を発表した。

  • 「A Recent Entrance To Paradise」
    「Creativity Machine(DABUS)」というアルゴリズムによって作成されたAI画像作品で、AI研究者であるスティーブン・セイラー氏が著作権局へ著作権登録を申請したが、2022年2月に申請が拒否された。(*71)
    その後セイラー氏は著作権局へ訴訟(Thaler v. Perlmutter)を起こすも2023年8月に同氏の主張を否定する判決が下された。(*72)また、控訴審においても「著作権で保護されるのに必要な人間の著作権の要素が含まれていない」として裁判所は1審の判決を支持し、著作権を認めない決定を2025年3月に下した。セイラー氏は判決に不満を持っており上告する予定である。(*73)(*74)

  • 「Theatre D'opera Spatial」
    画像生成AI「Midjourney」などを利用し制作されたデジタル絵画で、ジェイソン・アレン(Jason M. Allen)氏によって制作された。2022年8月に米コロラド州の美術品評会で1位を獲得、このことは画像生成AIが本格的に話題になり始めていた時期であったためAIと創作について当時大きな議論を呼んだ。

    アレン氏は著作権局へ同作品の著作権登録を求めたが、2023年9月に「AI生成された素材を含む作品を著作権登録するには、著作権登録申請の対象からその素材を除外する旨を明示する必要があるが、同作品の作者はしなかった」などとして著作権局側は登録を拒否した。同氏は「テキストプロンプトを少なくとも624回入力し、同時にAdobe Photoshopなどを利用し多数の修正も行った」と主張したものの、著作権局は登録拒否の理由として、「Midjourneyは人間の様に文法や文章構造、単語を理解している訳ではないので、Midjourneyはプロンプトを特定の表現を作成するための具体的な指示として解釈していない」などを挙げた。(*75)(*76)

    アレン氏は2024年10月に著作権局に対し法的措置を取ると発表した。(*77)

  • 「Zarya of the Dawn」
    クリス・カシュタノバ(Kris Kashtanova)氏が画像生成AI「Midjourney」などを利用して制作したグラフィックノベル(漫画の一種)。カシュタノバ氏は、2022年9月に一度著作権局より著作権登録を認められたと発表した(*78)が、2023年2月にグラフィックノベル内の画像については「作者は各画像の構成や内容の『指導』をしたと主張したが、説明された制作プロセスを踏まえれば『画像の伝統的著作者の要素』を創作したのはMidjourneyである」などとして著作権登録を受けず、テキストと記述、視覚的要素の選択、調整、配置などは著作権を認められた。(*79)

2.中国での動き

中国では、インターネット上において無断で転載されたAI画像に対し画像作成者が起こした訴訟で、裁判所側が画像の著作物性と著作権侵害を認め作成者側が勝訴した。

  • 「春风送来了温柔(春風が優しさを運んでくる)」
    画像生成AI「Stable Diffusion」で作成されたAI画像で、作成者である原告はその画像を中国のSNS「小紅書(RED BOOK)」にアップロードした。その後、バイドゥ(百度)が運営する創作プラットフォーム「百家号」で、被告側が発表した文章「桃の花の中の三月の愛情」内に原告が画像に付した署名が取り除かれる形で利用されているのを発見し、北京の裁判所に損害賠償を求める訴訟を提起した。2023年11月、裁判所は画像の著作物性と著作権侵害を認める判決を下した。(*80)

3.日本での動き

日本国内においては、アメリカや中国のようにAI生成コンテンツと著作権をめぐる裁判などは(当Wiki編集者が確認する限り)起こっていないが、2024年3月に文化庁が発表した資料「AIと著作権について(PDF)」の中でAI生成コンテンツの著作物性の判断基準として以下のような条件を挙げている。(AI生成コンテンツの著作物性については資料39~40ページにある。)

+ 長いので折りたたみ
(3)生成物の著作物性について
(省略)

イ 生成 AI に対する指示の具体性と AI 生成物の著作物性との関係について
○ 生成 AI に対する指示の具体性と AI 生成物の著作物性との関係については、著作権法上の従来の解釈における著作者の認定と同様に考えられ、共同著作物に関する既存の裁判例等に照らせば、生成 AI に対する指示が表現に至らないアイデアにとどまるような場合には、当該 AI 生成物に著作物性は認められないと考えられる。
○ また、AI 生成物の著作物性は、個々の AI 生成物について個別具体的な事例に応じて判断されるものであり、単なる労力にとどまらず、創作的寄与があるといえるものがどの程度積み重なっているか等を総合的に考慮して判断されるものと考えられる。例として、著作物性を判断するに当たっては、以下の①~③に示すような要素があると考えられる。

① 指示・入力(プロンプト等)の分量・内容
✓ AI 生成物を生成するに当たって、創作的表現といえるものを具体的に示す詳細な指示は、創作的寄与があると評価される可能性を高めると考えられる。他方で、長大な指示であったとしても、創作的表現に至らないアイデアを示すにとどまる指示は、創作的寄与の判断に影響しないと考えられる。
② 生成の試行回数
✓ 試行回数が多いこと自体は、創作的寄与の判断に影響しないと考えられる。他方で、①と組み合わせた試行、すなわち生成物を確認し指示・入力を修正しつつ試行を繰り返すといった場合には、著作物性が認められることも考えられる。
③ 複数の生成物からの選択
✓ 単なる選択行為自体は創作的寄与の判断に影響しないと考えられる。他方で、通常創作性があると考えられる行為であっても、その要素として選択行為があるものもあることから、そうした行為との関係についても考慮する必要がある。

○ また、人間が、AI 生成物に、創作的表現といえる加筆・修正を加えた部分については、通常、著作物性が認められると考えられる。もっとも、それ以外の部分についての著作物性には影響しないと考えられる。
文化庁会著作権分科会法制度小委員会「AIと著作権に関する考え方について」39ページ~40ページより一部を引用。タイトル部分等は読みやすさなどを考慮し太字にした。

▲ページトップへ

7-10 既存のコンテンツとAI生成コンテンツの見分けが難しい事に関する問題

生成AIコンテンツは、人間が既存の手法を用いて作成した作品と見分けがつかないレベルにまで進化している。これによる社会的混乱がすでに散見されている。また、AI生成物と実在する物の見分けが付きにくい事に関しては、ディープフェイクによる社会の混乱など多様な問題をもたらすが、本項目においてはクリエイティブと生成AIに纏わる問題のみを取り上げる。

1.実際に起きている問題、今後懸念される問題

以下がクリエイティブと生成AIに関して起きているもしくは将来起こりうる問題の一覧。
  • 既存のクリエイターへのなりすまし行為。
  • 人間の作品とAI生成作品の識別において、確実に見分けられる手段が存在しないこと。人間の目や耳、AI生成物検知ツールなどを使って区別しようにも、AI生成物のクオリティ向上や検知ツールを回避する技術の進歩などによって結局はいたちごっこになる。
  • 生成AIを利用せず作品制作を行っているにも関わらず、AI生成物のクオリティ向上に伴う判別の難易度向上、または悪意や根拠薄弱な断定に基づいて生成AIを利用していると不当に疑われてしまうこと。
  • 既存の手法で作成された作品を購入したはずがAI製だったケース。
  • 生成AI製作品の参加を禁ずるアートコンテストなどにおいて、AI生成コンテンツであることを隠して応募されていた場合の混乱。
  • 特にクリエイティブ系企業の社員採用(就職活動)において、応募者側がポートフォリオなどにAI生成作品である旨を表記しない状態で掲載、実績が誤認された結果、企業側が求めるスキルとは異なるスキルを持った応募者を誤って採用、その採用後に起こる混乱。(実技試験の導入などによってこのトラブルは回避可能とされる)
  • 一般的にAI生成コンテンツは著作権が認められにくいとされるが、それによって生じる作品の発注、制作、発表、利用時における権利関係の混乱。作品の作成者が意図的かどうかを問わずAI生成かを隠蔽していた場合や、作品の発注・利用者がAI製であることを知らなかった場合はなおさら深刻に。
  • AI生成作品の著作権登録を試みようとする行為。主な問題は以下の二つに分けられる。
    ①制作者がAI生成作品であることを公表せず登録を試みる可能性
    ②AI生成作品に著作権が付与される条件が不確実であること

2.著作権法上の課題

AI生成コンテンツと既存の手法で作成された著作物との見分けが難しいことに関する、著作権法上の課題として以下のような問題が指摘されている。

以下は、文化庁が2024年1月に発表した文書「AIと著作権に関する考え方について(素案)」へ募集したパブリックコメントに対し、日本弁護士連合会が同年2月に提出した意見書。うち、「僭称(せんしょう)著作物問題」について記載された箇所を抜粋する。

3 いわゆる「僭称著作物問題」について
人間による指示に何ら創作意図や創作的寄与がなく、AIが自律的に生成した単純なAI生成物は、機械的作業の結果に過ぎないため、基本的には著作物性が認められないとされている。ところが、生成AIでは、人間の創作物と見分けのつかない情報が生成可能となっており、そのため、AIが生成したものであるため著作物と認められないコンテンツについて、人間が創作したものであると明示又は黙示に僭称されるという問題が生じ得る(いわゆる「僭称著作物問題」)。
このような行為が許され僭称が発覚しないままとなれば、著作権で保護されないものが保護され、実在しない著作者又は著作者でない者に著作者人格権が与えられるという形となってしまい、しかも著作者が実在しない場合には、権利の存続期間もさらなる虚構を重ねることとなってしまう。また、生成AIでは人間より遥かに高い生産性で創作物が生成可能となっており、AI利用者による情報独占も懸念される。さらに、僭称が発覚した場合には、僭称されたコンテンツのライセンス契約やビジネススキームが崩壊する恐れも生じる。以上からすると、僭称著作物問題については、本素案においても債務不履行責任や不法行為責任等の民法上の責任及び詐欺罪の成立可能性について言及されているところではあるが(本素案35頁~36頁)、著作権制度の根幹に関わり、かつ、著作権関連ビジネスにも重大な影響を与え得るものであると考えられるため、今後、重要問題として位置付けた上で議論を継続することが意識されるべきである。
なお、著作権法第121条は、著作者でない者の名を著作者と僭称して複製物を頒布することを罰しているが、著作物でないAI生成物に同条が適用されるかは解釈若しくは法改正に委ねられるところ、僭称著作物問題の検討にあたっては、この著作権法第121条についても議論の対象となると考えられる。
  • 「AIと著作権に関する考え方について(素案)」に対する意見書(2024年2月16日-日本弁護士連合会)

3.ネット上におけるAI利用指摘問題(いわゆる魔女狩り問題)(編集中)

編集中

▲ページトップへ

7-11 クリエイター関連で提唱されている生成AI規制案

  • クリエイター関連で提唱されている生成AI規制案へ。

▲ページトップへ

【8. 学術・研究に関する問題】

生成AIは容易に偽情報を作ることが出来るが、この問題は学術・研究の分野でも悪影響を及ぼしている。

8-1. AI生成された偽の研究結果

実験結果の画像などを生成AIで作った論文が増えることで科学への信頼が揺らぐ可能性が指摘されており、また見抜こうにも難しいため対応に苦慮している。

論文の執筆において、多くの学術誌はテキスト部分について特定の状況下のみで生成AIの利用を認めているものの、実験データや画像をAI生成する事は信頼性を根本から壊すため認められる可能性は低いとされる。すでに偽論文を量産し販売するペーパーミル(論文工場)が生成AIを用い論文を大量作成しているとの疑いもある。(*81)(*82)

具体的な事例としては、中国の研究チームが2024年2月に発表した論文の中に画像生成AI「Midjourney」で作られた破綻していたり意味不明な描写を含む画像3枚が添付されていたというものがある。この事件ではAI生成されたネズミの性器が巨大であることが注目されたが、より精巧な画像が根幹の部分で使われる可能性も考慮すべきだろう。(*83)(*84)

8-2. ハゲタカジャーナル問題の深刻化

編集中

【9. 教育に関する問題】

編集中

【10. 失業・働き方に関する問題】

編集中

【11. 電力・環境に関する問題】

編集中

【12. 脱獄・犯罪利用】

編集中

【13. その他の問題点】

機械学習への悪影響

編集中

【14. 生成AIに関する論点】


【関連ページ】


▲ページトップへ

タグ:

基礎知識
「生成AIは何が問題なのか?」をウィキ内検索
LINE
シェア
Tweet
AI画像生成・生成系AI 問題まとめwiki
記事メニュー

メニュー

  • トップページ
  • 用語集
  • AI画像生成・生成系AI問題年表
+ 2021年以前~2025年
    • 2025年
    • 2024年
    • 2023年
    • 2022年
    • 2021年以前
  • 生成系AIに関する記事・資料集
  • ★ 編集に興味がある方はこちらへ ★

基礎知識

  • 生成AIは何が問題なのか?
  • 画像生成AIは何が問題なのか?
    • img2imgによる新手のトレパク被害
    • LoRAによる個人や作品の無断学習問題
  • 画像生成AI 関連人物
  • AIと人間の学習の違いについて
  • AIイラストの見分け方
  • 主要なAI画像生成サービス
  • 画像生成AI・生成系AIに対する各種プラットフォーム等の反応・対応まとめ
  • 生成AIに対するクリエイター団体・企業などの反応・対応
    • アート・イラスト関連団体の反応・対応
    • 音楽関連団体の反応・対応
  • 生成AIに関する訴訟・法的対応一覧

主な出来事・事例

  • 画像生成AI 炎上・論争・被害事例まとめ
  • よー清水さんによる画像生成AIに関するアンケート調査結果
  • 画像生成AIに対する法整備を求める記者会見がNHKニュースで放送
  • 日本テレビ系NEWSZEROで生成AI問題を取り上げるも、放送内容に物議を醸す
  • AIイラストレーターゆーます氏i2i疑惑
  • AIグラドル「さつきあい」
  • pixivウマエロアカウント停止騒動
  • AIイラスト支援サービス「petapi」
  • 自動着彩ツール「CoPainter」
  • 自動線画合成ツール「CoPainter」
  • 国際著作権シンポジウム  赤松健参議院議員の講演 英語翻訳版

法律・政治・規制・調査

  • 生成AIに関する日本政府・官公庁・議員の動向
    • 著作権法第三十条の四
  • 各国の生成系AIへの対応・規制まとめ
  • クリエイター関連で提唱されている生成AI規制案
  • 生成AIに関する調査・アンケートの一覧

被害対策

  • 自作品を守るためにできること
    • AI学習防止ツール「Glaze」について【利用方法・意義】
  • 権利侵害の通報・相談窓口

現状を変えるために

  • 政府・議員・団体に対する問い合わせ
  • 署名・募金
  • クリエイター支援団体

関連リンク

日本語

  • ai-illust @ ウィキ
  • AIイラスト利用まとめWiki
  • Wikipedia「生成的人工知能」
  • Wikipedia「人工知能アート」
  • 生成AIに関する問題・リスク・規制などの情報まとめ

英語

  • createdontscrape
⇒現行の生成AIの問題点や悪用事例などについてまとめたサイト。
  • LUDDITE PRO(ラッダイト・プロ)
⇒現行の生成AIの問題点や悪用事例などについてまとめたサイト。
  • Chat GPT Is Eating the World
⇒生成AIに関する規制や訴訟などの最新の動向をまとめたサイト。

その他言語

  • 그림 인공지능/논란 및 사건 사고(イラスト人工知能/議論と事件事故)
⇒現状の画像生成AIに関して発生した問題や悪用事例などをまとめた韓国語のwikiサイト。




ここを編集
記事メニュー2

更新履歴

取得中です。


ここを編集
人気記事ランキング
  1. 画像生成AI 炎上・論争・被害事例まとめ
  2. 自作品を守るためにできること
  3. 画像生成AI・生成系AIに対する各種プラットフォーム等の反応・対応まとめ
  4. 主要なAI画像生成サービス
  5. 生成AIに関する訴訟・法的対応一覧
  6. 各国の生成系AIへの対応・規制まとめ
  7. 852話
  8. LoRAによる個人や作品の無断学習問題
  9. AI学習防止ツール「Glaze」について【利用方法・意義】
  10. AIイラストの見分け方
もっと見る
最近更新されたページ
  • 10時間前

    トップページ
  • 1日前

    AI画像生成・生成系AI問題年表/2025年(AI画像生成・生成系AI問題年表)
  • 10日前

    画像生成AIは何が問題なのか?
  • 10日前

    画像生成AI 炎上・論争・被害事例まとめ
  • 14日前

    各国の生成系AIへの対応・規制まとめ
  • 15日前

    生成AIは何が問題なのか?
  • 36日前

    画像生成AI・生成系AIに対する各種プラットフォーム等の反応・対応まとめ
  • 44日前

    生成AIに関する訴訟・法的対応一覧
  • 44日前

    主要なAI画像生成サービス
  • 53日前

    生成AIに対するクリエイター団体・企業などの反応・対応
もっと見る
「基礎知識」関連ページ
  • No Image 自作品を守るためにできること
  • No Image 生成AIに関する訴訟・法的対応一覧
  • No Image 画像生成AI・生成系AIに対する各種プラットフォーム等の反応・対応まとめ
  • No Image 生成AIに関する調査・アンケートの一覧
  • No Image 生成AIに対するクリエイター団体・企業などの反応・対応/生成AIに対する音楽関連団体・企業の反応・対応
  • No Image 主要なAI画像生成サービス
  • No Image 生成AIに対するクリエイター団体・企業などの反応・対応
  • No Image 生成AIに対するクリエイター団体・企業などの反応・対応/生成AIに対するアート・イラスト団体・企業などの反応・対応
人気記事ランキング
  1. 画像生成AI 炎上・論争・被害事例まとめ
  2. 自作品を守るためにできること
  3. 画像生成AI・生成系AIに対する各種プラットフォーム等の反応・対応まとめ
  4. 主要なAI画像生成サービス
  5. 生成AIに関する訴訟・法的対応一覧
  6. 各国の生成系AIへの対応・規制まとめ
  7. 852話
  8. LoRAによる個人や作品の無断学習問題
  9. AI学習防止ツール「Glaze」について【利用方法・意義】
  10. AIイラストの見分け方
もっと見る
最近更新されたページ
  • 10時間前

    トップページ
  • 1日前

    AI画像生成・生成系AI問題年表/2025年(AI画像生成・生成系AI問題年表)
  • 10日前

    画像生成AIは何が問題なのか?
  • 10日前

    画像生成AI 炎上・論争・被害事例まとめ
  • 14日前

    各国の生成系AIへの対応・規制まとめ
  • 15日前

    生成AIは何が問題なのか?
  • 36日前

    画像生成AI・生成系AIに対する各種プラットフォーム等の反応・対応まとめ
  • 44日前

    生成AIに関する訴訟・法的対応一覧
  • 44日前

    主要なAI画像生成サービス
  • 53日前

    生成AIに対するクリエイター団体・企業などの反応・対応
もっと見る
ウィキ募集バナー
新規Wikiランキング

最近作成されたWikiのアクセスランキングです。見るだけでなく加筆してみよう!

  1. MadTown GTA (Beta) まとめウィキ
  2. GTA5 MADTOWN(β)まとめウィキ
  3. R.E.P.O. 日本語解説Wiki
  4. シュガードール情報まとめウィキ
  5. SYNDUALITY Echo of Ada 攻略 ウィキ
  6. ドタバタ王子くん攻略サイト
  7. ガンダムGQuuuuuuX 乃木坂46部@wiki
  8. パズル&コンクエスト(Puzzles&Conquest)攻略Wiki
  9. 星飼いの詩@ ウィキ
  10. ありふれた職業で世界最強 リベリオンソウル @ ウィキ
もっと見る
人気Wikiランキング

atwikiでよく見られているWikiのランキングです。新しい情報を発見してみよう!

  1. アニヲタWiki(仮)
  2. ストグラ まとめ @ウィキ
  3. ゲームカタログ@Wiki ~名作からクソゲーまで~
  4. 初音ミク Wiki
  5. 発車メロディーwiki
  6. 機動戦士ガンダム バトルオペレーション2攻略Wiki 3rd Season
  7. MadTown GTA (Beta) まとめウィキ
  8. オレカバトル アプリ版 @ ウィキ
  9. 検索してはいけない言葉 @ ウィキ
  10. Grand Theft Auto V(グランドセフトオート5)GTA5 & GTAオンライン 情報・攻略wiki
もっと見る
全体ページランキング

最近アクセスの多かったページランキングです。話題のページを見に行こう!

  1. anbrella(餡ブレラ) - ストグラ まとめ @ウィキ
  2. 参加者一覧 - ストグラ まとめ @ウィキ
  3. 敵情報_第2章 - モンスター烈伝オレカバトル2@wiki
  4. 参加者一覧 - MadTown GTA (Beta) まとめウィキ
  5. Lycoris - MadTown GTA (Beta) まとめウィキ
  6. 山田 ジェイミー - ストグラ まとめ @ウィキ
  7. アルフォート ウェスカー - ストグラ まとめ @ウィキ
  8. 魔獣トゲイラ - バトルロイヤルR+α ファンフィクション(二次創作など)総合wiki
  9. コメント/雑談・質問 - マージマンション@wiki
  10. ぶんぶんギャング - MadTown GTA (Beta) まとめウィキ
もっと見る
注釈

*1 Googleによる定義「通常であれば人間の知性を必要とするような方法、あるいは人間が分析できない規模のデータを使用する方法で推論、学習、行動を行えるコンピュータとマシンの構築に関する科学分野」、NTTデータによる定義「人が実現するさまざまな知覚や知性を人工的に再現するもの」、NECソリューションイノベータによる定義「人間の言葉の理解や認識、推論などの知的行動をコンピュータに行わせる技術」

*2 日立ソリューションズによる機械学習の定義「機械学習は、アルゴリズムを使って、ある特定の分野に絞り、大量のデータを解析することで、その中に規則性や関係性を見つけ出す手法」、NTTデータグローバルソリューションズによる機械学習の定義「機械学習(Machine Learning)とは、コンピューターに大量のデータを読み込ませ、データ内に潜むパターンを学習させることで、未知のデータを判断するためのルールを獲得することを可能にするデータ解析技術」Amazonによる機械学習の定義「機械学習は、コンピュータシステムが明示的な指示なしにタスクを実行するために使用するアルゴリズムと統計モデルを開発する科学」

*3 合成データ、AI開発で不可欠に 2026年に学習素材枯渇(2024年10月7日:日経新聞)

*4 2026年までにAIのトレーニングに使うデータが枯渇する「データ不足問題」とは?(2023年11月08日)

*5 XのデータをAI開発のトレーニングに使うことが規約で明言されイーロン・マスクもコメント(2023年9月4日-GIGAZINE)

*6 わたしの思い出はメタの“AI訓練データ”になる(2024年6月27日-WIRED)

*7 「ChatGPT」から個人情報含む学習データの抽出に成功--Google DeepMind研究者ら(2023年12月9日:CNET Japan)

*8 「見ず知らずの他人がChatGPTに搭載されている大規模言語モデルから自分のメールアドレスを入手していた」という報告(2023年12月25日:GIGAZINE)

*9 画像生成AIユーザーがAI学習用データセットから「自分の医療記録の写真」を発見してしまう(2022年9月22日-GIGAZINE)

*10 AIの学習データに含まれる個人情報が、ChatGPTにとって“大問題”になる(2023年4月7日:WIRED)

*11 OpenAIに対しイタリアの個人データ保護当局がGDPR違反を通知、最大で全世界年間売上高の4%または32億円の制裁金が課される可能性あり(2024年1月30日:GIGAZINE)

*12 イタリアで「ディープシーク」データ処理制限 欧米中心に警戒(2025年1月31日:NHK)

*13 MetaがFacebookとInstagramの投稿でAIを強化する計画をEUで一時停止へ(2024年6月17日:GIGAZINE)

*14 XがEUのユーザーデータを使用して同意なくGrokをトレーニングしたとして告訴される(2024年8月8日:GIGAZINE)

*15 Xが個人データ利用のAI訓練停止に合意、EU域内(2024年8月9日:ロイター)

*16 国家データ保護機関がMetaに「ユーザーデータを勝手にAIトレーニングに使うのを即刻停止せよ」と命じる(2024年7月3日:GIGAZINE)

*17 MetaがFacebookとInstagramの成人ユーザーの投稿をAIに学習させていることが判明、ユーザーに拒否権なし(2024年9月12日:GIGAZINE)

*18 ChatGPTのオープンAIを匿名グループが提訴-個人データ窃取と主張(2023年6月29日:ブルームバーグ)

*19 オープンAI、米利用者が集団訴訟 「個人情報を違法に収集」(2023年6月29日:朝日新聞)

*20 米リンクトインを集団訴訟で提訴、個人情報をAI開発に無断提供(2025年1月23日:ロイター)

*21 「人種・信条」AI活用に同意不要=個人情報保護の要件緩和―政府検討(2025年2月23日:リスク対策.com)

*22 AI開発向け個人情報、本人同意求めず 政府が法改正準備(2025年2月11日:日本経済新聞)

*23 画像生成AIのStable Diffusionなどに使われるデータセット「LAION-5B」に同意のない子どもの写真が含まれており身元まで特定可能(2024年6月11日-GIGAZINE)

*24 LAION公式サイトによるLAION-5Bデータセットの解説:LAION-5B: A NEW ERA OF OPEN LARGE-SCALE MULTI-MODAL DATASETS

*25 画像生成AI「Stable Diffusion」などの開発に大きな貢献を果たした超巨大データセット「LAION-5B」とは?(2022年12月14日-GIGAZINE)

*26 生成AIの学習データに児童虐待画像 米大学研究者が指摘(2023年12月21日-日本経済新聞)

*27 スタンフォード大学はいかにしてLAION-5Bから1008件のCSAMを検出したか(2024年1月3日-Qiita)

*28 Stable Diffusionにも使われるデータセット「LAION-5B」に児童性的虐待コンテンツが見つかり開発元がリンクを削除した「Re-LAION-5B」をリリース(2024年9月2日-GIGAZINE)

*29 NobelAI公式Xアカウントによるdanbooru利用を表明するポスト。(2022年9月25日)

*30 Mark Zuckerberg gave Meta’s Llama team the OK to train on copyrighted works, filing claims(2025年1月9日:TechCrunch)

*31 メタ・グーグルらテック大手、コンテンツに対する法的責任いよいよ不可避か。生成AIによって失われる“法の盾”(2023年12月22日-ビジネスインサイダー)

*32 AIの映画制作に抗議でストライキ、「スター・ウォーズ」「アバター」など公開延期の見通し

*33 ハリウッド・ストライキの本質、「AIによるスキル収奪」への抵抗

*34 米紙ニューヨーク・タイムズがオープンAIとマイクロソフトを提訴 著作権侵害で(2023年12月28日-BBC)

*35 音楽生成AI相手に初訴訟、ソニーなど大手3社 著作権侵害訴え

*36 生成AIと著作権の問題に関する基本的な考え方(2023年7月24日:JASRAC)

*37 無断・無秩序な利用懸念 生成AIに政府の対応要請 新聞協会が見解(2023年5月17日;日本新聞協会)

*38 生成AIに関する共同声明(2023年8月17日)⇒日本雑誌協会、日本写真著作権協会、日本書籍出版協会、日本新聞協会の4団体による共同声明。

*39 20万冊の本をスクレイピングしたBooks3、その訴訟がAIのあり方を永遠に変える可能性(2023年11月6日:WIRED)

*40 MetaのAIのトレーニングに使われた書籍データセット「Books3」には村上春樹やスティーブン・キングの著作も含まれている(2023年9月29日:GIGAZINE)

*41 メタ、グーグル、マイクロソフトら、生成AIの訓練に著作権使用料の支払い義務生じれば「技術開発が不可能」と反発(2023年9月8日-ビジネスインサイダー)

*42 英国のAI開発者Ed Newton-Rex氏がまとめた、テクノロジー企業が生成AI開発のためにデータを購入した事例の一覧。(2025年1月)

*43 高学歴のギグワーカーがAI学習用コンテンツを作成中…2026年までにデータが枯渇する可能性(2024年4月18日:TECH INSIDER)

*44 海外企業、AI学習目的で日本の画像触手(2025年1月11日:日本経済新聞)

*45 ファインチューニング(Fine-tuning:微調整)とは?(2023年9月11日:ITmedia)

*46 「AIに埋め尽くされる」画像生成AIブームの影で苦悩するアーティスト(2022年9月28日-MIT Technology Review)

*47 NovelAI Diffusion V3の画像まとめ(2023年11月)

*48 リンク先はそれぞれ米作家団体「全米作家協会(AG)」、英作家団体「ALCS※1」、豪&NZ音楽団体「APRA AMCOS※2」の調査。すべてにおいて90%以上の団体メンバーが許諾ありデータのみでの生成AI開発を支持している。※1:該当箇所はリンク先ページ添付のPDFファイル「A Brave New World: A survey of writers on AI,remuneration, transparency and choice」内の5ページに。※2:該当箇所はリンク先ページ添付のPDFファイル「KEY FINDINGS(PDF 715KB)」内の11ページに。

*49 AIを開発するために必要なデータが急速に枯渇、たった1年で高品質データの4分の1が使用不可に(2024年7月23日:GIGAZINE)

*50 robots.txtに関する記載があるのは、内閣府・AI時代の知的財産権検討会「[PDF]中間とりまとめ(案)(2024年4月)(※P39、P48、P53を中心に記載)」、文化庁・文化審議会著作権分科会法制度小委員会「[PDF]AIと著作権に関する考え方について(2024年3月15日)(※P25~27に記載)」、文化庁著作権課「[PDF]AIと著作権に関するチェックリスト&ガイダンス(2024年7月31日)(※P39~P40に記載)」など。

*51 Anthropicによるサイトのスクレイピングを防ぐrobots.txtの内容がすでに古くなっているという指摘、クローラーは24時間で100万アクセスしている事例も(2024年7月30日:GIGAZINE)

*52 生成AI検索エンジンのPerplexityはクローラーを防ぐ「robots.txt」を無視してウェブサイトから情報を抜き出している(2024年6月17日:GIGAZINE)

*53 Trapping misbehaving bots in an AI Labyrinth(2025年3月19日:Cloudflare)

*54 CloudflareがAIクローラーを無限生成迷路に閉じ込める「AI Labyrinth」を発表(2025年3月24日:GIGAZINE)

*55 AIトレーニング用のデータをかき集めるクローラーを無限生成される迷路に閉じ込める「Nepenthes」が開発される(2025年1月27日:GIGAZINE)

*56 AIを訓練する現実世界のデータが足りない問題、その解決策「合成データ」とは--NVIDIAが買収か(2025年3月21日:CNET Japan)

*57 マシン・アンラーニング(野村総合研究所)

*58 マシン・アンラーニングとは?注目される背景と課題(2025年1月6日:Prohub)

*59 OpenAI、DALL・E 3で生成した画像にCP2Aの電子透かし追加(2024年2月7日-ITmedia)

*60 GoogleがAI生成コンテンツに電子透かしを入れてフェイク拡散を防ぐ「SynthID」をテキストと動画にも拡張、一体どうやって文章に透かしを入れるのか?(2024年5月15日-GIGAZINE)

*61 “フェイク画像”を来歴情報により対策―アドビ、「コンテンツ認証イニシアチブ(CAI)」の取り組みを説明(2023年7月20日-InternetWatch)

*62 画像生成AI「Stable Diffusion」のバージョン2.0が登場、出力画像の解像度が拡大&デジタル透かしを入れられる機能も(2022年11月24日-GIGAZINE)

*63 「チャットボットの誤回答に責任はない」と弁解していたエア・カナダに裁判所が損害賠償支払いを命令(2024年2月19日:GIGAZINE)

*64 チャットGPT作成の実在しない判例を裁判書面に記載した弁護士、NY連邦裁判所から制裁金…日弁連は勉強会重ねる(2024年4月5日:読売新聞)

*65 万博「中止になってしもた」 大阪府の生成AI、「珍回答」相次ぐ(2023年10月25日:朝日新聞)

*66 「万博は中止やねん」「すでに終了」大阪府AIが“珍回答”連発 ツッコミどころ満載…吉村知事「これからさらに賢くしていく」(2023年10月18日:FNNプライムオンライン)

*67 生成AIで福岡のPR記事作成→“架空の祭りや景色”への指摘が続出 開始1週間で全て削除する事態に(2024年11月8日;ITmedia)

*68 生成AIで誤情報作成の福岡観光サイト閉鎖へ 実在しない名所紹介(2024年11月28日:毎日新聞)

*69 「ググる」時代の終わり、世界の知識を解き放つ生成AI検索がもたらすもの(2025年1月17日:MIT Technorgy Review)

*70 記事の無断使用でトラブル多発、「AI検索」企業とメディアとの闘い(2025年3月6日:フォーブス)

*71 「AIが作った芸術作品に著作権はない」とアメリカ著作権局がAIの著作権を否定(2022年2月22日-GIGAZINE)

*72 人工知能(AI)が生成した作品は著作権で保護されるか?米国で判決(Thaler事件)(2023年8月22日-Yahooニュース個人)

*73 US appeals court rejects copyrights for AI-generated art lacking 'human' creator

*74 「AIが生成した芸術作品は著作権で保護できない」とアメリカの控訴裁判所が判断

*75 生成AIで600回以上プロンプトを試行錯誤した画像でも著作権登録できない?~米国著作権局の判断~(2023年9月12日-Yahooニュース個人)

*76 画像生成AI「Midjourney」が品評会で1位を取った絵画の著作権保護をアメリカ著作権局が拒否、624回のプロンプト入力とPhotoshopによる修正をしていてもダメ(2023年9月12日-GIGAZINE)

*77 生成AIアートの「著作権を認めない」米当局とクリエイターの戦い(2024年10月1日-Forbes)

*78 AIの作ったアートに初めて著作権登録が認められる(2022年9月27日-GIGAZINE)

*79 「AIで作成したコミックの絵は著作権で保護されない」とアメリカ著作権局が宣言、作者は「素晴らしいニュース」と歓迎(2023年2月24日-GIGAZINE)

*80 【中国】【著作権】AIが生成した画像の著作物性と著作権侵害が初めて認められた中国の裁判例(2023年12月12日-TMI総合法律事務所)

*81 AI-generated images threaten science — here’s how researchers hope to spot them(2024年11月5日:Nature)

*82 生成AIツールで画像や実験データを簡単に捏造できるようになり科学研究が脅かされている(2024年11月13日:GIGAZINE)

*83 有名科学誌の査読済み論文に画像生成AIで作られた「巨大な性器を持つ謎ラットの意味不明なイラスト」が挿入され話題に(2024年2月16日:GIGAZINE)

*84 AI作成「でたらめな図」、論文に掲載 学術誌が撤回(2024年3月1日:日本経済新聞)

  • このWikiのTOPへ
  • 全ページ一覧
  • アットウィキTOP
  • 利用規約
  • プライバシーポリシー

2019 AtWiki, Inc.