+ | 編集者の方へ |
- 【0. はじめに】
- 【1. 生成AI開発時のデータ収集に関する問題】
- 【2. 偽情報・コンテンツの作成・拡散】
- 【3. AI製ポルノ・AI製児童ポルノ】
- 【4. デジタルデータの信頼性が低下する可能性】
- 【5. インターネットの汚染】
- 【6. ハルシネーション(幻覚)問題】
- 【7. クリエイティブ関係における生成AIの問題点】
- 【8. 学術・研究に関する問題】
- 【9. 教育に関する問題】
- 【10. 失業・働き方に関する問題】
- 【11. 電力・環境に関する問題】
- 【12. 脱獄・犯罪利用】
- 【13. その他の問題点】
- 【14. 生成AIに関する論点】
- 【関連ページ】
【0. はじめに】
0-1. AIとは、生成AIとは
機械学習はAI分野の中の一分野であり、さらにはその機械学習分野をより発展させた分野として「深層学習(Deep Learning)」が存在し、現状の生成AIでは主に「機械学習」と「深層学習」の技術・手法が使われている。

引用:文化庁[PDF]令和6年度著作権セミナー「AIと著作権Ⅱ」・第1部 生成AIと著作権・P9より
※ただし本図は、生成AIの技術的な仕組みというよりも、法律上の取り扱いについて解説するのが主である点に注意。
0-2. 生成AIの主な問題点
非常に問題点が多く、それぞれの問題点が関係しあう事も多いからだ。
- ①:無断利用である事による問題。(主に開発時の問題)
- ②:誰でも簡単にある程度のクオリティを持つコンテンツが作れ、なおかつ大量生産できる事による問題。(主に利用時の問題)
- ③:その他の問題。
また、生成AIが生成できるコンテンツの品質やその範囲は、良くも悪くも収集したデータの量や、データの内容がどれだけ多種多様かに左右される。
イラストや音楽、小説など創造的なコンテンツを生成可能な生成AIでも、プロアマや実力を問わず様々なクリエイターが制作した作品データが大量に集められた上で構築されていることが多い。
出来事や知識を教えてくれるAIでも、その「元ネタ」は報道機関の記事やブログ、Wikiなどである。
ディープフェイクの代表例として、特定の人物の不評や誤解に繋がるようなデマ、災害や戦争でのデマ、偽ポルノの作成などがある。
これによって、知らない所で勝手に自分の信頼を傷つけるようなフェイクや、あるいは社会を大規模に混乱させるようなフェイクが広まる事態がすでに起きている。
+ | ※2025年4月7日以前の記載 |
【1. 生成AI開発時のデータ収集に関する問題】
大量のデータを集める際に利用される方法として、インターネット上のウェブサイトをウェブクローラーで巡回し、データや情報を取得(複製)する方式(スクレイピング)を用いられる事が多い。そして、収集したデータを元に機械学習のための処理を行った「データセット(Dataset)」を作成し生成AI開発に利用する。また、(機械学習への利用や権利者の意思とは関係なく)あらかじめ収集され、ウェブサイト上に公開されたデータ群をデータセットとして利用することもある。
大げさかもしれないが「デジタルデータ化できるあらゆるコンテンツ」が収集されている、あるいは収集されうると考えるぐらいがちょうどいいのかもしれない。
1-1.データ収集過程における諸問題
①個人に関するデータの無断利用
これらのデータはインターネットから無差別に収集する事が一般的だが、一方でSNSにおいてSNS運営とAI開発を同時に行っている企業が自社SNSに投稿された自撮りなどの写真や文章といったデータを利用しているケースもある。(X/旧Twitter(*5)やInstagram、Facebook(*6)など。当Wiki「強制オプトイン」の項目も参照)
アメリカでは、2023年6月に個人情報を同意なく取得しておりプライバシー法に違反しているとして、OpenAIが匿名の個人複数人から提訴された(*18)(*19)。2025年1月には、米ビジネス向けSNS「LinkedIn」の運営を被告として、同社が無断でプライベートな電子メールの一部を複数の第三者に開示したのは違法であるとして、LinkedInのユーザーが訴訟を提起した。これに対しLinkedInは、「根拠のない主張だ」と争う姿勢を見せている。(*20)

②ポルノコンテンツなど不適切データの利用
③クリエイター・権利者が権利を有するデータの無断利用
- ⇒団体の声明などは「生成AIに対するクリエイター団体・企業などの反応・対応」へ。
- ⇒権利者とAI企業の裁判は「生成AIに関する訴訟・法的対応一覧」へ。
法的な扱い
しかし、2022年ごろから生成AIの無秩序な開発・公開によってクリエイターや権利者が一方的に損害を受ける状況となったことで、「現状と合っていない」として同法の改正もしくは解釈変更をすべきとの主張が国内の権利者団体やクリエイターなどから為されている。(*38)
1-2.現状に対する解決案
しかし、これらの案も様々な問題があるため実現にはほど遠い。
⇒「クリエイター関連で提唱されている生成AI規制案」も参照。
案1:データを利用したら対価を支払う?
- 基盤モデルで利用したデータへの対価還元
これとは違う方向性として、生成AI開発用コンテンツを作成する業務を高学歴ギグワーカーなどに委託する「ネットにあるデータを無断で使うのではなく、専門知識を持つ者などにデータ作成を依頼する」ケースも見られている。(*43)
一方で、生成AI開発企業から画像データの購入を提案されたが、1枚数十円程度と極端に安い額を提示されたとの事例も存在する。(*44)
- 特化モデルに対する対価還元
案2:データ収集を許諾制に&データ利用拒否制度・機能を設置する?
一方で、AI開発側からすれば利用できるデータが減ったり、許諾を得る手間などがかかったり、利用可能なデータの減少によるAI生成コンテンツの質低下などのデメリットがある。
そして「拒否意思を示せば利用されない」という特性上、権利者側にとっても利益があるようなシステムに一見見えるが「何をもってしてオプトアウトが成立したといえるのかの不確実さ」「オプトアウトシステムの存在が多くの人に対して伝わらないのではないか」「オプトアウトがどのような方式を取られるかによっては、権利者側の負担が大きくなるのではないか。特に個人クリエイターなどへの負担が重たくなるのではないか」などといった複数の問題が指摘されている。(提案されている規制案、オプトアウトの項目を参照)
案3:robots.txtなどのツールを利用してサイトへのクローラーのアクセスをブロックする?
robots.txtは、そのウェブクローラーのアクセスをウェブサイト側がどの程度受け入れるか選択することができる技術である。
しかし、AI企業がサイト側によって設定されたrobots.txtを迂回しアクセス拒否されたクローラーとは別のクローラーを用いデータ取得を試みたことが報道されるなど、robots.txtを用いてクローラーをブロックするという手段は機能していると言い難いのが実情だ。
その他
⇒クリエイター関連で提案されている規制案などについては「クリエイター関連で提唱されている生成AI規制案」へ。
【2. 偽情報・コンテンツの作成・拡散】
2-1. 画像生成AIのフェイク
- 2022年9月:静岡県などを襲った台風15号による災害が起きた際に作成・拡散された。あるツイッター(X)ユーザーが画像生成AIを用いて街全体が浸水している様子を空から取った画像を作成。これを「ドローンで撮影された静岡県の水害の様子」との内容のキャプションを付け投稿した。
・静岡県の水害巡りフェイク画像が拡散 画像生成AIを利用 投稿者はデマと認めるも「ざまあw」と開き直り(2022年9月26日-ITmedia) - 2023年3月:画像生成AIサービスMidjourneyのユーザーが作成した「アメリカの前大統領ドナルド・トランプ氏が警察官に連行されるフェイク画像」が投稿、Midjourney運営は当該ユーザーを利用禁止処分とした。
・画像生成AI「Midjourney V5」を利用して偽の「トランプ前大統領が逮捕された」画像を生成した人物が利用禁止処分を受ける(2023年3月23日-GIGAZINE) - 2023年5月:「ペンタゴン付近で爆発が起きた」との内容のフェイク画像が作成、拡散された。この画像は有名メディアの公式ツイッターを装った偽アカウントで投稿されるという巧妙さであった。幸いすぐにフェイク画像であると広まった為大きな被害はなかったものの、アメリカの株式市場において売り注文が殺到するという事態が発生した。
・AIが生成したペンタゴン爆破の偽画像で米株式市場が大荒れするまで(2023年5月26日-GIZMODO)
2-2. 音声生成AIのフェイク
- 2023年1月:ElevenLabsがβ版として無料公開した音声生成AIにより、著名人らの偽音声の作成が相次いだ。
・新たなAI音声生成ツール、公開直後から著名人の声でヘイトスピーチや不適切発言させるディープフェイクボイスが横行(2023年2月1日-TechnoEdge) - 2023年2月:ニュースサイトのライター・ジョセフ・コックス氏が、無料で使える音声AI(ElevenLabs)を使って自分の銀行口座にアクセスできたことを報告。
・無料で使えるAIが生成した声で銀行口座への侵入に成功したとの報告(2023年2月24日-GIGAZINE) - 2023年5月:マカフィー株式会社、日本を含む世界7ヵ国を対象にしたオンライン音声詐欺に関する調査報告「The Artificial Imposter」を発表。
・AI(人工知能)を悪用した音声詐欺が世界で増加中(2023年5月17日-PR TIMES) - 2024年2月:生成AIにより作成されたとみられる「ジョー・バイデン大統領の声で予備選に投票しないよう呼びかける自動音声電話」が約5000~2万5000件発信され、発信元として特定された企業・プロバイダーに対し刑事捜査通告がなされた。
・AI製「偽バイデン」の電話、発信元はテキサス州企業 犯罪として捜査(2024年2月8日-Forbes)
2-3. パブリックコメントなど政策議論の場における少人数での大量投稿
- 2025年2月:経済産業省が募集したエネルギー基本計画のパブリックコメントへ、生成AIを利用したとみられるコメントが投稿される。AIで作成されたコメントは全体の1割ほどとみられ、10件以上投稿した46人だけで計3940件の意見を送付していた。一人の最大投稿数は457件にものぼる。この基本計画は原発の活用を最大限進めるもので、AI作成のコメントは大半が反原発関連のものであった。
・AI利用で4千件投稿か エネルギー基本計画の意見公募 46人で全体の1割、反原発大半 (2025年2月20日:産経新聞)
・大半は反原発…生成AI使い46人が3940件の“パブリックコメント”を政府に大量投稿 原発“最大限活用”打ち出したエネルギー基本計画(2025年2月20日:FNNプライムオンライン) - 2025年3月:仙台市が募集した宿泊税に関するパブリックコメントにおいて、投稿された420件のうち2割にあたる約80件がAIで作成したものであると判明したケース。
AI作成の大量投稿に苦慮(2025年3月11日:新潟日報)
【3. AI製ポルノ・AI製児童ポルノ】
3-1. AI製ポルノ問題
- 1.有名人・一般人を問わず特定人物の顔立ちへ意図的に寄せたもの
- 2.既存の写真の一部を生成AIを用い性的に加工したもの
- 3.特定人物の顔立ちなどには意図的に寄せていない、ただプロンプトなどを打ってポン出ししたもの
3-2. AI製児童ポルノ問題
関連記事2⇒「AI-generated child sex images spawn new nightmare for the web」(2023年7月19日-ワシントンポスト)
関連記事3⇒「生成AIの児童性虐待画像を売買 日本のソーシャルメディアなどで」(2023年6月28日-BBC日本語版)
【4. デジタルデータの信頼性が低下する可能性】
4-1. 詐欺への使用
⇒マカフィーによる調査結果の詳細「AI(人工知能)を悪用した音声詐欺が世界で増加中」(2023年5月27日-PRtimes)
⇒Traumatized Ariz. mom recalls sick AI kidnapping scam in gripping testimony to Congress(2023年6月14日-Newyork post)
4-2. 司法の場などにおけるデータ証拠信頼性低下の可能性
関連記事2⇒「生成AIによるフェイクコンテンツとの戦いは、ウォーターマークが導入されても終わらない」(2023年8月7日-WIRED)
【5. インターネットの汚染】
5-1. 汚染の事例(編集中)
5-2. 汚染問題への対策
昨今のAI生成コンテンツをめぐる混乱は、テクノロジー企業同士の苛烈な開発競争や悪用対策が不十分なまま開発だけは進んだこと、慎重に実装すべきである技術にも関わらず経済的利益などを目的に踏むべき過程を飛ばしてしまったのが原因とも批判される。
【6. ハルシネーション(幻覚)問題】
なお、この言語モデルのデータ量、計算量、パラメータ量を大幅に強化することで、より高度な言語理解を可能としたAIモデルを「大規模言語モデル(Large Language Model・LLM)」と呼ぶ。LLMが世界的に注目され活用が進んでいることから、本項目ではLLMの話をメインとする。現在注目されているLLMとしてOpenAIのChatGPTやxAIのGrokなどが挙げられる。
6-1. ハルシネーションによって引き起こされる主な問題
- ①.間違いや事実誤認が致命的となる場面において、生成AIが出力する情報を過度に信頼してしまうか鵜呑みにした結果、重大な問題を引き起こしてしまう。
- ②.生成AIが生成した間違いを含む情報が、生成AIに対して過度な信頼を有する人々によってSNS上などで拡散され、事実のように扱われてしまう。
- ③.AI生成されたハルシネーションを含む不正確な情報がインターネット上に大量投稿され続けた結果、情報を得る場としてのインターネットが破壊される可能性。
以下にその一例を挙げる。
- 2022年11月~:航空会社エア・カナダが利用客向けにチャットボットを導入したが、忌引き割引について誤った情報を生成し、その内容を信じた利用客がチケットを予約したものの割引申請を拒否されたケース。エア・カナダ側は利用客から訴訟を起こされ、最終的に敗訴した。(*63)
- 2023年5月:アメリカの弁護士が裁判において、ChatGPTが誤って生成した実在しない判例を裁判資料として持ち込んでいたケース。弁護士は最終的に制裁金5000ドルを支払う事となった。(*64)
- 2023年10月:大阪市がLINEを通じた高齢者向けの支援事業として「大ちゃん」というチャットボットを導入するも、大阪万博について「中止になったみたいやで」と回答するなど事実とは異なる回答を連発したケース。(*65)(*66)
- 2024年11月:福岡県の魅力や特産品などを紹介するサイト「福岡つながり応援」に書かれていた情報が、存在しない祭りや他県の施設を紹介するなどAI製の不正確な情報が多いとネット上で指摘されたケース。同サイトは2024年11月1日にサービスを開始したものの、1か月後に閉鎖された。(*67)(*68)
6-2. ハルシネーションの原因
言語モデルは、人間が話したり書いたりする「言葉」や「文章」をもとに、単語の出現確率をモデル化する技術です。具体的には、大量のテキストデータから学習し、ある単語の後に続く単語が、どのくらいの確率で出現するのかを予測します。たとえば、「私の職業は」という文章の後に続く単語として、「医者です」「SEです」「保育士です」は確率として高いと判断し、「黄色」「海」などは低いと判断していき、言語をモデル化していきます。こうして言語モデルは、単語の出現確率を統計的に分析することで、人間の言語を理解し、予測することができるようになります。
- ハルシネーション(野村総合研究所)
- 解説:生成AIのハルシネーションはなぜ起きるのか(2024年6月24日:MIT Technology Review)
【7. クリエイティブ関係における生成AIの問題点】
7-1. クリエイティブ業界において生成AIが引き起こす共通の問題点
1. 生成AI開発時の作品無断利用問題
2. 著作権などの諸権利が死文化する可能性
3. AI特有の大量生産による弊害
4. コンテンツ制作においてAIが「主」人間が「従」になる事の問題点
5.作風など個性を模倣したAIモデルの存在
- 【無断でのコピー、無秩序な拡散】クリエイターのアイデンティティが本人の許諾を取られることなく生成AIでコピーされ、ネットを通して無秩序に拡散される事に伴う精神的苦痛。
- 【悪意のある利用による信用の毀損】自身の個性がなりすまし、特定の政治思想の宣伝、アダルト目的、言っていないことを言わされるなどクリエイター自身が意図しない、認知していない状態で利用され、本人の制作物であると第三者に勘違いされることなどによって、築いてきた評価・信頼が思わぬ形で毀損されてしまう。
- 【市場の競合】自身の個性を無断で模倣した生成AIモデル、そのAIモデルより出力されたAI生成コンテンツがクリエイターの活動する市場と競合。クライアント側がAIを選択する事により、クリエイターが仕事の機会を失う。
- 【AI使用の不当な疑い】無断で自身の個性を模倣したAIモデルを作られ、そのモデルから出力されたAI生成コンテンツがSNS・ネットなどに投稿され多くの人の目に触れることで、「AIがよく出力するスタイル(個性)」と誤認される。これにより、個性を創り上げた本人やその個性に近いスタイルの作品を作るクリエイターが、AI製コンテンツを人の制作物と偽装しているのではないかと疑われてしまう。
特定のイラストに対し、AI利用を疑う側がその根拠として挙げるものの一つとして「AIっぽい絵柄」だからというものがある。
loading tweet...— MAH (@MAH_konnyaku) September 22, 2024
7-2. アート・イラストレーションに関する問題
⇒6歳児を含む1万6000人の作家リストが流出。AIの訓練に使用したとしてMidjourneyに非難が殺到(2024年1月5日:ARTnews Japan)
⇒代表的な画像生成AI「Stable Diffusion」を開発した、英StabilityAI日本支社Xアカウントによるネガティブプロンプトの解説。
⇒当Wiki「自作品を守るためにできること」も参照。
7-3. 写真家・写真業界に関する問題
7-4. 文芸に関する問題
記事⇒「AI使うから報酬安く」フリーライターに突然の要求、違法の恐れも(2023年8月10日-朝日新聞)
記事⇒AIが書いた本が勝手に自分の名義で売られていたら…著者保護ルールが必要(2023年8月9日-GIZMODO)
7-5. 音楽に関する問題
7-6. 俳優・声優に関する問題
7-7. プログラムに関する問題
7-8. 報道機関に関する問題
- 生成AI開発企業がメディア側への許諾も対価もなく無断で記事を生成AIの開発に利用し、その記事を再構成したAI生成コンテンツがメディアの記事と市場競合する(メディアが公開した有料記事と文章や構成が似ている記事が生成AI検索エンジンによって生成されていたとのケースもある。(*69))
- AI生成されたフェイクニュースが溢れることによって言論空間が混乱する
- 質問や検索の内容に応じて回答となるテキストを生成し、その回答の参考にされた記事を出典表記している生成AIサービスにおいて、実際の記事内容とは異なる不正確な生成結果を出力(ハルシネーション)した状態で出典が表記された場合、メディア側に落ち度がないにも関わらず出典となったメディアの信頼性も疑われてしまう
さらには、クローラーがかなりの回数サイトへアクセスしてくるため、サイト側のサーバーコストを増加させるという問題も引き起している。(*70)
⇒世界AI原則(Global Principles on Artificial Intelligence・仮訳)(2023年9月6日:日本新聞協会)
⇒生成AI開発や著作権に「世界原則」…知的財産保護や透明性確保要求、日本新聞協会も賛同(2023年9月6日:読売新聞)
⇒[PDF]生成AIによる報道コンテンツ利用をめぐる見解(2023年5月17日:日本新聞協会)
⇒生成AIにおける報道コンテンツの無断利用等に関する声明(2024年7月17日:日本新聞協会)
訴訟の一例として、ニューヨークタイムズが2023年12月末にChatGPTの開発などで知られるAI企業OpenAIとマイクロソフトを提訴したもの、米地方紙8社連合が2024年4月にOpenAI・マイクロソフトを提訴したもの、2024年11月にカナダメディア5社が合同でOpenAIを提訴したものなどが挙げられる。
⇒各訴訟についての詳細は当Wiki「生成AIに関する訴訟・法的対応一覧」へ。
7-9 AI生成コンテンツの著作権問題
また、著作権と言う難しい話を扱うのでここに記載されたもの以外にも脚注に添付した記事や資料を読んだり、それぞれ個人で調べることを強く推奨する。
1.アメリカでの動き
- 「A Recent Entrance To Paradise」
「Creativity Machine(DABUS)」というアルゴリズムによって作成されたAI画像作品で、AI研究者であるスティーブン・セイラー氏が著作権局へ著作権登録を申請したが、2022年2月に申請が拒否された。(*71)
その後セイラー氏は著作権局へ訴訟(Thaler v. Perlmutter)を起こすも2023年8月に同氏の主張を否定する判決が下された。(*72)また、控訴審においても「著作権で保護されるのに必要な人間の著作権の要素が含まれていない」として裁判所は1審の判決を支持し、著作権を認めない決定を2025年3月に下した。セイラー氏は判決に不満を持っており上告する予定である。(*73)(*74)
- 「Theatre D'opera Spatial」
画像生成AI「Midjourney」などを利用し制作されたデジタル絵画で、ジェイソン・アレン(Jason M. Allen)氏によって制作された。2022年8月に米コロラド州の美術品評会で1位を獲得、このことは画像生成AIが本格的に話題になり始めていた時期であったためAIと創作について当時大きな議論を呼んだ。
アレン氏は著作権局へ同作品の著作権登録を求めたが、2023年9月に「AI生成された素材を含む作品を著作権登録するには、著作権登録申請の対象からその素材を除外する旨を明示する必要があるが、同作品の作者はしなかった」などとして著作権局側は登録を拒否した。同氏は「テキストプロンプトを少なくとも624回入力し、同時にAdobe Photoshopなどを利用し多数の修正も行った」と主張したものの、著作権局は登録拒否の理由として、「Midjourneyは人間の様に文法や文章構造、単語を理解している訳ではないので、Midjourneyはプロンプトを特定の表現を作成するための具体的な指示として解釈していない」などを挙げた。(*75)(*76)
アレン氏は2024年10月に著作権局に対し法的措置を取ると発表した。(*77)
- 「Zarya of the Dawn」
クリス・カシュタノバ(Kris Kashtanova)氏が画像生成AI「Midjourney」などを利用して制作したグラフィックノベル(漫画の一種)。カシュタノバ氏は、2022年9月に一度著作権局より著作権登録を認められたと発表した(*78)が、2023年2月にグラフィックノベル内の画像については「作者は各画像の構成や内容の『指導』をしたと主張したが、説明された制作プロセスを踏まえれば『画像の伝統的著作者の要素』を創作したのはMidjourneyである」などとして著作権登録を受けず、テキストと記述、視覚的要素の選択、調整、配置などは著作権を認められた。(*79)
2.中国での動き
- 「春风送来了温柔(春風が優しさを運んでくる)」
画像生成AI「Stable Diffusion」で作成されたAI画像で、作成者である原告はその画像を中国のSNS「小紅書(RED BOOK)」にアップロードした。その後、バイドゥ(百度)が運営する創作プラットフォーム「百家号」で、被告側が発表した文章「桃の花の中の三月の愛情」内に原告が画像に付した署名が取り除かれる形で利用されているのを発見し、北京の裁判所に損害賠償を求める訴訟を提起した。2023年11月、裁判所は画像の著作物性と著作権侵害を認める判決を下した。(*80)
3.日本での動き
+ | 長いので折りたたみ |
7-10 既存のコンテンツとAI生成コンテンツの見分けが難しい事に関する問題
1.実際に起きている問題、今後懸念される問題
- 既存のクリエイターへのなりすまし行為。
- 人間の作品とAI生成作品の識別において、確実に見分けられる手段が存在しないこと。人間の目や耳、AI生成物検知ツールなどを使って区別しようにも、AI生成物のクオリティ向上や検知ツールを回避する技術の進歩などによって結局はいたちごっこになる。
- 生成AIを利用せず作品制作を行っているにも関わらず、AI生成物のクオリティ向上に伴う判別の難易度向上、または悪意や根拠薄弱な断定に基づいて生成AIを利用していると不当に疑われてしまうこと。
- 既存の手法で作成された作品を購入したはずがAI製だったケース。
- 生成AI製作品の参加を禁ずるアートコンテストなどにおいて、AI生成コンテンツであることを隠して応募されていた場合の混乱。
- 特にクリエイティブ系企業の社員採用(就職活動)において、応募者側がポートフォリオなどにAI生成作品である旨を表記しない状態で掲載、実績が誤認された結果、企業側が求めるスキルとは異なるスキルを持った応募者を誤って採用、その採用後に起こる混乱。(実技試験の導入などによってこのトラブルは回避可能とされる)
- 一般的にAI生成コンテンツは著作権が認められにくいとされるが、それによって生じる作品の発注、制作、発表、利用時における権利関係の混乱。作品の作成者が意図的かどうかを問わずAI生成かを隠蔽していた場合や、作品の発注・利用者がAI製であることを知らなかった場合はなおさら深刻に。
- AI生成作品の著作権登録を試みようとする行為。主な問題は以下の二つに分けられる。
①制作者がAI生成作品であることを公表せず登録を試みる可能性
②AI生成作品に著作権が付与される条件が不確実であること
2.著作権法上の課題
3 いわゆる「僭称著作物問題」について
人間による指示に何ら創作意図や創作的寄与がなく、AIが自律的に生成した単純なAI生成物は、機械的作業の結果に過ぎないため、基本的には著作物性が認められないとされている。ところが、生成AIでは、人間の創作物と見分けのつかない情報が生成可能となっており、そのため、AIが生成したものであるため著作物と認められないコンテンツについて、人間が創作したものであると明示又は黙示に僭称されるという問題が生じ得る(いわゆる「僭称著作物問題」)。
このような行為が許され僭称が発覚しないままとなれば、著作権で保護されないものが保護され、実在しない著作者又は著作者でない者に著作者人格権が与えられるという形となってしまい、しかも著作者が実在しない場合には、権利の存続期間もさらなる虚構を重ねることとなってしまう。また、生成AIでは人間より遥かに高い生産性で創作物が生成可能となっており、AI利用者による情報独占も懸念される。さらに、僭称が発覚した場合には、僭称されたコンテンツのライセンス契約やビジネススキームが崩壊する恐れも生じる。以上からすると、僭称著作物問題については、本素案においても債務不履行責任や不法行為責任等の民法上の責任及び詐欺罪の成立可能性について言及されているところではあるが(本素案35頁~36頁)、著作権制度の根幹に関わり、かつ、著作権関連ビジネスにも重大な影響を与え得るものであると考えられるため、今後、重要問題として位置付けた上で議論を継続することが意識されるべきである。
なお、著作権法第121条は、著作者でない者の名を著作者と僭称して複製物を頒布することを罰しているが、著作物でないAI生成物に同条が適用されるかは解釈若しくは法改正に委ねられるところ、僭称著作物問題の検討にあたっては、この著作権法第121条についても議論の対象となると考えられる。
- 「AIと著作権に関する考え方について(素案)」に対する意見書(2024年2月16日-日本弁護士連合会)