Stable Diffusion及びMidjourneyで使用されたとされるデータセット内には児童ポルノ禁止法やわいせつ物頒布等罪に違反する画像が収録されている。stability AIとMidjourneyからNSFW画像をデータセットから取り除いたと発表があったが、入力できるテキストにフィルターをかけただけにすぎず、学習データ内に違法コンテンツは残っている。また学習データに対して行われるタグ付け作業は機械判断で行われており、ほかの文字に紛れ込んで描画用データとして利用できる可能性は十二分にある。
リークモデルから作成した画像生成AIはこの制限すら受けることができず、無法状態となっている。
リークモデルから作成した画像生成AIはこの制限すら受けることができず、無法状態となっている。
これらの違法画像を出力する可能性がある画像生成AIは違法ではないかとツイッターで糾弾するアカウントが現れる
児童ポルノがデータセットの内部に含まれる証拠として投稿された画像(投稿時はモザイクなし)

児童ポルノがデータセットの内部に含まれる証拠として投稿された画像(投稿時はモザイクなし)

凍結


「個人を特定できなければ画像生成されたものでも非実在未成年ではないか」とする論説が登場したが、画像生成AIにはそのようなプライバシーに配慮した加工をする知能はなく、個人情報につながるパーツがランダムで描画される可能性が高いため、机上の空論であると言わざるを得ない。
学習データがそのまま出力される例などAIというソフトウェア自体が個人情報漏洩リスクをもつため、画像生成AIによって発生する犯罪被害は水面下で増殖しているものと考えられる。
学習データがそのまま出力される例などAIというソフトウェア自体が個人情報漏洩リスクをもつため、画像生成AIによって発生する犯罪被害は水面下で増殖しているものと考えられる。
- 記事(生成AIの仕組みに関する論文)
- 「AIへの攻撃」に3つの手法、日立がセキュリティーフォーラムで説明