「Stable Diffusion」とは(かんたんに)
- Stable Diffusion(ステーブル・ディフュージョン)は「画像を作ってくれるAI」です。
- 入力された「テキスト(文章や単語)」をもとに「AI」が写真やイラストをイメージを作成(生成)します。
- TwitterのAIりんなの「お絵描き会場」などにも画像生成AIが使われています。
- 例えば、「高画質な、写真のような、星空(high_quality_photosfull_starry_sky)」と入力すると、以下のようなイメージを生成します。

- 入力したテキストによっては、人物のイラストや、写真を生成することができます。
- 使い方によっては、現実離れした風景や「ゴッホが描いたような」イラストを作ることもできます。
- イラストからイラストを生成することも可能です。

画像生成AIの問題点(かんたんに)
①画像生成AIの学習には、インターネットにアップロードされたあらゆる画像が無許可で使われていること。
②特定のアーティストの画風を真似することができること。
③特定の人物の写真を真似することができること。
④法律違反となる画像を作成することができること。
⑤生成した画像がアーティストの活動や、検索の邪魔になること。
②特定のアーティストの画風を真似することができること。
③特定の人物の写真を真似することができること。
④法律違反となる画像を作成することができること。
⑤生成した画像がアーティストの活動や、検索の邪魔になること。
- 具体例①2022年9月26日に静岡県で発生した水害
「ドローンで撮影した静岡県の水害の画像」と称し、画像生成AIで作った偽の水害画像がTwitterで拡散され話題になった。画像はよく見ると水没している建物が異常に変形しているなどフェイクであることがわかるが「パッと見て、重大な水害と分かる」ため拡散されてしまった。このようにリアルなフェイクニュースやディープフェイクを作成できる危険性もある。
- 具体例②-他人のポルノ画像を作成した場合
AV出演者の顔を2人の女性芸能人とすり替えた動画を公開し、逮捕となった事例もある。この場合は芸能人への名誉棄損、ビデオ制作会社の著作権を侵害となり、ディープフェイクも罪に問われる可能性が非常に高い。
- 日本は「児童ポルノ法」があり、例えばリアルな児童のセクシャルな画像を作ってしまった場合も罪に問われる可能性が高い。この法律は製造・提供(画像を作る)だけでなく単純所持(持っているだけ)でも罪に問われるため注意が必要である。
画像生成AIで作成した画像について
- 画像の著作権などは、使用したAIの規約を確認することが必要。
- pixivではイラスト作品が埋もれてしまうため、AI作品には検索用のタグをつけることが必須。
- SNSにアップロードする際もAIイラストタグをつける、ファンアートタグを使用しないなど注意が必要。
- ファンアートをサムネイルに使用するVtuberでは、AIイラストをファンアートタグで投稿しないよう注意喚起がされている。
詳しくはwikipediaを参考にしてください。https://ja.wikipedia.org/wiki/Stable_Diffusion
参考:児童ポルノ法(https://ja.wikipedia.org/wiki/%E5%85%90%E7%AB%A5%E3%83%9D%E3%83%AB%E3%83%8E)
参考:児童ポルノ法(https://ja.wikipedia.org/wiki/%E5%85%90%E7%AB%A5%E3%83%9D%E3%83%AB%E3%83%8E)