「メルカリ」では、芸能人の顔を合成した下着姿などの性的な偽の画像が大量に販売され、NHKがことし8月から今月にかけての状況を確認したところ、俳優や歌手、アイドルなど少なくともおよそ100人、のべ1000点以上が出品されていました。
その後の取材で、18歳未満のアイドルを裸に加工している偽画像が出品され、売買されていたことが新たに分かりました。
雑誌などに掲載されていた写真をAIを使って加工したものとみられ、これらの出品画像は27日までに削除されました。
児童ポルノ禁止法では、18歳未満のわいせつな画像の製造や提供などを禁止していますが、AIで加工された実在の児童のわいせつ画像が児童ポルノにあたるかは裁判例がなく、専門家の間でも意見が分かれています。
法務省刑事局は「一般論として、AIで生成されたものであっても、実在する児童の姿態を描写したと認定できれば、児童ポルノに該当する」とコメントしています。
インターネットに関する法律問題に詳しい森亮二弁護士は「実在する児童であれば、AIを使って加工していようとも、要件をみたせば児童ポルノになる可能性がある。プラットフォーム側は、放置していると、提供行為に加担したことになりかねず、見つけ次第削除すべきで、今後も対策を強化する必要がある」と指摘しています。
メルカリは「事案については認識しており、児童ポルノやそれに類するとみなされる商品の出品については、AIで作られたかどうか問わず、一切禁止しています。禁止されている出品物については、削除などの対応を進めています」とコメントしています。
WACOCA: People, Life, Style.