AIポルノ、芸能人262人模す 名誉毀損の判断基準なく 立証は困難 | 毎日新聞
生成AI(人工知能)を悪用して作る性的な偽画像「ディープフェイクポルノ」に関し、警視庁は実在する女性タレントに酷似させたポルノ画像の作成・販売を摘発した。 押収されたパソコンからは、262人の女性芸能人を模したポルノ画像が見つかった。写真の加工ではなく、全て生成AIで作られたとみられる。