「自分の絵を画像生成AIから守る」――学習される前に絵に“ノイズ”を仕込みモデルに作風を模倣させない技術「Glaze」【研究紹介】

米シカゴ大学に所属する研究者らは、テキストから画像を生成する拡散モデルにおいて、絵に仕込んだノイズで学習後のモデルを騙し、作風を模倣した絵を出力させない技術を提案した。学習される前に自分で描いた絵に敵対的な摂動を仕込むことで、学習されてもモデルの出力が誤った画像になるという。