No.317
Nightshadeは、画像などにAIにとっての誤解要素、「毒」を仕込む技術。
以前見た技術サンプルだと、あまり効果はなさそうだったが、
効果が高いなら「権利者の自衛」としては有効な手だと思う。
ただ、AIの学習観点からすると、そういう画像ばかりを学習すると無能側になってしまう。
AIに悪気はない。
AIに学習させたくない、という印を、AIと権利者側の双方で合意しておかないと、どちらも不幸になる。
Nightshade, the tool that ‘poisons’ data, gives artists a fighting chance against AI
https://techcrunch.com/2024/01/26/nights...
以前見た技術サンプルだと、あまり効果はなさそうだったが、
効果が高いなら「権利者の自衛」としては有効な手だと思う。
ただ、AIの学習観点からすると、そういう画像ばかりを学習すると無能側になってしまう。
AIに悪気はない。
AIに学習させたくない、という印を、AIと権利者側の双方で合意しておかないと、どちらも不幸になる。