当前位置:AIGC资讯 > AIGC > 正文

​Nightshade:使AI模型在未经许可的情况下无法训练图片

据报道,芝加哥大学的研究人员开发了一种名为Nightshade的工具,旨在防止未经许可的AI图像生成。该工具可以使AI图像生成器无法使用未经许可的图像进行训练,从而保护了艺术家和版权所有者的作品。

Nightshade的工作原理是在图像中添加隐藏信息,这些信息对人眼不可见。当像Stable Diffusion这样的AI图像生成器尝试使用这些图像进行训练时,这些额外的信息会导致生成的输出失真,从而防止图像被有效地用作训练数据。即使用户对这些被“毒害”的图像进行裁剪、编辑和压缩,效果也仍然存在。Nightshade甚至在对被“毒害”的图像截屏或在显示器上显示时也能起作用;任何由此产生的图像如果被AI模型处理,都会产生失真。

相比于其他工具,如Stability提供的选择退出机制,Nightshade的设计初衷是增加使用未经许可内容的图像生成器开发者的成本。Nightshade还不同于Glaze,后者旨在阻止AI模型未经许可地训练图像,而Glaze则旨在增加AI模型复制艺术家独特风格的难度。

Nightshade工具对任何人都是可用的。用户可以从该项目的网站上下载,并且可以在Windows和Mac上运行。运行Nightshade不需要任何额外的GPU驱动程序。

Nightshade加入了越来越多的工具,为艺术家保护其作品,例如麻省理工学院的PhotoGuard,它创建了扭曲AI编辑图像的“掩码”。

此外,还有一些其他工具,如谷歌DeepMind的SynthID和Meta的Stable Signature,可用于识别由AI创建的图像。然而,这些工具仅适用于特定的图像生成模型,仅为Imagen和Emu等模型提供功能。

产品入口:https://top.aibase.com/tool/nightshade

更新时间 2024-04-09