当前位置:AIGC资讯 > AIGC > 正文

如何使用Nightshade保护艺术品免受生成式AI的侵害

译者 | 陈峻

审校 | 重楼

如您所见,当前正在发生的这场人工智能(AI)革命已经席卷了各行各业。其中给人最直观的感受便是,在基于交互式人机对话的基础上,AI算法不但可以生成类似人类语言的文本,而且能够根据一个(组)单词创建图像和视频。不过,这些人工智能工具(尤其是像DALL-EMidjourney等从文本到图像的生成器)所使用的训练数据,往往来自受版权保护的数据源。

而在数字世界中,阻止人工智能生成工具使用受版权保护的图像进行训练,通常是非常困难的。一直以来,各行各业的艺术家们都在以不同的方式,努力保护着自己的作品,免受人工智能训练数据集的影响。

现如今,随着Nightshade的出现,这一切将会发生根本性的改变。简单而言,Nightshade是一款免费的人工智能工具,可用于对生成式人工智能工具的输出进行“毒化”,并最终让艺术家们能够捍卫自己的版权。

什么是人工智能毒化(AI Poisoning)?

从概念上说,人工智能毒化是指在人工智能算法的训练数据集中“下毒”的一种行为。这类似于故意向人工智能提供错误的信息,导致经过训练的人工智能因失灵而无法检测到图像。在技术上,Nightshade之类的工具可以通过改变数字图像中的像素,使其在人工智能的训练下看起来完全不同。而这种改变,从人眼的角度看来,仍然与原始的图像基本一致。

举例来说,如果您将一张毒化了的汽车图片上传到互联网上。在我们人类看来,它的外观并未发生变化。然而,如果人工智能试图通过观察互联网上的这张汽车图片,以训练自己识别汽车的能力的话,那么它可能识别到的是完全不同种类的物品。

此外,在人工智能的训练数据过程中,鉴于规模效应,如果有足够多的伪造或毒化了的图像样本,那么就会影响人工智能的理解准确度,进而折损其根据给定提示,生成准确图像的能力。

虽然生成式人工智能的技术仍在突飞猛进地发展,但是就目前而言,作为模型训练基础的数据,一旦发生了逃过人眼可见的错误,就会潜移默化地损害模型后续的迭代。这样就起到了我们保护原创数字作品的效果。也就是说,据此,那些不想将其图像用于人工智能数据集的数字创作者,可以有效地保护自己的图像作品,不会在未经许可的情况下,被导入到生成式人工智能中。

目前,已有一些平台开始为创作者提供此类可“不将作品纳入人工智能训练数据集”的选项。当然,对于人工智能模型训练者而言,他们也需要对此引起足够的重视。

Glaze等其他数字艺术品保护工具相比,Nightshade的实现方式是截然不同的。Glaze可以防止人工智能算法模仿特定的图像风格,而Nightshade则能够从人工智能的视角改变图像的外观。当然,这两款工具均由芝加哥大学计算机科学教授Ben Zhao开发。

如何使用Nightshade

虽然该工具的创建者建议用户将NightshadeGlaze一起使用,但是它其实也可以作为一个独立的工具,来保护用户的作品。总体而言,使用该工具并不复杂,您可以仅通过几个步骤,仅使用Nightshade来保护自己的图像作品。不过,在开始之前,您需要牢记如下三件事:

  1. Nightshade仅适用于WindowsMacOS,而对于GPU的支持比较有限,且要求至少拥有4GB VRAM。目前它并不支持那些非英伟达的GPU和英特尔Mac。幸好Nightshade团队提供了支持Nvidia GPU的列表链接-- https://developer.nvidia.com/cuda-gpus(您可能会注意到:GTXRTX GPU就位于“CUDA支持的GeForceTITAN产品”部分)。此外,您也可以在CPU上运行Nightshade,但是其性能会有所降低。
  2. 如果您使用的是GTX 166016501550,那么PyTorch库中的一个bug会导致您无法正常启动或使用NightshadeNightshade背后的团队可能会在未来通过从PyTorch迁移到Tensorflow的方式,来修复该问题,不过目前尚无较好的解决方案。而且,该问题还延伸到了此类显卡的Ti变体上。在测试中,我虽然在Windows 11电脑上为其提供了管理员访问权限,但是仍需等待了几分钟才能够打开该程序。希望您的情况会有所不同。
  3. 如果您的作品上有很多实体形状或背景,那么您可能会遇到一些伪影(artifact)问题。这可以通过降低“毒化”强度来解决。

您需要执行如下步骤,来具体使用Nightshade对图像实现保护。请记住,本指南虽然使用的是Windows版本,但它同样适用于macOS版本。

  1. Nightshade下载页面处下载其Windows或macOS版本。
  2. 由于Nightshade是以存档文件夹的形式被下载到本地的,因此无需额外安装。在下载完成后,您只要解压其ZIP文件夹,并双击运行Nightshade.exe即可。
  3. 如下图所示,在弹出的界面上,请点击左上角的“选择”按钮,选择要保护的图像。注意,您可以同时选择多个图像进行批处理。
  4. 根据自己的喜好,您可以通过滑块来调整对图像进行操作的强度(Intensity)和渲染质量(Render Quality)。数值越高,毒化效果越强,但是也会在输出图像中引入伪影。
  5. 接着,请单击“输出”部分下的“另存为”按钮,为输出文件选择目的地。
  6. 最后,请点击底部的“运行Nightshade”按钮,以运行程序并完成对图像的毒化。

同时,您也可以选择“毒(poison)”标签。如果标签没有被人为选择的话,Nightshade会自动检测并推荐一个单词标签。当然,如果标签不正确或过于笼统的话,您也可以手动更改。请记住,只有在Nightshade处理单张图片时,才可以使用此设置。

如果一切顺利,您将会得到一幅在人眼看来与原始图像完全相同,但是被人工智能算法识别为与原作截然不同的图像。这就意味着您的艺术作品已受到了保护,可免遭人工智能生成器的影响。

译者介绍

陈峻(Julian Chen),51CTO社区编辑,具有十多年的IT项目实施经验,善于对内外部资源与风险实施管控,专注传播网络与信息安全知识与经验。

原文标题:How to Use Nightshade to Protect Your Artwork From Generative AI

更新时间 2024-03-13