译者 | 陈峻
审校 | 重楼
如您所见,当前正在发生的这场人工智能(AI)革命已经席卷了各行各业。其中给人最直观的感受便是,在基于交互式人机对话的基础上,AI算法不但可以生成类似人类语言的文本,而且能够根据一个(组)单词创建图像和视频。不过,这些人工智能工具(尤其是像DALL-E、Midjourney等从文本到图像的生成器)所使用的训练数据,往往来自受版权保护的数据源。
在数字领域中,阻止人工智能生成工具利用受版权保护的图像进行训练是具有挑战性的任务。各行各业的艺术家们一直在不同层面上努力维护他们的作品,以免受人工智能训练数据集的侵害。在保护知识产权方面,面临着诸多复杂问题,因为数字世界的快速发展使得监管和保护工作变得更加困难。 艺术家们可能会采取技术性措施,如添加水印或数字签名,以确保其作品的原始性和独特性。然而,这些措施并非总
如今,Nightshade的问世将彻底改变现状。Nightshade是一种免费的人工智能工具,可以对生成式人工智能工具的结果进行“污染”,从而帮助艺术家们维护自己的版权。这一工具的推出意味着创作者们拥有了更大的掌控权,可以更好地保护他们的作品免受侵犯。Nightshade的出现为艺术家们提供了一种全新的方式来应对潜在的版权侵权问题,使他们能够更加自信和安心地展示自己的作品。这种技术的引入将为整个创作领域带来革命性的变革,为艺
从概念上说,人工智能毒化是指在人工智能算法的训练数据集中“下毒”的一种行为。这类似于故意向人工智能提供错误的信息,导致经过训练的人工智能因失灵而无法检测到图像。在技术上,Nightshade之类的工具可以通过改变数字图像中的像素,使其在人工智能的训练下看起来完全不同。而这种改变,从人眼的角度看来,仍然与原始的图像基本一致。
如果你在网络上上传一张被篡改过的猫的图片,对人类来说,这张照片可能看起来只是一只普通的猫。但是对于人工智能系统来说,它可能会因为被篡改而无法准确识别这只猫,导致混淆和错误的分类。这表明了在训练人工智能系统时,数据的准确性和完整性至关重要,因为数据中的错误或欺骗性信息可能会对系统的学习和表现产生负面影响。因此,确保数据的质量和真实性是培训人工智能模型的关键步骤,以避免出现误导性的结果和不准确的判断。
此外,在人工智能的训练数据过程中,鉴于规模效应,如果有足够多的伪造或毒化了的图像样本,那么就会影响人工智能的理解准确度,进而折损其根据给定提示,生成准确图像的能力。
虽然生成式人工智能的技术仍在突飞猛进地发展,但是就目前而言,作为模型训练基础的数据,一旦发生了逃过人眼可见的错误,就会潜移默化地损害模型后续的迭代。这样就起到了我们保护原创数字作品的效果。也就是说,据此,那些不想将其图像用于人工智能数据集的数字创作者,可以有效地保护自己的图像作品,不会在未经许可的情况下,被导入到生成式人工智能中。
目前,已有一些平台开始为创作者提供此类可“不将作品纳入人工智能训练数据集”的选项。当然,对于人工智能模型训练者而言,他们也需要对此引起足够的重视。
与Glaze等其他数字艺术品保护工具相比,Nightshade的实现方式是截然不同的。Glaze可以防止人工智能算法模仿特定的图像风格,而Nightshade则能够从人工智能的视角改变图像的外观。当然,这两款工具均由芝加哥大学计算机科学教授Ben Zhao开发。
虽然该工具的创建者建议用户将Nightshade与Glaze一起使用,但是它其实也可以作为一个独立的工具,来保护用户的作品。总体而言,使用该工具并不复杂,您可以仅通过几个步骤,仅使用Nightshade来保护自己的图像作品。不过,在开始之前,您需要牢记如下三件事:
您需要执行如下步骤,来具体使用Nightshade对图像实现保护。请记住,本指南虽然使用的是Windows版本,但它同样适用于macOS版本。
同时,您也可以选择“毒(poison)”标签。如果标签没有被人为选择的话,Nightshade会自动检测并推荐一个单词标签。当然,如果标签不正确或过于笼统的话,您也可以手动更改。请记住,只有在Nightshade处理单张图片时,才可以使用此设置。
如果一切顺利,您将会得到一幅在人眼看来与原始图像完全相同,但是被人工智能算法识别为与原作截然不同的图像。这就意味着您的艺术作品已受到了保护,可免遭人工智能生成器的影响。
陈峻(Julian Chen),51CTO社区编辑,具有十多年的IT项目实施经验,善于对内外部资源与风险实施管控,专注传播网络与信息安全知识与经验。
原文标题:How to Use Nightshade to Protect Your Artwork From Generative AI
以上是如何使用Nightshade保护艺术品免受生成式AI的侵害的详细内容。更多信息请关注PHP中文网其他相关文章!