据 Decrypt 称,一种名为 Nightshade 的新工具可以帮助艺术家保护他们的作品不被生成人工智慧模型未经许可而窃取。这些模型在今年获得了主流关注,它们基于大量现有艺术库,可以创建具有惊人能力的视觉图像。 Nightshade 使用最佳化的、特定于提示的资料中毒攻击来破坏训练 AI 模型所需的数据,并将其输入影像产生器。
本赵教授解释说,多年来,中毒一直是机器学习模型中已知的攻击媒介,但Nightshade 是独一无二的,因为它会毒害生成型AI 模型,而此前由于其规模较大,这被认为是不可能的。该工具针对单一提示,例如建立龙、狗或马图像的请求,而不是攻击整个模型。这种方法会削弱模型并使其无法生成艺术。
为了避免被发现,中毒数据中的文字和图像必须显得自然,并且经过精心设计,可以欺骗自动对准检测器和人工检查员。尽管 Nightshade 目前只是一个概念验证,但赵相信,如果有足够的艺术家实施这些毒丸,人工智慧模型可能会崩溃并变得毫无价值。
Nightshade 不需要对 AI 影像产生器本身采取任何操作,而是在 AI 模型尝试消耗 Nightshade 所包含的资料时生效。退出请求和不抓取指令的人工智慧开发人员的有毒提示。
