據 Decrypt 稱,一種名為 Nightshade 的新工具可以幫助藝術家保護他們的作品不被生成人工智慧模型未經許可而竊取。這些模型在今年獲得了主流關注,它們基於大量現有藝術庫,可以創建具有驚人能力的視覺圖像。 Nightshade 使用最佳化的、特定於提示的資料中毒攻擊來破壞訓練 AI 模型所需的數據,並將其輸入影像產生器。
本趙教授解釋說,多年來,中毒一直是機器學習模型中已知的攻擊媒介,但Nightshade 是獨一無二的,因為它會毒害生成型AI 模型,而此前由於其規模較大,這被認為是不可能的。該工具針對單一提示,例如建立龍、狗或馬圖像的請求,而不是攻擊整個模型。這種方法會削弱模型並使其無法生成藝術。
為了避免被發現,中毒數據中的文字和圖像必須顯得自然,並且經過精心設計,可以欺騙自動對準檢測器和人工檢查員。儘管 Nightshade 目前只是一個概念驗證,但趙相信,如果有足夠的藝術家實施這些毒丸,人工智慧模型可能會崩潰並變得毫無價值。
Nightshade 不需要對 AI 影像產生器本身採取任何操作,而是在 AI 模型嘗試消耗 Nightshade 所包含的資料時生效。退出請求和不抓取指令的人工智慧開發人員的有毒提示。

