Według Decrypt nowe narzędzie o nazwie Nightshade może pomóc artystom chronić ich prace przed wykorzystaniem bez pozwolenia przez generatywne modele sztucznej inteligencji. Modele te, które w tym roku przykuły uwagę głównego nurtu, opierają się na ogromnych bibliotekach istniejącej sztuki i potrafią tworzyć obrazy wizualne o zdumiewających możliwościach. Nightshade wykorzystuje zoptymalizowane, natychmiastowe ataki polegające na zatruwaniu danych, aby uszkodzić dane potrzebne do uczenia modeli sztucznej inteligencji, gdy są one wprowadzane do generatora obrazów.
Profesor Ben Zhao wyjaśnił, że zatrucie jest od lat znanym wektorem ataku w modelach uczenia maszynowego, ale Nocny Cień jest wyjątkowy, ponieważ zatruwa generatywne modele sztucznej inteligencji, co wcześniej uważano za niemożliwe ze względu na ich duży rozmiar. Narzędzie atakuje pojedyncze podpowiedzi, takie jak prośby o utworzenie wizerunku smoka, psa lub konia, zamiast atakować cały model. Takie podejście osłabia model i uniemożliwia mu generowanie sztuki.
Aby uniknąć wykrycia, tekst i obraz w zatrutych danych muszą wyglądać naturalnie i być tak opracowane, aby oszukać zarówno automatyczne detektory wyrównania, jak i inspektorów. Chociaż Nocny Cień jest obecnie jedynie weryfikacją koncepcji, Zhao uważa, że jeśli wystarczająca liczba artystów wdroży te trujące pigułki, model sztucznej inteligencji może się załamać i stać się bezwartościowy.
Nocny Cień nie wymaga żadnych działań przeciwko samemu generatorowi obrazu AI, ale zaczyna działać, gdy model AI próbuje wykorzystać dane, w których został zawarty Nocny Cień. Zhao opisał to jako mniejszy atak, a bardziej samoobronę lub ogrodzenie z drutu kolczastego z trującymi wskazówkami skierowanymi do twórców sztucznej inteligencji, którzy nie przestrzegają próśb o rezygnację i dyrektyw „nie zdrapuj”.
