Theo Decrypt, một công cụ mới có tên Nightshade có thể giúp các nghệ sĩ bảo vệ tác phẩm của họ khỏi bị thu hoạch mà không được phép bởi các mô hình AI tổng hợp. Những mô hình này, đã thu hút được sự chú ý lớn trong năm nay, dựa trên các thư viện nghệ thuật khổng lồ hiện có và có thể tạo ra hình ảnh trực quan với khả năng đáng kinh ngạc. Nightshade sử dụng các cuộc tấn công đầu độc dữ liệu được tối ưu hóa, cụ thể theo thời gian để làm hỏng dữ liệu cần thiết để huấn luyện các mô hình AI khi dữ liệu được đưa vào trình tạo hình ảnh.
Giáo sư Ben Zhao giải thích rằng việc đầu độc đã là một phương thức tấn công được biết đến trong các mô hình học máy trong nhiều năm, nhưng Nightshade là duy nhất vì nó đầu độc các mô hình AI tổng hợp, điều mà trước đây được cho là không thể thực hiện được do kích thước lớn của chúng. Công cụ này nhắm mục tiêu đến các lời nhắc riêng lẻ, chẳng hạn như yêu cầu tạo hình ảnh rồng, chó hoặc ngựa, thay vì tấn công toàn bộ mô hình. Cách tiếp cận này làm suy yếu mô hình và vô hiệu hóa nó trong việc tạo ra nghệ thuật.
Để tránh bị phát hiện, văn bản và hình ảnh trong dữ liệu bị nhiễm độc phải trông tự nhiên và được tạo ra để đánh lừa cả máy phát hiện căn chỉnh tự động và người kiểm tra con người. Mặc dù Nightshade hiện chỉ là một bằng chứng về khái niệm, nhưng Zhao tin rằng nếu có đủ nghệ sĩ triển khai những viên thuốc độc này, mô hình AI có thể sụp đổ và trở nên vô giá trị.
Nightshade không yêu cầu bất kỳ hành động nào chống lại chính trình tạo hình ảnh AI nhưng có hiệu lực khi mô hình AI cố gắng tiêu thụ dữ liệu mà Nightshade đã đưa vào. Zhao mô tả nó giống như một cuộc tấn công ít hơn và giống như một sự tự vệ hoặc một hàng rào dây thép gai hơn với các thủ thuật độc hại nhằm vào các nhà phát triển AI không tôn trọng các yêu cầu từ chối và chỉ thị không được cạo.
