Viện Tiêu chuẩn và Công nghệ Quốc gia Hoa Kỳ (NIST) đã chủ động giải quyết các thách thức liên quan đến trí tuệ nhân tạo (AI) bằng cách ban hành bốn ấn phẩm dự thảo được thiết kế để đảm bảo an toàn, bảo mật và độ tin cậy của hệ thống AI. Trong thời gian này, kết thúc vào ngày 2 tháng 6 năm 2024, các bản dự thảo sẽ được lấy ý kiến ​​công chúng. Điều này phản ánh phản ứng của NIST đối với Sắc lệnh điều hành AI tháng 10 năm 2023, trong đó nhấn mạnh việc giảm thiểu tác động của công nghệ AI đồng thời thúc đẩy đổi mới có trách nhiệm và duy trì vị trí dẫn đầu về công nghệ của Hoa Kỳ.

Giảm thiểu rủi ro AI tổng quát

Lĩnh vực quan tâm chính trong các ấn phẩm dự thảo của NIST là các mối đe dọa bảo mật phát sinh từ các công nghệ AI tổng hợp. AI RMF AI Cấu hình AI AI tạo ra 12 rủi ro, từ khả năng tiếp cận thông tin nhạy cảm cao đến việc truyền bá lời nói căm thù và nội dung độc hại. Giải quyết những rủi ro này là lĩnh vực trọng tâm chính của NIST, cơ quan đã xác định hơn 400 hành động quản lý rủi ro tiềm năng mà các tổ chức có thể xem xét. Khung này cung cấp một cấu trúc mà các nhà phát triển có thể tuân theo cũng như điều chỉnh các mục tiêu và ưu tiên của họ.

Giảm thiểu rủi ro dữ liệu đào tạo

Một nội dung quan trọng khác được trình bày trong dự thảo là cách bảo mật dữ liệu được sử dụng trong việc đào tạo hệ thống AI. Bản dự thảo xuất bản về Thực hành phát triển phần mềm an toàn cho các mô hình nền tảng sử dụng kép và AI sáng tạo, một phần trong hướng dẫn hiện có của NIST, được tạo ra để đảm bảo tính toàn vẹn của hệ thống AI trong bối cảnh lo lắng về dữ liệu đào tạo độc hại. NIST gợi ý một số cách để bảo mật mã máy tính và đưa ra giải pháp cho các vấn đề về dữ liệu bao gồm việc thu thập và sử dụng dữ liệu. Điều này sẽ làm cho hệ thống AI an toàn hơn trước các mối đe dọa có thể xảy ra.

Khuyến khích tính minh bạch trong nội dung do AI tạo

Để ứng phó với số lượng vật liệu kỹ thuật số tổng hợp ngày càng tăng nhanh, NIST đang phát triển các biện pháp giảm thiểu để chống lại những rủi ro do chúng gây ra trong tài liệu sắp tới về Giảm rủi ro do Vật liệu tổng hợp gây ra. Thông qua hình mờ kỹ thuật số và ghi siêu dữ liệu, NIST đang cố gắng giúp theo dõi và xác định phương tiện đã bị thay đổi, điều này hy vọng sẽ ngăn chặn một số kết quả tiêu cực bao gồm việc phân phối hình ảnh thân mật không có sự đồng thuận và tài liệu lạm dụng tình dục trẻ em.

Thúc đẩy sự tham gia toàn cầu về các tiêu chuẩn AI

Nhận thấy thực tế rằng hợp tác quốc tế là một trong những chìa khóa để thiết lập các tiêu chuẩn liên quan đến AI, NIST đã đưa ra dự thảo Kế hoạch tham gia toàn cầu về Tiêu chuẩn AI. Mục tiêu của kế hoạch này là khuyến khích hợp tác và phối hợp giữa các đồng minh quốc tế, các tổ chức phát triển tiêu chuẩn và khu vực tư nhân để tăng tốc các tiêu chuẩn công nghệ cho AI. Bằng cách đặt ưu tiên hàng đầu cho nhận thức về nguồn gốc nội dung và các phương pháp kiểm tra, NIST đặt mục tiêu phát triển một cơ chế mạnh mẽ nhằm đảm bảo hoạt động an toàn và hợp đạo đức của các công nghệ AI trên toàn cầu.

Khởi động NIST GenAI

@CommerceGov đã công bố các mục hành động mới liên quan đến Sắc lệnh điều hành về AI, chẳng hạn như một chương trình mới có tên NIST GenAI Challenge. Nó sẽ đánh giá và đo lường các công nghệ AI sáng tạo. Tìm hiểu thêm về thử thách và các mục hành động khác: https://t.co/C2roy7KYfs pic.twitter.com/O27BV84sGB

— Viện Tiêu chuẩn và Công nghệ Quốc gia (@NIST) Ngày 1 tháng 5 năm 2024

Hơn nữa, viện đã tạo ra NIST GenAI, một công cụ phần mềm đánh giá và định lượng khả năng của các công cụ trí tuệ nhân tạo tổng hợp. NIST GenAI sẽ là một công cụ mà Viện An toàn AI của NIST có thể đưa ra các vấn đề thách thức và đánh giá thí điểm để giúp Viện An toàn AI của Hoa Kỳ tại NIST phân biệt giữa đầu vào của thuật toán AI và nội dung do con người tạo ra. Theo thiết kế, mục tiêu chính của sáng kiến ​​này là nâng cao độ tin cậy của thông tin và cung cấp hướng dẫn về khía cạnh đạo đức của việc tạo nội dung trong kỷ nguyên AI.

Việc NIST công bố các báo cáo dự thảo này và ra mắt NIST GenAI đánh dấu một sáng kiến ​​tích cực và có định hướng phát triển nhằm giải quyết các vấn đề liên quan đến AI đang thách thức xã hội của chúng ta, đồng thời đảm bảo an toàn cho sự đổi mới của xã hội. Thông qua việc NIST kêu gọi đầu vào từ các bên liên quan chính, chẳng hạn như các công ty đã phát triển hoặc triển khai công nghệ AI, nền tảng này có thể ảnh hưởng đến việc xác định các nguyên tắc tiêu chuẩn và an toàn AI. Thông qua sự tham gia tích cực vào quá trình này, các bên liên quan có thể giúp thiết lập các phương pháp được ưu tiên nhất và cách tiếp cận tiêu chuẩn của ngành, điều này cuối cùng dẫn đến một hệ sinh thái AI ở mức độ an toàn và đáng tin cậy.