Tổng thống Mỹ Joe Biden tuần trước đã ban hành quy định toàn diện nhằm bảo vệ công dân, cơ quan chính phủ và công ty nhằm đảm bảo các tiêu chuẩn an toàn về AI. Trong khi quy định đặt ra sáu tiêu chuẩn mới về việc sử dụng AI một cách an toàn và có đạo đức, một số chuyên gia trong ngành đã nêu lên mối lo ngại về việc quy định này có thể ngăn cản các công ty phát triển các mô hình cao cấp như thế nào.

Adam Struck, đồng sáng lập Struck Capital và nhà đầu tư AI, cho biết quy định này cho thấy sự nghiêm túc về tiềm năng của AI trong việc định hình lại mọi ngành công nghiệp. Tuy nhiên, ông cho biết quy định này ít mang tính chỉ dẫn hơn đối với cộng đồng nguồn mở, khiến nó trở thành thách thức đối với các công ty và nhà phát triển.

Mặc dù quy định này sẽ được thực hiện dưới sự hướng dẫn của những người có kinh nghiệm về AI và quản trị AI, nhưng một số người bày tỏ lo ngại rằng các công ty nhỏ hơn sẽ bối rối trước những yêu cầu bắt buộc đối với các công ty lớn hơn.

Giám đốc điều hành và đồng sáng lập Nanotronics, Matthew Putman, tuyên bố rằng quy định yêu cầu các khung pháp lý vì sự an toàn của người tiêu dùng và sự phát triển đạo đức của AI. Putman tuyên bố rằng tiềm năng "kịch bản ngày tận thế" của AI đã bị phóng đại dựa trên những tác động tích cực ngắn hạn của nó.

Mặc dù quy định này vẫn còn mới nhưng Viện Tiêu chuẩn và Công nghệ Quốc gia Hoa Kỳ (NIST) và Bộ Thương mại đã bắt đầu tuyển dụng thành viên cho Hiệp hội Viện An ninh Trí tuệ Nhân tạo (AI) mới thành lập.

Bạn nghĩ quy định này có thể ảnh hưởng đến sự phát triển AI như thế nào? Chia sẻ ý kiến ​​​​của bạn với chúng tôi.