Các nhà lãnh đạo AI đưa ra cảnh báo về 'Nguy cơ tuyệt chủng' trong bức thư ngỏ
Trung tâm An toàn AI (CAIS) gần đây đã đưa ra một tuyên bố có chữ ký của những nhân vật nổi tiếng trong lĩnh vực trí tuệ nhân tạo, nêu bật những mối nguy hiểm tiềm tàng mà công nghệ này gây ra cho nhân loại.
Tuyên bố khẳng định rằng "giảm thiểu nguy cơ tuyệt chủng do AI gây ra phải là ưu tiên toàn cầu, cùng với các rủi ro khác ở quy mô xã hội như đại dịch và chiến tranh hạt nhân".
Các nhà nghiên cứu nổi tiếng và những người đoạt giải Turing, bao gồm Geoffery Hinton và Yoshua Bengio, cũng như các giám đốc điều hành của OpenAI và DeepMind, như Sam Altman, Ilya Sutskever và Demis Hassabis, đều đã ký vào tuyên bố.
Mục tiêu của bức thư CAIS là khởi xướng các cuộc thảo luận xung quanh những rủi ro cấp bách liên quan đến AI. Bức thư đã nhận được cả sự ủng hộ và chỉ trích trong ngành công nghiệp rộng lớn hơn. Nó theo sau một bức thư mở trước đó được ký bởi Elon Musk, Steve Wozniak, và hơn 1.000 chuyên gia khác, những người đã kêu gọi ngừng phát triển AI "vượt tầm kiểm soát".
Mặc dù ngắn gọn, tuyên bố gần đây không cung cấp các chi tiết cụ thể liên quan đến định nghĩa của AI hoặc đề xuất các chiến lược cụ thể để giảm thiểu rủi ro. Tuy nhiên, CAIS đã làm rõ trong một thông cáo báo chí rằng mục tiêu của họ là thiết lập các biện pháp bảo vệ và các tổ chức có thể quản lý hiệu quả các rủi ro AI.
Giám đốc điều hành OpenAI Sam Altman đã tích cực tham gia với các nhà lãnh đạo toàn cầu, vận động cho các quy định về AI. Trong một lần xuất hiện gần đây trước Thượng viện, Altman đã nhiều lần kêu gọi các nhà lập pháp phải quản lý chặt chẽ ngành công nghiệp này. Tuyên bố của CAIS phù hợp với những nỗ lực của ông nhằm nâng cao nhận thức về những nguy hiểm của AI.
Mặc dù bức thư mở đã thu hút sự chú ý, một số chuyên gia về đạo đức AI đã chỉ trích xu hướng phát hành các tuyên bố như vậy.
Tiến sĩ Sasha Luccioni, một nhà khoa học nghiên cứu máy học, đề xuất rằng việc nhắc đến các rủi ro AI giả thuyết cùng với các rủi ro cụ thể như đại dịch và biến đổi khí hậu làm tăng độ tin cậy của cái trước trong khi làm phân tâm sự chú ý khỏi các vấn đề ngay lập tức như thiên lệch, thách thức pháp lý và sự đồng ý.
Daniel Jeffries, một nhà văn và nhà tương lai học, lập luận rằng việc thảo luận về các rủi ro AI đã trở thành một trò chơi danh tiếng, nơi mà các cá nhân nhảy vào xu hướng mà không phải chịu bất kỳ chi phí thực sự nào.
Các nhà phê bình cho rằng việc ký các bức thư mở về những mối đe dọa trong tương lai cho phép những người chịu trách nhiệm cho các tác hại hiện tại của AI giảm bớt cảm giác tội lỗi của họ trong khi bỏ qua những vấn đề đạo đức liên quan đến các công nghệ AI đã và đang được sử dụng.
Tuy nhiên, CAIS, một tổ chức phi lợi nhuận có trụ sở tại San Francisco, vẫn tập trung vào việc giảm thiểu các rủi ro quy mô xã hội từ AI thông qua nghiên cứu kỹ thuật và vận động. Tổ chức này được đồng sáng lập bởi các chuyên gia có nền tảng trong lĩnh vực khoa học máy tính và có mối quan tâm mạnh mẽ đến an toàn AI.
Trong khi một số nhà nghiên cứu lo ngại về sự xuất hiện của một AI siêu thông minh vượt qua khả năng của con người và gây ra mối đe dọa tồn vong, những người khác lập luận rằng việc ký các bức thư mở về các kịch bản ngày tận thế giả thuyết làm phân tâm khỏi những tình huống đạo đức hiện có xung quanh AI. Họ nhấn mạnh sự cần thiết phải giải quyết các vấn đề thực tế mà AI đặt ra ngày hôm nay, chẳng hạn như giám sát, các thuật toán thiên lệch và sự vi phạm quyền con người.
Cân bằng giữa sự tiến bộ của AI với việc triển khai và quản lý có trách nhiệm vẫn là một nhiệm vụ quan trọng đối với các nhà nghiên cứu, các nhà hoạch định chính sách và các nhà lãnh đạo ngành công nghiệp.