Nguồn hình ảnh: Được tạo bởi công cụ AI không giới hạn

Hai tuần sau khi GPT-4 được phát hành, một bức thư ngỏ có chữ ký của Elon Musk và hàng nghìn người trong ngành công nghệ đã được đăng tải trực tuyến. Bức thư ngỏ kêu gọi tất cả các phòng thí nghiệm trí tuệ nhân tạo đình chỉ ngay việc đào tạo các hệ thống trí tuệ nhân tạo mạnh hơn GPT-4 trong ít nhất 6 tháng.

Người đồng sáng lập Apple Steve Wozniak, người đoạt giải Turing Yoshua Bengio và đồng tác giả cuốn sách giáo khoa AI "Trí tuệ nhân tạo: Phương pháp tiếp cận hiện đại" Stuart Russell Stuart Russell và các nhân vật công nghệ nổi tiếng khác đã ký vào bức thư ngỏ này.

Bức thư ngỏ tuyên bố rằng "AI tiên tiến có thể đồng nghĩa với những thay đổi sâu sắc trong lịch sử sự sống trên trái đất và chúng ta nên đầu tư sự quan tâm và nguồn lực tương xứng vào việc lập kế hoạch và quản lý nó". và các nhà phát triển không thể hiểu được nó. Dự đoán và kiểm soát một cách đáng tin cậy.

Bức thư ngỏ cũng đề cập rằng các hệ thống trí tuệ nhân tạo hiện đại hiện đang trở nên cạnh tranh với con người trong các nhiệm vụ chung “Các hệ thống trí tuệ nhân tạo mạnh mẽ chỉ nên được phát triển khi chúng ta tin tưởng rằng tác động của chúng là tích cực và rủi ro của chúng có thể kiểm soát được”.

Theo ý tưởng của bức thư ngỏ, việc đào tạo các hệ thống AI mạnh hơn GPT-4 nên tạm dừng trong 6 tháng. Trong thời gian tạm dừng này, các phòng thí nghiệm AI và các chuyên gia độc lập nên làm việc cùng nhau để phát triển và triển khai một bộ giao thức bảo mật dùng chung cho thiết kế và phát triển AI nâng cao, chịu sự kiểm tra và giám sát nghiêm ngặt của các chuyên gia độc lập bên ngoài.

Các giao thức này phải đảm bảo rằng hệ thống của họ được an toàn và không còn nghi ngờ gì nữa. Điều này không có nghĩa là tạm dừng phát triển AI nói chung, chỉ là một bước lùi khỏi cuộc đua nguy hiểm hướng tới các mô hình hộp đen lớn hơn, khó đoán hơn.

Bức thư được đăng trên trang web của Viện Tương lai Cuộc sống, được tài trợ chủ yếu bởi Quỹ Musk, Cam kết của Người sáng lập và Quỹ Cộng đồng Thung lũng Silicon, và sứ mệnh của nó là hướng dẫn các công nghệ biến đổi quy mô lớn, cực đoan. rủi ro và hướng tới một cuộc sống hạnh phúc.

Ngay từ năm 2017, Viện Tương lai Cuộc sống đã triệu tập hơn 100 nhà lãnh đạo tư tưởng và nhà nghiên cứu trong các lĩnh vực kinh tế, luật, đạo đức và triết học để tập trung tại California để thảo luận và xây dựng các nguyên tắc mang lại lợi ích cho trí tuệ nhân tạo. Cuối cùng, họ đã xây dựng nên 23 Nguyên tắc Trí tuệ Nhân tạo Asilomar, được coi là những nguyên tắc quan trọng trong quản trị trí tuệ nhân tạo. Đầu tiên trong số này là "Mục tiêu của nghiên cứu trí tuệ nhân tạo phải là thiết lập trí thông minh có lợi chứ không phải trí thông minh hỗn loạn".

Đối với những nhân viên công nghệ đã ký bức thư ngỏ này, hầu hết mọi người đều lo lắng rằng AI đang phát triển quá nhanh, các quy định giám sát và luật pháp liên quan chưa theo kịp, thậm chí các nhà phát minh còn thiếu các phương pháp kiểm soát hiệu quả. Trong những điều kiện như vậy, việc sử dụng AI không hạn chế có thể mang lại rủi ro hệ thống nếu có vấn đề phát sinh.

Theo Tạp chí Time, Simon Campos, người ký thư ngỏ và CEO của startup bảo mật trí tuệ nhân tạo SaferAI, cho biết các nhà phát minh hệ thống AI không biết chính xác chúng hoạt động như thế nào hoặc chúng là gì nên không quản lý được rủi ro hệ thống. Nhà phát minh có khả năng làm điều đó nhưng không biết cách hạn chế hành vi của AI.

“Bây giờ chúng ta đang làm gì?” Campos nói. "Chúng tôi đang làm việc hết tốc lực để mở rộng các hệ thống này lên mức năng lực chưa từng có và có tác động biến đổi đối với xã hội. Chúng tôi phải làm chậm sự phát triển của các hệ thống này và cho phép xã hội thích ứng."

Nỗi lo của Musk: AI không thể tắt được

Musk đã cảnh giác với AI từ lâu. Ngay từ năm 2014, Musk đã công khai tuyên bố trong một cuộc phỏng vấn rằng chúng ta nên hết sức cẩn thận về trí tuệ nhân tạo. Sự thông minh. . Musk nói: “Với trí tuệ nhân tạo, con người đang triệu hồi ác quỷ.

Ông cũng nói "Tôi ngày càng có xu hướng nghĩ rằng cần có một số cơ chế giám sát, có thể ở cấp quốc gia và quốc tế, chỉ để đảm bảo rằng chúng tôi không làm điều gì đó thực sự ngu ngốc."

Musk không chỉ nói về các vấn đề an toàn của AI. Đầu năm 2015, Musk đã quyên góp 7 triệu USD cho Viện Tương lai Sự sống để tiến hành nghiên cứu nhằm giúp AI mang lại lợi ích cho nhân loại. Hầu hết những người được cấp đều tham gia nghiên cứu về đạo đức, quản trị và bảo mật AI. Nhiều người được cấp, chẳng hạn như Stuart Russell, đã tham gia ký vào bức thư ngỏ này.

Là nhà đầu tư ban đầu vào DeepMind, Musk có vẻ hơi mâu thuẫn về AI. Nhưng ông khẳng định khoản đầu tư của mình không xuất phát từ góc độ lợi tức đầu tư mà chỉ muốn chú ý đến việc phát triển trí tuệ nhân tạo, vì điều này có thể dẫn đến những kết quả nguy hiểm. Ông nói, có một số hậu quả nghiêm trọng và chúng ta nên nỗ lực để đảm bảo hậu quả là tốt chứ không phải xấu. "

Kết cục tồi tệ không phải là robot nổi dậy và tiêu diệt con người như miêu tả trong phim. Thay vào đó, các chuyên gia không lo lắng về ý thức của robot mà lo lắng về khả năng của chúng. AI có khả năng mạnh mẽ để đạt được mục tiêu của mình, nhưng nếu nó vượt khỏi tầm kiểm soát hoặc đi chệch khỏi kịch bản sử dụng đã định, nó có thể gây ra thiệt hại không thể khắc phục được.

Một người quan trọng đã ký bức thư ngỏ, Joshua Bengio, người đoạt giải Turing, được mệnh danh là "Bố già của AI", luôn lo ngại về việc lạm dụng trí tuệ nhân tạo. Năm 2018, Bengio là một trong hàng nghìn nhà nghiên cứu trí tuệ nhân tạo đã ký cam kết phản đối việc phát triển vũ khí AI. Ông kêu gọi các chính phủ quản lý hoạt động nghiên cứu trí tuệ nhân tạo và ngăn chặn sự phát triển của các robot chết người.

Vũ khí AI là một ví dụ điển hình về việc robot bị lạm dụng. Vũ khí AI hiệu quả hơn vũ khí truyền thống khi được sử dụng trên chiến trường. Tuy nhiên, một khi mất kiểm soát, những vấn đề do vũ khí trí tuệ nhân tạo gây ra sẽ nghiêm trọng hơn. Trên chiến trường, để không gặp trục trặc khi bị can thiệp đơn giản, các vũ khí AI hiện tại thường được thiết kế để khó có thể tắt trực tiếp. Hãy tưởng tượng hậu quả bi thảm nếu vũ khí AI hiệu quả cao được lập trình để tấn công con người vô tình rơi vào khu vực dân sự.

Trên thực tế, làm thế nào để tắt AI là vấn đề khiến nhiều chuyên gia về chữ ký lo lắng.

Nhưng nếu ứng dụng AI phát triển quá nhanh, việc tắt nó đi có thể tốn rất nhiều chi phí và trở nên khó khăn. Musk đã tưởng tượng rằng nếu một thuật toán vượt quá tầm kiểm soát trong hệ thống, các nhà quản lý có thể tìm ra nó. Nhưng nếu hệ thống này được quản lý bởi một AI lớn, chúng ta có thể không tìm ra điểm nào khiến nó mất kiểm soát hoặc chúng ta có thể không có thẩm quyền để dừng hoạt động của toàn bộ AI lớn. Bảo trì đơn giản có thể trở thành một vấn đề.

Đây là lý do tại sao AI cần nhiều quy định hơn và công nghệ cần dân chủ hơn thay vì tập trung vào tay các công ty lớn.

Để ngăn sức mạnh của AI tập trung vào tay các công ty lớn, đặc biệt là Google DeepMind, Musk và Sam Altman đã đồng sáng lập OpenAI với mục đích dân chủ hóa sức mạnh của trí tuệ nhân tạo và giảm thiểu khả năng của AI. bị độc quyền.

Điều này hơi mỉa mai, GPT-4, do OpenAI tạo ra, lại chính xác là điều mà Musk hiện đang phản đối. Chỉ vài ngày trước, Musk đã có một cuộc tranh cãi bằng lời nói với Giám đốc điều hành OpenAI Sam Altman.

Dừng lại, "Hãy căn chỉnh."

Ngoài nỗi lo lắng của các ông lớn này, trong cộng đồng rộng lớn hơn, từ lâu đã có nỗi sợ hãi về AI.

Trong số đó, có nỗi sợ hãi về chiếc máy tính siêu thông minh HAL 9000 đã có được ý thức trong bộ phim khoa học viễn tưởng “2001: A Space Odyssey”, và còn có nỗi sợ hãi thực tế hơn về sự hỗn loạn và những tình huống xấu có thể do máy tính gây ra. AI kiểm soát thế giới.

Trong bức thư ngỏ đó, một trong những tài liệu được trích dẫn nhiều lần là cuốn sách bán chạy “Vấn đề liên kết” được nhiều tên tuổi lớn trong lĩnh vực trí tuệ nhân tạo, trong đó có các lãnh đạo Microsoft, ca ngợi. Một người đồng sáng lập Viện Tương lai Cuộc sống (FLI), nơi xuất bản bức thư ngỏ, đã công khai ca ngợi cuốn sách: "Nó chứa đầy những khám phá đáng kinh ngạc, những trở ngại bất ngờ, những giải pháp khéo léo và ngày càng nhiều câu hỏi hóc búa về bản chất của cuộc sống." loài của chúng ta.” Và vấn đề lớn nhất được thảo luận trong cuốn sách đó là: đạo đức trí tuệ nhân tạo.

Một trong những vấn đề đạo đức trí tuệ nhân tạo đơn giản nhất là vấn đề kẹp giấy. Nếu một robot được lệnh làm càng nhiều kẹp giấy càng tốt, nó sẽ cạn kiệt mọi nguồn tài nguyên trên trái đất và không mệt mỏi tạo ra những chiếc kẹp giấy càng lâu càng tốt, bởi vì việc hoàn thành nhiệm vụ này có liên quan. đối với nó Không có xung đột với quy tắc đạo đức, khi đó tất cả những gì nó có thể làm là thực hiện các nhiệm vụ. Trong lịch sử lâu dài của nhân loại, một số lượng lớn các chuẩn mực đạo đức, sự sợ hãi và sợ hãi của chúng ta đã được củng cố trong nền văn hóa của chúng ta và ăn sâu vào tâm trí mỗi người. Đôi khi chính chúng ta cũng không nhận thức được điều đó, và một cỗ máy cũng chưa trải qua một lịch sử lâu dài như vậy. Sự tiến hóa của trẻ em, giống như một đứa trẻ sinh ra với siêu năng lực, tự mình trở thành mối nguy hiểm.

Do đó, Brian Christian, tác giả cuốn sách “Vấn đề liên kết” và là tác giả sách bán chạy nhất hiện là học giả thỉnh giảng tại Đại học California, Berkeley, tin rằng cần phải tạo ra AI một cách cẩn thận, toàn diện và theo thời gian thực. đạo đức và đạo đức con người phù hợp. Theo nghĩa này, bức thư ngỏ này giống như một bộ phận trong một nhà máy lớn yêu cầu nhân viên dừng công việc đang làm và đi vào phòng họp: "Chúng ta hãy tự sắp xếp".

Tất nhiên, ngoài việc thảo luận về những vấn đề tưởng chừng như xa vời này, “Vấn đề liên kết” còn thảo luận về những vấn đề đang diễn ra.

Một tiểu bang ở Hoa Kỳ sử dụng chương trình máy tính để tính điểm khả năng tái phạm của tội phạm, sau đó quyết định bảo lãnh và tạm tha cũng như phân bổ số tiền bảo lãnh. Tuy nhiên, có điều gì đó kỳ lạ đã xảy ra trong hệ thống. Borden, người da đen, được đánh giá là có nguy cơ cao, còn Platt, người da trắng, được đánh giá là có nguy cơ thấp. bất kỳ tội danh nào trong hai năm, trong khi Platt bị kết án 8 năm tù vì tội cướp và trộm cắp. Rõ ràng, dưới dữ liệu lớn, sự phân biệt chủng tộc ở con người cũng đã được cấy vào AI - nhưng vấn đề mấu chốt là mọi người đều nghĩ rằng mình là trẻ sơ sinh và điều đó là công bằng. Trong “Vấn đề liên kết”, tác giả cũng đề cập đến sự phân biệt giới tính trong tuyển dụng. Không ai có bất kỳ cài đặt nào cho AI. Tuy nhiên, dưới dữ liệu lớn, sự phân biệt đối xử diễn ra một cách tự nhiên.

Trí tuệ nhân tạo dựa trên dữ liệu lớn có thể củng cố các vấn đề bị bỏ qua rộng rãi về phân biệt đối xử và bất bình đẳng trong dân tộc chúng ta. Một khi những vấn đề này xâm nhập vào hệ thống mà không được chú ý hoặc bị coi là tầm thường, chúng sẽ là một kết cục rất đáng tiếc.

Vì vậy, trong nhận xét của độc giả về cuốn sách “Những vấn đề liên kết”, nhiều người đã nhắc đến con người - AI đang khuếch đại những vấn đề hiện có của nhân loại, và quan trọng nhất là AI sẽ rơi vào tay những loại người nào?

Hầu như không còn nghi ngờ gì nữa rằng AI sẽ mang lại sự gia tăng năng suất rất lớn, nhưng cũng như cuộc cách mạng thông tin trước đây, công cụ lao động mạnh mẽ này sẽ càng dẫn đến sự tập trung của cải - từ năm 1980 đến nay, 1% người có thu nhập cao nhất. tỷ lệ dân số đã tăng từ 10% lên gần 20%, trong khi tỷ lệ thu nhập của 50% dân số dưới cùng đã giảm từ 20% năm 1980 xuống còn 12%. Không ai có thể tưởng tượng được dữ liệu này sẽ như thế nào sau 40 năm GPT ra mắt? Hơn nữa, đây là một công cụ tăng năng suất sử dụng vốn nhiều hơn.

Ngay từ tháng 2 năm nay, giáo sư MIT Daron Acemoglu, người từ lâu đã quan tâm đến vấn đề trí tuệ nhân tạo, đã xuất bản một bài báo đề cập đến kịch bản sau: các công ty sa thải dịch vụ khách hàng của con người, một số lượng lớn người mất việc và người tiêu dùng chỉ có thể chấp nhận một nhân viên có tài hùng biện nhưng dịch vụ khách hàng robot không thể giải quyết được bất kỳ vấn đề nào. Cách tiếp cận như vậy "sẽ tước quyền và tước quyền của nhân viên cũng như làm suy giảm trải nghiệm của người tiêu dùng, cuối cùng khiến hầu hết các nhà đầu tư thất vọng."

Bức thư ngỏ này không phải là lần đầu tiên người ta bày tỏ lo ngại về tương lai của trí tuệ nhân tạo. Trong thư ngỏ của mình, Gates cũng đề cập đến sự cần thiết phải chú ý đến vấn đề bình đẳng trong kỷ nguyên trí tuệ nhân tạo: các lực lượng thị trường sẽ không tự nhiên mà có. sản xuất các sản phẩm giúp ích cho những người nghèo nhất. Với các sản phẩm và dịch vụ trí tuệ nhân tạo, khả năng ngược lại sẽ lớn hơn.

Ngay từ ngày 16 tháng 3, Altman cũng đã đề cập với mối quan ngại rằng “phần mềm có thể suy nghĩ và học hỏi sẽ làm được ngày càng nhiều công việc mà con người đang làm hiện nay. Nhiều quyền lực hơn sẽ được chuyển từ lao động sang vốn. Nếu công chúng không có những điều chỉnh chính sách tương ứng, hầu hết mọi người cuối cùng sẽ trở nên tồi tệ hơn hiện tại."

Do đó, Altman đề cập rằng cần phải đưa ra một hệ thống mới về vốn thuế thay vì lao động để nhiều người có thể chia sẻ thành quả của cuộc cách mạng trí tuệ nhân tạo này.

Hiện tại, sẽ phải mất một thời gian nữa để AI trở thành cơ sở hạ tầng cho cuộc sống con người, nhưng thời gian này có thể sắp hết. Sau sự xuất hiện của GPT-4, khả năng của AI quy mô lớn đã tăng vọt trong “cuộc chạy đua vũ trang” và thiết lập các tiêu chuẩn quy định. Đây là lý do tại sao các chuyên gia đằng sau bức thư ngỏ này kêu gọi tạm dừng nghiên cứu AI quy mô lớn.

Có lẽ, như nhà khoa học trưởng của Microsoft, Eric Horvitz đã nói: Ngày nay, trong thế giới trí tuệ nhân tạo ở phía chân trời, một số điều đã biết, một số điều chưa biết, và ở giữa là cánh cửa để chúng ta quan sát thế giới.