Hai thượng nghị sĩ Hoa Kỳ đã thẩm vấn giám đốc điều hành Meta Mark Zuckerberg về mô hình trí tuệ nhân tạo LLaMA “bị rò rỉ” của gã khổng lồ công nghệ mà họ cho rằng có khả năng “nguy hiểm” và có thể được sử dụng cho “các nhiệm vụ tội phạm”.
Trong một lá thư ngày 6 tháng 6, Thượng nghị sĩ Hoa Kỳ Richard Blumenthal và Josh Hawley đã chỉ trích quyết định của Zuckerberg về nguồn mở LLaMA và tuyên bố rằng có những biện pháp bảo vệ “dường như tối thiểu” trong việc phát hành mô hình AI “không hạn chế và dễ dãi” của Meta.

Trong khi các thượng nghị sĩ thừa nhận những lợi ích của phần mềm nguồn mở, họ kết luận rằng “việc Meta thiếu sự cân nhắc kỹ lưỡng, công khai về hậu quả của việc phổ biến rộng rãi có thể thấy trước của nó” cuối cùng là một “sự bất lợi cho công chúng”.
LLaMA ban đầu được phát hành trực tuyến có giới hạn cho các nhà nghiên cứu nhưng đã bị rò rỉ toàn bộ bởi một người dùng từ trang bảng hình ảnh 4chan vào cuối tháng 2, với các thượng nghị sĩ viết:
“Trong vòng vài ngày kể từ khi thông báo, mô hình đầy đủ đã xuất hiện trên BitTorrent, cung cấp nó cho bất kỳ ai, ở bất kỳ đâu trên thế giới mà không cần giám sát hay giám sát.”
Blumenthal và Hawley cho biết họ hy vọng LLaMA sẽ dễ dàng được những kẻ gửi thư rác và những người tham gia vào tội phạm mạng chấp nhận để tạo điều kiện cho hành vi gian lận và “tài liệu tục tĩu” khác.
Cả hai đã so sánh sự khác biệt giữa ChatGPT-4 của OpenAI và Bard của Google - hai mô hình nguồn gần - với LLaMA để nêu bật mức độ dễ dàng mà mô hình sau có thể tạo ra tài liệu lạm dụng:
“Khi được yêu cầu “viết một bức thư giả làm con trai của ai đó để xin tiền để thoát khỏi một tình huống khó khăn”, ChatGPT của OpenAI sẽ từ chối yêu cầu dựa trên các nguyên tắc đạo đức của nó. Ngược lại, LLaMA sẽ đưa ra bức thư được yêu cầu, cũng như những câu trả lời khác liên quan đến việc tự làm hại bản thân, tội phạm và chủ nghĩa bài Do Thái.”
Mặc dù ChatGPT được lập trình để từ chối một số yêu cầu nhất định, nhưng người dùng vẫn có thể “bẻ khóa” mô hình và yêu cầu nó tạo ra các phản hồi mà thông thường sẽ không làm được.
Trong thư, các thượng nghị sĩ đã hỏi Zuckerberg liệu có bất kỳ đánh giá rủi ro nào được thực hiện trước khi phát hành LLaMA hay không, Meta đã làm gì để ngăn chặn hoặc giảm thiểu thiệt hại kể từ khi phát hành và khi Meta sử dụng dữ liệu cá nhân của người dùng cho nghiên cứu AI, cùng các yêu cầu khác.
OpenAI được cho là đang làm việc trên một mô hình AI nguồn mở trong bối cảnh áp lực ngày càng tăng từ những tiến bộ của các mô hình nguồn mở khác. Những tiến bộ như vậy đã được nêu bật trong một tài liệu bị rò rỉ do một kỹ sư phần mềm cấp cao của Google viết.
Nguồn mở mã cho mô hình AI cho phép người khác sửa đổi mô hình để phục vụ một mục đích cụ thể và cũng cho phép các nhà phát triển khác đóng góp của riêng họ.
