Các chatbot AI như ChatGPT đã gây chú ý trên toàn thế giới nhờ khả năng thảo luận về bất kỳ chủ đề nào giống con người.

Tuy nhiên, báo cáo của Benj Edwards cho Ars Technica, được xuất bản vào thứ Năm (ngày 6 tháng 4), nêu bật một nhược điểm lớn: những chatbot này có thể vô tình truyền bá thông tin sai lệch nhưng thuyết phục, khiến chúng trở thành nguồn thông tin thực tế không đáng tin cậy và có thể là nguồn góp phần gây phỉ báng.

Edwards giải thích rằng các chatbot AI, chẳng hạn như ChatGPT của OpenAI, sử dụng “các mô hình ngôn ngữ lớn” (LLM) để tạo ra phản hồi. LLM là các chương trình máy tính được đào tạo trên lượng lớn dữ liệu văn bản để đọc và tạo ra ngôn ngữ tự nhiên. Tuy nhiên, chúng dễ mắc sai sót, thường được gọi là “ảo giác” hoặc “lời đồn” trong giới học thuật. Edwards thích “sự nhầm lẫn” hơn vì nó gợi ý những sự bịa đặt sáng tạo nhưng không có chủ ý.

Bài báo của Ars Technica nhấn mạnh vấn đề bot AI tạo ra thông tin lừa đảo, gây hiểu lầm hoặc phỉ báng. Edwards đưa ra các ví dụ về việc ChatGPT cáo buộc sai một giáo sư luật về quấy rối tình dục và tuyên bố sai rằng một thị trưởng Úc đã bị kết tội hối lộ. Bất chấp những hạn chế này, ChatGPT được coi là bản nâng cấp từ GPT-3, vì nó có thể từ chối trả lời một số câu hỏi nhất định hoặc cảnh báo về những điểm không chính xác có thể xảy ra.

Giám đốc điều hành OpenAI Sam Altman đã thừa nhận những hạn chế của ChatGPT, viết trên Twitter về những hạn chế “đáng kinh ngạc” của nó và những rủi ro khi dựa vào nó cho những vấn đề quan trọng. Altman cũng nhận xét về kiến ​​thức đồng thời và xu hướng “tự tin và sai lầm” của chatbot.

Edwards đi sâu vào hoạt động của họ để hiểu cách các mô hình GPT như ChatGPT kết hợp với nhau. Các nhà nghiên cứu tạo ra các LLM như GPT-3 và GPT-4 bằng cách sử dụng “học tập không giám sát”, trong đó mô hình học cách dự đoán từ tiếp theo trong một chuỗi bằng cách phân tích dữ liệu văn bản rộng lớn và tinh chỉnh các dự đoán của nó thông qua thử và sai.

ChatGPT khác với những phiên bản trước vì nó đã được đào tạo về bản ghi cuộc trò chuyện do con người viết, Edwards nói. OpenAI đã sử dụng “học tập tăng cường từ phản hồi của con người” (RLHF) để tinh chỉnh ChatGPT, dẫn đến phản hồi mạch lạc hơn và ít nhầm lẫn hơn. Tuy nhiên, vẫn còn những sai sót.

Edwards cảnh báo không nên tin tưởng một cách mù quáng vào kết quả đầu ra của chatbot AI nhưng thừa nhận rằng những cải tiến công nghệ có thể thay đổi điều này. Kể từ khi ra mắt, ChatGPT đã trải qua nhiều lần nâng cấp, nâng cao độ chính xác và khả năng từ chối trả lời các câu hỏi mà nó không thể giải quyết.

Mặc dù OpenAI chưa trực tiếp trả lời các câu hỏi về độ chính xác của ChatGPT, Edwards vẫn tham khảo các tài liệu và báo cáo tin tức của công ty để hiểu rõ hơn. Nhà khoa học trưởng của OpenAI, Ilya Sutskever, tin rằng việc đào tạo thêm về RLHF có thể giải quyết vấn đề ảo giác. Đồng thời, Nhà khoa học AI trưởng của Meta, Yann LeCun, lập luận rằng LLM dựa trên GPT hiện tại sẽ không giải quyết được vấn đề.

Edwards cũng đề cập đến các phương pháp thay thế để cải thiện độ chính xác của LLM bằng cách sử dụng các kiến ​​trúc hiện có. Bing Chat và Google Bard đã sử dụng các tìm kiếm trên web để tinh chỉnh kết quả đầu ra của họ và phiên bản ChatGPT hỗ trợ trình duyệt dự kiến ​​​​sẽ làm theo. Ngoài ra, plugin ChatGPT có kế hoạch tăng cường dữ liệu đào tạo của GPT-4 bằng các nguồn bên ngoài, như web và cơ sở dữ liệu chuyên dụng. Như Edwards đã chỉ ra, điều này phản ánh tính chính xác sẽ nâng cao lợi ích của con người khi tham khảo một bộ bách khoa toàn thư.

Cuối cùng, Edwards gợi ý rằng một mô hình giống GPT-4 có thể được đào tạo để nhận biết khi nào nó đang bịa đặt thông tin và điều chỉnh cho phù hợp. Điều này có thể liên quan đến việc quản lý dữ liệu nâng cao hơn và liên kết dữ liệu đào tạo với điểm “tin cậy”, tương tự như PageRank. Một khả năng khác là tinh chỉnh mô hình để thận trọng hơn khi không tự tin vào phản ứng của mình.

#Binance #GPT-4 #crypto2023 #keepbuilding #buildtogether