Trong một cuộc thảo luận kích thích tư duy tại NDC Oslo, Luise Freese và Iona Varga đã đi sâu vào những tình huống khó xử thực tế xung quanh việc sử dụng các mô hình trí tuệ nhân tạo (AI), đặc biệt là trong bối cảnh tạo mã. Trong khi AI đã đạt được những bước tiến đáng kể trong việc bắt chước trí thông minh của con người, Freese và Varga nhấn mạnh tầm quan trọng của việc đạt được sự cân bằng giữa tính thực tế và chất lượng khi sử dụng AI cho các nhiệm vụ cụ thể như tạo mã.

Varga đã thu hút sự chú ý đến khái niệm hấp dẫn mà AI gợi ý về cảm giác thông minh thực sự, tuy nhiên bản chất của nó nằm ở việc thể hiện cách các mô hình này được xây dựng. Bằng cách kết nối các nút, AI nỗ lực tái tạo mạng lưới tế bào thần kinh và khớp thần kinh phức tạp trong não con người. Nỗ lực mô phỏng mạng lưới thần kinh này dẫn đến thuật ngữ “mạng nhân tạo” hoặc “trí tuệ nhân tạo”. Tuy nhiên, điều quan trọng cần nhớ là trên thực tế, AI hoạt động hoàn toàn khác với bộ não con người.

Freese đã thêm một lớp trừu tượng vào cuộc trò chuyện bằng cách nhấn mạnh rằng máy tính về cơ bản dựa vào bóng bán dẫn, hoạt động theo kiểu nhị phân—chúng bật hoặc tắt. Thông qua sự kết hợp khác nhau của các trạng thái nhị phân này, máy tính thao tác các bit để thực thi các tác vụ. Không giống như bộ não con người, bóng bán dẫn không tham gia vào các vướng mắc phức tạp; chúng chỉ đơn thuần hoạt động như một tập hợp các công tắc để cuối cùng mang lại kết quả.

Vòng xoáy đi xuống của các mô hình AI tổng quát

Điểm mấu chốt của cuộc thảo luận xoay quanh những thách thức đặt ra khi sử dụng các mô hình AI tổng quát, thường được gọi là mô hình nền tảng, cho các nhiệm vụ có tính cụ thể cao. Bộ đôi này đã đặc biệt xem xét kỹ lưỡng các mô hình ngôn ngữ lớn (LLM) và những hạn chế của chúng. LLM hoạt động bằng cách phân tích đầu vào, có thể là câu hỏi hoặc lời nhắc và tạo ra một chuỗi từ dựa trên các mẫu thống kê. Những mô hình này vượt trội về khả năng dự đoán nhưng lại kém trong việc kiểm tra và xác thực dữ kiện, vì mục tiêu thiết kế chính của chúng là tạo ra nội dung chứ không phải xác minh tính chính xác của nó.

Varga đã chỉ ra một mối lo ngại quan trọng: rủi ro liên quan đến việc sử dụng các mô hình AI rất tổng quát cho các nhiệm vụ có tính chuyên môn cao. Khi các tổ chức cố gắng sử dụng một mô hình AI duy nhất để giải quyết nhiều vấn đề, một mô hình rắc rối sẽ xuất hiện. Freese ví nó như một vòng xoáy đi xuống tự khuếch đại. Để thoát khỏi chu kỳ này, Freese đề xuất chuyển hướng sang sử dụng các mô hình AI chuyên dụng hơn, một số mô hình trong số đó có thể được xây dựng dựa trên các mô hình nền tảng.

Vai trò của sự phán xét của con người trong việc đánh giá mã

Một vấn đề trọng tâm nổi lên từ cuộc thảo luận là câu hỏi liệu mã do AI tạo ra có an toàn để sử dụng hay không và liệu nó có đáp ứng các tiêu chuẩn và chất lượng cần thiết hay không. Varga nhấn mạnh rằng những câu hỏi này cuối cùng đòi hỏi sự phán xét và can thiệp của con người. Không nên đánh giá thấp quá trình đánh giá mã do AI tạo ra, vì nó tương đương với những thách thức trong việc gỡ lỗi mã lạ do người khác viết. Cũng giống như việc gỡ lỗi mã của người khác có thể là một nỗ lực phức tạp, việc đảm bảo chất lượng và an toàn của mã do AI tạo ra đòi hỏi phải có sự xem xét kỹ lưỡng.

Varga nhấn mạnh tiềm năng của AI như một công cụ có giá trị để bắt đầu các quá trình giải quyết vấn đề. Tuy nhiên, cô cảnh báo rằng một khi AI được đưa vào hoạt động, nó cần có một giai đoạn xử lý hậu kỳ kỹ lưỡng. Giai đoạn này bao gồm việc kiểm tra, xác thực, sửa đổi, chỉnh sửa và trong một số trường hợp là viết lại nội dung do AI tạo ra. Chính trong giai đoạn thiết yếu này, mức độ thực sự của công việc do AI giới thiệu trở nên rõ ràng.

Về bản chất, cuộc thảo luận tại NDC Oslo 2023 đã nhấn mạnh sự cân bằng mong manh cần có khi khai thác sức mạnh của các mô hình AI, đặc biệt là trong các lĩnh vực chuyên môn cao như tạo mã. Mặc dù AI hứa hẹn sẽ hỗ trợ giải quyết vấn đề nhưng sự giám sát và xác nhận của con người vẫn không thể thiếu trong việc đảm bảo chất lượng, an toàn và phù hợp của đầu ra mà nó tạo ra.