OpenAI tìm ra nguyên nhân của Ảo giác AI và kết luận: "Không bao giờ có độ chính xác 100%"

    Nguyễn Hải,  

    Cho dù vậy, OpenAI tin rằng họ đã có giải pháp giúp giảm thiểu hiện tượng ảo giác của các mô hình AI như hiện nay.

    OpenAI vừa công bố một nghiên cứu đột phá giải thích nguyên nhân gốc rễ của hiện tượng "ảo giác" trong các chatbot AI - một trong những trở ngại lớn nhất đối với hiệu suất của các mô hình ngôn ngữ lớn. Theo các nhà nghiên cứu, ảo giác xảy ra khi mô hình tạo ra thông tin không chính xác nhưng trình bày như sự thật, và hiện tượng này ảnh hưởng đến tất cả các LLM phổ biến nhất từ GPT-5 của OpenAI đến Claude của Anthropic.

    Phát hiện cốt lõi của OpenAI trong nghiên cứu được công bố hôm thứ năm cho thấy các mô hình ngôn ngữ lớn bị ảo giác vì phương pháp huấn luyện hiện tại thưởng cho việc đoán đáp án nhiều hơn là thừa nhận sự không chắc chắn. Nói cách khác, các LLM đang được khuyến khích "làm ra vẻ cho đến khi thành công".

    OpenAI tìm ra nguyên nhân của Ảo giác AI và kết luận: "Không bao giờ có độ chính xác 100%"- Ảnh 1.

    Các nhà nghiên cứu giải thích rằng ảo giác tồn tại do cách thức hầu hết các đánh giá được chấm điểm - các mô hình ngôn ngữ được tối ưu hóa để trở thành những người làm bài kiểm tra giỏi, và việc đoán khi không chắc chắn cải thiện hiệu suất thi cử. Các mô hình ngôn ngữ lớn về cơ bản luôn ở "chế độ làm bài kiểm tra", trả lời câu hỏi như thể mọi thứ trong cuộc sống đều nhị phân - đúng hoặc sai, đen hoặc trắng.

    Trong nhiều khía cạnh, chúng không được trang bị để đối phó với thực tế của cuộc sống, nơi sự không chắc chắn phổ biến hơn sự chắc chắn, và độ chính xác thực sự không phải là điều hiển nhiên. Các nhà nghiên cứu so sánh điều này với việc con người học giá trị của việc thể hiện sự không chắc chắn ngoài trường học, trong trường đời khắc nghiệt, trong khi các mô hình ngôn ngữ chủ yếu được đánh giá bằng các kỳ thi phạt việc không chắc chắn.

    Cụ thể, các LLM hoạt động với hệ thống điểm thưởng họ một điểm cho câu trả lời đúng và không có điểm nào cho việc để trống hoặc nói rằng họ không biết câu trả lời. Điều này tương tự như học sinh đoán trong bài thi trắc nghiệm hoặc nói láo trong bài thi tự luận vì việc nộp một câu trả lời sẽ nhận được nhiều điểm hơn là để trống.

    Tuy nhiên, tin tốt là có một giải pháp khắc phục liên quan đến việc thiết kế lại các chỉ số đánh giá. Các nhà nghiên cứu chỉ ra rằng vấn đề gốc rễ là sự dồi dào của các đánh giá không phù hợp, và nhiều đánh giá chính phải được điều chỉnh để ngừng phạt việc không trả lời khi không chắc chắn.

    OpenAI tìm ra nguyên nhân của Ảo giác AI và kết luận: "Không bao giờ có độ chính xác 100%"- Ảnh 2.

    OpenAI mô tả chi tiết nghiên cứu trong một bài đăng blog rằng các đánh giá dựa trên độ chính xác được sử dụng rộng rãi cần được cập nhật để việc chấm điểm không khuyến khích việc đoán. Nếu các bảng điểm chính tiếp tục thưởng cho những dự đoán may mắn, các mô hình sẽ tiếp tục học cách đoán.

    Nghiên cứu này được công bố chỉ vài tuần sau khi OpenAI phát hành GPT-5, mô hình mà công ty tuyên bố là "chống ảo giác" với 46% ít thông tin sai lệch hơn so với GPT-4o tiền nhiệm. Tuy nhiên, một nghiên cứu gần đây từ công ty Mỹ NewsGuard phát hiện rằng các mô hình ChatGPT nói chung vẫn lan truyền thông tin sai lệch trong 40% câu trả lời của chúng.

    Thông qua quá trình tiền huấn luyện và hậu huấn luyện, các chatbot học cách dự đoán từ tiếp theo trong lượng lớn văn bản. Nghiên cứu của OpenAI phát hiện rằng trong khi một số thứ như chính tả và ngữ pháp tuân theo các quy tắc và cấu trúc rất rõ ràng, có những chủ đề hoặc loại dữ liệu khác sẽ khó hoặc thậm chí không thể cho AI xác định.

    Ví dụ, các thuật toán có thể phân loại hình ảnh khi chúng được gắn nhãn "mèo hoặc chó", nhưng nếu các hình ảnh được gắn nhãn theo sinh nhật của thú cưng, chatbot sẽ không thể phân loại chúng một cách chính xác. Loại nhiệm vụ mà AI thực hiện này sẽ "luôn tạo ra lỗi, bất kể thuật toán tiên tiến đến đâu".

    Một trong những phát hiện quan trọng của các nhà nghiên cứu là các mô hình sẽ không bao giờ chính xác 100% vì "một số câu hỏi trong thế giới thực vốn dĩ không thể trả lời được". Để hạn chế ảo giác, người dùng có thể hướng dẫn LLM trả lời "Tôi không biết" nếu nó không biết câu trả lời và sửa đổi hệ thống điểm hiện có cho các loại câu trả lời mà nó đưa ra.

    Nghiên cứu này đánh dấu bước tiến quan trọng trong việc hiểu và giải quyết một trong những thách thức lớn nhất của trí tuệ nhân tạo hiện đại, đồng thời đưa ra hướng dẫn cụ thể cho việc cải thiện độ tin cậy của các hệ thống AI trong tương lai.

    Tin cùng chuyên mục
    Xem theo ngày

    NỔI BẬT TRANG CHỦ