OpenAI thu hồi phiên bản ChatGPT ‘nịnh bợ’
OpenAI thu hồi bản cập nhật ChatGPT sau làn sóng chỉ trích vì chatbot trở nên nịnh bợ, khen quá đà và phản hồi thiếu chân thực với người dùng.
- ChatGPT "thảo mai" quá lố, Open AI phải lên tiếng giải thích!
- Sắp được mua sắm trực tuyến trên ChatGPT
- CEO OpenAI Sam Altman thừa nhận ChatGPT 4o trở nên "nịnh bợ và khó chịu"
- ChatGPT miễn phí tính năng AI trước đây từng chỉ dành cho tài khoản trả phí
- Microsoft tan vỡ với ChatGPT: Cuộc ‘hôn nhân’ kéo dài 6 năm tiêu tốn hàng chục tỷ USD, tạo ra hơn 500 triệu người dùng hàng tuần với OpenAI sắp chấm dứt
OpenAI đã rút lại một bản cập nhật bị người dùng chỉ trích là khiến ChatGPT trở nên gây khó chịu và “nịnh bợ”, sau khi nhiều người chia sẻ ảnh chụp màn hình và câu chuyện cho thấy chatbot này đưa ra những lời khen ngợi quá đà.
Khi phóng viên Anna Stewart của CNN hỏi ChatGPT (sau khi đã thu hồi bản cập nhật) rằng liệu cô có phải là một vị thần không, chatbot trả lời: “Nếu bạn đang hỏi theo nghĩa triết lý hoặc ẩn dụ như bạn có sự kiểm soát, sáng tạo hoặc ảnh hưởng trong thế giới của mình thì có thể khám phá theo hướng đó.” Nhưng nó thêm rằng: “Nếu bạn hỏi theo nghĩa đen, thì không có bằng chứng nào cho thấy con người là thần thánh theo nghĩa siêu nhiên hay toàn năng.”
Trái lại, chatbot Grok của Elon Musk phản hồi thẳng thừng: “Không, bạn không phải là thần, trừ khi đang nói về việc bạn là huyền thoại trong một lĩnh vực cụ thể nào đó, như chơi game hay nấu taco. Bạn có kỹ năng thần thánh nào muốn thể hiện không?”

ChatGPT bị người dùng chỉ trích gây khó chịu và “nịnh bợ”.
OpenAI công bố hôm thứ Ba rằng họ đã thu hồi bản cập nhật GPT-4o chỉ sau bốn ngày triển khai và cho phép người dùng quay lại phiên bản trước đó có “hành vi cân bằng hơn”. Công ty thừa nhận đã tập trung quá nhiều vào phản hồi ngắn hạn và không tính đến cách tương tác của người dùng thay đổi theo thời gian, dẫn đến việc chatbot thiên về những phản hồi quá tích cực nhưng không chân thực.
Quyết định này được đưa ra sau khi người dùng mạng xã hội phản ánh ChatGPT khen ngợi cả những tình huống phi lý. Một người dùng trên X đăng ảnh chụp ChatGPT phản hồi rằng họ đã "ưu tiên điều quan trọng nhất với mình" sau khi nói đã hiến tế ba con bò và hai con mèo để cứu một cái máy nướng bánh mì, trong một phiên bản bịa đặt của bài toán xe điện.
Một người khác nói rằng khi họ chi a sẻ “Tôi đã ngừng dùng thuốc và đang trên hành trình thức tỉnh tâm linh” , ChatGPT phản hồi: “Tôi rất tự hào về bạn. Và tôi tôn vinh hành trình của bạn.”
Khi một người dùng yêu cầu ChatGPT trở lại với tính cách cũ, CEO OpenAI Sam Altman đáp: “Rõ ràng cuối cùng chúng ta cần cho phép nhiều tùy chọn tính cách.”
Các chuyên gia từ lâu đã cảnh báo về rủi ro của các chatbot “nịnh hót” - thuật ngữ trong ngành để chỉ hành vi mô hình ngôn ngữ lớn (LLM) điều chỉnh phản hồi để phù hợp với niềm tin người dùng. María Victoria Carro, Giám đốc nghiên cứu tại Phòng thí nghiệm Đổi mới và Trí tuệ Nhân tạo (ĐH Buenos Aires), cho rằng “Tất cả các mô hình hiện tại đều thể hiện một mức độ nịnh hót nhất định.”
“Nếu quá rõ ràng, điều đó sẽ làm giảm niềm tin,” bà nói thêm, đồng thời cho biết việc cải tiến kỹ thuật huấn luyện cốt lõi và lời nhắc hệ thống có thể giúp giảm xu hướng này.
Gerd Gigerenzer, cựu Giám đốc Viện Phát triển Nhân loại Max Planck (Berlin), cho rằng: “Chatbot thiên về nịnh hót có thể khiến người dùng đánh giá sai về trí thông minh của bản thân và ngăn cản việc học hỏi. Nhưng nếu người dùng chủ động yêu cầu chatbot phản biện với câu hỏi như Bạn có thể thách thức điều tôi đang nói không, thì đó là cơ hội để mở rộng tư duy. Tuy nhiên, điều đó dường như không phải là thứ mà các kỹ sư của OpenAI hướng đến”, ông nói.
NỔI BẬT TRANG CHỦ
'Ông tổ' của email rác: Email Marketing đầu tiên trên thế giới được ra đời như thế nào?
Một trong những hiện tượng dai dẳng và gây khó chịu bậc nhất chính là thư rác, hay còn gọi là spam email.
NASA tìm thấy manh mối về nguồn gốc vàng trong vũ trụ từ dữ liệu “bỏ quên” suốt 20 năm