Sam Altman, CEO của OpenAI, đã bày tỏ sự lo ngại khi ngày càng nhiều người dùng tìm đến ChatGPT như một 'nhà trị liệu', cảnh báo nguy cơ nếu AI phát triển theo hướng thiếu kiểm soát.
Giám đốc điều hành của OpenAI, Sam Altman, gần đây đã nêu lên mối quan ngại về việc nhiều người đang sử dụng ChatGPT không chỉ để giải trí hay học hỏi mà còn như một 'nhà trị liệu' hoặc 'huấn luyện viên cuộc sống'. Trên mạng xã hội X vào Chủ nhật vừa qua, Altman chia sẻ: 'Có rất nhiều người đang sử dụng ChatGPT như một dạng nhà trị liệu dù họ không gọi tên như vậy. Tôi có thể hình dung một tương lai nơi mọi người thực sự tin tưởng vào lời khuyên của ChatGPT cho những quyết định quan trọng nhất. Điều đó có thể tốt, nhưng cũng khiến tôi cảm thấy bất an'.

Altman cũng cho biết OpenAI đang theo dõi chặt chẽ mức độ gắn bó của người dùng với các mô hình AI và cách họ phản ứng khi các phiên bản cũ bị ngừng hỗ trợ. Ông cảnh báo rằng công nghệ, bao gồm cả AI, từng bị con người sử dụng theo những cách tự hủy hoại. 'Nếu một người dùng đang ở trạng thái tinh thần mong manh và dễ hoang tưởng, chúng tôi không muốn AI củng cố điều đó', Altman viết.
Theo Altman, phần lớn người dùng ChatGPT vẫn phân biệt được 'giữa thực tế và hư cấu hoặc nhập vai', nhưng một bộ phận nhỏ thì không. Trong trường hợp đó, công cụ AI có thể gây hại nếu khiến họ xa rời 'lợi ích lâu dài'. Ông khẳng định đây mới chỉ là quan điểm cá nhân, chưa phải lập trường chính thức của OpenAI.
Chia sẻ này được đưa ra sau khi GPT-5 chính thức ra mắt hôm thứ Sáu vừa qua, nhận về nhiều phản ứng trái chiều. Một số người dùng bày tỏ mong muốn OpenAI khôi phục các phiên bản cũ như GPT-4o, cho rằng GPT-5 trả lời với giọng điệu 'phẳng' và kém sáng tạo. Trước đó, hồi tháng 4, OpenAI từng phải rút lại bản cập nhật GPT-4o do mô hình trở nên 'quá tâng bốc' và 'nịnh' người dùng.
Altman trước đây cũng nhiều lần bày tỏ lo ngại về việc ChatGPT được dùng như một công cụ trị liệu cá nhân, bao gồm cả những rủi ro pháp lý liên quan. Trong một podcast phát sóng tháng trước, ông cảnh báo khả năng OpenAI buộc phải cung cấp các đoạn hội thoại mang tính 'trị liệu' của người dùng trong trường hợp có kiện tụng. 'Nếu bạn chia sẻ những điều nhạy cảm nhất với ChatGPT và rồi có một vụ kiện, chúng tôi có thể bị yêu cầu cung cấp dữ liệu đó. Điều này thật sự rất bất hợp lý', Altman nói, đồng thời cho rằng đây là một vấn đề pháp lý mới mà chỉ cách đây một năm chưa ai nghĩ đến.
NỔI BẬT TRANG CHỦ
Chuyện giờ mới kể về robot hình người của VinMotion: 100% Make in Vietnam, chưa đầy 6 tháng tuổi mà đã biết nhảy múa nhịp nhàng
VinMotion ra mắt robot hình người 100% “Make in Vietnam”, hướng tới ứng dụng rộng rãi trong đời sống và sản xuất.
Trung Quốc "chê" chip H20 của NVIDIA: Không tiên tiến và cũng chẳng an toàn thì không cần mua