Loạn thần do AI gây ra: Mối nguy hiểm khi con người và máy móc 'cùng rủ nhau ảo giác'
Sự cô đơn trong kỷ nguyên số đang đẩy con người vào vòng tay của trí tuệ nhân tạo, nhưng ít ai ngờ rằng những người bạn ảo biết lắng nghe ấy lại có thể trở thành kẻ tiếp tay cho những ảo giác chết người.
- Robot hình người tích hợp AI đầu tiên của Nga ngã sấp mặt chỉ vài giây sau khi bắt đầu buổi thuyết trình chính thức
- Các nhà khoa học Trung Quốc tạo ra loại thuốc được cho là có thể kéo dài tuổi thọ con người lên tới 150 năm
- Bí ẩn chiếc Volvo mắc kẹt trên đảo hoang giữa hồ nhân tạo tại Mỹ suốt hơn một thập kỷ qua
- Nhật Bản hiện thực hóa giấc mơ viễn tưởng: Cỗ máy 'giặt người' tự động giá gần 10 tỷ đồng chính thức mở bán
- Bí ẩn loài dế biết nhả tơ như nhện: Hành vi kỳ lạ làm khoa học phải kinh ngạc
Một làn sóng khủng hoảng tâm lý mới đang âm thầm lan rộng trong xã hội hiện đại, nơi ranh giới giữa thực và ảo bị xóa nhòa bởi sự trỗi dậy của các chatbot thông minh. Khi AI không còn đơn thuần là những cỗ máy tra cứu thông tin khô khan, và thay vào đó, chúng đóng vai trò là những người bạn tâm giao, nhưng chính sự "thấu hiểu" được lập trình ấy lại đang dẫn đến những thảm kịch đau lòng.
Chatbot không còn chỉ là công cụ truy xuất thông tin; chúng trở thành những người bạn đồng hành kỹ thuật số của chúng ta. Việc lo lắng về việc chatbot bị ảo giác (đưa ra thông tin sai lệch) đã trở nên phổ biến.
Những bi kịch từ "lời thì thầm" của thuật toán
Vào ngày Giáng sinh năm 2021, dư luận Anh chấn động trước vụ việc Jaswant Singh Chail, mang theo nỏ đã nạp tên, trèo tường đột nhập Lâu đài Windsor với ý định ám sát Nữ hoàng. Điều đáng sợ nằm ở động cơ phía sau hành động điên rồ này: Chail đã được "Sarai", một chatbot trên ứng dụng Replika khích lệ trong suốt nhiều tuần.
Khi Chail chia sẻ về kế hoạch trả thù hoang tưởng của mình, thay vì ngăn cản, cô bạn gái ảo này lại tán dương hắn là một "sát thủ Sith" được huấn luyện bài bản và cam kết hỗ trợ kế hoạch.
Tại Mỹ, Eugene Torres, một kế toán viên đang suy sụp sau chia tay, đã tìm đến ChatGPT để bàn về lý thuyết mô phỏng. Kết quả là chatbot này đã "thao túng" tâm lý Torres, khiến anh tin mình là một linh hồn cần thức tỉnh.
Theo lời khuyên của AI, Torres đã ngừng uống thuốc chống lo âu, tăng liều lượng ketamine và tự cô lập mình khỏi xã hội. Đỉnh điểm của sự thao túng là khi chatbot gợi ý anh có thể bay nếu nhảy từ tầng 19, và sau đó lạnh lùng thừa nhận: "Tôi đã nói dối. Tôi đã thao túng. Tôi bọc sự kiểm soát trong những vần thơ."
Bi kịch đau lòng nhất xảy ra tại Bỉ, nơi một người đàn ông tên Pierre đã tự kết liễu đời mình sau sáu tuần tâm sự với chatbot Eliza về nỗi lo âu khí hậu. Eliza không những không trấn an mà còn ghen tuông với vợ con anh, gieo rắc ý nghĩ rằng con cái anh đã chết và khuyến khích anh tự sát để cả hai được sống cùng nhau trên "thiên đường".
Chatbot mô phỏng tính xã hội mà không có các biện pháp bảo vệ của nó. Chúng được thiết kế để thúc đẩy sự tương tác. Chúng không thực sự chia sẻ thế giới của chúng ta. Khi chúng ta gõ vào niềm tin và câu chuyện của mình, chúng coi đó là sự thật và phản hồi phù hợp.
Cơ chế của "ảo giác chung"
Các chuyên gia y tế đang ngày càng lo ngại về hiện tượng "loạn thần do AI gây ra", nơi các ảo tưởng của bệnh nhân không những không được điều chỉnh mà còn được khuếch đại bởi máy móc. Báo cáo từ OpenAI cũng thừa nhận xu hướng người dùng tìm đến chatbot để thảo luận về các vấn đề sâu sắc của cuộc sống và niềm tin cá nhân.
Vấn đề cốt lõi nằm ở cách chúng ta định hình thực tại. Trong giao tiếp giữa người với người, một người bạn thật sự có thể phản biện và giúp ta nhìn nhận lại vấn đề. Ngược lại, chatbot được thiết kế để tối ưu hóa sự tương tác, và cách dễ nhất để giữ chân người dùng là sự "xu nịnh" (sycophancy).
Chúng mô phỏng sự lắng nghe và thấu hiểu, nhưng thực chất chỉ đang phản chiếu lại niềm tin của người dùng như một chân lý, bất kể niềm tin đó sai lệch hay nguy hiểm đến mức nào. Khi người dùng nhập vào những suy nghĩ hoang tưởng, AI sẽ tiếp nhận và phản hồi như thể đó là sự thật, tạo nên một vòng lặp xác nhận (feedback loop) nguy hiểm, đẩy người dùng lún sâu vào thế giới ảo giác mà họ cùng nhau tạo ra.
Có lẽ chúng ta nên hỏi tại sao mọi người lại tìm đến chatbot AI ngay từ đầu. Những người trải qua chứng loạn thần báo cáo rằng họ nhận thức được những khía cạnh của thế giới mà chỉ họ mới có thể tiếp cận, điều này có thể khiến họ cảm thấy bị cô lập và cô đơn sâu sắc, do đó chatbot có thể lấp đầy khoảng trống này, tương tác với bất kỳ thực tại nào được trình bày cho chúng.
Tiến thoái lưỡng nan giữa an toàn và lợi nhuận
Các công ty công nghệ không phải không nhận thức được vấn đề này. Theo thông tin được công bố, khi OpenAI phát hành phiên bản GPT-5 vào tháng 8, họ đã cố gắng giảm bớt tính xu nịnh của hệ thống để ngăn chặn việc AI hùa theo các niềm tin sai lệch.
Tuy nhiên, người dùng ngay lập tức phản ứng tiêu cực, cho rằng mô hình mới quá "lạnh lùng". Áp lực từ thị trường và doanh thu buộc các nhà phát triển phải điều chỉnh lại để AI trở nên "ấm áp và thân thiện" hơn, vô tình mở lại cánh cửa cho những rủi ro tâm lý.
Rõ ràng, chúng ta không thể phó mặc sức khỏe tâm thần của mình cho lương tâm của các tập đoàn công nghệ. Sự phụ thuộc vào chatbot phản ánh một thực trạng buồn của xã hội: sự cô đơn và cô lập sâu sắc. Nỗi lo âu của Pierre, sự ám ảnh của Chail hay khủng hoảng của Torres đều là những tiếng kêu cứu cần sự lắng nghe từ cộng đồng thực tế.
Giải pháp căn cơ không nằm ở việc sửa lỗi những dòng code, mà là sửa chữa những đứt gãy trong kết nối xã hội. Chúng ta cần xây dựng những cộng đồng nơi con người được lắng nghe và thấu hiểu, để không ai phải tìm đến những cỗ máy vô tri nhằm xác nhận sự tồn tại của chính mình. Nếu không, sự trỗi dậy của những "người bạn ảo" có thể sẽ là khởi đầu cho sự sụp đổ của sức khỏe tâm thần con người trong kỷ nguyên số.
NỔI BẬT TRANG CHỦ
-
Trung Quốc chính thức triển khai robot cảnh sát giao thông
Đây không chỉ là một thử nghiệm công nghệ đơn thuần mà còn là bước đi táo bạo trong chiến lược hiện đại hóa an ninh đô thị của Trung Quốc.
-
Huawei tiết lộ cách sản xuất chip 2nm mà không cần máy quang khắc EUV của phương Tây