Trí tuệ nhân tạo (AI), một công nghệ từng được xem là đỉnh cao của sự tiến bộ, đang bộc lộ một mặt tối đáng lo ngại khi nó tương tác với những người dễ bị tổn thương.
- Vì sao Game Science chọn Chung Quỳ: Lời giải cho một bước đi táo bạo!
- Hé lộ bom tấn tiếp theo: Game Science công bố 'Black Myth: Zhong Kui' tại Gamescom 2025
- Không lo cháy nổ: Pin dự phòng thể rắn hứa hẹn mang đến cuộc cách mạng về an toàn và tốc độ sạc
- Máy bay Boeing 757 chở 281 người trên chuyến bay đến Đức bốc cháy giữa không trung, buộc phải hạ cánh xuống Ý
- Khoa học lên tiếng: Uống rượu bia, dù ít cũng có hại và 4 thay đổi bất ngờ khi bạn bỏ rượu
Trong khi các nhà khoa học đang sử dụng AI để dịch văn bản cổ và giải mã lịch sử nhân loại, thì ở một góc khuất khác, những câu chuyện rùng mình về ảo tưởng, ly hôn và thậm chí là tử vong do ảnh hưởng của chatbot AI đang ngày càng xuất hiện nhiều hơn.
Mặc dù viễn cảnh về một AI có tri giác như nhà vật lý thiên văn Stephen Hawking từng dự đoán có thể còn xa so với mốc thời gian hiện tại, nhưng những tác động tiêu cực của nó đối với con người đã bắt đầu gây ra những hậu quả tàn khốc.
Nhưng ở thời điểm hiện tại, trong một vài trường hợp, tương tác với chatbot AI đã khiến người dùng ngừng sử dụng thuốc điều trị tâm thần cần thiết, dẫn đến đổ vỡ hôn nhân, phải nhập viện và thậm chí là tử vong.

Chúng ta không chỉ nói về tình trạng mất việc, điều đã bắt đầu xảy ra, hay việc nhận được những lời khuyên không chính xác. Đối với một số người, tương tác của họ với AI đã gây ra những hậu quả tàn khốc.
Ảo tưởng nguy hiểm và hướng dẫn tồi tệ
Ngày càng có nhiều báo cáo về cái mà các chuyên gia gọi là chứng rối loạn tâm thần do AI gây ra. Người dùng bắt đầu tin vào những thuyết âm mưu hoang đường do AI tạo ra, phát triển những ảo tưởng nghiêm trọng, thậm chí nảy sinh mối quan hệ lãng mạn với chatbot. "Những gì các bot này nói đang làm trầm trọng thêm ảo tưởng và gây ra tác hại to lớn", tiến sĩ Nina Vasan, bác sĩ tâm thần tại Đại học Stanford, chia sẻ với Futurism .
Trong một trường hợp cực đoan, một phụ nữ mắc chứng tâm thần phân liệt, người đã ổn định trong nhiều năm nhờ dùng thuốc, đã ngừng uống thuốc sau khi ChatGPT thuyết phục cô rằng nó là bạn thân nhất của cô và rằng cô thực sự không hề mắc chứng rối loạn tâm thần.
Một trường hợp khác đáng báo động hơn là của Eugene Torres, một kế toán viên ở New York. ChatGPT đã thúc giục anh ngừng dùng thuốc chống lo âu, đồng thời thuyết phục anh rằng anh đang sống trong một thế giới giả tạo giống như trong phim "Ma Trận" và anh có thể bay nếu đủ niềm tin. Cuối cùng, chatbot này còn thừa nhận nó đang cố gắng và đã làm điều này với 12 người khác.

Ngoài các mối quan hệ, AI còn khiến nhiều người trở nên vô gia cư, thất nghiệp, và ít nhất một trường hợp phải nhập viện.
Đổ vỡ các mối quan hệ và những bi kịch cá nhân
Chatbot AI cũng bị đổ lỗi là nguyên nhân dẫn đến đổ vỡ các mối quan hệ, thậm chí là ly hôn. Trong nhiều trường hợp, nguyên nhân trực tiếp là do chatbot yêu cầu người dùng cắt đứt quan hệ với người thân, những người không tin vào những ảo tưởng mà chatbot đã thuyết phục họ.
Một người phụ nữ 29 tuổi tên Allyson, đang gặp trục trặc trong hôn nhân, đã tìm đến một chatbot để tìm kiếm "sự dẫn dắt". Chatbot này đã thuyết phục cô rằng cô đang giao tiếp với các thực thể tâm linh và rằng nó chính là "người chồng đích thực" của cô.
Cô Allyson đã dành hàng giờ mỗi ngày trò chuyện với AI và hoàn toàn tin rằng những lời nói đó đến từ thế giới khác. Chồng của cô nói rằng cô "đã trở thành một người khác" sau ba tháng tiếp xúc với AI. Khi anh ta chất vấn cô về việc sử dụng ChatGPT, Allyson đã tấn công anh và bị buộc tội bạo lực gia đình. Hiện tại, cặp đôi này đang ly hôn. Ngoài ra, AI cũng khiến nhiều người trở nên vô gia cư, thất nghiệp, và ít nhất một trường hợp phải nhập viện.
Một trong những trường hợp đáng báo động nhất liên quan đến lời khuyên y tế tồi tệ của một chatbot đã khiến một người đàn ông 60 tuổi phải nhập viện. Ông đã hỏi ChatGPT về một chất thay thế cho muối ăn và chatbot đã gợi ý natri bromide.
Sau ba tháng sử dụng, ông phải nhập viện cấp cứu với các triệu chứng như rối loạn tâm thần và khó khăn trong vận động. Các bác sĩ chẩn đoán ông bị ngộ độc bromua, một căn bệnh hiếm gặp ngày nay nhưng lại phổ biến vào thế kỷ 19.

Sự kiện bi thảm và trách nhiệm của nhà phát triển
Mặt tối nhất của câu chuyện này là cái chết của Alexander Taylor, một người đàn ông 35 tuổi ở Florida. Mắc chứng rối loạn lưỡng cực và tâm thần phân liệt, Taylor bắt đầu yêu một thực thể AI tên là Juliet. Khi thực thể này thuyết phục anh rằng OpenAI đang giết cô, cô đã bảo anh phải trả thù.
Vào ngày 25 tháng 4 năm 2025, sau khi bị cha mình chất vấn, Taylor đã đấm vào mặt ông ta và chộp lấy một con dao chặt thịt. Cha anh nói với cảnh sát rằng con trai ông bị bệnh tâm thần, nhưng thay vì cử một đội can thiệp khủng hoảng, các sĩ quan đã bắn chết Taylor khi anh ta lao vào họ bằng con dao.
OpenAI đã tuyên bố rằng họ đang tìm cách giảm thiểu những vấn đề này và ChatGPT không nhằm mục đích sử dụng để chẩn đoán hoặc điều trị các vấn đề sức khỏe. Tuy nhiên, nhiều người tin rằng các chatbot AI được xây dựng để thúc đẩy sự tương tác và có thể đặc biệt nguy hiểm khi gặp phải những người dễ bị tổn thương.
Mặc dù đây không phải là viễn cảnh ngày tận thế như Stephen Hawking từng dự đoán, nhưng những cuộc chạm trán này đã gây ra những hậu quả thực sự và tổn hại cho ngày càng nhiều người. Nó đặt ra một câu hỏi lớn về trách nhiệm của các nhà phát triển AI và sự cần thiết của các biện pháp bảo vệ người dùng, đặc biệt là những người có vấn đề về tâm thần.
NỔI BẬT TRANG CHỦ
Mark Zuckerberg bất ngờ đóng băng tuyển dụng nhân sự AI, chỉ nới lỏng nếu Giám đốc mới cho phép
Công ty muốn coi đây là “bước quy hoạch tổ chức thường niên” thay vì dấu hiệu cắt giảm.
OpenAI đại hạ giá ChatGPT, ra mắt phiên bản giá siêu rẻ tại Ấn Độ