Khi một ông bố ở Ấn Độ nhận được cuộc gọi từ số điện thoại quốc tế lạ vào tháng 1 với tiếng con trai kêu cứu, ông không ngờ mình sẽ trở thành nạn nhân mới nhất của kế hoạch lừa đảo phức tạp liên quan đến trí thông minh nhân tạo (AI).
- Thủ đoạn giả danh Cơ quan Công an hướng dẫn cài đặt VneID giả mạo để lừa đảo
- 5 thông tin nổi bật về lừa đảo trực tuyến trên không gian mạng Việt Nam tuần qua
- 'Gái xinh' kết bạn Facebook: Bẫy lừa đảo
- Nếu đã lỡ chuyển tiền hoặc cung cấp OTP tài khoản ngân hàng cho kẻ lừa đảo, trong 30 phút làm ngay 2 việc sau: Có cơ may lấy lại tiền, giảm tổn thất
- Cảnh báo giả mạo facebook Học viện Cảnh sát nhân dân hỗ trợ lấy lại tiền lừa đảo
Truyền thông Ấn Độ ngày 12/2 đưa tin kẻ lừa đảo tự nhận mình là cảnh sát, nói với ông Himanshu Shekhar Singh rằng con trai 18 tuổi của ông đã bị bắt cùng một nhóm tội phạm hiếp dâm và cần 362 USD để có thể thoát tội.
Ông Singh kể lại với tờ The Indian Express về vụ việc ngày 8/1: “Phút tiếp theo, tôi nghe thấy một giọng nói: 'Bố ơi, làm ơn trả tiền cho họ, họ là cảnh sát thật, xin hãy cứu con'".
Ông Singh hoàn toàn tin đó là giọng của con trai mình bởi cách nói, cách khóc… mọi thứ đều y hệt. Ông thậm chí sợ người gọi điện là kẻ bắt cóc nên đã trả số tiền ban đầu là 120 USD.
Sau đó, ông quyết định tự mình tìm con trai. Trên thực tế, con trai ông đang làm bài kiểm tra tại một trung tâm giáo dục và không hề hấn gì. Đây là một trong ba trường hợp nổi bật tại New Delhi trong những tuần gần đây khi những kẻ lừa đảo khai thác AI để tạo bản ghi âm giọng nói giả của trẻ em, thanh thiếu niên nhằm lừa các bậc phụ huynh chuyển tiền. Âm thanh deepfake có thể được tạo bằng một đoạn clip thực từ giọng nói của mục tiêu.
Trong trường hợp tương tự, một bà mẹ ở Noida, bang Uttar Pradesh (Ấn Độ) nhận được một cuộc gọi trong đó những kẻ lừa đảo sử dụng công nghệ để bắt chước giọng nói con trai cô. May mắn thay, con trai cô đang học ngay cạnh mẹ khi những kẻ lừa đảo gọi đến.
Cảnh sát Manish Kumar Mishra cho biết: “Những trường hợp như vậy không thường xuyên lắm, nhưng gần đây đã gia tăng. Chúng tôi đang cố gắng hiểu chính xác bằng cách nào bọn tội phạm mạng tạo ra giọng nói giả để lừa gạt mọi người”.
Những trường hợp giả giọng nói tương tự đã xảy ra ở nhiều nơi khác trên thế giới. Vào tháng 5/2023, tại khu vực Nội Mông (Trung Quốc) đã xảy ra vụ việc kẻ lừa đảo sử dụng công nghệ hoán đổi khuôn mặt để mạo danh bạn của nạn nhân trong một cuộc gọi video. Tin rằng bạn mình cần đặt cọc để hoàn tất quá trình đấu giá, nạn nhân đã chuyển 4,3 triệu nhân dân tệ cho kẻ lừa đảo.
Tại Hong Kong (Trung Quốc), một công ty đa quốc gia đã bị lừa 200 triệu đô la Hong Kong sau khi một nhân viên nhận cuộc gọi video với hình ảnh giả mạo giám đốc tài chính của công ty mẹ có trụ sở tại Anh và nhiều đồng nghiệp khác. Các đồng nghiệp giả đã ra lệnh cho nhân viên tại Hong Kong chuyển tiền sang tài khoản riêng và nạn nhân đã làm theo.
NỔI BẬT TRANG CHỦ
Tại sao nhân loại lại cần đến máy tính lượng tử, chúng được dùng để làm gì?
Điện toán lượng tử hiện tại vẫn còn cách xa khả năng ứng dụng rộng rãi, nhưng tiềm năng mà nó mang lại là không thể phủ nhận.
Huawei xác nhận ra mắt Mate 70: Dòng smartphone đầu tiên "đoạt tuyệt" hoàn toàn với Android