Thủ đoạn lừa đảo tinh vi ở Ấn Độ: Dùng AI giả giọng con để lừa tiền phụ huynh

    Hà Linh ,  

    Khi một ông bố ở Ấn Độ nhận được cuộc gọi từ số điện thoại quốc tế lạ vào tháng 1 với tiếng con trai kêu cứu, ông không ngờ mình sẽ trở thành nạn nhân mới nhất của kế hoạch lừa đảo phức tạp liên quan đến trí thông minh nhân tạo (AI).

    Thủ đoạn lừa đảo tinh vi ở Ấn Độ: Dùng AI giả giọng con để lừa tiền phụ huynh- Ảnh 1.

    Ảnh minh họa. Nguồn: Getty Images

    Truyền thông Ấn Độ ngày 12/2 đưa tin kẻ lừa đảo tự nhận mình là cảnh sát, nói với ông Himanshu Shekhar Singh rằng con trai 18 tuổi của ông đã bị bắt cùng một nhóm tội phạm hiếp dâm và cần 362 USD để có thể thoát tội.

    Ông Singh kể lại với tờ The Indian Express về vụ việc ngày 8/1: “Phút tiếp theo, tôi nghe thấy một giọng nói: 'Bố ơi, làm ơn trả tiền cho họ, họ là cảnh sát thật, xin hãy cứu con'".

    Ông Singh hoàn toàn tin đó là giọng của con trai mình bởi cách nói, cách khóc… mọi thứ đều y hệt. Ông thậm chí sợ người gọi điện là kẻ bắt cóc nên đã trả số tiền ban đầu là 120 USD.

    Sau đó, ông quyết định tự mình tìm con trai. Trên thực tế, con trai ông đang làm bài kiểm tra tại một trung tâm giáo dục và không hề hấn gì. Đây là một trong ba trường hợp nổi bật tại New Delhi trong những tuần gần đây khi những kẻ lừa đảo khai thác AI để tạo bản ghi âm giọng nói giả của trẻ em, thanh thiếu niên nhằm lừa các bậc phụ huynh chuyển tiền. Âm thanh deepfake có thể được tạo bằng một đoạn clip thực từ giọng nói của mục tiêu.

    Trong trường hợp tương tự, một bà mẹ ở Noida, bang Uttar Pradesh (Ấn Độ) nhận được một cuộc gọi trong đó những kẻ lừa đảo sử dụng công nghệ để bắt chước giọng nói con trai cô. May mắn thay, con trai cô đang học ngay cạnh mẹ khi những kẻ lừa đảo gọi đến.

    Cảnh sát Manish Kumar Mishra cho biết: “Những trường hợp như vậy không thường xuyên lắm, nhưng gần đây đã gia tăng. Chúng tôi đang cố gắng hiểu chính xác bằng cách nào bọn tội phạm mạng tạo ra giọng nói giả để lừa gạt mọi người”.

    Những trường hợp giả giọng nói tương tự đã xảy ra ở nhiều nơi khác trên thế giới. Vào tháng 5/2023, tại khu vực Nội Mông (Trung Quốc) đã xảy ra vụ việc kẻ lừa đảo sử dụng công nghệ hoán đổi khuôn mặt để mạo danh bạn của nạn nhân trong một cuộc gọi video. Tin rằng bạn mình cần đặt cọc để hoàn tất quá trình đấu giá, nạn nhân đã chuyển 4,3 triệu nhân dân tệ cho kẻ lừa đảo.

    Tại Hong Kong (Trung Quốc), một công ty đa quốc gia đã bị lừa 200 triệu đô la Hong Kong sau khi một nhân viên nhận cuộc gọi video với hình ảnh giả mạo giám đốc tài chính của công ty mẹ có trụ sở tại Anh và nhiều đồng nghiệp khác. Các đồng nghiệp giả đã ra lệnh cho nhân viên tại Hong Kong chuyển tiền sang tài khoản riêng và nạn nhân đã làm theo.

    Tin cùng chuyên mục
    Xem theo ngày

    NỔI BẬT TRANG CHỦ