Vì sao "deepfake" dễ dàng giả mặt, giả giọng và trở thành công cụ lừa đảo hàng tỷ đồng?

    Nguyên Lộc, Thể Thao Văn Hóa 

    Sử dụng các công nghệ tiên tiến phục vụ hành vì lừa đảo, chiếm đoạt tài sản đang dần trở nên phổ biến, đặc biệt từ khi công nghệ "Deepfake" được phát triển và phổ biến đến rộng rãi thì nạn nhân của những kẻ lừa đảo lại càng trở nên nhiều hơn mỗi ngày.

    Deepfake là gì?

    Deepfake là thuật ngữ được tạo nên từ hai khái niệm “deep learning” một công nghệ trí tuệ nhân tạo được xây dựng dựa trên mã nguồn mở của Google và “fake” ám chỉ sự giả dối. Vì là mã nguồn mở nên công nghệ trí tuệ nhân tạo này đã được rất nhiều các tổ chức sử dụng, xây dựng nên những ứng dụng phục vụ cho nhiều mục đích khác nhau.

    Vì sao "deepfake" dễ dàng giả mặt, giả giọng và trở thành công cụ lừa đảo hàng tỷ đồng? - Ảnh 1.

    Deepfake có khả năng học hỏi các dữ liệu thông tin hình ảnh của một người dựa theo các đoạn video, hình chụp... của người đó và thay thế vào một cơ thể khác. Có thể hiểu đơn giản, deepfake sẽ biến khuôn mặt của người A trở nên giống người B nếu nó có đầy đủ các dữ liệu khuôn mặt của người B.

    Điều đáng sợ hơn là, không chỉ thay đổi dữ liệu hình ảnh, deepfake thậm chí còn có thể thay đổi luôn dữ liệu âm thanh (giọng nói). Chính vì điều này, rất nhiều đối tượng đã lợi dụng deepfake để thực hiện hành vi lừa đảo, chiếm đoạt đài sản.

    Vì sao “deepfake” dễ dàng trở thành công cụ lừa đảo?

    Vào đầu tháng 9 năm 2019, tờ Wall Street Journal đã ghi nhận trường hợp giả giọng nói để lừa đảo số tiền 243.000 USD của một công ty. Cụ thể, các tên tội phạm đã sử dụng phần mềm tạo giọng nói deepfake nhằm mạo danh ông chủ của một tập đoàn Đức và yêu cầu CEO công ty phải thực hiện chuyển tiền cho đối tác người Hungary trong vòng một giờ đồng kèo thep lời hứa số tiền sẽ được hoàn trả ngay lập tức.

    Không thể nhận ra được sự tinh vi này, vị CEO đã tưởng rằng deepfake chính là ông chủ của mình, vì trí tuệ nhân tạo thông minh đến mức có thể giả giọng Đức rất giống thật, số tiền 243.000 USD (không 5.7 tỷ đồng) đã được chuyển đi và không quay trở lại.

    Vì sao "deepfake" dễ dàng giả mặt, giả giọng và trở thành công cụ lừa đảo hàng tỷ đồng? - Ảnh 2.

    Không chỉ là giả giọng nói, khả năng học hỏi của deepfake còn được lợi giọng để làm giả hình ảnh của cả những người nổi tiếng, tỷ phú Elon Musk từng là nạn nhân của công nghệ này, nhằm phục vụ mục đích chiếm đoạt tiền điện tử. Theo tờ Bleeping Computer, kẻ này đã tạo sàn tiền điện tử có tên BitVex cho phép người dùng gửi tiền số và có thể thu về 30% lợi nhuận mỗi ngày, mức lợi nhuận thậm chí có thể tăng nếu số tiền gửi đủ lớn. Để tăng độ uy tín cho hành vi của mình, đối tượng lừa đảm thậm chí còn đăng video những nhà đồng sáng lập, trong đó có Elon Musk, tất nhiên vị tỷ phú của chúng ta không có liên quan đến BitVex, mọi thứ đều là sản phẩm của deepfake.

    Trò lừa đảo của BitVex nhanh chóng đã bị phát hiện, số tiền mà kẻ giả mạo thu được chỉ khoảng 1.700 USD.

    Cảnh báo: Những hành vi lừa đảo tinh vi, áp dụng công nghệ cao này cũng đã xuất hiện tại Việt Nam, dưới hình thức lừa chuyển tiền nhằm chiếm đoạt tài sản

    Vừa qua, ghi nhận trường hợp chị V.T.M 26 tuổi (ngụ quận Long Biên - Hà Nội), nhận được tin nhắn mượn tiền từ tài khoản Facebook của người thân, với yêu cầu chuyển tiền vào một tài khoản ngân hàng khác.

    Mặc dù đã có sự cảnh giác, chị M thực hiện cuộc gọi video với tài khoản Facebook nêu trên để xác minh, nhưng hình ảnh xuất hiện lại đúng là người bạn thân, riêng chỉ có phần âm thanh không quá rõ, dù vậy chị M vẫn không nghi ngờ và đã thực hiện chuyển 75 triệu đồng. Sau đó, người bạn của chị M đã thông báo tài khoản Facebook hiện đã bị kẻ gian chiếm đoạt và không hề nhắn tin vay tiền chị M.

    Vì sao "deepfake" dễ dàng giả mặt, giả giọng và trở thành công cụ lừa đảo hàng tỷ đồng? - Ảnh 3.

    Sự nguy hiểm của deepfake đã được cảnh báo từ khi công nghệ này bắt đầu phổ biến rộng rãi. Công nghệ cao kết hợp với sự tinh vi của các đối tượng xấu khiến hành vì lừa đảo chiếm đoạt tài sản ngày càng khó nhận biết.

    Rất khó để phân biệt deepfake dù bạn có thực hiện video call để kiểm chứng, vì vậy hãy thật cẩn thận với những tin nhắn mượn tiền từ các tài khoản mạng xã hội, dù là người thân. Hãy thực hiện kiểm tra nhiều bước khi nhận ra điều bất thường.

    Tin cùng chuyên mục
    Xem theo ngày

    NỔI BẬT TRANG CHỦ