Google Veo 3 quá thật để nghi ngờ: Những kịch bản lừa đảo bằng video AI đang nhắm thẳng vào chính người thân bạn

    Thế Duyệt,  

    Sự phát triển của AI video như Google Veo 3 đang mở đường cho những kịch bản lừa đảo tinh vi nhắm vào người lớn tuổi, nơi chỉ một đoạn clip giả cũng đủ khiến nạn nhân chuyển tiền vì tin rằng người thân gặp nạn.

    Trong một đoạn video dài chưa đến 30 giây, một người phụ nữ lớn tuổi bật khóc khi xem hình ảnh đứa cháu trai đang nằm bất tỉnh trên giường bệnh. Video đi kèm lời nhắn "mẹ ơi cứu con với", cùng số tài khoản ngân hàng để chuyển viện phí gấp. Bà tin đó là sự thật, vì đứa trẻ trong video chính xác là cháu nội của bà. Nhưng thực tế, toàn bộ đoạn clip được dựng bởi trí tuệ nhân tạo.

    Đây không còn là một kịch bản viễn tưởng. Công nghệ AI, cụ thể là Google Veo 3, một trong những mô hình tạo video tiên tiến nhất hiện nay đang mở ra một "mặt trận" mới cho các hình thức lừa đảo, đặc biệt là nhắm vào người cao tuổi.

    Veo 3: Không chỉ tạo hình ảnh như thật, mà là sao chép hình ảnh thật

    Không giống như công nghệ deepfake vốn giả mạo gương mặt trong thời gian thực (thường dùng trong các cuộc gọi video), Veo 3 thuộc nhóm generative video, cho phép dựng các cảnh quay hoàn chỉnh với kịch bản được soạn trước, ánh sáng, chuyển động camera, và hình ảnh người thật.

    Những đoạn video "như thật" được tạo bằng Google Veo 3 - Nguồn: Người dùng Facebook

    Ông Nguyễn Hồng Phúc, Giám đốc khoa học tại công ty bảo mật Conductify AI, cảnh báo: "Veo 3 không đơn thuần tạo ra hình ảnh giống thật, mà nó sao chép chính hình ảnh thật của người thân, từ ảnh cũ, ảnh mạng xã hội... để dựng lại thành một video giả cực kỳ thuyết phục."

    Điều này đồng nghĩa với việc bất kỳ ai từng chia sẻ hình ảnh cá nhân lên mạng, từ tài khoản Facebook, Zalo đến ảnh chụp gia đình, đều có nguy cơ bị trích xuất để làm chất liệu cho một video lừa đảo.

    Những kịch bản lừa đảo đã và đang diễn ra

    Không còn là tương lai xa, các chuyên gia bảo mật cho biết những kịch bản này đã được ghi nhận tại Việt Nam. Trong đó, ba kịch bản phổ biến và nguy hiểm nhất bao gồm:

    1. Người thân gặp tai nạn, yêu cầu chuyển viện phí khẩn cấp

    Một video được gửi qua Zalo, ghi lại cảnh người thân đang nằm viện, đi kèm là tin nhắn kêu gọi giúp đỡ. Tên, khuôn mặt, hoàn cảnh... đều đúng, vì AI được "nuôi" từ dữ liệu thật.

    "Chỉ cần dựng sẵn clip có kịch bản, Veo 3 có thể tạo ra video khiến người xem không còn khả năng phân biệt thật - giả," ông Phúc cho biết.

    2. Mạo danh công an, toà án, cơ quan nhà nước

    Các đối tượng dựng clip giả từ hình ảnh của người bị hại và kết hợp với lời thoại giả danh cơ quan chức năng: "Anh/chị đang bị điều tra...", từ đó yêu cầu chuyển tiền hoặc cung cấp OTP.

    Dù Veo chưa thể giả giọng nói hoàn chỉnh, nhưng việc thêm lời thoại giả qua hậu kỳ rất đơn giản. Ông Phúc nhận định: "AI hiện chưa sao chép giọng người, nhưng hoàn toàn có thể tạo âm thanh giả gần giống nếu được biên tập hậu kỳ."

    Google Veo 3 quá thật để nghi ngờ: Những kịch bản lừa đảo bằng video AI đang nhắm thẳng vào chính người thân bạn- Ảnh 1.

    Cảnh giác các clip, cuộc gọi giả mạo công an - Ảnh: Internet

    3. Video giả danh gửi từ người thân ở nước ngoài

    Các đối tượng dựng clip người thân đang "kẹt ở sân bay", "bị bắt vì mang hàng cấm", cần tiền để thoát thân. Do có đủ hình ảnh thực, video dễ khiến người lớn tuổi tin rằng đây là cuộc gọi cầu cứu thật sự.

    Theo phân tích của chuyên gia Nguyễn Hồng Phúc, không có người trẻ, người già hay bất kỳ ai đủ khả năng phân biệt thật/giả chỉ bằng mắt thường. "Sắp tới, những hình ảnh AI dựng sẽ thật đến mức mà cả chuyên gia cũng phải mất thời gian để kiểm định," ông nói.

    Tuy nhiên, người lớn tuổi là nhóm nguy cơ cao nhất do thường thiếu kỹ năng kiểm chứng thông tin, dễ bị chi phối bởi cảm xúc và không quen đối phó với công nghệ.

    Một cú click - cả gia tài mất trắng

    Chỉ cần vài cú nhấn để chuyển khoản, hoặc chia sẻ thông tin cá nhân, hay mã OTP của ngân hàng, người dùng có thể mất hàng chục, thậm chí hàng trăm triệu đồng. Đáng lo ngại hơn, nhiều vụ lừa đảo không để lại dấu vết rõ ràng, do mọi bằng chứng là... đồ giả.

    Với công nghệ như Veo 3, chúng ta đang bước vào thời kỳ mà kẻ lừa đảo không cần phải gọi điện, không cần phải nói chuyện, chỉ cần có kịch bản và dựng một clip đủ xúc động là đủ khiến nạn nhân mất cảnh giác.

    Và nếu không có người đủ tỉnh táo trong gia đình, người thân bạn có thể là nạn nhân tiếp theo.

    "Chỉ cần người lớn tuổi nói một câu đơn giản: 'Để tôi gọi lại cho con cháu tôi', là toàn bộ kịch bản lừa đảo sẽ đứt đoạn ngay lập tức," ông Phúc khuyến nghị.

    Nhưng để làm được điều đó, mỗi gia đình cần thiết lập "người giữ nguồn thông tin" (single source of trust) một người trẻ có hiểu biết công nghệ, sẵn sàng kiểm tra lại mọi thông tin trước khi quá muộn.

    "Single source of trust", hay còn gọi là nguồn tin cậy duy nhất, là nguyên tắc đảm bảo rằng mọi thông tin quan trọng đều được xác minh và truyền đạt từ một kênh duy nhất đã được thỏa thuận trước. Trong bối cảnh hiện nay, khi các hình thức lừa đảo công nghệ cao ngày càng tinh vi, đặc biệt là những kịch bản giả mạo người thân như "con gặp nạn cần tiền gấp", "tai nạn bất ngờ", hay "bị công an giữ", việc mỗi gia đình thiết lập một cơ chế xác minh đáng tin cậy là điều hết sức cần thiết.

    Để giảm thiểu rủi ro bị lừa đảo, các gia đình nên thống nhất một "single source of trust", chẳng hạn như nhóm chat chung trên Zalo, Telegram, hoặc yêu cầu gọi video trực tiếp để xác thực tình huống khẩn cấp. Khi đã có quy ước rõ ràng về kênh xác minh duy nhất, các thành viên sẽ không dễ dàng tin vào những cuộc gọi hay tin nhắn bất thường, dù giọng nói, hình ảnh hay câu chuyện có chân thật đến đâu. Đây là một bước đơn giản nhưng hiệu quả để bảo vệ người thân khỏi các chiêu trò đánh vào tâm lý và tình cảm gia đình.

    Tin cùng chuyên mục
    Xem theo ngày

    NỔI BẬT TRANG CHỦ