Công nghệ deepfake của Samsung thật đến đáng sợ: Xem tu sĩ Rasputin hát bài Halo của Beyoncé là hiểu!

    Dink,  

    Deepfake mở ra những khả năng đáng lo ngại.

    Công nghệ sử dụng AI để làm mặt giả, hay còn gọi là deepfake, đang trở nên tốt một cách đáng lo ngại. Thời gian gần đây, ta đã thấy xuất hiện Mona Lisa và Albert Einstein đột nhiên hồi sinh, bên cạnh một loạt những người nổi tiếng năm xưa: họ đều có khẩu hình nói chuyện và cử động khuôn mặt cực kỳ thực tế.

    Khả năng “hồi sinh” cao đến vậy, chẳng lạ khi thấy người thật cũng bị làm giả bằng deepfake. Gần đây nhất, ta thấy khuôn mặt của Mark Zuckerberg và Kim Kardashian xuất hiện, không ai đích thân xuất hiện trong clip cả, video hoàn toàn là sản phẩm dựng bằng máy tính.

    Các nhà nghiên cứu của Samsung đặc biệt giỏi khoản này. Bằng chứng là sản phẩm kết hợp giữa trung tâm nghiên cứu AI của Samsung và Đại học Hoàng gia London: họ hoạt hình hóa một tấm ảnh và ghép một đoạn âm thanh vào, khiến cho người trong ảnh dường như đang mấp máy môi với khẩu hình khớp với đoạn âm thanh cho trước.

    Video dưới đây là ví dụ, ta thấy mặt của Grigori Rasputin, một tu sĩ tự phong từ thời vẫn còn các Nga hoàng, đang hát những giai điệu hiện đại của … Halo, bài hát đình đám do Beyoncé trình diễn. Để ý khẩu hình của Rasputin, có thể thấy nó khớp với phần lớn lời bài hát.

    Rasputin hát bài Halo.

    Có được điều kỳ diệu này là nhờ Mạng Chống đối Tạo sinh - Generative Adversarial Network (GAN), công nghệ sản sinh dữ liệu với mục đích giống với dữ liệu gốc (dữ liệu thật) nhất. 

    “Các video được tạo ra bằng GAN không chỉ có khẩu hình đồng bộ với âm thanh, mà còn tạo được các yếu tố biểu cảm như chớp mắt, nhướn mày, v.v…”, các nhà nghiên cứu viết trong báo cáo khoa học. “Mạng được cải tiến của chúng tôi sử dụng dữ liệu là các khuôn mặt tự nhiên ngoài đời thực, để có thể bắt được các yếu tố cảm xúc hiện hữu trên mặt người nói, quan sát rõ được biểu cảm khuôn mặt”.

    Những video deepfake đem lại hai cảm giác trái ngược: hứng thú với tiềm năng rất lớn của công nghệ, sợ hãi một tương lai không thể phân biệt được thật giả. 

    Tấm ảnh của Einstein đang vang lên những lời chính thiên tài năm xưa đã nói.

    Điểm cộng của những video này là “hồi sinh” được những nhân vật quan trọng trong lịch sử, cho hậu duệ đời sau có cơ hội trải nghiệm những lời vàng ý ngọc đã từng được xướng lên.

    Nhưng điểm trừ nguy hiểm hơn nhiều: không rõ hậu duệ sẽ được nghe những lời vàng ý ngọc, hay những quan điểm lệch lạc mà người làm video cố tình đưa vào, tạo ra những mẩu tin giả có khả năng viral khắp nơi. Các cụ nhà ta dạy không hề sai: Đừng vội tin bất cứ thứ gì trên Internet.

    Tin cùng chuyên mục
    Xem theo ngày

    NỔI BẬT TRANG CHỦ