Microsoft tung hai công cụ mới giúp phát hiện đâu là ảnh hoặc video bị làm giả bằng công nghệ deepfake

    Thiên Long,  

    Gã khổng lồ phần mềm Microsoft dường như muốn tuyên chuyến với những kẻ xấu lợi dụng công nghệ deepfake để reo rắc sự hoang mang và làm tổn hại đến thanh danh của người khác.

    Mới đây Microsoft đã công bố hai công cụ mới giúp xác định hình ảnh và video bị làm giả. Được biết cả hai hệ thống đều vận dụng sức mạnh của trí tuệ nhân tạo.

    Microsoft tung hai công cụ mới giúp phát hiện đâu là ảnh hoặc video bị làm giả bằng công nghệ deepfake - Ảnh 1.

    Hệ thống đầu tiên sử dụng siêu dữ liệu và hệ thống thứ hai dựa vào chương trình "Video Authenticator" để phân tích ảnh, video, từ đó chỉ ra những điểm tin cậy giúp bạn biết liệu một bức ảnh hoặc video đó có bị làm giả hay không.

    Hệ thống siêu dữ liệu mà Microsoft gần như tương tự với hệ thống "Authenticity" sắp ra mắt của Adobe (một chương trình dùng để thêm một số thẻ nhất định vào hình ảnh và giúp bạn biết liệu bạn có đang xem bản gốc hoặc bản đã qua chỉnh sửa hay không).

    Nhưng thú vị hơn, chương trình "Video Authenticator" của Microsoft thực sự có thể phân tích và xác định được cả với ảnh tĩnh lẫn video.

    Theo Microsoft: "Video Authenticator có thể phân tích ảnh tĩnh hoặc video, từ đó cung cấp tỷ lệ phần trăm sai khác hoặc điểm tin cậy để biết liệu nội dung đó có đang bị làm giả hay không. Trong trường hợp video, nó có thể cung cấp tỷ lệ phần trăm độ trung thực của video ngay trên mỗi khung hình video đang phát. Chương trình hoạt động bằng cách phát hiện ranh giới pha trộn giữa các yếu tố bị làm mờ hoặc greyscale mà mắt người không phát hiện ra được".

    Microsoft tung hai công cụ mới giúp phát hiện đâu là ảnh hoặc video bị làm giả bằng công nghệ deepfake - Ảnh 2.
    Microsoft tung hai công cụ mới giúp phát hiện đâu là ảnh hoặc video bị làm giả bằng công nghệ deepfake - Ảnh 3.

    Công nghệ này được tạo ra nhằm chống lại deepfake, một dạng lừa đảo ảnh hoặc video sử dụng các thuật toán deep learning. Các nội dung số này thường bị làm giả nhắm mạo danh các nhân vật chính trị hoặc người nổi tiếng. Deepfake đang ngày càng trở nên nguy hiểm hơn vì nó đã đủ khả năng xóa nhòa đi ranh giới giữa thật và giả, khiến người xem dù tinh ý đến mấy cũng khó nhận ra.

    Đây chính là điều mà Video Authenticator đang cố gắng giải quyết. Hơn nữa nhờ việc tích hợp bộ dữ liệu mới nhất và sự hỗ trợ của AI nên nó có thể dễ dàng phát hiện ra sự bất thường mà con người không thể nhìn thấy.

    Do đây là hệ thống dựa trên deep learning và AI nên nó sẽ không được phát hành công khai để tránh nguy cơ kẻ xấu đào tạo các thuật toán deepfake mới qua mặt Video Authenticator.

    Thay vào đó, Microsoft sẽ cung cấp Video Authenticator cho các đối tác thông qua sáng kiến Reality Defender 2020 của AI Foundation.

    Tham khảo Petapixel

    Tin cùng chuyên mục
    Xem theo ngày

    NỔI BẬT TRANG CHỦ