Hệ thống nhận dạng khuôn mặt của Amazon nhầm 26 nhà làm luật California là tội phạm

    Tấn Minh,  

    Có lẽ đây là bằng chứng mới nhất cho thấy việc triển khai các hệ thống nhận dạng khuôn mặt ra công chúng không hẳn là một tin tốt lành cho lắm.

    Mới đây, tổ chức American Civil Liberties Union (ACLU) đã tiến hành một thử nghiệm đối với phần mềm Rekognition của Amazon - chính là công nghệ nhận dạng khuôn mặt hiện đang được sử dụng bởi lực lượng hành pháp Mỹ; kết quả cho thấy nó nhận dạng nhầm 26 nhà làm luật California là những tên tội phạm nằm trong cơ sở dữ liệu của cảnh sát!

    Đây là lần thứ hai ACLU tiến hành loại thử nghiệm này. Trong lần đầu tiên, tiến hành vào năm ngoái, Rekognition hoạt động cực tệ, liên tục cho ra những kết quả sai và đầy tính phân biệt chủng tộc khi nhận diện các thành viên trong Quốc hội Mỹ.

    Trong lần thử nghiệm thứ hai này, ACLU đã tìm cách so sánh 120 hình ảnh của các nhà làm luật tại California với một cơ sở dữ liệu gồm 25.000 hình ảnh định danh do các cơ quan chính phủ chụp. Phần mềm của Amazon cho ra kết quả với tỉ lệ sai vào khoảng 20%.

    Phil Ting, một thành viên của hội đồng thành phố San Francisco, và là một trong những người bị nhận diện nhầm, đã sử dụng kết quả thử nghiệm này để bày tỏ sự ủng hộ đối với một dự thảo luật nhằm cấm sử dụng công nghệ nhận dạng khuôn mặt trên các camera gắn trên người cảnh sát khi thi hành công vụ.

    "Chúng tôi muốn chạy thử phần mềm này như một minh chứng cho thấy phần mềm này hoàn toàn chưa sẵn sàng để được đưa vào sử dụng như thế nào" - Ting nói trong một buổi họp báo. "Dù chúng tôi có thể đùa cợt về nó với tư cách là các nhà lập pháp, nhưng nó không phải là chuyện có thể đùa được đối với những người đang cố tìm một công việc, hay đang muốn có được một nơi ăn chốn ở".

    Hệ thống nhận dạng khuôn mặt của Amazon nhầm 26 nhà làm luật California là tội phạm - Ảnh 1.

    Một người phát ngôn của Amazon nói về vấn đề này như sau:

    "ACLU một lần nữa cố tình sử dụng sai và phát ngôn sai về Amazon Rekognition để thu hút sự chú ý. Như chúng tôi đã nói nhiều lần trước đây, khi được sử dụng để hỗ trợ quyết định do con người thực hiện, với độ chắc chắn khuyến nghị 99%, công nghệ nhận dạng khuôn mặt có thể được sử dụng để phục vụ rất nhiều mục đích có ích, từ hỗ trợ nhận diện tội phậm đến giúp tìm trẻ em thất lạc, đến ngăn chặn nạn buôn người. Chúng tôi sẽ tiếp tục kêu gọi đưa công nghệ nhận dạng khuôn mặt vào luật liên bang để đảm bảo nó được sử dụng một cách có trách nhiệm, và chúng tôi đã chia sẻ những khuyến nghị cụ thể về vấn đề này với cả các nhà hoạch định chính sách một cách riêng tư và trên blog của mình một cách công khai".

    Luật sư của ACLU, Matt Cagle, người làm việc với Đại học Berkeley để xác nhận các kết quả dưới tư cách một bên độc lập, đã tranh cãi về vấn đề này. Ông nói ACLU không sử dụng "độ chắc chắn khuyến nghị 99%" bởi họ không thể thay đổi các thiết lập mặc định trong phần mềm của Amazon là 80%.

    Amazon  bác bỏ khẳng định đó, chỉ ra trong một bài blog của hãng rằng Rekognition không nên được sử dụng với mức độ chắc chắn dưới 99%. Nhưng lời nói của Amazon như đang tự vả vào mồm mình, khi mà chúng ta đều có thể hỏi ngược lại: tại sao họ không đặt mặc định là 99% trong phần mềm của mình mà lại đặt là 80%?

    Tham khảo: TheNextWeb

    Tin cùng chuyên mục
    Xem theo ngày

    NỔI BẬT TRANG CHỦ