VTV.vn - Những tưởng công cụ tiện dụng này sẽ biến công việc của cảnh sát Mỹ trở nên nhẹ nhàng hơn, nhưng hóa ra nó lại biến thành thảm họa trong quá trình thử nghiệm.
Phần mềm trí tuệ nhân tạo được thiết kế để đơn giản hóa công việc giấy tờ của cảnh sát cuối cùng lại biến mọi thứ trở nên phức tạp hơn nhiều. Tại Sở cảnh sát thành phố Heber, Utah, hệ thống AI đã tạo ra một báo cáo, biến một cuộc kiểm tra giao thông thông thường thành câu chuyện cổ tích hoặc ác mộng kinh dị, tùy thuộc vào cách bạn nhìn nhận.
Theo trung sĩ Rick Keel của Sở cảnh sát Heber City, phần mềm AI đã nhầm lẫn khi lấy một số thoại từ bộ phim hoạt hình "The Princess and the Frog" của Disney vào báo cáo cảnh sát. Nguyên nhân là bộ phim đang phát trong nền khi camera đeo thân của sĩ quan đang ghi hình. "Đó là lúc chúng tôi học được tầm quan trọng của việc hiệu chỉnh các báo cáo do AI tạo ra," ông Keel nói với Fox13 Salt Lake City.

Trong khi giúp cảnh sát tự động tạo báo cáo từ camera đeo trên người, một công cụ AI cho biết một sĩ quan cảnh sát đã biến thành ếch
Phản ứng của trung sĩ Keel đã gây ra nhiều chỉ trích. Các chuyên gia công nghệ cho rằng những hệ thống AI như vậy nổi tiếng là dễ sai sót và liên tục đưa ra thông tin cơ bản sai lệch. Việc chỉ nhận ra vấn đề sau sự cố "biến thành ếch" cho thấy sự thiếu cảnh giác nghiêm trọng. Nhiều người lo ngại rằng Sở cảnh sát cần quay lại kiểm tra tất cả các báo cáo trước đó để xem AI đã tạo ra những sai sót nào khác.
Sở cảnh sát Heber City vừa bắt đầu thử nghiệm hai công cụ AI được thiết kế để tự động viết báo cáo từ video camera đeo thân. Phần mềm Draft One, do công ty công nghệ cảnh sát Axon phát triển, là thủ phạm tạo ra "diễn giải ếch" kỳ quặc. Axon cũng chính là công ty sản xuất súng điện Taser, vũ khí phổ biến của lực lượng cảnh sát Mỹ.
Draft One sử dụng các mô hình ngôn ngữ lớn GPT của OpenAI để tạo toàn bộ báo cáo cảnh sát từ âm thanh camera đeo thân. Hệ thống thứ hai là Code Four, được tạo ra bởi hai sinh viên bỏ học MIT 19 tuổi. Lời quảng cáo hấp dẫn của cả hai: ít thời gian đánh máy báo cáo, nhiều thời gian tuần tra hơn.
Tuy nhiên, thực tế lại phức tạp hơn nhiều. Ngay cả trong một cuộc kiểm tra giao thông giả lập được dàn dựng kỹ lưỡng để demo khả năng của công cụ, AI vẫn tạo ra báo cáo đầy lỗi cần nhiều sửa chữa thủ công. Hiện tại, phần mềm trông giống như một trợ lý hơn là công cụ thay thế hoàn toàn.
Mặc dù Sergeant Keel khẳng định công cụ đang tiết kiệm cho ông "sáu đến tám giờ mỗi tuần" và "rất thân thiện với người dùng" dù ông "không phải người am hiểu công nghệ", những sai sót nghiêm trọng như vụ "ếch" đặt ra câu hỏi liệu lợi ích có đáng để đánh đổi với rủi ro hay không.

Sự cố này khiến các chuyên gia yêu cầu phải kiểm tra lại những báo cáo trước đây để xem có sai sót hay không
Các chuyên gia đã nhanh chóng đưa ra cảnh báo về những nguy cơ tiềm ẩn. Giáo sư luật Andrew Ferguson của Đại học American lo ngại rằng "sự tự động hóa và tính dễ dàng của công nghệ sẽ khiến các sĩ quan cảnh sát trở nên ít cẩn thận hơn với văn bản của họ". Điều này đặc biệt nguy hiểm khi báo cáo cảnh sát có thể quyết định vận mệnh của người bị điều tra.
Một mối lo ngại lớn hơn là khả năng phần mềm củng cố các thiên kiến về chủng tộc và giới tính đã tồn tại trong thực thi pháp luật. Các công cụ AI tạo sinh đã được chứng minh là duy trì thiên kiến chống lại phụ nữ và người không da trắng. Aurelius Francisco, đồng sáng lập Foundation for Liberating Minds, cho rằng "việc công nghệ được sử dụng bởi cùng công ty cung cấp súng điện Taser cho cảnh sát đã đủ đáng báo động".
Theo điều tra của Electronic Frontier Foundation, Draft One "dường như được thiết kế có chủ đích để tránh kiểm toán có thể cung cấp bất kỳ trách nhiệm giải trình nào với công chúng". Hồ sơ thu được cho thấy "thường không thể phân biệt phần nào của báo cáo cảnh sát được tạo bởi AI và phần nào được viết bởi sĩ quan". Điều này có thể được lợi dụng để giảm trách nhiệm của cảnh sát khi có sai sót xảy ra.
Thử nghiệm Code Four của Sở cảnh sát Heber City sẽ kết thúc vào tháng tới. Các quan chức dự kiến sẽ giữ một số hình thức báo cáo AI, mặc dù chưa quyết định sử dụng hệ thống nào. Có lẽ họ sẽ chọn hệ thống nào không dễ bị lừa đến mức nghĩ rằng con người có thể biến thành ếch. Nhưng với những thiếu sót cơ bản mà AI đã thể hiện, câu hỏi lớn hơn là liệu có nên tin tưởng công nghệ này với những tài liệu quan trọng như báo cáo cảnh sát hay không.
NỔI BẬT TRANG CHỦ
-
Đây là REDMI Note 15 Series: Xiaomi chuyển hướng chiến lược, người dùng được gì từ mức giá mới và liệu có còn là smartphone "quốc dân"?
REDMI Note 15 Series đánh dấu một năm chuyển mình của dòng smartphone vốn quen thuộc với danh hiệu “giá hời” khi Xiaomi nâng cấp đồng thời độ bền, thiết kế và trải nghiệm. Với 5 phiên bản mở bán cùng lúc, mức giá khởi điểm tăng thêm 1 triệu đồng so với năm ngoái đặt ra câu hỏi: Người dùng sẽ nhận lại điều gì?
-
Trung Quốc bùng nổ dịch vụ thuê robot giá 600.000đ/ngày, 3 tuần có 200.000 người đăng ký, gọi vốn thành công hàng chục triệu USD