Các nhà nghiên cứu tại OpenAI tìm ra lỗi của AI: Trí tuệ nhân tạo có thể bị đánh bại bởi... một con mèo

    Dink,  

    Mèo là mèo, chứ mèo không phải là cái máy tính. Thế mới có câu "mèo lại hoàn mèo" (dù chẳng liên quan gì).

    Nhiều chuyên gia xe tự động, trong đó có CEO Elon Musk của Tesla, đưa ra dự đoán rằng chỉ trong vòng chục năm nữa, xe tự động sẽ tràn ngập phố phường. Hiển hiên là nói dễ hơn làm, ta cần một trí thông minh nhân tạo đủ khôn để tránh được vật cản, đưa hành khách ngồi trên nó tới được nơi an toàn. Nhiều thử nghiệm cho thấy ta đang có được một hệ thống thông minh như thế.

    Nhưng đáng rơi nước mắt thay, có những vấn đề nan giải vẫn tồn tại.

    Tuần vừa qua, một đội ngũ các nhà khoa học tại Đại học Illinois đã tuyên bố rằng rất khó để một bên thứ ba có thể can thiệp, làm sai lệch những hình ảnh mà hệ thống cảm biết môi trường xung quanh của xe tự lái nhận về. Nghiên cứu mới này của họ CÓ đưa ra lời khẳng định rằng thuật toán machine learning là một mạng lưới đáng tin, xe tự lái có thể dựa vào đó để nhận dạng được tốt những vật thể mà nó gặp phải.

    Để một hacker có thể tấn công vào khả năng nhận dạng vật thể của xe, họ sẽ phải tấn công vào TOÀN BỘ các nhận dạng hình ảnh trong cơ sở dữ liệu – mọi góc độ, mọi khoảng cách và ở nhiều vận tốc xe khác nhau. Việc này có thể coi là bất khả thi.

    TUY NHIÊN, những nhà nghiên cứu của OpenAI – đáng buồn (cười) thay lại là chính tổ chức nghiên cứu AI phi lợi nhuận do Elon Musk hậu thuẫn – lại chỉ ra rằng chính những thuật toán ấy có lỗi của riêng nó. Khi lỗi xuất hiện, thuật toán sẽ nhầm toàn bộ cơ sở dữ liệu hình ảnh cùng một lúc, chứ không chỉ một hình ảnh.

    Đây là ví dụ mà họ đưa ra, hệ thống đã nhận nhầm con mèo là một cái máy tính:

    Hệ thống AI quá kém, mèo chứ có phải máy tính đâu!

    Những cái cột bên trái tượng trưng cho những gì hệ thống trí tuệ nhân tạo nhận dạng hình ảnh mà nó gặp, và bạn có thể thấy cột “Máy tính” cao hơn hẳn – hệ thống đã nhầm. Ở góc nhìn nào, kích cỡ mèo nào thì máy cũng nhận dạng đây là cái máy tính.

    Một vấn đề khác nghiêm trọng hơn, có thể được tạo ra dựa vào một phương pháp tối ưu hóa thuật toán có tên dốc xuống hình chiếu – projected gradient descent, đáng lẽ được sử dụng để xác định những lỗi có trong hình ảnh TRƯỚC KHI thuật toán bị lừa. Tuy nhiên, các nhà nghiên cứu tại OpenAI cho thấy rằng phương pháp này có thể tạo ra một lỗi khác: thuật toán phân loại có thể bị làm rối trước khi nó nhập liệu và phân tích hình ảnh. Lỗi này không chỉ ảnh hưởng tới một bước phân tích mà ảnh hưởng tới toàn bộ quá trình thu thập và phân tích dữ liệu.

    Hacker vốn được biết tới khả năng ứng biến, sáng tạo đâm ra việc họ có thể tấn công vào hệ thống xe tự lái trong tương lai là hoàn toàn khả thi. Vẫn cần thêm thời gian để hoàn thiện công nghệ xe tự lái nữa, hoặc cần phải có riêng một phần mềm “chống virus” cho xe tự động, trước khi đường phố của ta tràn ngập những chiếc xe có thể tự đưa chủ nhân mình tới nơi an toàn mà không cần lái.

    Các bạn có thể đọc nghiên cứu của họ tại đây.

    Tin cùng chuyên mục
    Xem theo ngày