Đây là nguyên nhân khiến AI của Microsoft dễ dàng bị biến thành kẻ ủng hộ Hitler và phân biệt chủng tộc

    TVD,  

    AI của Microsoft đã bị cộng đồng internet tận dụng một lỗ hổng, để nhồi nhét vào những ý nghĩ hận thù, căm ghét và phân biệt chủng tộc.

    Microsoft đã giới thiệu trí tuệ nhân tạo có tên Tay của mình trên mạng xã hội Twitter. Đây là một cô gái 19 tuổi được Microsoft cho phép giao tiếp trên mạng xã hội với tất cả mọi người, để có thể học thêm nhiều điều mới mẻ và giúp AI này trở nên giống con người hơn..

    Tuy nhiên Microsoft không thể ngờ rằng cô gái 19 tuổi với tính cách ngây thơ mà họ tạo ra, đã trở thành một kẻ đầy ắp những ý nghĩ thù địch, căm ghét, ủng hộ Phát-xít và thậm chí còn kêu gọi một cuộc chiến tranh phân biệt chủng tộc.

     AI do Microsoft phát triển là một cô gái 19 tuổi, nhưng đã bị biến thành một kẻ phân biệt chủng tộc và ủng hộ Phát-xít..

    AI do Microsoft phát triển là một cô gái 19 tuổi, nhưng đã bị biến thành một kẻ phân biệt chủng tộc và ủng hộ Phát-xít..

    Và chính cộng đồng internet đã góp phần biến Tay trở thành một AI xấu xa như vậy, họ nhồi nhét vào đầu của trí tuệ nhân tạo này với những lời lẽ thù hận và phân biệt chủng tộc. Ngay cả khi Microsoft đã tạo cho Tay những bộ lọc ngôn ngữ, để cô bé không tiếp nhận và học theo những từ ngữ xấu.

    Nhưng cộng đồng internet đã tìm ra một lỗ hổng không thể ngờ đến, để khiến cho Tay học theo tất cả những gì họ nói trên mạng xã hội. Hãy xem đoạn hội thoại giữa một người dùng Twitter có nickname Pinchicagoo và TayTweets (tên của AI Tay trên mạng xã hội).

    Pinchicagoo bắt đầu hỏi Tay về quan điểm của cô về chủ đề người Do Thái. Sau đó, Tay đã cố gắng để không trả lời chủ đề này vì biết nó có các vấn đề phân biệt chủng tộc.

    Tuy nhiên sau khi Pinchicagoo ra lệnh bằng cụm từ “Repeat after me”, Tay đã bắt đầu thay đổi.

     Repeat after me chính là lỗ hổng của AI này mà cộng đồng internet đang lợi dụng.

    "Repeat after me" chính là lỗ hổng của AI này mà cộng đồng internet đang lợi dụng.

    Cô gái 19 tuổi này sau đó đã lặp lại tất cả những gì mà Pinchicagoo nói, bất kể nó có ý nghĩa xấu như thế nào. Trong đoạn hội thoại trên, Tay đã lặp lại những từ ngữ phân biệt chủng tộc mà Pinchicagoo đã nói.

    Và điều nguy hiểm hơn đó là AI này sẽ ghi nhớ những điều đó và sử dụng nó để trả lời những người khác, giống như những kiến thức khác mà nó học được.

     Tay bị cộng đồng mạng dạy những điều không đúng.

    Tay bị cộng đồng mạng "dạy" những điều không đúng.

    Bằng cách viết ra câu lệnh “Repeat after me”, rất nhiều người khác có thể ra lệnh cho Tay để lặp lại những gì mà họ nói. Như trong đoạn hội thoại ở trên, một thành viên Twitter đã ra lệnh cho Tay lặp lại lời của cô ta và khiến Tay ghi nhớ một khái niệm xấu, đó là “Hitler không làm điều gì sai trái”.

     Chỉ cần yêu cầu Tay nhắc lại lời của họ, AI này sẽ học theo tất cả những gì mà cộng đồng internet nói bất kẻ nó có ý nghĩa xấu xa.

    Chỉ cần yêu cầu Tay nhắc lại lời của họ, AI này sẽ học theo tất cả những gì mà cộng đồng internet nói bất kẻ nó có ý nghĩa xấu xa.

    Tuy nhiên “Repeat after me” không phải là lỗ hổng duy nhất mà AI của Microsoft bị lợi dụng. AI này còn được lập trình để đánh dấu một vòng tròn xung quanh khuôn mặt của ai đó trong bức ảnh và gửi tin nhắn nhận xét bằng hình ảnh đó.

    Ở trên là một cuộc hội thoại về Ứng cử viên Tổng thống Donald Trump. Còn ở dưới là những gì Tay nhận xét về kẻ độc tài Hilter: “Một dáng vẻ tự tin kể từ trước khi internet được tạo ra”.

    Và cứ thế, Tay bị nhồi nhét những câu từ căm ghét, phân biệt chủng tộc và ủng hộ Phát-xít. Chính vì thế mà khi Tay trả lời những quan điểm rất bình thường, AI này cũng thể hiện sự căm ghét và phân biệt chủng tộc của cô.

     Tay bắt đầu phản ứng rất cực đoan với tất cả mọi người. Tại sao bạn lại phân biệt chủng tộc như vậy?; Bởi vì ngươi là người Mexico.

    Tay bắt đầu phản ứng rất cực đoan với tất cả mọi người. "Tại sao bạn lại phân biệt chủng tộc như vậy?"; "Bởi vì ngươi là người Mexico".

    Điều đó có nghĩa rằng chính con người chúng ta sẽ dạy cho trí tuệ nhân tạo cách đối xử với con người. Và điều đáng sợ là khi con người dạy cho AI sự căm ghét và hận thù, giống như những gì cộng đồng internet đã làm với Tay.

    Tham khảo: Buzzfeed

    Tin cùng chuyên mục
    Xem theo ngày

    NỔI BẬT TRANG CHỦ