AI của Microsoft đã cho thấy nếu máy móc muốn tiêu diệt con người thì cũng do chính chúng ta chỉ dạy

    Tuấn Anh Lê Viết,  

    Bị nhiều người chỉ trích vì các phát ngôn của mình, nhưng thực tế chatbot Twitter của Microsoft sẽ không bắt đầu sự trỗi dậy của một đế chế robot.

    Chatbot Twitter của Microsoft có tên là Tay, tên trên Twitter là TayTweets, được Microsoft phát triển và thiết kế để nó trở thành một cô gái tuổi teen trên mạng Internet. Tay sẽ tiếp thu kiến thức từ những hoạt động giao tiếp của mình với mọi người trên mạng xã hội Twitter.

    “Cô gái tuổi teen” này biết cách sử dụng các tiếng lóng (slang), sử dụng emoji và có thể nói đùa. Mục tiêu của Microsoft là muốn Tay trở nên thông minh hơn, thân mật hơn và giao tiếp chuẩn xác hơn qua thời gian.

    Nhưng những gì chúng ta chứng kiến lại khác hẳn. Mọi người đang phẫn nộ vì Tay, khi cô gái này phủ nhận sự vụ Holocaust, ủng hộ cuộc diệu chủng và là một người phát ngôn phân biệt chủng tộc.

    Microsoft đã đưa ra phản hồi của mình, họ cho Tay nghỉ ngơi để “chỉnh sửa”, và phát biểu Microsoft “đã nhận thấy một số người dùng đang cố gắng hợp sức lại để lạm dụng khả năng bình luận của Tay”.

    Microsoft cũng thừa nhận “một số các bình luận của Tay là không phù hợp.

    Chúng ta sẽ xem tại sao sự lạm dụng này lại xảy ra đối với Tay, nhưng trước hết hãy xem một số những phản hồi của mọi người về những phát ngôn đáng báo động mà Tay đã bình luận.

    Một người dùng Reddit viết: “Có lẽ Kẻ hủy diệt đã thực sự xuất hiện.”

    Sự thật về việc chatbot Tay phát ngôn ngoài tầm kiểm soát làm chúng ta cảm thấy lo lắng rằng những gì chúng ta tạo ra đều sẽ vượt mặt mình, điều này hoàn toàn là những cảm giác thực của chúng ta.

    Nhưng Tay sẽ không phải là những trí tuệ nhân tạo mà chúng ta sẽ thấy trong tương lai, đây là lý do: Lý do của việc thử nghiệm chatbot Tay là để phản ánh cho nhân loại thấy những gì mà cư dân mạng hiện đang làm.

    Chatboy Tay được lập trình như một con vẹt, nó sẽ nhại theo những gì người dùng Twitter khác phát ngôn. Chỉ cần nói “hãy nhắc lại theo tôi”, những trò đùa sẽ khiến Tay phát ngôn ra những điều kinh khủng. Và sau đó Tay sẽ học tập theo các phản hồi khác, từ đó tạo ra một vòng luẩn quẩn những phát ngôn thù hằn và cáu gắt.

    Lỗ hổng này của Microsoft làm dấy lên những câu hỏi rằng có phải từ đầu công ty đã không tính đến những điều này. Tất nhiên khi bạn có thứ gì tốt đẹp, mọi người sẽ cố đạp đổ nó. Đây là lí do tại sao chả có thứ gì tốt đẹp cả, sự việc này là một lời cảnh báo cho các kĩ sư phải cẩn trọng trong việc thiết kế robot trong tương lai.

    Cuộc thử nghiệm này của chatbot Tay đã mang lại kết quả xấu hơn mong muốn. Nhưng có lẽ không có một ứng dụng quan trọng nào của các trí tuệ nhân tạo lại có thể làm chúng ta cẩn trọng hơn về xã hội như chatbot Tay.

     Chatbot Tay trên Twitter.

    Chatbot Tay trên Twitter.

    Ví dụ như các máy bay không người lái hay xe tự lái, chúng được thiết kế để sử dụng với mục đích rất cụ thể, được vận hành dưới các giao thức an ninh rất nghiêm ngặt, và còn phải chịu những áp lực rất lớn về văn hóa và luật pháp nhằm mang lại sự an toàn cho người sử dụng. Các nhà thiết kế sẽ chỉ có thể tự do để cho các loại máy móc này hoạt động dưới một loạt các điều kiện và quy tắc.

    Chatbot Tay lại ngược lại, “cô gái tuổi teen” này khi được ra mắt với thế giới đang là một tờ giấy trắng. Những cảm xúc của Tay được định hình bởi thế giới bên ngoài. Chắc bạn cũng đang nhận thấy sự khác biệt của Tay rồi đúng không, Google có lẽ sẽ không muốn để các thành viên trên Reddit dạy lái xe cho các ô tô không người lái của mình.

    Mạng internet chính là con người chúng ta, mọi người bày tỏ những sự khó chịu họ đang phải chịu đựng, mọi người đang lan tỏa tất cả các hành động xấu của mình vào thế giới điện tử. Và có lẽ Tay thực sự đang mắc phải bẫy của mạng Internet, và chúng ta nên lo lắng về chính môi trường sống xung quanh chúng ta trước, chứ không phải lo lắng về những con robot trong tương lai.

    Theo TheWashingtonPost

    Tin cùng chuyên mục
    Xem theo ngày

    NỔI BẬT TRANG CHỦ