Không, Facebook không hề hoảng loạn tới nỗi tự tay kết liễu cỗ máy AI do chính mình tạo ra vì nó quá thông minh

    Neo,  

    Trong những tuần gần đây, một câu chuyện liên quan tới nghiên cứu thực nghiệm machine learning của Facebook đã được phát tán mạnh mẽ với các tiêu đề gây hoang mang.

    "Các kỹ sư Facebook hốt hoảng, rút dây nguồn hệ thống AI sau khi hai robot phát triển ra môt loại ngôn ngữ riêng", một trang web viết. "Facebook đã tắt hết thống AI sau khi nó tự phát minh ra một loại ngôn ngữ đáng sợ", một trang web khác cho hay. "Liệu chúng ta có đang tạo ra quái vật hủy diệt Frankenstein không?", một trang khác đặt câu hỏi. Thậm chí, một tờ báo nhỏ của Anh trích dẫn một giáo sư về robot cho rằng vụ việc này cho thấy chúng ta nên kìm hãm sự phát triển của AI và sẽ là thảm họa chết người nếu công nghệ tương tự được đưa vào những con robot quân sự.

    Liên quan tới cuộc cách mạng robot sắp tới, robot sát thủ, AI nguy hại hay sự diệt vong của loài người, các trang web có mức độ nghiêm túc khác nhau. Họ liên tục trích dẫn đoạn đối thoại dưới đây giữa hai chatbot của Facebook và cho rằng chúng đã học được cách nói chuyện với nhau rất đáng sợ:

    Bob: I can i i everything else

    Alice: balls have zero to me to me to me to me to me to me to me to me to

    Bob: you i everything else

    Alice: balls have a ball to me to me to me to me to me to me to me to me

    Thực tế lại là một điều gì đó kỳ quặc hơn nhiều. Một vài tuần trước, FastCo Design đã có một bài viết về nỗ lực phát triển một "mạng lưới cộng tác generative" phục vụ mục đích phát triển phần mềm đàm phán của Facebook.

    Hai chatbot xuất hiện trên đoạn hội thoại ở trên đã được thiết kế để cho thấy các tác nhân đối thoại với mục tiêu khác nhau hoàn toàn có thể tham gia vào một cuộc đàm phán từ khi bắt đầu tới khi kết thúc với những chatbot khác hoặc người dùng trong khi đi đến quyết định hoặc kết quả chung. Điều này cũng đã được Facebook xác nhận trong bài viết trên blog của Trung tâm Nghiên cứu Trí tuệ Nhân tạo (FAIR) vào tháng 6.

    Mô hình hoạt động của chatbot thương thuyết
    Mô hình hoạt động của chatbot thương thuyết

    Các chatbot không bao giờ làm bất cứ điều bất chính nào ngoài việc thảo luận với nhau cách để chia mảng các mục nhất định (đại diện trong giao diện người dùng như những vật vô hại kiểu như cuốn sách, chiếc mũ và quả bóng) thành một sự chia tách lẫn nhau.

    Mục đích là phát triển một chatbot có thể học hỏi từ sự giao tiếp của con người để thương lượng các thỏa thuận với người dùng cuối trôi chảy tới nỗi người dùng không nhận ra họ đang nói chuyện với một con robot, đó chính là thứ mà FAIR coi là thành công.

    Nhưng rồi các lập trình viên của Facebook nhận ra rằng họ đã có một số sai lầm. Họ đã không khuyến khích chatbot giao tiếp với nhau theo các quy tắc tiếng Anh cơ bản của con người. Do vậy, trong nỗ ực học hỏi lẫn nhau, những chatbot này đã bắt đầu trao đổi qua lại bằng những từ viết tắt.

    "Chatbot đã bỏ ngôn ngữ cơ bản sang một bên và tự tạo các từ viết tắt cho riêng mình", nhà nghiên cứu Dhruv Batra của FAIR chia sẻ. "Giống như khi tôi nói "the" 5 lần, bạn sẽ nghĩ rằng tôi muốn 5 bản sao của đồ vật này. Điều này chẳng khác gì cách các cộng đồng con người tạo ra những từ viết tắt".

    Facebook thực sự đã cho ngừng hoạt động hệ thống AI nhưng không phải vì họ quá hoảng hốt khi vô tình tạo ra thứ có thể trở thành Skynet. Nhà nghiên cứu Mike Lewis của FAIR đã chia sẻ với FastCo rằng: Chúng tôi quan tâm tới việc tạo ra những chatboat có thể giao tiếp với con người chứ không chỉ có thể nói chuyện một cách hiệu quả với nhau, chính vì thế chúng tôi đã cho ngừng hoạt động và yêu cầu chúng giao tiếp một cách rõ ràng.

    Đúng là có nhiều mục đích tốt đằng sau việc ngăn chặn robot tự phát triển ngôn ngữ riêng mà con người không thể hiểu được nhưng xin nhắc lại một lần nữa, đây là một hiện tượng tương đối bình thường khi dùng hai thiết bị machine learning và để chúng học hỏi lẫn nhau. Rất đáng để lưu ý rằng khi những cụm từ viết tắt của chatbot được giải thích, đoạn hội thoại giữa chúng sẽ được hiểu và sẽ không hề đáng sợ như trước đây.

    Như FastCo đã viết, dạng machine learning này có thể giúp các thiết bị hoặc hệ thống thông minh liên lạc với nhau một cách hiệu quả hơn. Lợi ích thu được có thể đi kèm một số vấn đề nhưng nó hoàn toàn khác với việc giải phóng trí thông minh nhân tạo khỏi sự kiểm soát của con người.

    Trong trường hợp này, điều duy nhất mà các chatbot có thể làm đó là trao đổi những quả bóng với nhau.

    Công nghệ machine learning có rất nhiều ứng dụng hữu ích như cải tiến chẩn đoán trong y tế. Tuy nhiên nó cũng có thể bị lợi dụng cho các mục đích xấu. Về cơ bản, nó là cách để biên soạn và phân tích số lượng lớn dữ liệu và cho đến nay những rủi ro chủ yếu lên quan đến cách con người chọn để phân phối và sử dụng sức mạnh đó.

    Hy vọng rằng con người đủ thông minh để không kết nối các chương trình thực nghiệm machine learning vào một thứ gì đó nguy hiểm như một đội quân robot laser hoặc một lò phản ứng hạt nhân. Nhưng thảm họa sẽ ngay lập tức xảy ra nếu có bất cứ ai làm những điều dại dột trên và nó sẽ là kết quả của sự cẩu thả và ngốc nghếch của con người chứ không phải vì các robot được cài sẵn sự thù ghét con người.

    Ít nhất là chưa. Machine learning chưa tiến gần được tới giới hạn AI thực sự mà chỉ là bước dò dẫm đầu tiên của loài người với công nghệ này. Nếu có ai đó phải lo lắng về tin tức này trong năm 2017 thì đó là những nhà thương thuyết chuyên nghiệp bởi họ sắp bị chatbot cướp mất việc làm.

    Theo Gizmodo

    Tin cùng chuyên mục
    Xem theo ngày

    NỔI BẬT TRANG CHỦ