Huấn luyện thành công chatbot tự nói chuyện với nhau bằng ngôn ngữ riêng

    NPQM,  

    Không chỉ tương lai mà ngay ở hiện tại, những bước tiến đột phá trong lĩnh vực nghiên cứu trí tuệ nhân tạo vẫn đang ngày ngày được đặt nền móng không ngừng.

    Thời đại ngày nay, việc lập trình nên những nền tảng trí tuệ nhân tạo (AI) sở hữu sức mạnh thuật toán có khả năng tự học hỏi về thế giới xung quanh đã không còn trở nên xa lạ. Tuy nhiên, để đạt đến ngưỡng cửa mà chúng bắt đầu học cách tự giao tiếp với nhau, thậm chí là tự sáng tạo ra ngôn ngữ của chính mình thì có lẽ là khái niệm ít người biết đến.

    Cụ thể, một kết quả nghiên cứu được công bố mới đây bởi OpenAI, trung tâm chuyên môn về trí tuệ nhân tạo sáng lập bởi Elon Musk và chủ tích Sam Altman của Y Combinator đã chứng minh được khả năng đó, rằng họ đang huấn luyện AI tự tạo ra tiếng nói ngôn ngữ riêng dựa trên những lỗi và phép thử đặc biệt trong môi trường tinh chỉnh nhất định.

    Đây là cơ chế hoàn toàn khác so với cách học hỏi của AI truyền thống, vốn sử dụng khối lượng dữ liệu khổng lồ để sàng lọc và thu nhận, chẳng hạn như cách nhận ra một con chó dựa vào điểm giống nhau của loài chó trong hàng trăm ngàn tấm ảnh vậy. Nhưng lần này, các nhà khoa học đã tạo ra một môi trường máy tính giả lập là hình vuông trắng nằm trong không gian 2 chiều đơn giản, dành cho các đối tượng AI. Sau đó, các AI này, được phân biệt bởi màu xanh lá, đỏ và xanh biển sẽ được giao cho các nhiệm vụ khác nhau, như di chuyển đến các điểm màu xác định trong hình vuông.

    Tuy nhiên, để hoàn thành lệnh đó, AI được lập trình theo xu hướng "giao tiếp" và tương tác với nhau thông qua chính kênh ngôn ngữ của mình. Nội dung truyền tải vẫn là những mệnh lệnh dễ hiểu như "Đi tới..." hay "Nhìn vào...", nhưng cách thức diễn đạt lại không phải chữ hay lời nói thông thường mà là một dạng dãy số nhất định thay cho cách sắp xếp từ ngữ trong tiếng Anh.

    Dưới đây là video minh họa:

    AI Language Communication

    Các nhà nghiên cứu đã dạy cho AI cách để giao tiếp với nhau dựa theo cơ chế học hỏi tăng cường thông qua nhiều phép thử và lỗi gặp phải để rồi tiếp tục rút ra giải pháp liên tục, sau đó chúng sẽ tự nhớ và áp dụng nó cho những lần được giao nhiệm vụ tiếp theo. Igor Mprrdatch, một trong những tác giả của luận văn báo cáo, sẽ tham gia đội ngũ nghiên cứu tại Đại học Carnegie Mellon vào tháng 9 tới, và Pieter Abbeel, một tác giả khác, cũng làm công tác khoa học tại OpenAI và giáo sư tại Đại học California, Berkeley.

    Hiện đã xuất hiện những trợ lý ảo là AI có thể hiểu ngôn ngữ như Siri và Alexa, hay dùng để dịch thuật giữa nhiều thứ tiếng, nhưng đó đều là kết quả của việc nhập dữ liệu có sẵn cho chúng hơn là việc tự học hỏi và sáng tạo như những gì mà các nhà khoa học làm được ở đây.

    "Chúng tôi nghĩ rằng nếu dần dần tăng độ đa dạng và phức tạp của môi trường học hỏi dành cho các AI đang thử nghiệm này cũng như phạm vi mệnh lệnh giao cho chúng thì khả năng một thứ ngôn ngữ mới với các biểu hiện nội dung đủ để bao quát các phạm trù tư tưởng, khái niệm vượt trên tầm cơ bản ban đầu là hoàn toàn có thể," trích lời dẫn trong luận văn.

    Tại sao điều này lại quan trọng đến vậy?

    "Ngôn ngữ tương tác là yếu tố cực quan trọng trong việc tối ưu hóa tiềm năng của một AI," Miles Brundage, chuyên viên nghiên cứu AI tại Đại học Oxford cho biết, cũng đồng thời là người đánh giá tầm ảnh hưởng to lớn của công trình thực hiện bởi OpenAI đối với ngành AI thế giới.

    "Dù vậy, chúng ta vẫn cần cố gắng thêm trong quá trình tạo dựng cơ sở ngôn ngữ tự phát triển cho AI."

    Tham khảo: Recode

    Tin cùng chuyên mục
    Xem theo ngày

    NỔI BẬT TRANG CHỦ