Bị OpenAI gỡ bỏ vì quá nguy hiểm, phần mềm tạo văn bản này lại được một cặp đôi khôi phục để xem nguy hiểm tới đâu

Nguyễn Hải , Theo Trí Thức Trẻ

Các thử nghiệm ban đầu cho thấy, có lẽ lo lắng của những nhà nghiên cứu trong OpenAI về mức độ nguy hiểm của phần mềm này là quá thừa thãi.

Trong tháng Hai vừa qua, phòng thí nghiệm về trí tuệ nhân tạo OpenAI do tỷ phủ Elon Musk đồng sáng lập thông báo rằng bước tiến mới nhất trong nghiên cứu của họ quá nguy hiểm nên không thể công bố công khai. OpenAI tuyên bố họ đã làm nên một phần mềm ngôn ngữ có thể tạo nên những đoạn văn bản giống như người thật, rất phù hợp để phát tán các tin giả hoặc spam.

Những tưởng điều này sẽ mang lại một chút bình yên cho thế giới thì vào thứ Năm tuần trước, hai học viên thạc sĩ về ngành khoa học máy tính cho biết, họ đã tái tạo lại được phần mềm đã bị OpenAI rút lại và đưa lên internet để bất kỳ ai cũng có thể tải xuống và sử dụng.

Bị OpenAI gỡ bỏ vì quá nguy hiểm, phần mềm tạo văn bản này lại được một cặp đôi khôi phục để xem nguy hiểm tới đâu - Ảnh 1.

Phần mềm AI phù hợp cho phát tán tin giả

Hai học viên này, Aaron Gokaslan, 23 tuổi và Vanya Cohen, 24 tuổi, những người không tin vào quan điểm cho rằng những phần mềm như vậy có thể gây ra nhiều rủi ro như vậy cho xã hội. Cặp đôi này cho biết việc đưa phần mềm này lên internet để chứng minh rằng, bạn không cần phải những phòng thí nghiệm hàng triệu USD với đầy các chuyên gia PhD trong đó để tạo ra loại phần mềm này.

Họ đã sử dụng dịch vụ đám mây miễn phí của Google, vốn dành cho các học viện nghiên cứu, với trị giá ước tính khoảng 50.000 USD. Và cặp đôi này cho rằng việc cung cấp miễn phí phần mềm này sẽ giúp những người khác khám phá và chuẩn bị cho những tiến bộ trong tương lai – dù nó tốt hay xấu đi.

Thí nghiệm của cặp đôi này, cũng như của OpenAI, liên quan đến việc cung cấp cho phần mềm máy học đoạn văn bản từ hàng triệu các trang web thu thập thông qua các đường link chia sẻ trên diễn đàn Reddit. Sau đó, phần mềm này sẽ địa phương hóa các mô hình ngôn ngữ của đoạn văn bản đó, để có thể áp dụng cho các tác vụ như phiên dịch, hỗ trợ cho chatbot, hay tự tạo ra các đoạn văn bản mới để phản hồi lại các gợi ý.

Bị OpenAI gỡ bỏ vì quá nguy hiểm, phần mềm tạo văn bản này lại được một cặp đôi khôi phục để xem nguy hiểm tới đâu - Ảnh 2.

Phần mềm do Cohen và Gokaslan tạo ra có thể làm nên những đoạn văn bản cực kỳ ấn tượng. Khi phóng viên của trang Wired thử đưa ra lời gợi ý "Vấn đề với nước Mỹ là", phần mềm đã bổ sung thêm "bởi vì mọi thứ đều chỉ là một câu chuyện kể hấp dẫn, tất cả chúng ta đang bị giam cầm trong chính lời nói dối của mình." Một vài câu sau đó, phần mềm này ca ngợi ông Donald Trump là người có thể "mang lại tiếng nói cho những người bị bỏ rơi."

Các đoạn văn bản này cho thấy sự tương đồng với những gì phần mềm được OpenAI phát triển, có tên GPT-2. Cả hai phiên bản phần mềm này cho thấy các dấu hiệu của việc huấn luyện dựa trên nội dung có liên kết với Reddit, nơi thường diễn ra những cuộc tranh luận chính trị cuồng nhiệt.

Những lời cảnh báo thừa thãi

Nhưng không phần mềm nào có thể tạo ra một đoạn văn xuôi hoàn hảo. Các phần mềm máy học lựa chọn theo các mô hình thống kê của ngôn ngữ, chứ không thực sự hiểu biết về thế giới. Các đoạn văn bản từ cả phần mềm gốc lẫn phần mềm được phục hồi lại đều có những đoạn chuyển ý vô nghĩa. Không câu nói nào cho thấy các thực tế cụ thể hoặc quan điểm về vấn đề.

Bị OpenAI gỡ bỏ vì quá nguy hiểm, phần mềm tạo văn bản này lại được một cặp đôi khôi phục để xem nguy hiểm tới đâu - Ảnh 3.

Những thiếu sót này khiến các nhà nghiên cứu AI xem thường những lời cảnh báo và sự thận trọng trong tuyên bố của OpenAI về mối đe dọa cho xã hội của phần mềm này. Bản thân con người có thể - và vẫn đang – viết nên những thông tin giả và sai lệch một cách hiệu quả, mà không cần đến AI hỗ trợ.

Miles Brundage, vốn đang làm việc về chính sách cho OpenAI, từ chối cho biết phần mềm mà cặp đôi trên công bố nguy hiểm như thế nào. Ông cho rằng, không ai có thời gian để kiểm tra nó một cách chính xác, cho dù các con số mà Gokaslan và Cohen dưa ra cho thấy nó mạnh hơn một chút so với GPT-2 của OpenAI. Brundage cũng bổ sung thêm rằng, OpenAI sẽ ra mắt phiên bản đầy đủ của phần mềm này, nhưng họ muốn đợi cho đến khi cảm thấy "thoải mái" về việc không gây ra các hậu quả tiêu cực.

Ông Brundage cũng thừa nhận rằng Gokaslan và Cohen đã cho thấy, việc mở rộng khả năng truy cập đến các máy tính mạnh mẽ và những kỹ năng AI đang làm gia tăng số lượng người có thể làm việc này. Ông cho rằng bất kỳ ai muốn làm điều tương tự như cặp đôi trên nên thận trọng và nói với OpenAI về kế hoạch ra mắt sản phẩm của họ.

OpenAI đã phát hành một báo cáo trong đó tuyên bố, họ biết có hơn 5 nhóm khác đang lặp lại toàn bộ nghiên cứu của họ, nhưng chưa có nhóm nào phát hành phần mềm đó. Báo cáo cũng cho biết, một phiên bản rút gọn của GPT-2 đã được OpenAI phát hành với khả năng tạo tin giả gần ngang bằng phiên bản phần mềm mà họ đã gỡ bỏ.

Bạn có thể dùng thử phiên bản này tại đây: talktotransformer.com

Tham khảo Wired


Bình luận

NỔI BẬT TRANG CHỦ