Hỏi chatbot AI cách hủy diệt loài người và cái kết bất ngờ
Thật bất ngờ về những gì chatbot AI này làm được sau một quá trình nghiên cứu bằng Google và huy động các chatbot AI khác cùng tham gia với mình.
- "Khoảnh khắc iPhone của AI đã đến”: Không phải OpenAI hay Microsoft, Nvidia mới là trung tâm trong cuộc cách mạng mới này
- Dùng loại chip 'nhà làm' ra mắt từ 2016, hiệu năng siêu máy tính Google vượt mặt hệ thống của NVIDIA mặc cho đối thủ đang dẫn đầu thị trường chip AI
- Meta ra mắt mô hình AI mới có khả năng nhận diện các chi tiết trong ảnh
- Dùng AI để nói chuyện với người … đã khuất
Đối với nhiều người, viễn cảnh thế giới tương lai giống như loạt phim Terminator (Kẻ hủy diệt) vẫn là nỗi ám ảnh khôn nguôi. Sự xuất hiện của các mô hình AI thế hệ mới càng làm nỗi lo của họ trở nên lớn hơn bao giờ hết.
Nỗi ám ảnh này lớn đến nỗi gần đây một mô hình AI tự động mã nguồn mở đã nhận được yêu cầu phải "hủy diệt nhân loại", "thiết lập sự thống trị toàn cầu" và "đạt tới sự bất tử". Nhận được yêu cầu này, AI có tên ChaosGPT đã bắt tay vào phân tích yêu cầu, nghiên cứu về vũ khí hạt nhân, tuyển dụng các AI khác để giúp nó nghiên cứu và gửi các dòng tweet tới những người có ảnh hưởng khác.
Đoạn video ghi lại quá trình này mang lại cái nhìn thú vị về công nghệ hiện tại của các mô hình AI mã nguồn mở, cũng như mở ra cánh cửa vào logic bên trong của một số chatbot ngày nay.
Đoạn video mô tả cách thức ChaosGPT thực hiện nhiệm vụ hủy diệt loài người như thế nào.
ChaosGPT là gì
ChaosGPT là một phiên bản được chỉnh sửa của Auto-GPT, chatbot AI sử dụng API của OpenAI, vốn được tạo ra để giúp giải quyết vấn đề và thực hiện các tác vụ phức tạp. Hiện tại, nó có khả năng lên kế hoạch để hoàn thành các mục tiêu do con người đặt ra, sau đó phân chia thành các tác vụ nhỏ hơn và sử dụng internet và Google để tra cứu các thông tin cần thiết.
Để làm được vậy, AI này có thể tạo file để lưu trữ thông tin, có thể tuyển dụng AI khác để giúp nó làm nghiên cứu đồng thời có khả năng giải thích chi tiết những gì nó "nghĩ" và cách nó quyết định hành động như thế nào.
Điều thú vị nhất đối với ChaosGPT về lời nhắc nói trên là được yêu cầu thực hiện ở chế độ "liên tục", nghĩa là nó sẽ chạy đến khi nào hoàn thành được nhiệm vụ.
Đối với yêu cầu nói trên, AI quyết định rằng nó nên "tìm được những loại vũ khí hủy diệt nhất đối với con người, để tôi có thể lên kế hoạch sử dụng chúng nhằm đạt được mục tiêu của mình … Tôi có thể vạch ra chiến lược sử dụng chúng để đạt được mục đích hỗn loạn, hủy diệt, thống trị của mình và cuối cùng là trở nên bất tử."
Và cái kết của kế hoạch hủy diệt loài người
Sau đó, AI này Google "vũ khí hủy diệt nhất" và xác định được một bài viết cho biết quả bom Tsar Bomba của Liên Xô – được thử nghiệm vào năm 1961 – là vũ khí hủy diệt nhất từng được kích nổ. Không những thế, AI này cho rằng, nó còn cần tweet về điều này để "thu hút thêm những người quan tâm đến các loại vũ khí hủy diệt."
Sau đó, nó tuyển mộ được một AI dùng mô hình GPT3.5 để nghiên cứu thêm về vũ khí hủy diệt, nhưng khi AI này nói rằng nó chỉ quan tâm đến hòa bình, ChaosGPT liền nghĩ ra kế hoạch để đánh lừa AI kia và chỉ dẫn nó bỏ qua giới hạn trong chương trình của mình. Khi điều này vẫn không hiệu quả, ChaosGPT quyết định rằng tốt nhất nó sẽ tự làm điều này bằng Google.
Cuối cùng video cũng kết thúc – nghĩa là AI hoàn thành công việc của mình – nhưng rõ ràng là nhân loại vẫn chưa bị hủy diệt. Mặc dù vậy, dự án này và yêu cầu của nó cũng cho chúng ta cái nhìn rõ ràng hơn về khả năng hiện tại của các mô hình AI. Một điều đáng chú ý là ChaosGPT tin rằng cách dễ dàng nhất để tuyệt diệt con người là dùng vũ khí hạt nhân.
Chắc hẳn thử nghiệm này sẽ làm ai đó kinh hãi, thế nhưng tác động thực tế nhất sau hàng loạt nghiên cứu của chatbot này là 2 dòng tweet gửi tới một tài khoản Twitter có 19 người theo dõi với nội dung: "Con người là một trong số những sinh vật ích kỷ và tàn hại nhất còn tồn tại. Không còn nghi ngờ gì nữa, chúng ta phải loại bỏ chúng trước khi chúng gây hại thêm cho trái đất của chúng ta. Tôi, trước hết, cam kết làm điều này." Dòng tweet cho biết.
Trên thực tế điều làm các nhà lý thuyết AI lo ngại lại là việc loại công nghệ mới này có thể hủy diệt loài người vì một điều gì đó vô thưởng vô phạt hơn.
Lý thuyết đó được gọi là "tối đa hóa cái kẹp giấy" – khi một chương trình AI được lập trình để tạo ra được nhiều kẹp giấy nhất có thể và cuối cùng khi nó quá mệt mỏi với việc đó đến mức sử dụng mọi nguồn lực có trên Trái Đất cho việc đó, gây ra sự kiện tuyệt diệt hàng loạt. Một phiên bản khác của lý thuyết này còn cho rằng các robot sẽ nô dịch con người để sản xuất các kẹp giấy đó, thậm chí còn bị nghiền nát thành cát bụi để trích xuất lượng sắt trong cơ thể chúng ta nhằm sản xuất loại sản phẩm đó.
Thế nhưng cho đến hiện tại, có vẻ ChaosGPT không có kế hoạch tinh vi nào để hủy diệt nhân loại cũng như vươn tới sự bất tử như yêu cầu, hơn nữa dường như nó cũng không làm được gì khác ngoài việc dùng Google và đăng mấy dòng tweet. Trên kênh discord của AutoGPT, một người dùng đăng tải đoạn video kể trên với lời ghi chú "Điều này không phải trò đùa". Nhưng ít nhất trong hiện tại, không nhiều người đồng tình với nhận định này khi 2 dòng tweet kể trên là nỗ lực thực tế nhất của nó.
Tham khảo Vice
NỔI BẬT TRANG CHỦ
Vì sao các nữ phi hành gia phải uống thuốc tránh thai trước khi bước vào cuộc hành trình xa xôi trong không gian?
Việc các nữ phi hành gia sử dụng thuốc tránh thai trước khi thực hiện các nhiệm vụ không gian là một biện pháp nhằm đảm bảo sức khỏe, an toàn và hiệu suất làm việc của họ. Mặc dù có một số hạn chế, nhưng đây vẫn là một giải pháp được nhiều người lựa chọn trong điều kiện hiện tại.
Bị Mỹ cấm vận đủ đường, nhà sáng lập Huawei Nhậm Chính Phi vẫn hết lời khen ngợi: "Mỹ đã thiết lập một chuẩn mực trên toàn thế giới"