Tốc độ tiến hóa sinh học của ta không thể bì được với tốc độ phát triển của công nghệ, của AI. Phải làm sao đây?
Không ai có thể phủ nhận việc Stephen Hawking sở hữu một trong những trí tuệ vĩ đại nhất trong xã hội hiện đại và theo lẽ hiển nhiên, rất nhiều người chú ý lắng nghe những gì Hawking nói ra (thông qua hệ thống hỗ trợ phát âm). Gần đây, ông tập trung vào một khía cạnh cụ thể: đó là tương lai loài người.
Hawking đã bày tỏ quan điểm của mình về các vấn đề liên quan tới sự sống ngoài hành tinh cho tới những “sự sống” mà con người tự tạo ra ngay trên Trái Đất này bằng hệ thống trí tuệ nhân tạo AI. Và với vế AI phía sau kia, Hawking tỏ ra rất thận trọng và dè chừng.
Ông nói rằng trí tuệ nhân tạo “hoặc là nó sẽ là điều tuyệt vời nhất, hoặc là nó là điều tệ tại nhất xảy đến với nhân loại”. Tuy tin vào một tương lai xán lạn hơn của những AI mạnh mẽ với khả năng cường hóa bộ não của con người, ông cùng nhiều người khác vẫn lo lắng cho những hiệu ứng xấu mà trí tuệ nhân tạo mang lại.
Ông cảnh báo rằng AI sẽ ảnh hưởng tới thị trường việc làm của con người và cùng với Elon Musk, Hawking soạn thảo ra bộ quy tắc 23 điều để bảo vệ nhân loại trước AI. Ông cũng bày tỏ mối lo về việc AI sẽ thống trị thế giới này hay tệ hại hơn, sẽ chấm dứt sự tồn tại của con người trên Trái Đất. Hawking nói:
“Kể từ khi nền văn minh của con người bắt đầu, sự xâm lược thuộc địa đã trở nên rất hữu ích bởi vì nó tạo ra một lợi thế sinh tồn rõ ràng. Nó đã hằn sâu vào bộ gen của chúng ta bằng thuyết tiến hóa của Darwin. Tuy nhiên ở hiện tại, công nghệ đã tiên tiến tới mức tiến trình xâm lược kia có thể hủy diệt toàn bộ chúng ta bằng vũ khí hạt nhân hay chiến tranh sinh học. Chúng ta cần phải điều khiển bản năng được thừa kế từ xa xưa này bằng logic và lý lẽ”.
Để có thể đuổi kịp AI – thứ mà chính ta tạo ra, con người phải tăng cường khả năng thích nghi của mình. “Việc phát triển trí tuệ nhân tạo có thể khiến giống loài người diệt vong”, Hawking nói hồi năm 2014. “Nó sẽ tự phát triển, tự tái thiết kế lại bản thân chúng ở một mức độ cao đáng kinh ngạc. Con người, giống loài bị giới hạn bởi tốc độ tiến hóa chậm chạp của sinh học, không thể so bì với chúng được, và rồi sẽ bị thay thế”.
Tuy vậy, ông không nghĩ rằng những thứ máy móc tiên tiến của tương lai sẽ hủy diệt con người bởi lý do liên quan tới cảm xúc nào đó. “Rủi ro thực sự của trí tuệ nhân tạo không phải xuất phát từ ác ý của chúng mà là từ chính khả năng của chúng. Một hệ thống AI cực kì thông minh sẽ thực hiện mục tiêu của mình một cách hoàn hảo và nếu như mục tiêu ấy không giống với chúng ta, con người sẽ gặp rắc rối lớn”.
Vì những lý do trên, Hawking chỉ ra rằng ta cần một tổ chức quản lý nào đó có khả năng thích nghi nhanh chóng và mạnh mẽ. Đó chính là những gì loài người cần để sống sót qua kỉ nguyên bùng nổ của siêu trí tuệ, của những hệ thống AI tạo nên bởi chính con người.
Chúng ta cũng đã gặp may khi một số viện nghiên cứu, chuyên để giải quyết những vấn đề trên đã được thành lập. Những viện ấy, gồm có Viện Cộng tác Trí tuệ nhân tạo hay Viện Đạo đức và Cai trị Quỹ Trí tuệ nhân tạo đã bắt đầu phát triển, nghiên cứu những khung sườn làm việc, những hướng dẫn chi tiết về việc tạo ra một hệ thống AI an toàn, chuẩn mực.
Và Hawking, không phải chỉ có những lo lắng về vận mệnh tương lai con người, bởi ông vẫn lạc quan cho rằng “dù mọi thứ có vẻ đen tối, nhưng tôi vẫn là một người lạc quan. Tôi nghĩ rằng loài người sẽ vùng dậy, đương đầu với những thử thách ấy”.
Tham khảo Futurism
NỔI BẬT TRANG CHỦ
iPhone 14 Pro Max phát nổ khiến người dùng bị thương
Vụ việc đang tiếp tục được điều tra, làm rõ.
Tại sao nhân loại lại cần đến máy tính lượng tử, chúng được dùng để làm gì?