Liệu AI sẽ sớm thông minh bằng hoặc hơn con người?
VOV.VN - Với sự phát triển của ChatGPT của OpenAI hay Bard của Google, AI (trí tuệ nhân tạo) thực sự đang gây ra nỗi lo ngại từ cộng đồng các nhà khoa học.
- Bill Gates: Con người có thể làm việc chỉ 3 ngày/tuần nhờ AI
- Quá khứ ít ai biết của CEO Apple: Đi giao báo kiếm tiền khi mới 13 tuổi, tự bươn chải tiền học đại học vì bố mất việc
- Tự tạo người mẫu thời trang bằng AI, hãng thiết kế thoát cảnh ế ẩm, bỏ túi ngon lành hàng ngàn Euro mỗi tháng
- Cảnh báo cho những ai dùng điện thoại 3 năm mà không chịu thay mới: Vứt bỏ ngay vì chúng rất nguy hiểm?
- Chuyên gia: AI đang cố gắng thấu hiểu để giống con người hơn
Sự xuất hiện của các chatbot AI cho phép mọi người có thể lên kế hoạch cho một buổi nghỉ cùng gia đình, diễn tập các cuộc trò chuyện đầy thử thách có thể đối diện trong cuộc sống, tóm tắt các bài báo học thuật dày đặc hay giải thích về các bài tập ở cấp trung học,…
Nhưng liệu AI có thể “vượt qua suy nghĩ con người?”, bởi đó sẽ là một bước nhảy vọt của AI. Tuy nhiên, trong những tháng gần đây, một số chuyên gia AI nổi tiếng đã bắt đầu gióng lên hồi chuông cảnh báo về những gì sắp xảy ra.
Về cơ bản, công nghệ hỗ trợ ChatGPT được gọi là mô hình ngôn ngữ lớn (LLM) được đào tạo để nhận dạng các mẫu trong số lượng văn bản đáng kinh ngạc, với phần lớn mọi thứ trên internet. Các hệ thống này xử lý bất kỳ chuỗi từ nào chúng được đưa ra và dự đoán những từ nào sẽ tiếp theo. Chúng là ví dụ tiên tiến về “trí tuệ nhân tạo”, một mô hình được tạo ra để giải quyết một vấn đề cụ thể hoặc cung cấp một dịch vụ cụ thể. Trong trường hợp này, LLM đang học cách trò chuyện tốt hơn, nhưng chúng không thể học các nhiệm vụ khác.
Tuy nhiên, trong nhiều thập kỷ, các nhà nghiên cứu đã đưa ra giả thuyết về một dạng học máy cao hơn được gọi là “trí thông minh tổng hợp nhân tạo”, hay AGI. Đối với AGI, phần mềm có khả năng học bất kỳ nhiệm vụ hoặc chủ đề nào. Nó giống như một cỗ máy có thể làm bất cứ điều gì mà bộ não con người có thể làm.
Vào tháng 3 năm nay, một nhóm các nhà khoa học máy tính của Microsoft đã xuất bản một bài nghiên cứu dài 155 trang tuyên bố rằng một trong những hệ thống AI thử nghiệm mới của họ đang thể hiện “những tia sáng của trí tuệ nhân tạo nói chung”. Điều này đặt ra câu hỏi rằng liệu nó có thể “đưa ra những câu trả lời và ý tưởng giống con người mà không cần được lập trình sẵn trong đó?”.
Sau đó một tháng, nhà khoa học máy tính Geoffrey Hinton - người tiên phong về mạng lưới thần kinh và được mệnh danh là một trong những “Bố già của AI” - đã nghỉ việc tại Google để có thể thoải mái nói về sự nguy hiểm của AGI. Kết quả là, trong tháng 5, một nhóm các nhà lãnh đạo ngành (bao gồm cả Hinton) đã đưa ra một tuyên bố ngắn gọn cảnh báo rằng AGI có thể là mối đe dọa hiện hữu đối với nhân loại ngang hàng với “đại dịch và chiến tranh hạt nhân” nếu chúng ta không đảm bảo rằng các mục tiêu của nó phù hợp với mục tiêu mà chúng ta đặt ra.
“Điều này thực sự có thể thông minh hơn con người. Rõ ràng, nó đã đi quá xa, điều mà mọi người tưởng rằng sẽ phải mất 30-50 năm nữa, hoặc xa hơn mới có thể đạt được”, Hinton cho biết.
Tất nhiên, để nói đến vấn đề “tận thế” có vẻ là quá xa và nhiều người cho rằng chúng đang bị “phóng đại”. Mặc dù vậy, một khi những cỗ máy có thể suy nghĩ tốt hơn bộ não con người xảy ra, mọi thứ sẽ ra sao?
Vì sao có tranh luận?
Có hai lý do khiến mối lo ngại về AGI đột nhiên trở nên hợp lý và cấp bách hơn. Đầu tiên là tốc độ bất ngờ của những tiến bộ AI gần đây. Hinton chia sẻ: “Hãy nhìn xem 5 năm trước và bây giờ như thế nào. Hãy nhìn vào sự khác biệt và nhân rộng nó về phía trước. Điều đó thật đáng sợ”.
Thứ hai là sự không chắc chắn. Trong một cuộc phỏng vấn với CNN, Giáo sư khoa học máy tính tại Đại học California, Berkeley, Stuart Russell - đồng tác giả cuốn “Trí tuệ nhân tạo: Phương pháp tiếp cận hiện đại” - đã không thể giải thích hoạt động bên trong của LLM ngày nay. Ông thừa nhận: “Nghe có vẻ kỳ lại. Tôi có thể chỉ bạn cách làm LLM, nhưng chúng hoạt động như thế nào thì chúng tôi không biết. Chúng tôi không biết liệu nó có điều gì không. Chúng tôi không biết liệu chúng có lý luận hay không. Chúng tôi không biết liệu chúng có những mục tiêu nội bộ riêng đã học được hay không, hoặc chúng có thể làm gì”.
Kết quả là, không ai biết AI thực sự sẽ đi về đâu từ đây. Nhiều nhà nghiên cứu tin rằng AI sẽ chuyển sang AGI vào một thời điểm nào đó. Một số người cho rằng AGI sẽ không xuất hiện trong một thời gian dài, và việc cường điệu quá mức sẽ làm xao lãng các vấn đề trước mắt hơn, chẳng hạn như thông tin sai lệch do AI cung cấp hoặc mất việc làm.
Điểm quan trọng là, những người nghi ngờ về mối nguy hiểm của AI hoàn toàn có lý do. Khi mà một hệ thống máy tính có thể viết mã (như ChatGPT) thì chúng cũng có thể học cách tự cải thiện nhiều lần cho đến khi công nghệ máy tính đạt đến cái được gọi là “điểm kỳ dị”. Đó là một điểm mà AI có thể thoát khỏi tầm kiểm soát của con người.
Cuối cùng, trong một nhận xét với The Guardian, Hinton tin rằng AGI thực sự còn cách khoảng 5-20 năm nữa mới có thể hoàn thiện. Điều này được đưa ra dựa vào các phân tích cho thấy, trí thông minh sinh học và trí thông minh kỹ thuật số là rất khác nhau, trong đó trí thông minh kỹ thuật số có lẽ tốt hơn ở một số điều nhất định.
NỔI BẬT TRANG CHỦ
Để sống đến năm 200 tuổi, tỷ phú Bryan Johnson lại thử nghiệm phương pháp trường sinh mới
Johnson gọi mục tiêu sống đến năm 200 tuổi của mình là “cuộc cách mạng quan trọng nhất trong lịch sử của Homo sapiens”.
Tại sao Nhật Bản cần lưu trữ 50.000 tấn nước siêu sạch ở độ sâu 1.000 mét? Nó có thể được sử dụng để làm gì?