Đây là cách OpenAI sẽ xác định mức độ mạnh mẽ của hệ thống AI: Thang điểm 1 đến 5, tự chấm ChatGPT số điểm gây bất ngờ
OpenAI vừa công bố hệ thống chấm điểm mới, nhằm đánh giá mức độ tiến bộ của các mô hình ngôn ngữ lớn (LLM) trên con đường tiến tới trí tuệ nhân tạo tổng quát (AGI). Thang điểm này, từ cấp độ 1 đến cấp độ 5, hứa hẹn sẽ mang đến cái nhìn khách quan và minh bạch hơn về tương lai của AI.
Theo thông tin từ Bloomberg, những chatbot hiện nay như ChatGPT chỉ đang ở cấp độ 1. OpenAI tự tin rằng họ đang tiến gần đến cấp độ 2, với khả năng giải quyết vấn đề cơ bản tương đương một người có bằng tiến sĩ. Cấp độ 3 mô tả AI có thể tự thực hiện các tác vụ thay người dùng. Cấp độ 4 là AI có khả năng tạo ra những sáng tạo mới. Cuối cùng, cấp độ 5, cũng là đích đến cuối cùng của AGI, là AI có thể thay thế toàn bộ một tổ chức con người. Trước đây, OpenAI từng định nghĩa AGI là "hệ thống tự động hóa cao, vượt trội con người trong hầu hết các tác vụ có giá trị kinh tế".
Tuy nhiên, AGI vẫn còn là một mục tiêu xa vời, đòi hỏi nguồn lực tính toán khổng lồ và thời gian nghiên cứu lâu dài. Giới chuyên gia, bao gồm cả OpenAI, vẫn chưa thể đưa ra dự đoán chính xác về thời điểm đạt được AGI. Hồi tháng 10/2023, CEO Sam Altman của OpenAI cho biết chúng ta còn "khoảng 5 năm" nữa mới đạt được cột mốc này.
Mặc dù vẫn đang trong quá trình phát triển, thang điểm mới này được giới thiệu chỉ một ngày sau khi OpenAI công bố hợp tác với Phòng thí nghiệm Quốc gia Los Alamos. Mục tiêu của sự hợp tác này là khám phá tiềm năng của các mô hình AI tiên tiến như GPT-4o trong việc hỗ trợ nghiên cứu khoa học sinh học một cách an toàn. Theo chia sẻ của một quản lý chương trình tại Los Alamos với The Verge, mục tiêu của dự án là thử nghiệm khả năng của GPT-4o và thiết lập bộ tiêu chuẩn về an toàn và các yếu tố khác cho chính phủ Mỹ.
Việc OpenAI chưa cung cấp thông tin chi tiết về cách thức phân loại các mô hình theo thang điểm này (và từ chối yêu cầu bình luận từ The Verge) đang dấy lên nhiều lo ngại. Đặc biệt là trong bối cảnh nhóm nghiên cứu an toàn của OpenAI đã bị giải tán vào tháng 5 vừa qua, sau khi người đứng đầu nhóm, đồng sáng lập OpenAI Ilya Sutskever, rời công ty. Jan Leike, một nhà nghiên cứu chủ chốt của OpenAI, cũng từ chức ngay sau đó và cho rằng "văn hóa và quy trình an toàn đã bị đặt sau các sản phẩm hào nhoáng" tại công ty.
Dù OpenAI phủ nhận điều này, nhưng nhiều người vẫn bày tỏ lo ngại về những hệ lụy tiềm ẩn nếu công ty thực sự đạt được AGI. Sự mâu thuẫn trong nhận định giữa CTO Mira Murati (cho rằng các mô hình trong phòng thí nghiệm của OpenAI không tốt hơn nhiều so với những gì công chúng đã biết) và CEO Sam Altman (tin rằng các mô hình AI gần đây đã có bước tiến vượt bậc) càng khiến dư luận thêm phần hoang mang.
Thang điểm mới của OpenAI, dù còn nhiều tranh cãi, được kỳ vọng sẽ mang đến một thước đo rõ ràng và minh bạch hơn cho sự phát triển của AI. Thay vì chỉ dựa vào những tuyên bố mơ hồ, giờ đây chúng ta có thể đánh giá tiến bộ của AI dựa trên những tiêu chí cụ thể.
Trong một cuộc họp nội bộ vào thứ Năm vừa qua, ban lãnh đạo OpenAI đã trình bày một dự án nghiên cứu sử dụng mô hình AI GPT-4. Theo Bloomberg, dự án này cho thấy một số kỹ năng mới của AI, thể hiện khả năng lập luận gần giống với con người. Điều này cho thấy tiềm năng to lớn của AI trong tương lai, đồng thời đặt ra những thách thức mới về mặt đạo đức và an toàn.
NỔI BẬT TRANG CHỦ
Để sống đến năm 200 tuổi, tỷ phú Bryan Johnson lại thử nghiệm phương pháp trường sinh mới
Johnson gọi mục tiêu sống đến năm 200 tuổi của mình là “cuộc cách mạng quan trọng nhất trong lịch sử của Homo sapiens”.
Tại sao Nhật Bản cần lưu trữ 50.000 tấn nước siêu sạch ở độ sâu 1.000 mét? Nó có thể được sử dụng để làm gì?