Bất ổn OpenAI: Nội bộ lục đục, loạt lãnh đạo xin từ chức vì Sam Altman chủ trương tăng trưởng bất chấp, vừa ra mắt GPT-4o đã rục rịch làm GPT-5

    Vũ Anh ,  

    Mâu thuẫn nội bộ OpenAI dần lên tới đỉnh điểm.

    Superalignment, nhóm có vai trò giảm thiểu rủi ro AI được OpenAI thành lập vào tháng 7/2023, vừa được tuyên bố giải thể. Lãnh đạo nhóm là Ilya Sutskever và Jan Leike cũng đệ đơn xin từ chức.

    “Sau gần một thập kỷ, tôi quyết định rời OpenAI. Tôi rất hào hứng với những gì diễn xảy ra với bản thân, một dự án rất có ý nghĩa. Tôi sẽ chia sẻ chi tiết hơn vào thời điểm thích hợp”, ông Sutskever chia sẻ.

    Được biết, ông Sutskever là một trong những cộng sự đắc lực của CEO Sam Altman trong việc thành lập OpenAI vào năm 2015, đồng thời có công tạo ra chatbot ChatGPT nổi tiếng. Tuy nhiên, ông cũng là một trong 4 thành viên hội đồng quản trị đồng ý sa thải Altman vào tháng 11/2023.

    Ngay sau động thái của Sutskever, ông Leike cũng tuyên bố từ chức trên X. Vị cựu giám đốc điều hành này giải thích về sự ra đi của mình, rằng những bất đồng trong suốt khoảng thời gian dài khiến ông mệt mỏi vì “đi ngược chiều gió”. Cụ thể, việc xây dựng AI có tính sáng tạo là một trọng trách đầy nguy hiểm, song OpenAI chỉ quan tâm đến việc phát hành sản phẩm thay vì tập trung xây dựng sự an toàn.

    “Từ lâu tôi đã không đồng ý với ban lãnh đạo OpenAI về các ưu tiên cốt lõi của công ty. Mâu thuẫn đã lên đến đỉnh điểm. Trong vài tháng qua, chúng tôi gặp nhiều khó khăn trong việc tính toán và việc thực hiện nghiên cứu quan trọng này”, Leike chia sẻ trong một bài đăng.

    Được biết, vai trò của nhóm Superalignment là giải quyết những thách thức kỹ thuật cốt lõi của việc liên kết siêu trí tuệ, đồng thời nghiên cứu về các AI siêu thông minh, có khả năng đánh lừa và chế ngự con người.

    Theo BI, quyết định giải thể Superalignment Team cho thấy một nội bộ lục đục tại OpenAI sau cuộc khủng hoảng quản trị hồi tháng 11/2023. Hai nhà nghiên cứu Leopold Aschenbrenner và Pavel Izmailov bị sa thải vì làm rò rỉ bí mật công ty, trong khi một thành viên khác là William Saunders quyết định rời OpenAI vào tháng 2. Theo thông tin đăng tải trên LinkedIn, trưởng nhóm nghiên cứu về các lĩnh vực chính sách Cullen O'Keefe cũng từ chức.

    Không có dấu hiệu nào cho thấy làn sóng thôi việc tại OpenAI có liên quan việc tạo ra các AI siêu thông minh của công ty. Tuy nhiên, những nghiên cứu mới nhất làm dấy lên nhiều lo ngại về quyền riêng tư, rủi ro an ninh mạng và khả năng con người bị AI thao túng.

    Bất ổn OpenAI: Nội bộ lục đục, loạt lãnh đạo xin từ chức vì Sam Altman chủ trương tăng trưởng bất chấp, vừa ra mắt GPT-4o đã rục rịch làm GPT-5- Ảnh 1.

    Sam Altman

    Trước đó, CEO Sam Altman cũng từng xung đột với ban quản trị về vấn đề này. Theo BI, ông Sutskever lo lắng rằng Altman đang thúc đẩy OpenAI phát triển quá nhanh và vì vậy, muốn thực hiện mọi thứ một cách thận trọng. Tuy nhiên, mâu thuẫn trong suy nghĩ với Sam Altman khiến vị lãnh đạo này dần bị đẩy ra khỏi các quyết định liên quan đến GPT-5 cũng như kế hoạch mở rộng quy mô sản phẩm.

    Căng thẳng được cho là lên đến đỉnh điểm vào tháng 10 khi Altman thăng chức cho một nhà nghiên cứu lên cấp độ tương đương Sutskever. Nhà khoa học trưởng của OpenAI coi đó là sự hạ thấp vị thế nên đã trao đổi với các thành viên hội đồng quản trị rằng ông có thể nghỉ việc - động thái khiến công ty phải lựa chọn giữa Sutskever hoặc Altman.

    Theo WSJ, sự rối ren tại OpenAI đã ngày càng trở nên phức tạp khi đội ngũ của Ilya Sutskever tập trung vào việc đảm bảo trí tuệ nhân tạo sẽ không gây hại cho con người, trong khi Sam Altman lại háo hức và đẩy nhanh việc đưa các công nghệ mới ra thị trường. Quyết định rời đi của Ilya Sutskever và Jan Leike cũng như việc giải tán nhóm Superalignment diễn ra chỉ vài ngày sau khi OpenAI công bố GPT-4o với khả năng được đánh giá là gần tương đương con người. Giám đốc công nghệ của OpenAI, Mira Murati ca ngợi các bản cập nhật giúp công nghệ trở nên trực quan hơn.

    “Trong vài năm qua, chúng tôi đã rất tập trung vào việc cải thiện trí thông minh của những mô hình này và chúng đã hoạt động khá tốt. Nhưng đây là lần đầu tiên chúng tôi thực sự đạt được một bước tiến lớn về tính dễ sử dụng”, Giám đốc công nghệ của OpenAI nói.

    Các chuyên gia nhận định rằng, phiên bản mới sẽ giúp OpenAI nhắm tới mục tiêu dẫn đầu trong cuộc đua thống trị thị trường công nghệ trí tuệ nhân tạo, song vẫn không phủ nhận rủi ro về mặt công nghệ. Ông Leike cho rằng công ty nên tập trung và dành nhiều tài nguyên hơn vào an ninh, giám sát, chuẩn bị, an toàn, bảo mật, siêu liên kết, tác động xã hội và các chủ đề liên quan thay vì chủ trương phát triển quá nhanh như thế.

    “Tôi lo ngại chúng ta đang không đi đúng quỹ đạo để đạt được điều đó”, Leike nói.

    Open AI hiện đang thu hút được rất nhiều nhà đầu tư phục vụ quá trình phát triển mô hình dữ liệu. Altman cho biết công ty mình có thể sẽ trở thành “startup sử dụng nhiều vốn nhất lịch sử Thung lũng Silicon” bởi mô hình gần đây nhất là GPT-4 ước tính tiêu tốn khoảng 100 triệu USD - gấp nhiều lần so với GPT-3.

    Các mô hình của Open AI được đào tạo trên lượng dữ liệu khổng lồ và có khả năng thực hiện nhiều tác vụ khác nhau. Cơn sốt ChatGPT đã biến đây trở thành lựa chọn mặc định cho người tiêu dùng, nhà phát triển và các doanh nghiệp mong muốn nắm bắt cuộc đua tỷ USD.

    Tuy nhiên, ngoài những ưu điểm kể trên, Open AI cũng có những khó khăn riêng. Cụ thể, trong nỗ lực trở thành người đi đầu làn sóng AI tổng hợp thông qua chatbot ChatGPT, công ty đã tự đặt mình vào tình huống có thể phá sản.

    Theo một bài đăng hồi cuối năm ngoái trên Fortune, OpenAI đã tốn khoảng 700.000 USD/ngày để chỉ vận hành một trong các dịch vụ AI của mình là ChatGPT. Đây được xem như một cách để Sam Altman đốt tiền, bất chấp việc OpenAI không tạo đủ doanh thu để hòa vốn.

    Theo: BI, The Economist

    Tin cùng chuyên mục
    Xem theo ngày

    NỔI BẬT TRANG CHỦ