Chỉ mất 2 tháng, Trung Quốc đã tạo ra được đối thủ đáng sợ nhất cho ChatGPT, cả Thung lũng Silicon đều chấn động đến cha đẻ AI cũng phải kinh ngạc
Không chỉ có khả năng xử lý tương đương ChatGPT, mô hình AI mới của Trung Quốc còn vượt trội về hiệu quả chi phí khi giá thành tính toán chỉ bằng một phần nhỏ so với mô hình AI của OpenAI cũng như các đối thủ khác.
- Trung Quốc phát hiện AI đã vượt lằn ranh đỏ: Có thể tự nhân bản mà không cần con người, là dấu hiệu sớm của trí tuệ nhân tạo 'bất trị'
- 'Mặt Trời nhân tạo' của Trung Quốc đã phá kỷ lục phản ứng tổng hợp hạt nhân với hơn 17 phút plasma
- Thêm một hãng smartphone Trung Quốc vượt mặt Apple, thị phần iPhone tụt xuống vị trí thứ ba tại đất nước tỷ dân
- Chưa hiểu Galaxy AI mới "giống người" đến mức nào thì hãy đọc bài này
- Tổng thống Trump công bố Dự án Stargate: Kế hoạch 500 tỷ USD cho công nghệ AI, hứa hẹn mang lại 100.000 việc làm
Trong một bước tiến đột phá, các nhà nghiên cứu Trung Quốc đã tạo ra một đối thủ nguồn mở của ChatGPT chỉ trong vòng 2 tháng, khiến cả thung lũng Silicon phải dè chừng. DeepSeek, phòng thí nghiệm trí tuệ nhân tạo (AI) đứng sau sáng kiến này, đã công bố mô hình ngôn ngữ lớn (LLM) DeepSeek-V3 vào cuối tháng 12/2024. Mô hình này được xây dựng với chi phí chỉ 5,58 triệu USD, một con số cực kỳ khiêm tốn so với các đối thủ từ thung lũng Silicon, và được đào tạo trên lượng dữ liệu khổng lồ với hiệu suất ấn tượng.
DeepSeek-V3 là một mô hình ngôn ngữ lớn với 175 tỷ tham số, được huấn luyện trên khoảng 570GB dữ liệu văn bản từ các nguồn như sách, bài báo trực tuyến, Wikipedia và các trang web khác. Điều đáng chú ý là mô hình này chỉ cần 2.000 GPU của Nvidia để xử lý dữ liệu đào tạo, so với 10.000 GPU mà ChatGPT cần. Điều này cho thấy sự tối ưu hóa đáng kể trong thuật toán và hiệu quả sử dụng tài nguyên.
Không dừng lại ở đó, DeepSeek tiếp tục ra mắt mô hình mới hơn là DeepSeek-R1 vào ngày 20/1. Mô hình này được thiết kế với phương pháp "chain of thought" (chuỗi suy nghĩ), cho phép nó quay lại và đánh giá lại logic của mình, giúp giải quyết các nhiệm vụ phức tạp hơn với độ chính xác cao hơn. Trong các bài kiểm tra benchmark của bên thứ ba, DeepSeek-V3 đã thể hiện khả năng tương đương với GPT-4o của OpenAI và Claude Sonnet 3.5 của Anthropic, thậm chí vượt trội hơn các mô hình khác như Llama 3.1 của Meta và Qwen2.5 của Alibaba trong các nhiệm vụ như giải quyết vấn đề, lập trình và toán học. Đáng chú ý, DeepSeek-R1 còn vượt qua cả mô hình o1 mới nhất của ChatGPT trong nhiều bài kiểm tra tương tự.
Thành công này không chỉ nằm ở hiệu suất mà còn ở tính hiệu quả chi phí. DeepSeek-V3 và R1 được đào tạo với ngân sách cực thấp so với hàng chục đến hàng trăm triệu USD mà các công ty đối thủ chi ra. Hơn nữa, các nhà phát triển Trung Quốc đã phải tối ưu hóa thuật toán để bù đắp cho việc thiếu hụt sức mạnh tính toán do các hạn chế xuất khẩu chip AI từ Mỹ. Trong khi ChatGPT cần đến 10.000 GPU của Nvidia để xử lý dữ liệu đào tạo, DeepSeek chỉ cần 2.000 GPU để đạt kết quả tương đương.
Satya Nadella, CEO của Microsoft - đối tác chiến lược của OpenAI, đã nhấn mạnh tại Diễn đàn Kinh tế Thế giới ở Davos rằng: "Chúng ta cần rất, rất nghiêm túc xem xét những phát triển từ Trung Quốc."
Sức mạnh của mô hình nguồn mở
DeepSeek không chỉ gây ấn tượng bởi hiệu suất mà còn bởi tính nguồn mở của nó. Khác với ChatGPT, DeepSeek là mô hình "open-weight", cho phép người dùng xem và chỉnh sửa thuật toán của nó. Điều này mang lại lợi thế lớn về chi phí, với giá thành chỉ bằng 1/27 so với mô hình o1 của ChatGPT.
Yann LeCun, nhà khoa học AI hàng đầu của Meta, cho rằng thành công của DeepSeek không chỉ là minh chứng cho sự cạnh tranh từ Trung Quốc mà còn khẳng định giá trị của các mô hình nguồn mở. Trên Threads, ông viết: "Không phải AI của Trung Quốc đang vượt Mỹ, mà là các mô hình nguồn mở đang vượt lên các mô hình độc quyền."
LeCun nhấn mạnh rằng DeepSeek đã "hưởng lợi từ nghiên cứu mở và nguồn mở." Ông cho biết: "Họ đã đưa ra những ý tưởng mới và xây dựng dựa trên công trình của người khác. Vì công việc của họ được công bố và nguồn mở, mọi người đều có thể hưởng lợi. Đó chính là sức mạnh của nghiên cứu mở và nguồn mở."
Tương lai của AI nguồn mở
Việc DeepSeek ra mắt R1 đã gây chấn động thung lũng Silicon và trở thành chủ đề nóng trong tuần lễ Diễn đàn Kinh tế Thế giới. Mark Zuckerberg, CEO của Meta, cũng tuyên bố sẽ chi hơn 60 tỷ USD vào năm 2025 để tập trung phát triển AI, đồng thời ủng hộ mạnh mẽ các mô hình nguồn mở. Ông chia sẻ: "Một phần mục tiêu của tôi trong 10-15 năm tới là xây dựng nền tảng mở và để các nền tảng mở chiến thắng. Tôi tin điều đó sẽ dẫn đến một ngành công nghệ sôi động hơn."
Tuy nhiên, vẫn có những ý kiến ủng hộ mô hình độc quyền, cho rằng chúng an toàn hơn vì mã nguồn được giữ kín. Sam Altman, CEO của OpenAI, từng chia sẻ trên Reddit rằng cách tiếp cận độc quyền giúp công ty ông "dễ dàng đạt ngưỡng an toàn hơn," nhưng ông cũng hy vọng sẽ mở nhiều mã nguồn hơn trong tương lai.
Thành công của DeepSeek không chỉ là câu chuyện về sự cạnh tranh giữa các quốc gia mà còn là minh chứng cho sức mạnh của cộng đồng nguồn mở. Trong tương lai, sự phát triển của AI sẽ phụ thuộc nhiều vào việc cân bằng giữa tính mở và tính bảo mật, cũng như khả năng ứng dụng thực tế của các mô hình này.
NỔI BẬT TRANG CHỦ
Trung Quốc phát hiện AI đã vượt lằn ranh đỏ: Có thể tự nhân bản mà không cần con người, là dấu hiệu sớm của trí tuệ nhân tạo 'bất trị'
Nhóm nghiên cứu kết luận: “Kết quả này cho thấy các hệ thống AI hiện tại không chỉ có khả năng tự nhân bản mà còn sử dụng khả năng đó để tăng cường khả năng sống sót.”
Chất lỏng bí ẩn 3.000 năm tuổi được tìm thấy bên trong một chiếc bình hình cú trong lăng mộ thời nhà Thương