Duy Luân: “64GB RAM trên MacBook đã đủ chạy nhiều mô hình AI mà phần lớn laptop Windows không thể”

Tuấn Nguyễn, Thanh Niên Việt 

Từ trải nghiệm thực tế với MacBook Pro M5 Max 128GB, Duy Luân cho rằng Unified Memory đang giúp Mac có lợi thế lớn trong cuộc chơi AI local.

Trong vài năm trở lại đây, AI gần như trở thành cuộc đua khốc liệt nhất của ngành công nghệ. Nhưng nếu như phần lớn sự chú ý vẫn đổ dồn vào ChatGPT, Gemini hay Claude trên cloud, thì ở một góc khác, cộng đồng công nghệ cũng đang bắt đầu nói nhiều hơn về AI local, nơi các mô hình AI được chạy trực tiếp ngay trên thiết bị cá nhân.

Và thú vị ở chỗ, Mac đang dần trở thành một trong những nền tảng được nhắc tới nhiều nhất trong cuộc chơi này.

Duy Luân, nhà phát triển và reviewer công nghệ quen thuộc với cộng đồng yêu công nghệ tại Việt Nam, cho biết chiếc MacBook Pro M5 Max với 128GB RAM hiện tại gần như đã trở thành “cỗ máy AI cá nhân” phục vụ công việc hàng ngày của Luân. Từ chuyển giọng nói thành văn bản, rewrite nội dung, định dạng văn bản cho tới các công cụ AI phục vụ test pin robot, phần lớn đều đang được xử lý trực tiếp trên máy thay vì phụ thuộc vào cloud như trước.

Duy Luân: “64GB RAM trên Mac đã đủ chạy nhiều mô hình AI mà laptop Windows bó tay” - Ảnh 1.

“Duy Luân Dễ Thương” - reviewer công nghệ quen thuộc với cộng đồng yêu công nghệ

Theo Luân, lợi ích lớn nhất của AI local nằm ở hai yếu tố: tốc độ và chi phí.

“Việc AI trên local giúp mình tiết kiệm được chi phí do không phải trả thêm subscription cho các dịch vụ tương ứng. Nó cũng nhanh hơn vì chạy local trực tiếp nên GPU của Mac nói chung và Mac M4/M5 Max nói riêng đủ mạnh mẽ. Và đương nhiên là so với cách làm thủ công, không dùng AI ngày xưa của chính các tác vụ này thì hiện tại AI giúp mình tiết kiệm thời gian hơn nhiều.”

Dù vậy, Luân cũng nhìn nhận rất thực tế rằng AI local hiện nay vẫn chưa thể thay thế hoàn toàn các mô hình cloud như Claude.

“Còn với việc lập trình thì mình vẫn phải dùng AI cloud do AI local chưa thể cạnh tranh được về độ chính xác và hữu ích.”

Tuy nhiên, Luân cho biết chỉ riêng việc AI giúp rút ngắn đáng kể thời gian cho những công việc lặp đi lặp lại hằng ngày cũng đã là thay đổi rất lớn so với trước đây.

Kiến trúc Unified Memory : Lợi thế giúp Mac vượt lên trước laptop Windows trong cuộc đua AI

Khi được hỏi liệu MacBook Pro M5 Max có đang thay đổi quan niệm “muốn chạy LLM nặng phải dùng desktop hoặc server riêng” hay không, Duy Luân cho rằng câu trả lời là có, và điểm khác biệt lớn nhất nằm ở kiến trúc Unified Memory của Apple.

“Unified Memory giúp GPU cũng được truy cập vào một khu vực RAM có dung lượng rất lớn. Không cần tới bản 128GB mình đang dùng, kể cả các bạn dùng MacBook Pro mà có RAM 64GB thôi là đã có thể chạy được các mô hình LLM đủ tốt mà nhiều dòng laptop Windows gần như không thể chạy được, trừ khi cũng là các model có kiến trúc RAM tương tự như Unified Memory.”

Theo Duy Luân, đây là thứ nhiều người vẫn đang đánh giá thấp khi nhìn vào khả năng AI của Mac. Trong khi phần lớn laptop Windows hiện nay vẫn phụ thuộc khá nhiều vào VRAM trên GPU rời, GPU của Apple Silicon lại có thể truy cập trực tiếp vào toàn bộ vùng nhớ hợp nhất với dung lượng rất lớn và băng thông cực cao.

Duy Luân: “64GB RAM trên Mac đã đủ chạy nhiều mô hình AI mà laptop Windows bó tay” - Ảnh 2.

“Một điểm quan trọng của Unified Memory trên Mac mà ít người để ý tới đó chính là băng thông RAM lớn. Ví dụ như M5 Pro có băng thông khoảng 307GB/s, còn M5 Max lên tới 460GB/s. Băng thông này thậm chí còn vượt cả mức của Nvidia DGX Spark cơ mà. Chỉ riêng việc load model vào RAM thôi thì băng thông lớn hơn giúp rút ngắn thời gian chờ đáng kể rồi.”

Luân cho rằng đó cũng là lý do ngày càng nhiều người bắt đầu chọn Mac để chạy AI local thay vì desktop hay workstation cồng kềnh như trước đây.

Dù vậy, Duy Luân cũng nhấn mạnh rằng AI local hiện tại vẫn còn giới hạn nhất định. Những frontier model "siêu cấp" như GPT, Claude hay Gemini vẫn cần tới hệ thống với rất nhiều GPU rời mới có thể vận hành hiệu quả.

“Tất nhiên là để chạy các mô hình LLM rất nặng thì sẽ phải lên Mac Studio với RAM 256GB. Nhưng để phục vụ cho AI local với giới hạn công nghệ hiện nay thì như vậy là đủ tốt.”

Nhìn rộng ra về chiến lược của Apple, nhiều ý kiến cho rằng Táo khuyết đang "chậm chân" vì thiếu vắng những sản phẩm AI hào nhoáng mang tính biểu tượng. Thế nhưng, dưới góc nhìn của một người dùng chuyên sâu, Duy Luân cho rằng Apple đang đi một nước cờ thực dụng hơn. Thay vì đổ tiền vào cuộc đua tạo ra các LLM khổng lồ để cạnh tranh với các ông lớn khác, Apple chọn cách tối ưu hóa phần cứng để phục vụ AI.

“Apple vẫn sẽ cần những sản phẩm AI tốt để tích hợp vào các chức năng trên sản phẩm của họ nhưng một điểm chắc chắn là Apple sẽ không làm ra các mô hình để cạnh tranh với các LLM lớn (frontier) hiện nay, cả vì lý do kinh doanh lẫn kỹ thuật. Chưa kể cuộc chơi đó cũng rất đốt tiền.”

Thay vì lao vào cuộc đua xây dựng mô hình AI khổng lồ trực diện với OpenAI hay Google, Apple đang tận dụng lợi thế lớn nhất của mình: phần cứng.

Duy Luân: “64GB RAM trên Mac đã đủ chạy nhiều mô hình AI mà laptop Windows bó tay” - Ảnh 3.

“Chẳng phải ngẫu nhiên mà người ta đi đổ xô Mac mini về chạy OpenClaw đến cháy cả hàng. Chính mình cũng vừa làm ra một app AI local dành cho sinh viên mà tới cả MacBook Neo vẫn có thể chạy được.”

Không có "AI xa xỉ", chỉ có bài toán đầu tư phần cứng hợp lý

Nói về tương lai 3 đến 5 năm tới, Duy Luân hoàn toàn tin tưởng vào viễn cảnh mỗi người dùng sẽ sở hữu một "trợ lý AI riêng" vận hành độc lập. Việc các ứng dụng văn phòng quen thuộc như Word, Excel hay PowerPoint đều đang tích hợp các luồng agentic cho thấy xu hướng này là tất yếu. Rào cản duy nhất hiện tại chỉ là dung lượng RAM, và điều này sẽ dần được khắc phục theo thời gian.

Luân cũng gạt bỏ quan điểm cho rằng laptop AI sẽ trở thành một món đồ xa xỉ nằm ngoài tầm với của người dùng phổ thông. Thực tế, ngay cả những chiếc MacBook Air hay các dòng laptop Windows thế hệ mới đều đã có khả năng chạy AI local ở mức độ nhất định. Thị trường chỉ đang chờ đợi những tình huống sử dụng thực tế đủ sức thuyết phục và sự hoàn thiện của các mô hình LLM.

Duy Luân: “64GB RAM trên Mac đã đủ chạy nhiều mô hình AI mà laptop Windows bó tay” - Ảnh 4.

Khi được hỏi đâu là cấu hình MacBook có hiệu năng trên giá thành tốt nhất hiện nay cho người muốn bắt đầu với AI local, Duy Luân cho rằng MacBook Pro vẫn đang là lựa chọn hấp dẫn nhất.

“32GB RAM là mức khởi đầu để bạn vọc AI local, còn muốn thoải mái hơn thì sẽ là 64GB. Nếu xét best price/performance thì MacBook Pro M3 Max hoặc M4 Max đang rất hợp lý. M5 Max thì ngon mà giá hơi cao.”

Cuối cùng, bên cạnh AI, cuộc trò chuyện cũng chạm tới chủ đề gaming trên Mac thứ mà theo Duy Luân vẫn là “nút thắt” lớn nhất của nền tảng này hiện nay.

Đồng tình với nhận định phần cứng Mac đã quá mạnh nhưng hệ sinh thái chưa theo kịp, Duy Luân khẳng định Apple đã nỗ lực thúc đẩy mảng game, nhưng quyền quyết định cuối cùng vẫn nằm ở các nhà phát triển. Chừng nào các hãng chưa mặn mà tung ra phiên bản Native cho Mac, và người dùng vẫn phải chật vật với các thủ thuật cài đặt không chính thức, thì cỗ máy này vẫn sẽ tỏa sáng nhất trong vai trò một cỗ máy trạm làm việc chuyên nghiệp, thay vì một cỗ máy mạnh về game.

Tin cùng chuyên mục
Xem theo ngày

NỔI BẬT TRANG CHỦ