Con chip AI mới của Google có thể giúp họ tiết kiệm rất nhiều tiền xây thêm hàng tá trung tâm dữ liệu
Để vận hành mạng lưới công nghệ lớn nhất hành tinh, Google đang sở hữu một hệ thống 15 trung tâm lưu trữ dữ liệu được thiết kế riêng và phân bố trên 4 châu lục.
Tuy nhiên, hệ thống này hoàn toàn không đủ sức lưu trữ khối lượng dữ liệu khổng lồ khi vào 6 năm trước, Google đã cho ra mắt công nghệ nhận diện giọng nói trên các thiết bị Android. Nếu tất cả người dùng thiết bị Android sử dụng tính năng này trong vòng 3 phút thì chỉ trong 1 ngày, Google cần gấp đôi số lượng trung tâm lưu trữ dữ liệu để có thể tiếp tục hoạt động.
Tại thời điểm đó, công ti này bắt đầu sử dụng mạng lưới neuron, một hệ thống thuật toán phức tạp có thể tự lập trình bản thân thông qua việc phân tích một khối lượng dữ liệu lớn. Phương pháp này đã giúp tỉ lệ phát sinh lỗi của hệ thống giảm 25%. Thay vì tăng gấp đôi mặt bằng cơ sở lưu trữ dữ liệu của mình, Google quyết định phát triển một vi xử lý dành riêng cho việc quản lý mạng lưới neuron một cách hiệu quả hơn.
Vi xử lý này có tên gọi Tensor Processing Unit (TPU). Google sử dụng nó với mục đích quản lý mạng lưới neuron và vận hành chúng mỗi khi người dùng nhập một thông tin qua giọng nói trên các thiết bị Android. Con chip xử lý các dữ liệu thu về và phân tích chúng nhằm phát triển mạng lưới neuron cùng lúc. Nhờ vây, Google đã thoát khỏi việc phải nâng cấp cơ sử lưu trữ dự liệu của mình, một điều rất tốn kém.
Các ông lớn khác như Facebook, Microsoft cũng sử dụng các loại vi xử lý đặc biệt để phát triển mạng lưới neuron của họ, giống như những gì Google đang làm. Tuy nhiên, Google là công ti duy nhất tự sản xuất vi xử lý của riêng mình. Để giảm thiểu chi phí và tăng độ hiệu quả của đế chế công nghệ đồ sộ mà họ đang nắm giữ, Google luôn có xu hướng tự sản xuất các phần cứng, bao gồm cả máy chủ lẫn các thiết bị mạng lưới.
Ban đầu, các kĩ sư của Google dự tính sẽ phát triển vi xử lý mới của họ từ vi xử lý FPGA, loại chip có thể lập trình theo nhu cầu mà Microsoft đang sử dụng. Theo lý thuyết, khả năng thích ứng tốt của dòng vi xử lý này sẽ giúp cho việc tùy chỉnh nó cho các mục đích khác nhau dễ dàng hơn. Đáng buồn thay, tốc độ của FPGA lại không phù hợp cho việc vận hành một mạng lưới neuron.
Cỗ máy AlphaGo sử dụng vi xử lý TPU
Thay vào đó, Google quyết định sử dụng dòng vi xử lý ASIC. Vì hoàn toàn được thiết kế cho mục đích quản lý mạng lưới neuron, vi xử lý có tốc độ nhanh gấp 15 cho đến 30 lần so với những vi xử lý được sản xuất bằng công nghệ tương tự. Ngoài ra, chỉ số hiệu năng trên mỗi wat điện cũng cao gấp 30 đến 70 lần vi xử lý thông thường. Con chip này cũng phù hợp cho mọi loại mạng lưới neuron, từ nhận diện hình ảnh cho đến nhận diện giọng nói.
Google đưa TPU vào sử dụng được 2 năm, ứng dụng vi xử lý này trên mọi tác vụ như phiên dịch hay chương trình AlphaGo, cỗ máy cờ vây đầu tiên trên thế giới đánh bại một cờ thủ chuyên nghiệp. Có thể nói, Google đã đạt được thành công ngoài mong đợi với TPU.
Tham khảo Wired
NỔI BẬT TRANG CHỦ
Samsung đã ứng dụng AI để định hình trải nghiệm giải trí thông minh trên AI TV như thế nào?
Tương tự dòng điện thoại Galaxy, Samsung AI TV thể hiện rõ khát vọng của thương hiệu điện tử Hàn Quốc trong việc “đưa AI đến với tất cả mọi người,” mở rộng ứng dụng trí tuệ nhân tạo từ di động đến TV.
Google giới thiệu Gemini 2.0: tạm biệt các chatbot AI, cùng chào đón kỷ nguyên "Tác nhân AI"