[Google I/O 2017] Hệ thống huấn luyện AI mới của Google sẽ cực kì mạnh mẽ, lên đến 11,5 petaflops

    Tân Phan,  

    Nó sẽ giúp các hệ thống AI có thể thực hiện công việc chỉ trong thời gian rất ngắn.

    Trong hôm nay Google đã ra mắt nền tảng phần cứng và phần mềm điện toán đám mây Tensor Processor Unit (TPU) thế hệ 2. Thông tin này đã được chính CEO Google, ông Sundar Pichai, tuyên bố trong hội nghị lập trình viên Google I/O.

    TPU thế hệ 1 ra mắt vào năm ngoái là một con chip đặc biệt được thiết kế dành riêng cho machine learning, nó được hệ thống trí thông minh nhân tạo (AI) AlphaGo sử dụng như một nền tảng để thực hiện các quyết định và hành vi. Google cũng sử dụng TPU cho bộ máy tìm kiếm của họ. Mới đây nó đã được áp dụng cho các dịch vụ như Google Translate, Google Photos và các phần mềm cần sự trợ giúp của AI khác.

    Thông thường, các công việc trên thường dùng phần cứng là các card đồ họa thương mai từ Nvidia. Ví dụ như Facebook đang dùng các GPU của Nvidia trong máy chủ AI Big Basin. Tuy nhiên Google đã quyết định tạo ra phần cứng AI cho riêng mình để tối ưu hóa hiệu năng giữa phần cứng và phần mềm.

    Như vậy, TPU được thiết kế để hoạt động tốt nhất với các dịch vụ AI của Google. Và nhờ các tiến bộ trong phần cứng và phần mềm , TensorFlow đã trở thành một trong những platform hàng đầu về việc xây dựng phần mềm AI. Đây có lẽ là lí do vì sao Google vẫn đang dẫn đầu trong mảng AI.

    Giờ đây, Google cho biết phiên bản thứ hai của TPU đã được trình làm và hoạt động trơn tru qua một platform tương tự như Amazon Web Services hoặc Microsoft Azure, với cái tên Google Compute Engine. Tất nhiên Google sẽ sử dụng hệ thống này cho những dịch vụ của riêng mình, tuy nhiên họ có cho biết sẽ "mở cửa" cho các công ty khác sử dụng trong tương lai.

    Về mặt kỹ thuật, Google đã tìm cách để kết nối 64 TPU lại với nhau để tạo thành "TPU Pod", giúp chuyển server Google thành một siêu máy tính với sức mạnh xử lí lên đến 11,5 petaflops. Thậm chí khi hoạt động đơn lẻ, một TPU thế hệ 2 cũng có khả năng xử lí là 180 teraflops. "Hệ thống dịch thuật mới của chúng tôi cần đến 32 GPU tốt nhất thể giới để hoàn thành một công việc trong vòng 1 ngày. Nhưng nó chỉ cần 1/8 TPU Pod để hoàn thành công việc đó chỉ trong một buổi chiều mà thôi", Jeff Dean, kỹ sư trong dự án Google Brain, cho biết.

    Ngoài tốc độ, TPU thế hệ 2 còn cho phép máy chủ Google có thể suy luận và tập luyện một cách cùng lúc. TPU thế hệ một chủ có khả năng suy luận mà thôi, nó dựa vào Google Cloud để xử lí các số liệu trong thời gian thực.

    Khi nói về việc tập luyện khả năng tư duy cho hệ thống, chúng ta cần phải có phần cứng để giúp nó xử lí những số liệu. Như vậy với các hệ thống AI, phần cứng càng mạnh thì kết quả hiển thị sẽ càng nhanh. Ví dụ như nếu một thí nghiệm mất khoảng vài ngày hay vài tuần để máy tính xử lí thì giờ đây với các hệ thống AI của Google thì việc đó sẽ được thực hiện chỉ trong vài giờ mà thôi.

    Cuối cùng, Google đã thể hiện sự quyết tâm trong AI của mình bằng cách tung ra mã nguồn mở của hệ thống TPU, nếu các lập trình viên đồng ý công bố các nghiên cứu của họ về hệ thống này. Ngoài ra công ty cũng mở chương trình TensorFlow Research Cloud, và họ sẽ cho phép người dùng truy cập vào hệ thống bao gồm 1000 TPU miễn phí.

    Tham khảo The Verge

    Tin cùng chuyên mục
    Xem theo ngày

    NỔI BẬT TRANG CHỦ