Lại là Google: chỉ cần dùng phần mềm cũng tái tạo được tính năng 3D Touch của Apple lên điện thoại Pixel
Ngoài ra, hãng còn cập nhật một số tính năng mới cho dịch vụ thanh toán di động Google Pay.
Hôm qua, Google đã công bố gói "feature drop" mới nhất dành cho các điện thoại Pixel chạy Android của hãng. Gói cập nhật này là một phần trong nỗ lực nhằm khẳng định rằng các điện thoại Pixel sẽ luôn được nhận cập nhật phần mềm trước các điện thoại Android khác, và một vài trong số các tính năng mới sẽ chỉ độc quyền dành cho Pixel. Gói "drop" hôm qua đã cho thấy rất nhiều điểm tốt (và cả chưa tốt) trong nỗ lực phần cứng của Google, do đó, hãy cùng nói rõ hơn về nó một chút.
Đầu tiên và trước hết, nói rằng những tính năng mới "đã được tung ra" vào hôm qua chỉ gần đúng mà thôi. Trên thực tế, chúng "đã bắt đầu được tung ra" vào hôm qua, và sẽ được chuyển dần đến mọi người dùng trong vài tuần nữa. Đây là điểm đáng khen hơn nhiều so với gói "feature drop" trước đó (cũng là gói drop đầu tiên), vốn được triển khai đến người dùng Pixel khá chậm.
Google có những lý do rất chính đáng để không phân phối các bản cập nhật đến mọi người ngay trong ngày đầu tiên, nhưng điều đó đã khiến sự hào hứng của người dùng giảm bớt đi nhiều – bởi chẳng ai thích chờ đợi cả.
Vậy nên nếu bạn nằm trong số những người dùng chưa nhận được cập nhật, thì có lẽ bạn sẽ muốn biết những điểm mới trong bản cập nhật tháng 3 này. Có một vài thay đổi khá chất lượng: chế độ tối nay có thể kích hoạt theo lịch đặt trước; tính năng thay đổi độ sáng theo môi trường được cải thiện; và bạn có thể thiết lập máy thực hiện các thao tác nhỏ tùy thuộc vào mạng Wi-Fi bạn đang kết nối. Ngoài ra, bạn còn nhận được nhiều emoji mới, nhiều hiệu ứng AR mới khi gọi video bằng Duo, và người dùng Pixel 4 sẽ có thể sử dụng một thao tác cử chỉ mới với Motion Sense.
Nhưng có một thứ ít mà website hỗ trợ người dùng của Google đề cập đến trong bản cập nhật này: "Bên cạnh nhấn giữ, bạn có thể nhấn mạnh lên màn hình để nhận được nhiều sự trợ giúp từ các ứng dụng nhanh chóng hơn".
"Nhấn mạnh" là một thao tác khiến không ít người cảm thấy ngờ ngợ, đơn giản vì nó khá giống với 3D Touch của iPhone, vốn cho phép bạn thực hiện nhiều hành động khác nhau dựa trên lực nhấn của bạn lên màn hình cảm ứng. Đó là một tính năng được nhiều người yêu thích, bởi nó giúp truy cập nhanh hơn đến chế độ con trỏ trên bàn phím iPhone. Nó đã bị loại bỏ trên các mẫu iPhone mới nhất – Apple hủy bỏ tính năng này bởi phần cứng cần thiết để hỗ trợ nó quá đắt đỏ, phức tạp, hay bất kỳ lý do nào khác mà họ đưa ra.
Nhưng nay, dường như Google đã làm được điều tương tự với màn hình cảm ứng, như họ từng làm với camera: sử dụng thuật toán phần mềm để giúp những thứ tầm thường làm được những điều đặc biệt. Đó là một điều rất Google, nhưng lại không…Google cho lắm khi mà hầu như chẳng có chút thông tin nào về tính năng này trên internet, ngoại trừ một bài viết trên XDA-Developers.
Theo thông tin được chính Google cung cấp, thì "tính năng nhấn giữ hiện hoạt động trên một vài ứng dụng và giao diện người dùng hệ thống như Launcher, Photos, và Drive. Bản cập nhật này sẽ đẩy nhanh thao tác nhấn để mở ra nhiều tùy chọn nhanh hơn. Chúng tôi còn dự định sẽ mở rộng danh sách các ứng dụng bên thứ nhất hỗ trợ thao tác này trong tương lai gần".
Về cơ bản, tính năng mới cho phép bạn nhấn mạnh hơn để mở menu nhấn giữ nhanh hơn. Tài liệu liên quan API Deep Press cho Android của Google nói rằng thao tác nhấn mạnh không làm điều gì mới cả, chỉ là một cách nhanh hơn để thực hiện thao tác nhấn giữ mà thôi. Còn tại sao nó chỉ hoạt động với một vài ứng dụng nhất định? Là bởi rất nhiều nhà phát triển Android không sử dụng các API chuẩn cho thao tác nhấn giữ. Bởi đó là Android!
Nhưng rốt cuộc thì thao tác nhấn mạnh hoạt động ra sao? Google đã tìm ra cách sử dụng thuật toán machine learning để phát hiện một cú nhấn mạnh, điều mà Apple phải nhờ đến phần cứng.
Bây giờ hãy nhấn vào màn hình, nghĩ xem bao nhiêu phần ngón tay của bạn sẽ được ghi nhận bởi các cảm biến điện dung. Sau đó nhấn mạnh và chú ý xem ngón tay tiếp xúc với màn hình ra sao – diện tích phần ngón tay được ghi nhận sẽ nhiều hơn đúng không? Phải dùng đến machine learning vì Google cần dựng hình hàng ngàn kích cỡ và hình dạng ngón tay khác nhau, và họ còn phải đo đạc diện tích tiếp xúc thay đổi ra sao trong một thời gian ngắn để xác định lực nhấn của bạn.
Không rõ liệu thuật toán nhận diện lực nhấn ngón tay thông qua machine learning của Google có chính xác như 3D Touch trên iPhone hay không, nhưng bởi ở thời điểm hiện tại, chúng chỉ được dùng để phát hiện nhanh hơn thao tác nhấn giữ, có lẽ điều đó cũng chưa quá quan trọng. Tuy nhiên, một ngày nào đó, có lẽ các điện thoại Pixel sẽ có thể làm được những thứ mà iPhone từng làm được.
Có gì mới trong gói "feature drop" tháng 3 của Google dành cho điện thoại Pixel?
Bên cạnh tính năng nói trên, Google còn cập nhật Google Pay – cụ thể, có vẻ họ cuối cùng cũng nhận ra rằng người dùng muốn chuyển đổi giữa các thẻ trong Google Pay dễ dàng hơn, nên đã thêm vào một shortcut để truy cập nhanh bằng cách nhấn giữ nút nguồn.
Việc thu thập các loại thẻ/vé trong Apple Wallet diễn ra khá dễ dàng và phổ biến – về cơ bản thì mọi hãng hàng không đều cung cấp cho bạn một nút bấm đề làm điều đó. Cách này tốt hơn nhiều so với giải pháp của Android, vốn đòi hỏi phải mở ứng dụng hoặc chụp ảnh màn hình, rồi sau đó phải tìm chúng trong thư viện ảnh. Nhưng việc tích hợp chúng với Google Pay từ lâu đã là một vấn đề. Google công bố hỗ trợ thẻ/vé lên máy bay từ một năm rưỡi trước, và hầu như chẳng có hãng hàng không nào sử dụng nó cả.
Sự khó chịu này đã diễn ra hàng năm trời, và nay cuối cùng người dùng Pixel đã có một câu trả lời "rất Google". Thay vì thuyết phục các đối tác thêm một nút bấm Google Pay, Google cho phép bạn chụp ảnh màn hình tấm thẻ/vé lên máy bay trong ứng dụng của hãng hàng không bạn đang sử dụng. Khi hệ thống chụp ảnh màn hình phát hiện ra một mã QR, bạn sẽ thấy một thông báo với một nút bấm để lưu thẻ/vé đó vào ví Google Pay. Nó còn cho phép Google Assistant biết được bạn quan tâm về chuyến bay đó, để nó gửi cho bạn thông tin cập nhật sau này.
Cả hai tính năng chụp ảnh màn hình thẻ/vé và phát hiện thao tác nhấn mạnh đều có một điểm chung: chúng là những giải pháp phần mềm rất thông minh, tận dụng tối đa ưu thế về machine learning của Google để giải quyết vấn đề. Chúng cũng là những vấn đề mà Apple đã giải quyết trước đó thông qua những phương thức truyền thống hơn.
Dù vậy, Google vẫn đáng được khen ngợi. Họ đang bắt kịp, và trong một số trường hợp, họ đang mang lại những cải tiến. Ví dụ, tính năng tự động phát hiện va chạm xe hơi có thể sẽ là một công cụ cứu người tuyệt vời. Và trong mọi thứ thường ngày, Google đang dần khắc phục những điểm khó chịu nhỏ nhặt của Android thông qua các bản cập nhật đều đặn xuyên suốt cả năm, thay vì chỉ thông qua một bản cập nhật hệ điều hành khổng lồ. Nếu như hãng có thể làm tốt hơn trong việc phân phối cả hai loại cập nhật – "feature drop" và cập nhật hệ điều hành – đến các điện thoại không phải Pixel, thì có lẽ Apple nên lo sợ đi là vừa.
Tham khảo: TheVerge
NỔI BẬT TRANG CHỦ
Nhà sáng lập TSMC nhận định về Intel: Sẽ tốt hơn nếu không cố chen chân vào mảng sản xuất chip, đáng lẽ nên tập trung vào AI
Morris Chang, nhà sáng lập TSMC, đã thẳng thắn nhận định chiến lược kinh doanh của Intel, cho rằng "Đội Xanh" đáng lẽ không nên bước chân vào lĩnh vực sản xuất chip và thay vào đó nên tập trung vào thị trường AI.
Chủ tịch Huawei tự hào khoe Mate 70 là điện thoại với chip 100% Made in China: "Tự chủ ngành bán dẫn đã trở thành hiện thực"