Nghiên cứu cho thấy trợ lý ảo như Siri, Alexa và Google Assistant có thể bị lạm dụng bằng những lệnh "vô thanh" mà tai người thường không nghe được

    KON,  

    Kẻ gian có thể điều khiển các trợ lý ảo từ xa bằng những câu lệnh mà tai con người không thể nào nghe được. Về lâu về dài, đây có thể trở thành một lỗ hổng bảo mật.

    Các nhà nghiên cứu tại đại học UC Berkeley đã phát hiện ra rằng họ có thể gắn các lệnh giành cho các trợ lý ảo phổ biến trong các bài hát, và có thể điều khiển Siri, Alexa hay Google Assistant thực hiện các hành động mà người dùng không hề hay biết.

    Nghiên cứu cho thấy trợ lý ảo như Siri, Alexa và Google Assistant có thể bị lạm dụng bằng những lệnh vô thanh mà tai người thường không nghe được - Ảnh 1.

    Bấy lâu nay, nhiều nhà nghiên cứu đã rất quan tâm đến việc làm thế nào để lừa được các trợ lý ảo như Siri. Kết quả nghiên cứu trên cho thấy một bước tiến mới trong công cuộc này:

    Năm ngoái, các nhà nghiên cứu tại Đại học Princenton và đại học Chiết Giang của Trung Quốc đã chứng minh rằng các hệ thống nhận diện giọng nói có thể được kích hoạt sử dụng các tần số mà tai người không nghe được. Cuộc tấn công sẽ tìm các tắt tiếng của điện thoại để cho người dùng không nghe được phản hồi từ phía hệ thống.

    Kỹ thuật này được các nhà nghiên cứu Trung Quốc đã gọi là Đòn tấn công cá heo, có thể hướng dẫn các thiết bị thông minh truy cập vào các website độc hại, gọi điện, chụp hình hoặc gửi tin nhắn. Mặc dù Đòn tấn công cá heo vẫn còn hạn chế (máy phát cần phải ở gần thiết bị nhận lệnh, các chuyên gia đã cảnh báo rằng các hệ thống siêu âm mạnh có thể khiến kỹ thuật này trở nên khả thi.

    Cảnh báo này đã được tiết lộ vào tháng tư, khi các nhà nghiên cứu tại đại học Illionis Urbana-Champaign trình diễn những đòn tấn công siêu âm từ cách đó 7 mét. Mặc dù các lệnh đã không thể đi xuyên tường, họ đã có thể kiểm soát được các thiết bị thông minh từ cửa sổ của một toà nhà bên ngoài.

    Nghiên cứu cho thấy trợ lý ảo như Siri, Alexa và Google Assistant có thể bị lạm dụng bằng những lệnh vô thanh mà tai người thường không nghe được - Ảnh 2.

    Kích hoạt Siri gọi điện thoại mà không cần nói một câu

    Những cách khai thác lỗ hổng này vẫn còn trong giai đoạn trứng nước, cũng như khả năng bảo mật của các trợ lý giọng nói. Khi mà các trợ lý ảo ngày càng trở nên thông minh hơn, có thể thực hiện các tác vụ phức tạp hơn như gửi email, tin nhắn và tiền bằng giọng nói, mọi chuyện chắc chắn sẽ đau đầu hơn rất nhiều.

    Nghiên cứu cho thấy trợ lý ảo như Siri, Alexa và Google Assistant có thể bị lạm dụng bằng những lệnh vô thanh mà tai người thường không nghe được - Ảnh 3.

    Một điều mà các nhà chế tạo trợ lý giọng nói cần phải học hỏi được từ nghiên cứu này là, họ phải thực sự nghiêm túc hơn trong việc chế tạo công cụ xác thực bằng giọng nói, để họ có thể xác định chính xác rằng liệu có phải chủ nhân của thiết bị đang là người đưa ra các câu lệnh hay không. Nếu không, các thiết bị nên khoá luôn các tính năng của trợ lý giọng nói. Alexa của Amazon và Google Assistant đều cung cấp các tuỳ chọn khoá thông tin cá nhân cho một số người dùng cụ thể dựa trên các đặc điểm giọng nói. Trong khi đó, những thông tin nhạy cảm nhất trên các thiết bị iOS sẽ yêu cầu thiết bị phải được mở khoá trước khi chúng có thể được truy cập.

    Dù gì đi chăng nữa, hiểm hoạ ở đây vẫn thật là đáng sợ, và cần được giải quyết sớm. Như chúng ta đã thấy tại hội nghị nhà phát triển Google I/O với màn trình diễn của Duplex, tham vọng của công ty cho trợ lý giọng nói đang phát triển nhanh chóng, và công ty cũng đã bắt đầu phát hành các thiết bị Hiển thị thông minh với các đối tác tích hợp máy ảnh, khiến cho khả năng lạm dụng còn tăng cao hơn nữa.

    Tham khảo TechCrunch

    Tin cùng chuyên mục
    Xem theo ngày

    NỔI BẬT TRANG CHỦ