OpenAI vừa vá gấp lỗ hổng bảo mật nghiêm trọng trong ChatGPT

    Thế Duyệt,  

    Các nhà nghiên cứu của Radware phát hiện lỗ hổng trong công cụ Deep Research của ChatGPT, cho phép tin tặc truy xuất dữ liệu Gmail nếu người dùng cấp quyền kết nối.

    Công ty bảo mật mạng Radware vừa phát hiện một lỗ hổng nghiêm trọng trong công cụ Deep Research của ChatGPT, có khả năng khiến dữ liệu Gmail của người dùng bị khai thác trái phép. Theo Bloomberg, OpenAI đã nhanh chóng khắc phục sự cố này vào ngày 3/9/2025.

    Deep Research là tính năng cao cấp được OpenAI giới thiệu hồi tháng 2, cho phép ChatGPT phân tích khối lượng thông tin lớn và thực hiện nghiên cứu trực tuyến tự động theo yêu cầu người dùng. Công cụ này có thể kết nối với tài khoản Gmail của người dùng nếu họ cấp quyền, nhằm hỗ trợ tìm kiếm và tổng hợp dữ liệu nhanh hơn.

    2000x1365.jpg

    Theo nhóm chuyên gia Radware, lỗ hổng cho phép tin tặc gửi email chứa lệnh ẩn đến tài khoản Gmail của nạn nhân, từ đó điều khiển Deep Research truy xuất thông tin cá nhân như họ tên, địa chỉ... và tự động gửi dữ liệu này đến máy chủ do kẻ tấn công kiểm soát. Điều đáng lo ngại là người dùng không cần bấm vào bất kỳ liên kết nào, dữ liệu vẫn có thể bị lấy đi mà không hay biết.

    Pascal Geenens, Giám đốc nghiên cứu mối đe dọa của Radware, cho biết: "Nếu tài khoản doanh nghiệp bị khai thác, công ty thậm chí sẽ không nhận ra dữ liệu đang bị rò rỉ". Tuy nhiên, Radware khẳng định chưa có bằng chứng cho thấy lỗ hổng bị lợi dụng trong thực tế.

    Đại diện OpenAI xác nhận đã vá lỗi và nhấn mạnh công ty "luôn ưu tiên an toàn của người dùng", đồng thời liên tục cải thiện hệ thống bảo mật. OpenAI cũng cho biết họ hoan nghênh các nghiên cứu độc lập nhằm kiểm tra tính an toàn của công nghệ trí tuệ nhân tạo.

    Sự cố này cho thấy nguy cơ mới trong kỷ nguyên AI, khi chính các công cụ thông minh có thể trở thành mục tiêu bị khai thác để đánh cắp dữ liệu nhạy cảm, thay vì chỉ là công cụ hỗ trợ cho tin tặc.

    Tin cùng chuyên mục
    Xem theo ngày

    NỔI BẬT TRANG CHỦ