Lạm dụng AI, coi chừng dữ liệu khó an toàn

    LÊ TỈNH,  

    Chính từ sự hỗ trợ đắc lực của các công cụ AI, nhiều người dùng gần như không còn quan tâm đến vấn đề liên quan đến bảo mật thông tin

    Cuộc cách mạng trong lĩnh vực trí tuệ nhân tạo (AI) đã bùng nổ mạnh mẽ từ cuối năm 2022, đặc biệt sau khi OpenAI ra mắt ChatGPT. Ngay sau đó, các tập đoàn công nghệ lớn cũng ra mắt những công cụ AI khác - như Copilot, Bing của Microsoft hay Gemini của Google… - đã làm gia tăng tính hữu dụng của AI. Chúng có thể hỗ trợ từ việc viết mã lập trình, phân tích dữ liệu đến tổng hợp thông tin chỉ trong thời gian ngắn. Điều này khiến nhiều người dùng bắt đầu quan tâm hơn tới AI.

    Vừa dùng vừa lo

    Ông Nguyễn Hoài Sang - nhân viên văn phòng tại quận Bình Thạnh, TP HCM - cho biết từ khi ông ứng dụng những phần mềm AI, việc lập báo cáo kinh doanh, tổng hợp thông tin, ghi chép nội dung các cuộc họp nội bộ hay với khách hàng thông qua nền tảng Google Meet và Zoom đã tiết kiệm khoảng 40%-50% thời gian so với cách làm thủ công. Tuy nhiên, sau khi tải công cụ AI về, ông nhận thấy máy tính của mình lại xảy ra tình trạng bị treo trong vòng 1-2 phút, hiệu năng cũng giảm so với trước kia.

    "Ngoài ChatGPT hay Copilot, Gemini, tôi tìm kiếm trên cửa hàng tiện ích của Google Chrome và cài thêm một số công cụ AI như Sider, SearchGPT, Tactiq. Kể từ lúc đó, máy tính lại xảy ra hiện tượng bị chậm, chẳng hạn gõ chữ trên file word không còn mượt, mở ứng dụng đơn giản lâu hơn thông thường 5-7 giây dù laptop là loại tốt trên thị trường. Do đó, công việc đôi lúc bị gián đoạn và gây mất tập trung, dễ bực bội. Nhưng điều tôi lo ngại là tình trạng này có phải do máy nhiễm virus và AI đang xâm nhập thiết bị để lấy dữ liệu không?" - ông Sang lo lắng.

    Trong khi đó, ông Xuân Thanh, nhân viên IT tại TP HCM - với công việc chính là vá các lỗi hệ thống bên trong của doanh nghiệp (DN), cho rằng AI hỗ trợ công việc khá nhiều, chỉ cần mô tả và yêu cầu viết mã để xóa lỗi một cách rất nhanh. Song, ông cũng nơm nớp lo lắng về các bảo mật liên quan đến AI.

    "Có một số công việc cần phải sử dụng AI để xử lý ngay tức khắc nên buộc tôi phải ứng dụng. Nhưng tôi vẫn lo ngại có thể chủ một số phần mềm AI sẽ dùng chính những dữ liệu trong quá trình tương tác và đặt câu hỏi cho AI để xâm nhập hệ thống của người dùng. Hoặc khi AI thu thập được dữ liệu do người dùng đưa ra, kẻ có ý định xấu có thể hỏi và AI có cung cấp không? Mặc dù hiện chưa có vụ việc nào liên quan nhưng tôi vẫn không chắc chắn về độ an toàn của AI" - ông Thanh hoài nghi.

    Các phần mềm AI có thể là nguyên nhân khiến máy tính bị trục trặc

    Các phần mềm AI có thể là nguyên nhân khiến máy tính bị trục trặc

    Cẩn trọng khi tải AI

    Ông Nguyễn Hữu Nguyên, Phó Giám đốc Trung tâm Ứng cứu khẩn cấp an ninh mạng Việt Nam (VNCERT), cho hay máy tính bị giật lag, giảm hiệu suất sau khi tải phần mềm AI cũng có thể do các AI có tính năng phức tạp nên tiêu tốn lượng lớn tài nguyên của hệ thống, chứ không nhất thiết là vì virus.

    Tuy nhiên, theo ông Nguyên, người dùng cần cẩn trọng khi tải AI từ những nguồn không đáng tin cậy, bởi chúng có thể chứa mã độc để hack vào hệ thống. Người dùng cũng nên chú ý đến việc bảo vệ dữ liệu, đọc kỹ chính sách quyền riêng tư và điều khoản sử dụng của các công cụ AI để hiểu rõ cách thức thu thập và sử dụng dữ liệu của chúng. Ngoài ra, cần kiểm soát quyền truy cập vào thiết bị khi dùng AI. Đặc biệt, những tài liệu quan trọng thì không nên chia sẻ với AI để hạn chế rủi ro.

    Ông Tạ Công Sơn, Trưởng Phòng Phát triển AI - dự án chống lừa đảo, nhận định việc máy tính hoạt động chậm lại, thậm chí bị treo sau khi tải AI, có thể là do RAM của thiết bị không đủ đáp ứng các tính năng của chúng. Tuy nhiên, đó cũng là dấu hiệu cảnh báo người dùng có thể đang gặp một số rủi ro.

    "Nhằm bảo đảm an toàn, người dùng nên hạn chế quyền truy cập của AI. Khi một ứng dụng yêu cầu quyền, người dùng cần xem xét kỹ lưỡng để xác định nếu chấp nhận quyền đó là cần thiết và an toàn hay không. Một cách an toàn khi sử dụng công cụ AI là sử dụng các ứng dụng chống virus để quét và kiểm tra. Ngoài ra, người dùng có thể sử dụng các trang Virustotal.com hoặc Eset.com để kiểm tra xem AI đó có chứa mã độc không hay đang ở mức an toàn" - ông Sơn khuyến nghị.

    Tại tọa đàm cấp cao về an toàn thông tin mạng 2024 mới đây, ông Trần Sơn Bình, Giám đốc kinh doanh AMD Việt Nam, cho biết việc người dùng sử dụng ChatGPT để viết mã, lập trình hay tóm tắt dữ liệu có thể sẽ phát sinh vấn đề bảo mật của hệ thống. Bởi lẽ, các mã mà AI cung cấp có thể chứa độc hại và AI dựa vào đó tự khai thác lỗ hổng nhằm thay đổi cấu trúc dữ liệu, khiến lớp an toàn thông tin và hiệu năng của hệ thống bị phá vỡ.

    Ông Bình nhấn mạnh: "Các đơn vị cần phải kiểm soát nhân sự của mình trong việc ứng dụng AI để viết báo cáo, tổng hợp thông tin dựa trên dữ liệu mà người dùng cung cấp, đặc biệt là nội dung liên quan đến bí mật của DN, quốc gia. Bây giờ thì vẫn đang ở vùng an toàn nhưng tương lai làm sao biết được dữ liệu đó có an toàn hay không". 

    AI sẽ thu thập dữ liệu

    Theo Gemini, chỉ cần trò chuyện với ứng dụng này là người dùng đang góp phần cải thiện các dịch vụ của Google, bao gồm cả những mô hình học máy mà Gemini dựa vào đó để hoạt động. Trong quá trình cải tiến đó, nhân viên đánh giá đã qua đào tạo cần phải xử lý các cuộc trò chuyện của người dùng. "Vì vậy, khi sử dụng Gemini, đừng nhập bất cứ thông tin nào bạn không muốn nhân viên đánh giá nhìn thấy hoặc không muốn Google sử dụng" - Gemini khuyến nghị.

    Đối với Copilot, Microsoft cho biết thu thập dữ liệu từ người dùng thông qua các tương tác. Các sản phẩm của AI đưa ra do người dùng cung cấp trực tiếp và một số là do nền tảng thu thập dữ liệu về các hoạt động tương tác khác.

    Việc này thể hiện rằng khi người dùng trao đổi bất kỳ thông tin nào đối với AI, ứng dụng đều thu thập lại để cho công cụ trở nên thông minh hơn. Điều này đồng nghĩa với việc dữ liệu của người dùng không muốn tiết lộ ra bên ngoài có thể khiến người khác thấy được.


    Tin cùng chuyên mục
    Xem theo ngày