Thu phí từ doanh nghiệp, Microsoft thừa nhận AI Copilot chỉ dùng cho mục đích giải trí, đừng dùng cho việc quan trọng
Luôn quảng cáo đây là công cụ năng suất thay đổi cách làm việc của doanh nghiệp, nhưng điều khoản sử dụng của Microsoft Copilot lại cho thấy điều ngược lại.
Trong khi đang quảng bá các công cụ trí tuệ nhân tạo như một giải pháp nâng cao năng suất cho doanh nghiệp, Microsoft lại đang đối mặt với làn sóng tranh luận khi điều khoản sử dụng của Microsoft Copilot nêu rõ công cụ này “chỉ dành cho mục đích giải trí” và không nên được sử dụng cho các quyết định quan trọng.
Theo nội dung được cập nhật từ cuối năm ngoái, Microsoft ghi rõ Copilot có thể mắc lỗi và “có thể không hoạt động như dự kiến”. Công ty khuyến cáo người dùng không nên dựa vào các phản hồi của AI cho những lời khuyên quan trọng, đồng thời nhấn mạnh việc sử dụng Copilot là “tự chịu rủi ro”.

Điều khoản này cũng cho biết Microsoft không đưa ra bất kỳ tuyên bố nào về độ chính xác hay tính hợp pháp của nội dung do Copilot tạo ra. Cụ thể, công ty không thể đảm bảo các phản hồi của AI sẽ không vi phạm bản quyền, quyền riêng tư hoặc gây ảnh hưởng đến cá nhân hay tổ chức khác. Nếu người dùng chia sẻ hoặc công bố nội dung do Copilot tạo ra, họ sẽ phải tự chịu trách nhiệm hoàn toàn.
Những nội dung này gần đây được lan truyền rộng rãi trên mạng xã hội và nhanh chóng vấp phải chỉ trích, khi nhiều ý kiến cho rằng cách diễn đạt trong điều khoản sử dụng không tương xứng với cách Microsoft đang định vị Copilot như một công cụ hỗ trợ công việc hiệu quả cho cá nhân và doanh nghiệp.
Một số người dùng đặt câu hỏi về mức độ tin cậy của sản phẩm. Trên các diễn đàn, có ý kiến cho rằng nếu chính nhà cung cấp cũng không đảm bảo độ chính xác của công cụ, thì người dùng khó có thể đặt niềm tin vào các kết quả mà AI tạo ra.

Điều khoản sử dụng của Microsoft Copilot
Đáng chú ý, cách diễn đạt “chỉ dành cho mục đích giải trí” được cho là tương tự các tuyên bố miễn trừ trách nhiệm thường thấy trong các dịch vụ nhạy cảm như tư vấn tâm linh, nhằm tránh các rủi ro pháp lý. Điều này càng làm gia tăng sự hoài nghi về cách các công ty công nghệ đang xử lý trách nhiệm liên quan đến AI.
Trước phản ứng của dư luận, đại diện Microsoft cho biết cụm từ này là “ngôn ngữ cũ” từ giai đoạn Copilot còn hoạt động như một công cụ tìm kiếm mở rộng trên Bing. Theo công ty, cách diễn đạt này không còn phản ánh đúng cách Copilot được sử dụng hiện nay và sẽ được điều chỉnh trong các bản cập nhật sắp tới.
Dù vậy, Microsoft vẫn giữ quan điểm rằng Copilot nên được xem là một công cụ hỗ trợ, không phải là hệ thống ra quyết định. Người dùng được khuyến nghị kiểm chứng thông tin từ nhiều nguồn và thận trọng khi xử lý các dữ liệu nhạy cảm hoặc quan trọng.
Thực tế, cách tiếp cận này không chỉ riêng Microsoft. Các công ty phát triển AI khác như OpenAI, Google hay Anthropic cũng đưa ra những cảnh báo tương tự trong điều khoản sử dụng, bao gồm việc không chịu trách nhiệm về độ chính xác tuyệt đối và chuyển một phần trách nhiệm sang phía người dùng.
Diễn biến trên cho thấy một xu hướng rộng hơn trong ngành công nghệ: khi AI ngày càng được ứng dụng sâu vào công việc và đời sống, các doanh nghiệp cung cấp công nghệ này cũng đang tìm cách xác định lại ranh giới trách nhiệm. Trong khi các công cụ AI tiếp tục được thương mại hóa và bán cho khách hàng doanh nghiệp, những điều khoản như vậy đồng thời phản ánh mức độ rủi ro mà chính nhà cung cấp cũng thừa nhận vẫn tồn tại.
NỔI BẬT TRANG CHỦ
-
Cũng dùng một loạt iPhone để quay, album trailer “HVL” của đạo diễn Việt khác gì bom tấn điện ảnh 28 Years Later?
Một công cụ, hai cách tiếp cận: album trailer “HVL” và 28 Years Later cho thấy sự khác biệt không đến từ thiết bị, mà từ cách nó được sử dụng.
-
Cả ngành công nghệ đang "chết đuối" vì giá RAM tăng gấp 4 lần chỉ trong 4 năm - NVIDIA lại có thẻ "VIP" riêng, cứ bình thản nhìn thiên hạ chịu trận