Microsoft và Google khẳng định tiếp tục hỗ trợ AI Claude của Anthropic, bất chấp chỉ định rủi ro từ Lầu Năm Góc
Dù Lầu Năm Góc đã chỉ định Anthropic là rủi ro chuỗi cung ứng, Microsoft và Google vẫn cam kết cung cấp mô hình AI Claude cho khách hàng của mình, trừ các dự án quốc phòng.
Microsoft và Google đã khẳng định với TechCrunch rằng các doanh nghiệp và startup sử dụng mô hình AI Claude của Anthropic thông qua sản phẩm của họ sẽ không cần lo lắng về việc mất quyền truy cập. Động thái này diễn ra sau khi Bộ Quốc phòng Hoa Kỳ (Lầu Năm Góc) chính thức chỉ định Anthropic là một rủi ro chuỗi cung ứng.
Lầu Năm Góc đã đưa ra chỉ định này vào thứ Năm, sau khi Anthropic từ chối cấp quyền truy cập không giới hạn vào công nghệ của mình cho các ứng dụng mà công ty cho rằng AI của họ không thể hỗ trợ an toàn, như giám sát hàng loạt và vũ khí tự hành hoàn toàn. Thông thường, chỉ định rủi ro chuỗi cung ứng thường được dành cho các đối thủ nước ngoài. Đối với Anthropic, điều này có nghĩa là Lầu Năm Góc sẽ không thể sử dụng sản phẩm của công ty một khi họ chuyển đổi Claude khỏi hệ thống của mình, đồng thời yêu cầu bất kỳ công ty hoặc cơ quan nào làm việc với Lầu Năm Góc phải xác nhận rằng họ không sử dụng các mô hình của Anthropic. Anthropic đã tuyên bố sẽ đấu tranh với chỉ định này tại tòa án.
Microsoft, một nhà cung cấp lớn các sản phẩm từ Office đến dịch vụ đám mây cho nhiều cơ quan liên bang, bao gồm cả Bộ Quốc phòng, đã nhanh chóng đưa ra cam kết. Một phát ngôn viên của Microsoft cho biết, các luật sư của công ty đã nghiên cứu chỉ định này và kết luận rằng các sản phẩm của Anthropic, bao gồm Claude, vẫn có thể được cung cấp cho khách hàng của họ – ngoại trừ Bộ Quốc phòng – thông qua các nền tảng như M365, GitHub và Microsoft’s AI Foundry. Microsoft cũng sẽ tiếp tục hợp tác với Anthropic trong các dự án không liên quan đến quốc phòng.
Tương tự, Google, nhà cung cấp dịch vụ điện toán đám mây, AI và các công cụ năng suất cho các cơ quan liên bang, cũng đã xác nhận sẽ tiếp tục cung cấp Claude cho khách hàng của mình. Một phát ngôn viên của Google cho biết: “Chúng tôi hiểu rằng chỉ định này không ngăn cản chúng tôi làm việc với Anthropic trong các dự án không liên quan đến quốc phòng, và các sản phẩm của họ vẫn có sẵn thông qua các nền tảng của chúng tôi, như Google Cloud.”
CNBC cũng đưa tin rằng khách hàng và đối tác của AWS có thể tiếp tục sử dụng Claude cho các khối lượng công việc không liên quan đến quốc phòng. Điều này phù hợp với tuyên bố của CEO Anthropic, Dario Amodei, khi ông cam kết sẽ chống lại chỉ định này. Ông Amodei nhấn mạnh rằng chỉ định chỉ áp dụng cho việc sử dụng Claude bởi khách hàng như một phần trực tiếp của hợp đồng với Bộ Quốc phòng, chứ không phải tất cả các trường hợp sử dụng Claude của các khách hàng có hợp đồng đó.
Trong bối cảnh tranh cãi này, sự tăng trưởng người dùng của Claude vẫn tiếp tục mạnh mẽ sau khi Anthropic từ chối nhượng bộ các yêu cầu của Bộ Quốc phòng.
NỔI BẬT TRANG CHỦ
-
2.847 kỹ sư Amazon Prime Video 'vô tình' tự đào tạo AI để rồi bị sa thải không thương tiếc
Một câu chuyện trớ trêu và nghiệt ngã vừa diễn ra tại Amazon Prime Video khi hàng ngàn kỹ sư cấp cao phát hiện ra họ đã dành 8 tháng ròng rã để tự tay chuẩn bị cho sự ra đi của chính mình. Những tài liệu nội bộ quý giá giờ đây trở thành trí tuệ cho cỗ máy thay thế họ.
-
AI Claude của Anthropic chỉ mất 2 tuần để tìm ra 22 lỗ hổng nguy hiểm trong trình duyệt Firefox