Lầu Năm Góc loại bỏ Anthropic khỏi hợp đồng AI 200 triệu USD do bất đồng về quyền kiểm soát mô hình, chuyển sang OpenAI.
Bộ Quốc phòng Mỹ (Lầu Năm Góc) đã chính thức xếp Anthropic vào danh sách các nhà cung cấp có rủi ro chuỗi cung ứng. Quyết định này được đưa ra sau khi Anthropic và Lầu Năm Góc không thể đạt được thỏa thuận về mức độ kiểm soát mà quân đội Mỹ nên có đối với các mô hình AI của công ty, đặc biệt là việc sử dụng chúng trong vũ khí tự hành và giám sát quy mô lớn trong nước.
Khi hợp đồng trị giá 200 triệu USD của Anthropic đổ vỡ, Bộ Quốc phòng Mỹ đã chuyển hướng sang OpenAI. Công ty này đã chấp nhận thỏa thuận, tuy nhiên ngay sau đó, số lượt gỡ cài đặt ChatGPT đã tăng vọt tới 295%. Sự việc này làm dấy lên câu hỏi lớn về việc quân đội nên được tiếp cận mô hình AI một cách không hạn chế đến mức nào.
Vụ việc giữa Anthropic và Lầu Năm Góc là một ví dụ điển hình cho thấy những thách thức mà các công ty khởi nghiệp phải đối mặt khi theo đuổi các hợp đồng với chính phủ liên bang, đặc biệt trong bối cảnh chính quyền Washington vẫn đang loay hoay tìm cách quản lý và sử dụng AI. Các cuộc đàm phán về quyền kiểm soát và đạo đức trong ứng dụng AI đang ngày càng trở nên phức tạp, đặc biệt khi liên quan đến các vấn đề an ninh quốc gia.
Sự thay đổi nhà cung cấp từ Anthropic sang OpenAI và phản ứng của công chúng đã nhấn mạnh những rủi ro và tranh cãi tiềm ẩn khi các mô hình AI tiên tiến được tích hợp vào các hệ thống quốc phòng. Vấn đề cốt lõi xoay quanh việc cân bằng giữa nhu cầu an ninh quốc gia và các lo ngại về quyền riêng tư, đạo đức cũng như khả năng lạm dụng công nghệ AI.
NỔI BẬT TRANG CHỦ
-
2.847 kỹ sư Amazon Prime Video 'vô tình' tự đào tạo AI để rồi bị sa thải không thương tiếc
Một câu chuyện trớ trêu và nghiệt ngã vừa diễn ra tại Amazon Prime Video khi hàng ngàn kỹ sư cấp cao phát hiện ra họ đã dành 8 tháng ròng rã để tự tay chuẩn bị cho sự ra đi của chính mình. Những tài liệu nội bộ quý giá giờ đây trở thành trí tuệ cho cỗ máy thay thế họ.
-
AI giờ có thể tự tạo thẻ tín dụng đi mua đồ online cho bạn - nhưng đừng hiểu nhầm!