Google cam kết không phát triển vũ khí AI nhưng vẫn làm việc với quân đội Hoa Kỳ

    Billvn,  

    Công ty đã đưa ra các hướng dẫn rất cần thiết về phương pháp tiếp cận nghiên cứu AI.

    Google đã phát hành một bộ nguyên tắc để hướng dẫn nhân viên làm việc trong lĩnh vực trí tuệ nhân tạo (AI). Động thái này được thực hiện sau khi có nhiều tranh cãi trong nội bộ công ty về việc tham gia vào một dự án drone của Bộ quốc phòng. Tài liệu vừa được phát hành có tiêu đề “Artificial Intelligence at Google: our principles” (tạm dịch: Trí thông minh nhân tạo tại Google: nguyên tắc của chúng tôi”), nó không trực tiếp đề cập đến dự án máy bay không người lái của quân đội nhưng khẳng định công ty sẽ không phát triển AI để sử dụng trong vũ khí. Bộ quy tắc cũng vạch ra một số hướng dẫn mở rộng cho AI liên quan đến vấn đề thiên vị, riêng tư và giám sát của con người.

    Dù cấm sử dụng AI để phát triển vũ khí nhưng Google khẳng định họ vẫn tiếp tục làm việc với quân đội “ở nhiều lĩnh vực khác”. Trao đổi với Theverge, một đại diện của Google cho biết sẽ không tham gia vào dự án máy bay không người lái sử dụng AI để phân tích nội dung quan sát của Lầu Năm Góc. Google cho biết họ sẽ tham gia vào các dự án “an toàn hơn” với quân đội trong tương lai.

    Cùng với việc phát triển AI cho vũ khí, bộ nguyên tắc cũng khẳng định Google sẽ không làm việc với các dự án giám sát AI vi phạm "các tiêu chuẩn được quốc tế được chấp nhận” hoặc các dự án trái với “các nguyên tắc được chấp nhận rộng rãi của luật pháp quốc tế và nhân quyền". Trọng tâm nghiên cứu AI của Google là “mang lại lợi ích cho xã hội”.

    Giám đốc điều hành Google Sundar Pichai cho biết: “Tại Google, chúng tôi sử dụng AI để làm cho sản phẩm hữu ích hơn - từ email không có spam và dễ soạn thư hơn, với trợ lý kỹ thuật số bạn có thể nói một cách tự nhiên, với những bức ảnh vui nhộn để bạn thưởng thức. Chúng tôi nhận ra rằng công nghệ tiên tiến như vậy đặt ra những câu hỏi mạnh mẽ về cách thức sử dụng chúng. Làm thế nào AI được phát triển và sử dụng sẽ có tác động đáng kể đến xã hội trong nhiều năm tới. Là một tên tuổi dẫn đầu trong lĩnh vực AI, chúng tôi cảm thấy mình đang mang trên vai một trọng trách rất lớn”.

    Google đã phải đối mặt với sự giám sát đáng kể về việc sử dụng AI sau khi sau khi sự hợp tác của họ với Bộ quốc phòng được tiết lộ hồi đầu năm. Hàng ngàn nhân viên đã ký một bức thư ngỏ thúc giục Google cắt đứt quan hệ với chương trình, có tên là Project Maven và ít nhất hơn 10 nhân viên đã rời công ty để bày tỏ thái độ phản đối.

    Google cho biết họ có kế hoạch để tôn trọng hợp đồng với Lầu Năm Góc nhưng sẽ không tiếp tục tham gia dự án Project Maven khi hết hạn vào năm 2019. Bài đăng trên blog của Giám đốc điều hành Google Cloud Diane Greene đã mô tả công việc này đơn giản là “nhận dạng đối tượng có độ phân giải thấp khi sử dụng AI”. Tuy nhiên, có thông tin cho biết Google cùng IBM, Microsoft và Amazon đã cạnh tranh để được tham gia một phần dự án này với mức tiền mà Lầu Năm Góc bỏ ra lên đến 10 tỷ USD.

    Quyết định phát hành bộ quy tắc AI của Google đến sau nhiều năm thế giới tranh cãi về những chuẩn mực đạo đức khi sử dụng trí thông minh nhân tạo. Cách đây 1 tháng, liên minh các nhóm nhân quyền và công nghệ đã cùng nhau đưa ra một văn bản có tựa đề Tuyên bố Toronto kêu gọi các chính phủ và các công ty công nghệ đảm bảo AI tôn trọng các nguyên tắc cơ bản về bình đẳng và không phân biệt đối xử.

    Trong những năm qua, những lời chỉ trích và bình luận về phát triển AI đã đến từ nhiều người, thậm chí có cả những người có góc nhìn khá bi quan như nhà sáng lập Tesla và SpaceX, Elon Musk. Giờ đây, các công ty ở Thung lũng Silicon đang bắt đầu đưa các nguồn lực quan trọng hơn vào nghiên cứu an toàn AI, với sự trợ giúp của các tổ chức tập trung vào đạo đức như Open AI và các nhóm nghiên cứu khác trên thế giới.

    Tham khảo: Theverge

    Tin cùng chuyên mục
    Xem theo ngày

    NỔI BẬT TRANG CHỦ