Google vẫn hợp tác với các cơ quan quân sự, nhưng sẽ không bao giờ phát triển vũ khí AI

    Kuroe,  

    Đó là một phần nội dung của bộ quy tắc mới được Google công bố, sau những lùm xùm và chỉ trích liên quan đến dự án Maven - dự án sử dụng AI để phân tích những video theo dõi được drone quân sự quay lại.

    Mới đây, sau vụ lùm xùm khiến dư luận chỉ trích khi nghiên cứu AI cho drone dùng trong quân sự, Google đã đưa ra một bộ quy tắc mới để định hướng cho các hoạt động nghiên cứu của ông lớn này trong tương lai, mang tên "Quy tắc tại Google trong việc nghiên cứu AI". Nội dung chính của bộ quy tắc này cho thấy rằng, Google sẽ không phát triển AI để dùng cho các loại vũ khí quân sự, đồng thời sẽ tránh để việc phát triển trí tuệ nhân tạo động chạm tới những vấn đề nhạy cảm như bảo mật hay giám sát con người.

    Mặc dù bộ quy tắc mới nghiêm cấm việc phát triển AI dùng cho vũ khí, Google vẫn khẳng định họ sẽ tiếp tục hợp tác với cơ quan quân sự "trong nhiều lĩnh vực khác". Trao đổi với tạp chí The Verge, đại diện của Google cho biết, nếu như bộ quy tắc nói trên xuất hiện sớm hơn, họ đã không tham gia vào dự án drone của Lầu Năm Góc - dự án sử dụng AI để phân tích các đoạn băng theo dõi. Mặc dù ứng dụng như vậy không phải dành cho "các mục đích tấn công" - tức vẫn nằm trong giới hạn cho phép của bộ quy tắc mới, nhưng đại diện này cho rằng "ứng dụng như vậy quá nhạy cảm", và Google sẽ từ chối không thực hiện những nghiên cứu tương tự như vậy trong tương lai.

    Google vẫn hợp tác với các cơ quan quân sự, nhưng sẽ không bao giờ phát triển vũ khí AI - Ảnh 1.

    Bên cạnh việc nghiêm cấm phát triển AI dùng cho vũ khí, bộ quy tắc còn cho biết Google sẽ không tham gia vào các dự án dùng AI để theo dõi con người, cũng như những dự án vi phạm luật pháp quốc tế cùng quyền con người. Theo đó, Google sẽ chỉ tập trung tham gia nghiên cứu những dự án AI mang lại ích lợi xã hội, cũng như bảo vệ quyền riêng tư cá nhân của con người.

    "Tại Google, chúng tôi dùng AI để khiến các sản phẩm của mình trở nên hữu ích hơn - từ việc lọc email rác và giúp người dùng soạn thảo email dễ dàng hơn, cho đến những trợ lý ảo mà bạn có thể nói chuyện một cách tự nhiên cùng, hay những công cụ vọc vạch thú vị khác cho người sử dụng." - CEO Sundar Pichai cho biết. "Chúng tôi hiểu AI là một công nghệ rất mạnh, và do đó, việc phát triển và sử dụng chúng như thế nào sẽ ảnh hưởng rất lớn đến với xã hội tương lai của loài người. Là một trong những người tiên phong trong lĩnh vực này, chúng tôi có trách nhiệm rất lớn để làm mọi thứ một cách đúng đắn."

    Google vẫn hợp tác với các cơ quan quân sự, nhưng sẽ không bao giờ phát triển vũ khí AI - Ảnh 2.

    Thời gian vừa rồi, Google đã gặp phải những chỉ trích mạnh mẽ đến từ dư luận khi lộ ra thông tin về việc nghiên cứu AI dùng cho dự án Maven của quân đội Mỹ, phân tích những đoạn video theo dõi được drone quay lại. Hàng ngàn nhân viên của Google đã ký tên yêu cầu gã khổng lồ tìm kiếm kết thúc dự án Maven, và hàng chục người đã đệ đơn xin thôi việc sau khi biết Google vẫn tiếp tục tham gia vào dự án.

    Theo lời của Google, họ vẫn muốn tôn trọng hợp đồng của mình với Lầu Năm Góc, tuy nhiên sẽ dừng tham gia vào dự án Maven khi hợp đồng hết hạn vào năm 2019. Tuy nhiên, lý do thực sự cho sự tham gia này là để thắng thầu cho một dự án trị giá gần 10 tỉ USD của Lầu Năm Góc, và để cạnh tranh với các đối thủ như IBM, Microsoft và Amazon. Đương nhiên, Google vẫn sẽ tham gia vào các dự án khác của chính phủ, nếu như chúng nằm trong sự cho phép của bộ quy tắc mới.

    Quyết định này của Google là câu trả lời cho những mối lo về hiểm họa mà các hệ thống tự động mang lại, cũng như những lời cảnh báo về viẹc phát triển trí tuệ nhân tạo - với đích đến là những AI có thể đạt đến trình độ trí tụe của con người. Mới tháng trước thôi, rất nhiều tổ chức nhân quyền và công nghệ trên thế giới đã chung tay kêu gọi chính phủ và các tập đoàn công nghệ phải tìm cách đảm bảo rằng, sự phát triển của trí tuệ nhân tạo sẽ không gây ra ảnh hưởng gì đến quyền lợi và sự bình đẳng của con người.

    Google vẫn hợp tác với các cơ quan quân sự, nhưng sẽ không bao giờ phát triển vũ khí AI - Ảnh 3.

    Nhiều năm qua, những chỉ trích và bình luận xung quanh việc phát triển AI đã đến từ rất nhiều nhóm người, từ những lo lắng của Elon Musk hay Stephen Hawking, cho đến những quan điểm có vẻ tích cực hơn về việc AI sẽ không bao giờ thay thế được con người. Và giờ đây, các tập đoàn trong thung lũng Silicon đang bắt đầu dồn nhiều công sức và tài nguyên hơn để thực hiện các nghiên cứu về an toàn AI, với sự hỗ trợ của các tổ chức công nghệ phi lợi nhuận như Open AI.

    Tuy nhiên, như những gì chúng ta có thể thấy trong bộ quy tắc mới của Google, rất khó để có thể tạo ra những bộ luật và quy định đủ lớn để bao trùm toàn bộ khả năng có thể xảy ra, nhưng lại cũng phải vừa đủ linh hoạt để đảm bảo không bỏ lỡ những cơ hội tiềm năng. Sự tranh luận công khai sẽ trở nên vô cùng cần thiết để đảm bảo AI sẽ được triển khai một cách an toàn và đúng đắn - và điều này cũng có nghĩa rằng, Google sẽ còn phải chia sẻ nhiều hơn nữa về các kế hoạch AI của mình đối với cộng đồng.

    Tham khảo The Verge

    Tin cùng chuyên mục
    Xem theo ngày