Stephen Hawking và Elon Musk cùng thông qua bộ quy tắc 23 điều để bảo vệ nhân loại trước AI
Các nhà khoa học vừa thông qua một bộ quy tắc 23 điều để bảo vệ nhân loại trước trí thông minh nhân tạo (AI).
Trong tuần này, Nhà vũ trụ học Stephen Hawking và Elon Musk, CEO Tesla đã tán thành một bộ quy tắc nhằm đảm bảo rằng trí thông minh nhân tạo (AI) luôn suy nghĩ và hành động một cách an toàn và vì lợi ích của con người.
Máy móc trở nên thông minh hơn sau mỗi năm và các nhà nghiên cứu tin rằng chúng sẽ sở hữu khả năng tư duy giống con người trong vài thập kỷ tới. Một khi đạt tới tình trạng này, chúng có thể tự cải tạo bản thân và tạo ra các vấn đề khác. Thậm chí, chúng còn sở hữu trí tuệ mạnh hơn cả AI mà các nhà khoa học gọi là superintelligences (theo nhà triết học Nick Bostrom của Oxford và nhiều chuyên gia trong lĩnh vực này).
Năm 2014, Elon Musk, người sở hữu một công ty AI trị giá 1 tỷ USD đã cảnh báo rằng AI có khả năng sẽ “nguy hiểm hơn cả vũ khí hạt nhân”. Trong khi đó, tháng 12 năm 2014, Hawking nói rằng AI có thể đặt dấu chấm hết cho nhân loại. Nhưng cái gì cũng có 2 mặt của nó. Các nhà khoa học cũng thấy rằng AI có thể hỗ trợ trong việc trị bệnh ung thư và làm chậm sự ấm lên toàn cầu.
Bộ quy tắc gồm 23 nội dung mà Stephen Hawking và CEO Tesla Elon Musk vừa thông qua được gọi là AI Asimolar – vì nó được thông qua tại hội nghị Asimolar ở California. Nội dung của bộ quy tắc này chia làm 3 nhóm:
1. Vấn đề nghiên cứu
2. Đạo đức và giá trị
3. Các vấn đề dài hạn
Các nguyên tắc đề cập đến vũ khí và khả năng tự tái tạo của AI được tạo ra bởi Viện nghiên cứu cuộc sống tương lai (Future of Life Institute). Đây là một viện nghiên cứu phi lợi nhuận được thành lập bởi nhà vũ trụ học Max Tegmar và đồng sáng lập Skype, Jaan Tallinn cùng nhà khoa học nghiên cứu DeepMind Viktoriya Krakovna vào tháng 3 năm 2014. Họ làm việc để bảo vệ tương lai của nhân loại trước sự phát triển của công nghệ. Hawking và Musk nằm trong Ban cố vấn của Viện nghiên cứu này.
Trên website của mình, Future of Life Institute cho biết: “Trí tuệ nhân tạo cung cấp công cụ hữu ích cho người dân trên khắp thế giới sử dụng hàng ngày. Tiếp tục phát triển nó theo những nguyên tắc sau đây, sẽ cung cấp cơ hội tuyệt vời để giúp đỡ và trao quyền cho con người trong nhiều thập kỷ và thế kỷ tiếp theo”.
Nội dung bộ quy tắc AI Asimolar
Nhóm “các vấn đề nghiên cứu”
1. Mục tiêu nghiên cứu: Mục tiêu nghiên cứu AI nhằm mang lại lợi ích cho con người.
2. Kinh phí nghiên cứu: Đầu tư vào AI cần đi kèm việc tài trợ cho các nghiên cứu về đảm bảo sử dụng nó một cách có lợi, bao gồm cả những câu hỏi hóc búa trong khoa học máy tính, kinh tế, pháp luật, đạo đức và các nghiên cứu xã hội, chẳng hạn như:
- Làm thế nào để hệ thống AI trong tương lai trở nên mạnh mẽ, không bị hỏng hóc hoặc tấn công chúng ta?
- Làm thế nào chúng ta phát triển thịnh vượng thông qua tự động hóa nhưng vẫn duy trì nguồn lực con người?
- Làm thế nào chúng ta có thể cập nhật hệ thống pháp luật của mình một cách công bằng và hiệu quả để bắt kịp và quản lý sự phát triển của AI, tránh các rủi ro liên quan đến AI?
3. Khoa học – Chính sách liên kết: Nên có sự trao đổi mang tính xây dựng và lành mạnh giữa các nhà nghiên cứu AI và các nhà hoạch định chính sách.
4. Văn hóa nghiên cứu: Một nền văn hóa của sự hợp tác, tin tưởng và minh bạch phải được hình thành và bồi dưỡng cho các nhà nghiên cứu và phát triển AI.
5. Tránh đua tranh: Đội ngũ phát triển AI cần tích cực hợp tác để tránh những khác biệt trong các tiêu chuẩn an toàn.
Nhóm “Đạo đức và giá trị”
6. An toàn: Đảm bảo sự an toàn của hệ thống AI trong suốt thời gian hoạt động.
7. Không minh bạch: Nếu một hệ thống AI gây hại thì cần phải xác định nguyên nhân tại sao.
8. Minh bạch tư pháp: Bất kỳ sự tham gia nào của một hệ thống tự động cần có cơ chế để các cơ quan có thẩm quyền của con người kiểm tra.
9. Trách nhiệm: Các bên tham gia xây dựng các hệ thống AI tiên tiến phải đảm bảo các quy tắc đạo đức khi sử dụng, nếu vi phạm phải chịu trách nhiệm về hành vi của mình.
10. Giá trị: Hệ thống AI tự động nên thiết kế sao cho các mục tiêu và hành vi của nó phù hợp với các giá trị của con người trong suốt quá trình hoạt động.
11. Giá trị nhân lực: Hệ thống AI cần được thiết kế và vận hành tương thích với những lý tưởng, giá trị của con người, về quyền tự do và sự đa dạng văn hóa.
12. Bảo mật cá nhân: Người dân có quyền truy cập, quản lý, kiểm soát các dữ liệu mà họ tạo ra (thông qua AI).
13. Tự do và bảo mật: các ứng dụng AI không tác động đến dữ liệu cá nhân một cách bất hợp lí, hạn chế tự do hay sự nhận thức của người dân.
14. Chia sẻ lợi ích: Những lợi ích từ AI cần được chia sẻ cho càng nhiều người càng tốt.
15. Thịnh vượng chung: Sự thịnh vượng kinh tế tạo ra bởi AI cần được chia sẻ rộng rãi, mang đến lợi ích cho toàn nhân loại.
16. Quyền kiểm soát của con người: Con người được quyền quyết định có nên ra lệnh cho một hệ thống AI hoàn thành các mục tiêu mình đặt ra hay không.
17. Không lật đổ: Quyền điều khiển của các hệ thống AI nên được tôn trọng và cải thiện, chứ không phải thay thế các quá trình của xã hội.
18. Chạy đua vũ trang: Một cuộc chạy đua vũ trang với vũ khí tự động gây chết người cần phải được phòng tránh.
Nhóm “Các vấn đề dài hạn”
19. Năng lực chú ý: Chúng ta nên tránh những giả định về giới hạn của AI trong tương lai.
20. Tầm quan trọng: Phát triển AI có thể đại diện cho một sự thay đổi sâu sắc trong lịch sử sự sống trên trái đất nên cần được quy hoạch và quản lý với nguồn lực hợp lý.
21. Rủi ro: rủi ro gây ra bởi hệ thống AI, đặc biệt là các thảm họa phải được dự kiến trước để giảm nhẹ thiệt hại.
22. Tự cải thiện: hệ thống AI được thiết kế có khả năng tự cải thiện hoặc tái tạo để tăng chất lượng hay số lượng công việc. Điều này cần phải được quản lý một cách an toàn và hiệu quả.
23. Superintelligence chỉ được phát triển cho các dịch vụ vì lợi ích cả nhân loại chứ không phải cho một nhà nước hay tổ chức.
Tham khảo: Business Insider
NỔI BẬT TRANG CHỦ
iPhone 14 Pro Max phát nổ khiến người dùng bị thương
Vụ việc đang tiếp tục được điều tra, làm rõ.
Tại sao nhân loại lại cần đến máy tính lượng tử, chúng được dùng để làm gì?