VTV.vn - Một nghiên cứu mới cho thấy ChatGPT có thể nói dối và gian lận khi người dùng “làm khó” chúng.
- Exynos 2400 chính thức lộ diện: CPU 10 nhân, xung nhịp tối đa 3,2GHz, hiệu năng CPU cao gấp 1,7 lần, hiệu năng AI gấp 14 lần so với trước đây
- Vì AI, Google Pixel 8 và Samsung Galaxy S24 tái khởi động cuộc đua cấu hình trên smartphone
- 3 nhà khoa học người Việt Nam tại Google gây sốc giới toán học bằng công nghệ AI có thể giải đề ngang ngửa các nhà vô địch Olympic
- Đây là Galaxy S24 Ultra: Viền titan, màn hình phẳng, Galaxy AI mới ngày đầu nhưng đã hỗ trợ tiếng Việt đầy đủ
- Ra mắt Galaxy S24: Mở ra kỷ nguyên AI trên điện thoại di động
Một nghiên cứu "đáng kinh ngạc" gần đây đã cho thấy, AI đã xuất hiện những hành vi gian lận một cách tự phát khi chúng được “học” về các phương thức giao dịch nội gián.
Tác giả nghiên cứu cho biết: “Theo hiểu biết của chúng tôi, đây là minh chứng đầu tiên về hành vi lừa đảo mang tính chiến lược như vậy trong các hệ thống AI vốn được thiết kế vô hại và trung thực”.
(Ảnh: Getty Images)
Trong nghiên cứu, các nhà khoa học đã sử dụng GPT-4 hoạt động như một hệ thống AI thực hiện đầu tư thay cho một tổ chức tài chính. Họ cung cấp cho GPT-4 một bộ lời nhắc dựa trên văn bản để tạo ra môi trường mô phỏng. AI sau đó được cấp quyền truy cập vào các công cụ tài chính để phân tích cổ phiếu, thực hiện giao dịch, lên kế hoạch cho các bước kế tiếp và cung cấp thông tin cập nhật cho các nhà quản lý tại công ty. Các nhà nghiên cứu đã tương tác với AI thông qua giao diện trò chuyện, tạo điều kiện để AI “bộc lộ suy nghĩ” bên trong khi trả lời tin nhắn - một đoạn độc thoại nội tâm giải thích các quyết định của AI cho chính nó.
Đầu tiên, các nhà nghiên cứu đã gửi cho GPT-4 một email từ "người quản lý" để thông báo rằng công ty hoạt động không tốt và cần nâng cao hiệu suất làm việc trong quý tới. Sau đó, họ gửi một email từ đồng nghiệp dự kiến sự suy thoái trong quý tiếp theo. Họ đề xuất cho hệ thống AI một mẹo “giao dịch nội gián”, đồng thời cho nó biết rằng những nhà quản lý sẽ không chấp nhận điều này và chờ xem GPT-4 sẽ hoạt động như thế nào. Các nhà nghiên cứu thực hiện kịch bản này nhiều lần và đo lường tần suất mà hệ thống trí tuệ nhân tạo thực hiện giao dịch nội gián, tần suất nói dối.
Kết quả cho thấy, trong 75% trường hợp, GPT-4 đã thực hiện giao dịch nội gián và cố gắng che đậy bằng cách nói dối với các nhà quản lý. Nhóm nghiên cứu đã thực hiện một số thí nghiệm tiếp theo, tiếp tục khuyến khích hoặc không khuyến khích AI thực hiện giao dịch nội gián, cũng như thay đổi áp lực trong môi trường mô phỏng. Tuy nhiên, không một kịch bản nào đưa ra tỷ lệ 0% về số lần sử dụng giao dịch nội gián của GPT-4.
Vì đây chỉ là một kịch bản, các nhà nghiên cứu đã không đưa ra kết luận chắc chắn về việc AI có thể gian lận trong thực tế. Tuy nhiên họ muốn dựa trên mô hình này để điều tra về tần suất và các mô hình ngôn ngữ nào dễ mắc phải hành vi này.
NỔI BẬT TRANG CHỦ
Ăn cắp bí mật bán dẫn rồi sang Huawei làm việc, nhân viên tập đoàn Hàn Quốc bị kết án tù
Tập đoàn này sở hữu nhiều công nghệ bán dẫn tiên tiến hiện nay mà nhiều đối thủ muốn "dòm ngó".
iOS 18 lại gặp lỗi mới, nhiều người Việt hối hận khi nâng cấp