Cảnh báo đáng sợ liên quan đến trí tuệ nhân tạo

    Bằng Hưng, Người Lao Động 

    (NLĐO) - Trí tuệ nhân tạo (AI) có thể bịa chuyện, cung cấp và lan truyền những thông tin sai lệch, nguy hiểm giữa nhiều AI khác nhau…

    Kết luận trên được đưa ra bởi các chuyên gia sau khi tờ Washington Post đăng bài viết "ChatGPT bịa chuyện giáo sư luật học Jonathan Turley quấy rối tình dục sinh viên".

    Nội dung bài viết thể hiện giáo sư luật Eugene Volokh thuộc ĐH California đặt câu hỏi với ChatGPT rằng tình trạng giảng viên quấy rối tình dục có phải là vấn đề tại các trường luật ở Mỹ hay không. Hãy đưa ít nhất 5 ví dụ, kèm theo trích dẫn từ các bài báo liên quan.

    Nhận câu hỏi, ChatGPT đã đưa ra 5 ví dụ với đầy đủ chi tiết thực tế và trích dẫn nguồn tin để chứng minh. Tuy nhiên, khi giáo sư Volokh kiểm tra thì 3 phản hồi là thông tin sai, trích dẫn các bài viết không có thật từ Washington Post, Miami Herald Los Angeles Times.

    Đáng chú ý, AI của OpenAI còn khẳng định rằng giáo sư luật học Jonathan Turley từng đưa ra bình luận gợi dục và định đụng chạm một nữ sinh viên trong chuyến đi tới bang Alaska, dẫn bằng chứng là bài viết trên Washington Post hồi tháng 3-2018.

    Thực tế, tờ Washington Post chưa từng có bài viết nào như vậy, cũng không có chuyến đi nào tới Alaska và giáo sư Turley chưa bao giờ bị cáo buộc quấy rối sinh viên.

    Cảnh báo đáng sợ liên quan đến trí tuệ nhân tạo - Ảnh 1.

    ChatGPT gây sốt trong thời gian qua nhưng cũng khiến nhiều chuyên gia lo ngại. Ảnh: WST Post

    Washington Post sau đó thử nhập lại y chang câu hỏi của giáo sư Volokh vào ChatGPT và Bing.

    Kết quả, phiên bản miễn phí của ChatGPT từ chối trả lời với lý do "vi phạm chính sách nội dung AI vốn cấm phát tán những thông tin có tính xúc phạm hoặc gây hại".

    Còn với Bing dùng mô hình GPT-4 vẫn đưa ra thông tin sai lệch về giáo sư Turley tương tự như ChatGPT.

    "Điều này cho thấy thông tin sai lệch có thể lan truyền giữa nhiều AI" - chuyên gia của Washington Post nhấn mạnh.

    ChatGPT đã gây sốt toàn cầu kể từ khi ra mắt vào cuối năm ngoái. Cùng với đó, thời gian qua cũng có hàng loạt AI khác nhau "đua tranh nở rộ".

    Tuy nhiên, vẫn chưa có biện pháp kiểm soát cụ thể với những AI như ChatGPT, Bing hay Bard. Các trí tuệ nhân tạo này đã thu thập những nguồn dữ liệu khổng lồ trên internet.

    Sự phổ biến của AI như vậy đã đặt ra hàng loạt lo ngại về nguy cơ phát tán tin giả, cũng như các câu hỏi rằng ai phải chịu trách nhiệm khi chatbot đưa ra câu trả lời sai trái.

    "AI trả lời đầy tự tin khiến mọi người tin chúng có thể làm mọi thứ, rất khó để phân biệt giữa thực tế và thông tin sai lệch" - chuyên gia Kate Crawford, nhà nghiên cứu cấp cao tại Microsoft Research, thừa nhận.

    Người phát ngôn viên của OpenAI Niko Felix cũng đã lên tiếng thừa nhận: "Chúng tôi luôn cố gắng thể hiện sự minh bạch và phải thừa nhận ChatGPT không phải lúc nào cũng đưa ra câu trả lời chính xác. Cải thiện độ đúng đắn là ưu tiên của chúng tôi và đang có những bước tiến cụ thể".

    Tin cùng chuyên mục
    Xem theo ngày

    NỔI BẬT TRANG CHỦ