deepfake
Nhóm nghiên cứu sử dụng phương pháp dùng trong thiên văn học để phát hiện ảnh làm bằng AI
Khám phá -29/07/2024 | 19:53Phương pháp dựa trên một tiêu chí rất đơn giản.
Giới chuyên gia khuyến nghị tăng cường quản lý công nghệ deepfake
Tin ICT -22/02/2024 | 14:00Các chuyên gia trí tuệ nhân tạo (AI), trong đó có cả Yoshua Bengio - nhà nghiên cứu AI tiên phong - đã ký tên vào lá thư ngỏ kêu gọi tăng cường quản lý hoạt động sáng tạo nội dung sử dụng công nghệ giả mạo khuôn mặt (deepfake) tiềm ẩn nhiều nguy cơ cho xã hội.
Hiểm họa khôn lường của AI đối với nữ giới ở châu Á
Trà đá công nghệ -15/12/2023 | 10:15Đã xuất hiện hình ảnh của những ngôi sao điện ảnh Ấn Độ (Bollywood) mặc trang phục lycra bó sát hay video về chính trị gia người Bangladesh trong bộ đồ bikini. Tất cả đều không có thật, nhưng đã được lan truyền rộng khắp trên mạng xã hội để cư dân mạng buông ra những lời cay độc và thậm chí đe dọa giết người. Điều đó cho thấy mức độ tinh vi của trí tuệ nhân tạo (AI) và những mối đe dọa mà công nghệ này đặt ra đối với nữ giới trên khắp châu Á.
Lừa đảo deepfake và nguồn cung hình ảnh từ trò chơi ảnh chân dung AI
Trà đá công nghệ -29/10/2023 | 15:21VOV.VN - Ảnh chân dung trí tuệ nhân tạo từ trò chơi cho vui, cập nhật xu hướng hay sự vô tư “tiếp tay” tạo nguồn dữ liệu cho tội phạm mạng khai thác sử dụng trong deepfake trở thành công cụ lừa đảo.
Cuộc gọi video Deepfake lừa đảo người dùng như thế nào?
Tin ICT -22/07/2023 | 14:21Thời gian gần đây, nổi lên công nghệ giả mạo cuộc gọi video Deepfake tinh vi mà nếu không cảnh giác, rất có thể bạn sẽ trở thành “nạn nhân” tiếp theo của chiêu trò lừa đảo này.
Dấu hiệu nhận biết và cách phòng tránh lừa đảo cuộc gọi video Deepfake
Internet -01/07/2023 | 13:02VTV.vn - Có nhiều dấu hiệu giúp người dân nhận biết cuộc gọi lừa đảo Deepfake như khuôn mặt người gọi thiếu cảm xúc, hướng đầu và cơ thể không nhất quán...
Người thân gọi điện, đúng mặt, đúng giọng, nhưng nếu nói chuyện thấy những dấu hiệu này cần đặc biệt cảnh giác!
Tin ICT -25/06/2023 | 14:25Mới đây, một người phụ nữ ở Thanh Hóa đã bị lừa 350 triệu đồng sau khi tham gia một cuộc gọi video với nhóm gia đình.
Khuyến cáo lừa đảo mở tài khoản ngân hàng bằng công nghệ Deepfake
Tin ICT -15/06/2023 | 14:43Hiện nay, tình hình tội phạm lừa đảo trên không gian mạng diễn biến phức tạp, các đối tượng sử dụng thủ đoạn ngày càng tinh vi hơn. Một trong những thủ đoạn đang được nhắc đến nhiều hiện nay là công nghệ Deepfake - công nghệ ứng dụng trí tuệ nhân tạo (AI) làm giả cuộc gọi video vào mục đích lấy dữ liệu khuôn mặt.
Cảnh giác: Sử dụng AI ghép khuôn mặt, lừa đảo gần 15 tỉ đồng
Tin ICT -26/05/2023 | 21:01Kẻ xấu sử dụng trí tuệ nhân tạo (AI) ghép khuôn mặt người quen rồi nhờ chuyển tiền khiến một nạn nhân ở Nội Mông - Trung Quốc bị lừa đảo mất gần 15 tỉ đồng.
Cảnh báo lừa đảo bằng công nghệ trí tuệ nhân tạo
Tin ICT -12/05/2023 | 08:18VTV.vn - Phát sóng trực tiếp, trò chuyện khá tự nhiên - nhưng đây lại là những hình ảnh hoàn toàn do AI tạo ra.
Bộ Công an cảnh báo lừa đảo bằng công nghệ Deepfake dịp nghỉ lễ 30-4 và 1-5
Tin ICT -25/04/2023 | 11:24Bộ Công an cảnh báo các đối tượng có thể sử dụng công nghệ Deepfake để lừa đảo vào dịp nghỉ lễ 30-4 và 1-5 và kỳ nghỉ hè sắp tới
Sự thật về bức ảnh cựu TT Trump bị bắt giữ: Công nghệ Deepfake giỏi 'đánh lừa' tới đâu vẫn lộ sơ hở
Trà đá công nghệ -04/04/2023 | 10:37Các bức ảnh giả với nội dung 'cựu Tổng thống Mỹ Donald Trump bị bắt' đã thu hút tới hơn 6,4 triệu lượt xem trong một bài đăng trên Twitter.
Làm thế nào để tránh bẫy lừa đảo bằng Deepfake?
Trà đá công nghệ -30/03/2023 | 14:15VTV.vn - Lợi dụng công nghệ Deepfake là một hình thức lừa đảo vô cùng tinh vi. Do đó, người dùng cần hết sức thận trọng để tránh bị lừa bởi loại hình tội phạm công nghệ cao này.
Hàng nghìn người đã bị lừa theo cách này: Dùng deepfake giả mạo giọng nói người thân vay tiền - Nghe quá giống thật, tin tưởng chuyển tiền ngay!
Trà đá công nghệ -24/03/2023 | 15:36Đầu dây bên kia là giọng nói quen thuộc của mẹ bạn, người nhờ bạn gửi tiền vào một tài khoản lạ. Tin tưởng vào thanh âm gần gũi kia, bạn chuyển tiền mà không biết rằng mình đã bị lừa bởi công nghệ deepfake - giả mạo giọng nói như thật.
Deepfake "giả mạo khuôn mặt, giọng nói" ngày càng nguy hiểm: Đây là những cách nhận biết để tránh bị lừa đảo!
Tin ICT -24/03/2023 | 09:30Các video deepfake bắt chước khuôn mặt, giọng nói của một người giống như thật để gây hiểu lầm, yêu cầu chuyển tiền, đánh cắp danh tính.