Các gã khổng lồ công nghệ đang chạy đua trong công cuộc ngăn chặn video bạo lực phát tán trên mạng xã hội

    Tuấn Hưng,  

    Đây không phải công việc của chỉ riêng Facebook, YouTube, Google mà còn là mục tiêu của mọi nền tảng truyền thông nữa.

    Các công ty công nghệ, từ Singapore cho đến Phần Lan, đều đang đua nhau phát triển và cải tiến trí tuệ nhân tạo để chúng có thể tự động phát hiện và ngăn chặn những video bạo lực như giết người, hành hung, tự sát,… khỏi phát tán và lan rộng trên mạng xã hội.

    Thế nhưng hiện nay vẫn chưa có bất kỳ một cái tên nào lên tiếng giải quyết hoàn toàn vấn đề nan giải nói trên.

    Một người đàn ông Thái đã quay lại cảnh mình giết chết đứa con gái 11 tháng tuổi bằng live stream trên Facebook vào tuần trước chính là hồi chuông cảnh báo gần đây nhất về một làn sóng những video bạo lực được quay trực tiếp trên mạng xã hội này. Vụ việc này khiến nhiều câu hỏi được đặt ra về hệ thống báo cáo của Facebook và làm sao để những đoạn clip này bị gỡ bỏ nhanh hơn.

    Hàng loạt những ông lớn khác cũng đang chật vật với vấn nạn này, những người trong cuộc đưa tin. Google – gã khổng lồ công cụ tìm kiếm cũng đã đối mặt với nhiều vấn đề tương tự với dịch vụ YouTube của mình – và Facebook đang tìm cách giải quyết.

    Phần lớn những công ty này tập trung vào deep learning: một dạng trí tuệ nhân tạo tận dụng tối đa hiệu quả của neural networks trên máy tính. Đây là phương thức mà David Lissmyr, nhà đồng sáng lập của công ty phân tích hình ảnh và video ở Paris có tên Sightengine, phát biểu hồi năm 1950 trong nỗ lực miêu tả lại cách thức mà những neuron thần kinh hoạt động và tương tác với nhau trong bộ não.

    Thế nhưng giáo dục máy tính học bằng nhiều lớp neuron nhân tạo mới chỉ được đưa vào áp dụng trong một vài năm trở lại đây, Matt Zeiler, nhà đồng sáng lập kiêm CEO của Clarifai, một công ty phân tích video nữa có trụ sở tại New York.

    Chúng ta chỉ mới đây có sức mạnh vi tính và thu thập dữ liệu đủ để dạy những hệ thống này mà thôi, nhưng nhờ nó mà ta có thể “tạo ra những bước tiến vượt bậc về mặt chính xác và độ hiệu quả của phương thức machine learning”, Zeiler cho biết.

    Hệ thống dạy học bắt đầu với những hình ảnh được đưa vào nhờ những lớp neuron “thần kinh” của máy tính, sau đó “học” để nhận ra biên báo, nói hay một video bạo lực.

    Những hành vi bao lực bao gồm chặt chém hay liên quan đến máu me, Abhijit Shanbhag, CEO của Graymatics chịu trách nhiệm lọc video và hình ảnh cũng như nội dung cho nhiều mạng xã hội ở Châu Á, có trụ sở tại Singapore. Nếu như các kỹ sư của ông không tìm được video thích hợp để thử nghiệm cho hệ thống machine learning của mình thì họ sẽ tự quay chúng trong văn phòng.

    Zeiler nói rằng thuật toán của Clarifai còn có thể nhận diện đồ vật trong một video, và đồ vật đó có thể là hung khí như một con dao, hay một khẩu súng chẳng hạn.

    Thế nhưng vẫn còn đó giới hạn.

    Một là phần mềm này chỉ phát minh hiệu quả đối với những trường hợp video tương tự như ví dụ mà nó được học. Khi một người đàn ông quyết định treo cổ một đứa trẻ sơ sinh thì phần mềm này lại không nhận biết được bởi nó chưa được “học đến phần này.”

    “Khi người ta càng ngày càng sáng tạo ra những hành vi thô bạo và ghê tởm thì hệ thống này lại tiếp tục phải được rèn luyện thêm về ví dụ đó.” Shanbhag.

    Một điều nữa cần được đề cập đến đó là bạo lực là một thứ có tính chất chủ quan. Một cảnh được quay lại với nhịp độ nhanh cùng nhiều máu me rất dễ dàng nhận diện, Junle Wang, trưởng bộ phận nghiên cứu và phát triển của PicPurify – công ty Pháp hiện đang tiến hành phát triển phương thức phát hiện những video bạo lực mà không đổ máu hay có vũ khí. Thay vào đó là cả tra tấn về mặt tâm lý nữa, thế nhưng điều này khá là khó khăn – đồng nghiệp của ông, CEO Yann Mareschal hé lộ.

    Không chỉ vậy, có những nội dung nên được liệt kê và gây bất đồng mà không cần thiết phải có hành vi bạo lực – ví dụ như tấm lá cờ ISIS chẳng hạn – Shanbhag nói thêm. Điều này sẽ cần hệ thống được điều chỉnh tùy thuộc vào người dùng.

    Cần lắm sự giám sát của con người

    Một rào cản nữa là mặc dù tự động hóa có thể giúp đỡ, thế nhưng chúng ta vẫn phải chung tay xác minh xem nội dung bị đánh dấu là nguy hiểm kia có đúng là video bạo lực hay không, Mika Rautiainen, nhà đồng sáng lập và CEO của Valossa – công ty Phần Lan chuyên tìm kiếm và loại bỏ những nội dung không mong muốn của các khách hàng trong giới truyền thống, giải trí.

    Quả không sai, ngoài dựa trên hình ảnh của chúng thì còn phải đánh giá các yếu tố khác nữa. Ông Wang của PicPurify nói rằng sử dụng thuật toán để giám sát phản ứng của người xem – ví dụ như việc đăng tải lại video này với tốc độ nhanh chóng mặt – có thể là một khía cạnh đáng chú ý.

    Michael Pogrebnyak, CEO của Kuznech, nói rằng công ty liên hợp Nga-Mỹ của ông đã thêm vào bộ sưu tập những thuật toán có khả năng nhận biết hình khiêu dâm – hầu hết phụ thuộc vào hệ thống nhận diện da và chuyển động của camera, khả năng nhận biết logo của studio sản xuất phim và màn hình cảnh báo nội dung 18 cũng như bộ luật của FBI.

    Facebook nói rằng họ đang sử dụng công nghệ tương tự để phát hiện hình ảnh khỏa thân, bạo lực và nhiều chủ đề khác không phù hợp với chính sách của họ. Vị đại diện không đưa ra bất cứ bình luận gì khi được hỏi phần mềm này có được sử dụng cho vụ việc ở Thái hay những trường hợp giết người gần đây hay không.

    Một vài công ty nói rằng việc tích hợp công nghệ này vào sản phẩm của mình có thể chậm hơn dự kiến, phần nhiều vì chi phí phát sinh. Và họ đang nỗ lực hết mình để thay đổi điều này. Các công ty quản lý nội dung do người dùng tạo ra sắp tới sẽ chịu áp lực nhiều hơn từ chính phủ, Rautiainen của Valossa cho biết.

    “Kể cả không bị luật pháp thắt chặt, việc không sang lọc được nội dung độc hại sẽ khiến thương hiệu của họ bị ảnh hưởng ít nhiều,” Rautiainen nói.

    Theo reuters

    Tin cùng chuyên mục
    Xem theo ngày

    NỔI BẬT TRANG CHỦ